Comment réussir son projet Data

Améliorer sa proposition de valeur et sa performance opérationnelle :

La promesse de la donnée

Un projet Data dans une entreprise peut impacter positivement l’ensemble de l’organisation si celui-ci est correctement mené. Certains acteurs de l’industrie financière l’ont bien compris tels que JP Morgan qui s’appuie sur l’IA pour optimiser ses processus ou BBVA qui a gagné 33% de ses client grâce à leur stratégie digitale.

Quels bénéfices peut-on attendre de la culture Data-Centric :

  • Répondre aux attentes d’une clientèle « Digital Native » par du sur-mesure, de la transparence et de l’instantanéité
  • Prendre des décisions sur la base d’éléments factuels
  • Se démarquer de la concurrence
  • Rendre l’organisation plus flexible et favoriser l’automatisation des tâches

Pourquoi 85% de projets Data n’ont-ils pas tenu leurs promesses ?

Au sein du secteur financier, plusieurs acteurs ont lancé des projets Data qui n’ont pas tenu leur promesse malgré des budgets conséquents et des technologies mâtures.

Peu d’apport pour les métiers

  • Manque d’approche holistique de la donnée et d’approche centrée client
  • Manque de clarté sur les bénéfices business des projets Data
  • Manque de partage et de granularité de la donnée pour une exploitation optimale

Des projets trop complexes

  • Incompatibilité entre les capacités des outils disponibles et le niveau de maturité technologique des banques
  • Une conduite de changement pas adaptée à cette problématique

Des coûts trop élevés

  • Coût de développement du Data Lake et frais d’infrastructure trop important
  • ROI visible sur du long terme et rarement calculé

70% des acteurs de services financiers sont entre les niveaux “Starter” et “Beginner” sur l’échelle de maturité des organisations Data Centric

1. Starter

  • Les reportings sont réalisés manuellement sur Excel pour agréger les informations et améliorer la qualité de la donnée.
  • Les données de pilotage sont fournies mensuellement au mieux
  • Chaque requête ad hoc fait intervenir le service IT

2. Data Beginner

  • Certains besoins métiers sont traités grâce à la donnée
  • La donnée est fiable et correctement documentée (gouvernance, contrôle, data catalog, …)
  • Une gestion des droits pour garantir la protection et la sécurité de la donnée est mise en place
  • Les Data Scientists peuvent accéder à la donnée à travers une « sandbox »

3. Data Proficient

  • Les métiers peuvent automatiser leurs process, contrôles et reportings (données clients aggrégées en temps réel, portefeuille d’investissement transparisés,…)
  • Les métiers ont accès à leur reporting en mode « libre-service » (Data Vizualisation)
  • De nombreux cas d’usages de la donnée sont disponibles
  • De nouveaux ensembles de données peuvent être ajoutées facilement
  • Les métiers peuvent aisément accéder à des données récentes, les aggréger et les combiner

4. Data-Driven

  • Le management est data-driven. La prise de décision est basée sur des données temps-réel et pertinentes.
  • Des algorithmes avancés sont intégrés aux opérations permettant aux clients d’obtenir des réponses instantanées
  • Les clients obtiennent des réponses instantanées grâce à l’intégration d’algorithmes avancés dans les opérations.
  • Une plateforme Data est accessible et permet de fournir des outils de Data Self Service.
  • Les données sont fédérées pour que chacun puisse avoir accès à l’ensembles des données de l’organisation.

> Télécharger notre démarche « Data Catalog »



Du Data Lake au Data Pipeline : l’étape pour devenir Data Driven

Les Data Lakes sont des solutions coûteuses, complexes et peu scalable, ce qui ne permet pas de répondre aux besoins des métiers.

  • Impossibilité pour les métiers de récupérer des données temps-réel
  • Manque de granularité de la donnée lié au process de normalisation
  • Cas d’usage limités du fait de cette architecture
  • Création de nouveaux usages très complexes et solution peu scalable
  • Implémentation et maintenance coûteuses

Les Data Pipeline permettent aux managers de piloter leur activité à partir de données temps-réel et de passer à l’échelle leurs activités.

  • Récupération de données granulaires et en temps-réel
  • Adapter ses prises de décision au fluctuation du marché
  • Une architecture flexible pour favoriser l’expérimentation et l’agilité
  • Les métiers créent de nouvelles données et les injectent dans le pipeline de données.
  • Accessibilité de la donnée pour le métier en Self Service
  • Traitement des données en continu permettant d’en maximiser l’utilisation

Notre démarche pour une transformation Data réussie

 

  • Créer une équipe dédiée avec des compétences transverses
  • Former l’équipe aux nouvelles architectures Data et à la culture Start-up
  • Déployer à minima Pub/Sub et NoSQL
  • Créer un premier pipeline de données sur 1 ou 2 études de cas
  • Définir des KPIs pour mesurer la performance et la qualité

 

  • Mettre en place un Data Catalog pour garantir la fiabilité et la connaissance de la donnée
  • Elargir la collection de données avec des jeux de données internes et externes
  • Créer un environnement de test de données où chacun peut explorer librement les jeux de données et expérimenter en toute sécurité
  • Ajouter de nouveaux outils pour servir de nouveaux usages
  • Démontrer l’impact de votre projet en mettant en avant l’amélioration de la qualité du service

 

  • Définir un modèle d’exploitation cible où les équipes métiers sont libre d’accéder à la donnée et d’en créer
  • Définir une gouvernance de la donnée applicable à toute l’organisation
  • Créer des services de plateforme de données pour industrialiser l’infrastructure permettant de supporter les outils de self-service
  • Lancer votre stratégie API
  • Intégrer de l’IA et du Machine Learning

 

 

Nos références

Création d’outils industriels de traitement de données ESG

Data Catalog : Etude de marché et sélection d’un outil / MVP

Shareholding Disclosure (SSD)

Pour aller plus loin…

A l’ère du Digital, les acteurs de la finance ont-ils la bonne approche de la donnée ?

Par Pierre Bittner | 12.03.2019 | Article 

A “bottom up” and integrated data quality approach

Par Pierre Bittner | 04.01.2019 | Article | English version

Un projet ? En savoir plus ?