Comment réussir son projet Data
Améliorer sa proposition de valeur et sa performance opérationnelle :
La promesse de la donnée

Un projet Data dans une entreprise peut impacter positivement l’ensemble de l’organisation si celui-ci est correctement mené. Certains acteurs de l’industrie financière l’ont bien compris tels que JP Morgan qui s’appuie sur l’IA pour optimiser ses processus ou BBVA qui a gagné 33% de ses client grâce à leur stratégie digitale.
Quels bénéfices peut-on attendre de la culture Data-Centric :
- Répondre aux attentes d’une clientèle « Digital Native » par du sur-mesure, de la transparence et de l’instantanéité
- Prendre des décisions sur la base d’éléments factuels
- Se démarquer de la concurrence
- Rendre l’organisation plus flexible et favoriser l’automatisation des tâches
Pourquoi 85% de projets Data n’ont-ils pas tenu leurs promesses ?
Au sein du secteur financier, plusieurs acteurs ont lancé des projets Data qui n’ont pas tenu leur promesse malgré des budgets conséquents et des technologies mâtures.
Peu d’apport pour les métiers
- Manque d’approche holistique de la donnée et d’approche centrée client
- Manque de clarté sur les bénéfices business des projets Data
- Manque de partage et de granularité de la donnée pour une exploitation optimale
Des projets trop complexes
- Incompatibilité entre les capacités des outils disponibles et le niveau de maturité technologique des banques
- Une conduite de changement pas adaptée à cette problématique
Des coûts trop élevés
- Coût de développement du Data Lake et frais d’infrastructure trop important
- ROI visible sur du long terme et rarement calculé
70% des acteurs de services financiers sont entre les niveaux “Starter” et “Beginner” sur l’échelle de maturité des organisations Data Centric
1. Starter
- Les reportings sont réalisés manuellement sur Excel pour agréger les informations et améliorer la qualité de la donnée.
- Les données de pilotage sont fournies mensuellement au mieux
- Chaque requête ad hoc fait intervenir le service IT
2. Data Beginner
- Certains besoins métiers sont traités grâce à la donnée
- La donnée est fiable et correctement documentée (gouvernance, contrôle, data catalog, …)
- Une gestion des droits pour garantir la protection et la sécurité de la donnée est mise en place
- Les Data Scientists peuvent accéder à la donnée à travers une « sandbox »
3. Data Proficient
- Les métiers peuvent automatiser leurs process, contrôles et reportings (données clients aggrégées en temps réel, portefeuille d’investissement transparisés,…)
- Les métiers ont accès à leur reporting en mode « libre-service » (Data Vizualisation)
- De nombreux cas d’usages de la donnée sont disponibles
- De nouveaux ensembles de données peuvent être ajoutées facilement
- Les métiers peuvent aisément accéder à des données récentes, les aggréger et les combiner
4. Data-Driven
- Le management est data-driven. La prise de décision est basée sur des données temps-réel et pertinentes.
- Des algorithmes avancés sont intégrés aux opérations permettant aux clients d’obtenir des réponses instantanées
- Les clients obtiennent des réponses instantanées grâce à l’intégration d’algorithmes avancés dans les opérations.
- Une plateforme Data est accessible et permet de fournir des outils de Data Self Service.
- Les données sont fédérées pour que chacun puisse avoir accès à l’ensembles des données de l’organisation.
> Télécharger notre démarche « Data Catalog »
Du Data Lake au Data Pipeline : l’étape pour devenir Data Driven
Les Data Lakes sont des solutions coûteuses, complexes et peu scalable, ce qui ne permet pas de répondre aux besoins des métiers.

- Impossibilité pour les métiers de récupérer des données temps-réel
- Manque de granularité de la donnée lié au process de normalisation
- Cas d’usage limités du fait de cette architecture
- Création de nouveaux usages très complexes et solution peu scalable
- Implémentation et maintenance coûteuses
Les Data Pipeline permettent aux managers de piloter leur activité à partir de données temps-réel et de passer à l’échelle leurs activités.

- Récupération de données granulaires et en temps-réel
- Adapter ses prises de décision au fluctuation du marché
- Une architecture flexible pour favoriser l’expérimentation et l’agilité
- Les métiers créent de nouvelles données et les injectent dans le pipeline de données.
- Accessibilité de la donnée pour le métier en Self Service
- Traitement des données en continu permettant d’en maximiser l’utilisation
Notre démarche pour une transformation Data réussie
- Créer une équipe dédiée avec des compétences transverses
- Former l’équipe aux nouvelles architectures Data et à la culture Start-up
- Déployer à minima Pub/Sub et NoSQL
- Créer un premier pipeline de données sur 1 ou 2 études de cas
- Définir des KPIs pour mesurer la performance et la qualité
- Mettre en place un Data Catalog pour garantir la fiabilité et la connaissance de la donnée
- Elargir la collection de données avec des jeux de données internes et externes
- Créer un environnement de test de données où chacun peut explorer librement les jeux de données et expérimenter en toute sécurité
- Ajouter de nouveaux outils pour servir de nouveaux usages
- Démontrer l’impact de votre projet en mettant en avant l’amélioration de la qualité du service
- Définir un modèle d’exploitation cible où les équipes métiers sont libre d’accéder à la donnée et d’en créer
- Définir une gouvernance de la donnée applicable à toute l’organisation
- Créer des services de plateforme de données pour industrialiser l’infrastructure permettant de supporter les outils de self-service
- Lancer votre stratégie API
- Intégrer de l’IA et du Machine Learning
Nos références
Création d’outils industriels de traitement de données ESG
Data Catalog : Etude de marché et sélection d’un outil / MVP
Shareholding Disclosure (SSD)
Pour aller plus loin…

A l’ère du Digital, les acteurs de la finance ont-ils la bonne approche de la donnée ?
Par Pierre Bittner | 12.03.2019 | Article

A “bottom up” and integrated data quality approach
Par Pierre Bittner | 04.01.2019 | Article | English version