Tirer parti du Big Data c’est maîtriser la Data, toute la Data, pour en extraire toute la valeur d’usage

Piloter son activité, c’est en permanence aligner la quête de performance positive avec l’exigence de mettre les risques sous contrôle. Mesurer, anticiper, prévoir, se donner les meilleurs points de vue pour comprendre, agir et réagir :  l’information utile est faite de données parfaitement maitrisées à la fois dans leur contexte de captation et dans leurs formules de transformation.
Plus un processus quelconque est digital, plus il génère de la Data qui documente son exécution, et plus il est facile de le piloter par l’exploitation de cette Data. Plus encore, en tentant de la mixer à de la Data qui lui est exogène mais contemporaine, on peut comprendre les interactions de ce processus avec son écosystème, qui devient lui-même de plus en plus digitalisé. C’est donc l’hyper-traçabilité numérique d’une pléthore d’évènements dans le temps, qui donne sa pertinence à l’exploitation du Big Data.
Certes, le volume, la vitesse d’émission, la complexité et la diversité des formats ont exponentiellement gonflé les difficultés techniques du traitement de la Data, mais près de dix ans après l’émergence du « buzz », tout le monde sait bien que les vrais enjeux ne sont pas seulement technologiques. Et fondamentalement l’essentiel repose sur la capacité des organisations à définir leurs problèmes, prendre en compte les données qui concernent ces problèmes, en tirer les meilleures découvertes de valeur nouvelle et d’en industrialiser les usages. En bref, s’organiser et s’outiller pour en profiter pleinement. Dans le challenge initial de maitriser la Data, l’évolution forcenée du digital a introduit le Big Data, et pour ceux qui n’avaient pas compris cet enjeu lorsque les données étaient simples et « à portée de tableur », la marche à gravir d’un seul coup peut s’avérer brutale.
Micropole évolue au cœur de la Data et du Digital depuis plusieurs décennies, et comme le sujet est riche, nous avons développé des points de vue sur tous les angles techniques, fonctionnels et organisationnels qui sont devenus une évidence pour nous, mais qu’il faut encore systématiser pour que l’expérience serve au plus grand nombre.
Nous considérons que pour réellement tirer profit de ses données, la maturité de l’entreprise repose sur 3 piliers fondamentaux qui impliquent de nombreux profils de responsabilité et que chaque organisation doit se mesurer par rapport à chacun d’eux :


DATA GOVERNANCE (selon Eliott Mourier, expert Data Governance and Privacy)

Si la valeur stratégique des données ne fait aujourd’hui plus de doute au sein des organisations, leur volume exponentiel, la multiplicité des sources et la complexité croissante de leurs traitements font de la gouvernance de ces données un aspect incontournable d’une bonne stratégie Data et, a fortiori, d’une initiative Big Data. Qu’il s’agisse de cartographier et de définir les données (architecture d’entreprise, glossaires, dictionnaires) ; d’en maîtriser les flux et les transformations (data lineage, API management) ; de clarifier les rôles et responsabilités (data owners, data stewards, data custodians, etc.) ainsi que les procédures et règles d’utilisation ; d’accroître la qualité des données (data quality management) ou encore de créer des référentiels fiables sur les données maîtres dans le SI (master data management) ; la data governance s’attache à créer les conditions d’un usage maîtrisé de la data, porteur de valeur et d’optimisation opérationnelle pour l’organisation.
Cette mise sous contrôle des données apparait aujourd’hui d’autant plus indispensable qu’un nombre croissant de règlementations exigent désormais des entreprises une meilleure qualité de leurs données stratégiques (Solvency II, BCBS239), davantage de garanties quant à leur sécurisation (directive NIS) et une gestion transparente et conforme des données personnelles (GDPR, E-privacy). Des aspects que la gouvernance et le management des données peuvent grandement contribuer à fluidifier.

DATA LAB (selon  Matthieu Burel, manager Smart Analytics)

Le Data Lab est aujourd’hui la pierre angulaire d’une stratégie Data d’entreprise tournée vers la quête de valeurs nouvelles. Il vise à démocratiser et multiplier l’expérimentation Métier, à « matérialiser » les nouveaux concepts, solutions et use-cases autour de la Data et bien évidemment, à en démontrer la valeur par le ROI.
Le Data Lab peut s’apparenter d’une certaine manière à un incubateur technologique au sein de l’entreprise, un espace où riment agilité, innovation et pluridisciplinarité des compétences ; il repose sur trois piliers : méthodologies, outils et compétences.
Notre approche de « Collaborative Intelligence » vise justement à « outiller » le Data Lab technologiquement, méthodologiquement et humainement. L’objectif est de rendre possible l’idéation et le prototypage pour faire émerger des use-cases Métier nouveaux, voire disruptifs, en combinant les savoir-faire de Smart Analytics : Data Visualisation, Data Preparation, DataScience, Intelligence Artificielle…
Mais au-delà du rêve suscité, de la magie attendue …  et des constats d’échecs nécessaires, c’est bien avec une volonté de mise en production des succès avérés que seront pensées les nouvelles solutions.
La clef du succès du Data Lab est donc une approche organisée en cycles rapides alternant expérimentation, qualification et enfin industrialisation.

DATA PLATFORM (selon Emmanuel Manceau, directeur Data Intelligence)

Les entreprises découvrent progressivement que plus un seul format de données ne peut être laissé pour compte dans une considération globale de la Data. Elles découvrent aussi qu’il faut admettre de nombreux états de stockage, de sécurité et d’habilitation entre les différents niveaux d’usage, et donc de raffinage, de la donnée. A plus forte raison si la donnée maitrisée doit être ingérée, traitée et exposée sous forme d’une information qualifiée, de manière industrielle. L’Enterprise Data Platform remplit ce rôle : elle rend possible tous les usages qualifiés de la donnée, avec une robustesse de production, de sécurité, mais aussi d’évolutivité, adaptée à chaque organisation.
Il faut éviter de considérer l’EDP sous l’angle d’un inventaire de technologies et de fonctionnalités techniques qui serait sa seule raison d’être, et aussi qu’elle serait une combinaison universelle pensée par des geeks. Elle correspond à un schéma d’urbanisme et d’architecture qui obéit à une maturité de l’entreprise, à transformer plus de data qualifiée en information utile à sa performance et à son amélioration continue. L’EDP requiert à la fois des compétences d’architecture, de modélisation, de développements techniques de toutes natures, de production informatique et d’intégration agile, voire continue.
L’évolution rapide des technologies force à une maîtrise des infrastructures et de piles logicielles exubérantes et souvent instables qui mettent à risque l’engagement de ses concepteurs et exploitants, tout en générant des coûts difficiles à maitriser dans des contextes IT classiques « on prem’ ».
Donc la tentation d’une EDP dans le Cloud, motivée par la rapidité de mise en œuvre, la facilité de configuration, d’ajustement dynamique des plateformes et une promesse économique alléchante, a peu à peu gommé la crainte-panique des données « exposées sur le web».
Et si le chantier technique est déjà un challenge ; l’enjeu de ressources humaines et de leur adaptation permanente dans un contexte tendu de recrutement et de formation, est un casse-tête. Heureusement, l’enrichissement croissant d’offres PaaS des grands fournisseurs du Cloud éclaircit un horizon assombri par la complexité technique, la rareté des compétences et les contraintes de conformité diverses.

Leave a Reply