Inscrivez-vous à la Newsletter pour ne rien perdre de l'événement

Les écueils à surmonter pour devenir DataDriven

Avis d’expert par Roxane Edjlali, Senior Director, Product Management MicroStrategy

Si 94 % des organisations interrogées pour le Global State of Analytics 2020 affirment que l’analyse de la donnée est un aspect critique de leur transformation numérique, force est de constater que dans les faits, relativement peu parviennent à l’état Data Driven tant recherché. C’est entre autres choses parce que les entreprises se perdent dans les légendes construites autour des technologies et oublient de privilégier le partage de leurs données.

BigData hier, MassiveData aujourd’hui

De quoi parlait-on il y a 10 ans dans les cercles des décideurs ? Et bien l’on parlait de ce dont on discute encore aujourd’hui, de Big Data. On en parlait comme d’un nouvel Eldorado. Tout était question de volume de données, c’était l’apparition des premières distributions Hadoop, des premiers datalakes. Les entreprises cherchaient à collecter massivement de la donnée et les datascientists portaient des tshirts estampillés « My big data is bigger than yours ».

10 ans plus tard, la volumétrie des données continue à croitre. En effet IDC estime que d’ici 2025, 60% des 175 Zettabytes de données seront créées et gérées par les entreprises. A ce rythme,on imagine bien les difficultés des entreprises pour délivrer de la valeur.

Cependant ces 10 dernières années, les entreprises qui ont dû faire face à la pression de la digitalisation comme l’industrie du tourisme nous ont permis de dégager quelques grands principes qui vont continuer à s’appliquer.

The suits and the hoodies

Initialement, nombre d’entreprises ont pensé technologie avant de penser valeur de leurs données. C’est alors que sont apparus les hoodies, censés être reconnaissables à leur sweat à capuche et surtout capables d’extraire l’or des lignes de codes MapReduce qu’ils alignent. C’est ainsi que la course à la technologie et aux compétences spécialisées en data science et data engineering a débuté.

Mais ces fameux hoodies ne peuvent à eux seuls définir le nouveau business model d’une entreprise, et encore moins, de manière isolée, dégager de la valeur de la donnée qu’ils manipulent. L’erreur, répandue et pérenne, est d’exclure les métiers de la transformation digitale. Ce que certaines entreprises ayant réussi leur digitalisation nous apprennent, c’est bien que la donnée ne révèle toute sa valeur que lorsqu’elle devient disponible et que la collaboration autour d’elle est rendue possible. La technologie n’étant qu’un facilitateur de cette circulation.

Du cas d’usage à l’usage de la valeur

En revanche les hoodies ont permis de bousculer les méthodes de travail. Plutôt qu’une approche par ROI, ils mettent en place des méthodes itératives et expérimentales où la valeur est demontrée par l’usage qui est fait de la donnée. Cependant ces approches expérimentales restent couteuses et certaines entreprises continuent à être réticentes à investir dans des projets dont le retour sur investissement n’est pas connu.

Pourtant, ces 10 dernieres annees ont egalement permi de degager quelques grands principes pour delivrer de la valeur avec une approche experiementale :

  • Le choix des cas d’usages est essentiel au succès. 64 % des organismes interrogés signalent à ce titre que la valeur qu’ils ont été capables de dégager provient d’une amélioration de la productivité, d’une prise de décision facilitée et plus rapide, d’une meilleure performance financière, jusqu’à la création de nouveaux business models. Que les entreprises combinent leurs données avec celles de leurs partenaires et de leurs clients, l’essentiel tient à la façon dont elles sauront aligner leurs projets datas avec leurs objectifs de croissance.
  • Une approche « fail-fast » qui consiste à être capable de rapidement identifier si le projet ne donnera pas de résultat suffisant ou ne permettra pas de dégager de la valeur. Echouer n’est pas en soi un problème, c’est une indication qu’il faut chercher une autre voie.

La clé du succès vient de la capacité des équipes pluridisciplinaires (métiers, data science et IT) à itérer rapidement, en prenant une approche par petits pas.

Distribuer l’information de haut en bas, de bas en haut

Entre l’aspiration de devenir Data Driven et la capacité à décliner cet état en valeur métier et en processus innovants, la marge est importante. Tous les Chief Data Officer nouvellement nommés ne réussissent pas nécessairement. D’une part parce qu’ils ont la lourde charge de démarrer une stratégie nouvelle à laquelle les collaborateurs ne sont pas habitués, d’autre part parce qu’ils ont besoin d’un soutien inconditionnel de toute l’entreprise.

Or, paradoxalement, l’accès à la donnée devient de moins en moins aisé au fur et à mesure que l’on descend les étages. 81 % des équipes de management accèdent à la donnée. 76 % des exécutifs l’utilisent réellement mais seulement 52 % des employés la trouvent de façon simple, eux qui, sur le terrain, prennent des décisions chaque jour.

L’on constate que dans 79 % des cas, les métiers présentant un besoin d’analytic doivent faire appel soit à l’IT soit à un analyste. Seuls 7 % des métiers emploient un outil de selfservice. L’écrasante majorité des collaborateurs choisit de réagir intuitivement à une situation exigeant de l’information documentée, sûre et validée. Une information que l’entreprise détient pourtant.

Certes l’ambition de toute entreprise de devenir data-driven doit inclure un programme de data literacy visant à accroitre les compétences en analyse de données de l’ensemble des collaborateurs, mais ces programmes vont mettre du temps à porter leurs fruits alors qu’en parallèle la complexité de la donnée collectée va croitre.

C’est pourquoi garantir la mise à disposition de données pertinentes à l’ensemble des utilisateurs dans leur environnement applicatif familier (email, ERP, mobile…) est essentiel au succès. Fournir les informations pertinentes aux utilisateurs dans 80% des cas devient la clé de voute de la culture data-driven.

Les effets à venir d’une data en pleine ascension

Le paysage de l’analyse de la donnée ne va pas cesser de croître. Il faudra alors apprendre à en gérer la complexité à venir, via des choix stratégiques portant notamment sur la plus grande ouverture possible des systèmes. Nombre d’entreprises sont déjà engagées dans des stratégies cloud, mais il sera difficile de garantir l’usage d’un seul cloud ou d’un ensemble de service limité. Après une ère de stack vendor lock-in viendra une ère de cloud lock-in. Pourtant les entreprises seront souvent prises dans des choix multi-clouds résultant de stratégies régionales ou de besoins d’analyse spécifiques.  La capacité des solutions d’analyse de données de s’adapter à ces environnements en silo et à géométrie variable en fonction des cas d’usages sera essentiel à la pérennité des solutions.

Il faudra en outre savoir adresser une très grande variété d’utilisateurs, principalement par un accès qui s’adaptera aux différents niveaux de compétences. Notons d’ailleurs qu’il n’est pas du tout certain que la montée en compétences en analytic saura s’aligner sur la vitesse de complexification.

La capacité à modéliser la méta donnée sera alors d’autant plus critique que la donnée devient complexe. Où se trouve-t-elle ? Que signifie-t-elle ? Qui l’utilise et où, dans quel but ? La compréhension de la donnée et la notion de graph sémantique prendront une importance capitale dans les années à venir. La capacité à comprendre la donnée s’appuie sur une description partagée, un vocabulaire qui permettra de collaborer efficacement autour de l’usage et de l’enrichissement de l’information.

Pour aller plus loin : Téléchargez votre version gratuite du rapport Global State of Analytics 2020

Leave a Reply