L’exploitation de la donnée à la portée de tous

Par Gael LE DILY, Manager, en charge des offres “Pilotage” et “Transformation” ainsi que de la direction technique

Et Tanguy AURORE, Consultant

 

 

La tendance est à la multiplication des données. Elles proviennent de sources très hétéroclites, allant de chaînes de production à de la navigation Web. L’analyse de ces données aura d’autant plus de valeur opérationnelle pour l’entreprise que les supports utilisés permettront de partager le même socle d’étude, de suivi et d’échange des résultats.

La Data Visualisation permet de partager facilement cette expérience autour de la donnée. En complément de ses fonctions de représentation et de visualisation des données, des fonctionnalités plus avancées peuvent être disponibles (exploration avancée des données avec du « datacrunching », de la modélisation ou requête en langage naturel).

Son intégration au sein d’une entreprise nécessite de partager une vision centralisée des données et d’avoir des experts dédiés, aussi bien fonctionnellement que techniquement ; en effet la Data Visualisation fait pleinement partie  de la Data Science, c’est une expertise et un savoir-faire à part entière avec des équipes dédiées !

Pour répondre aux besoins métiers de façon efficiente, il est nécessaire de se poser certaines questions dont les réponses seront déterminantes. Bien que non exhaustives, détaillons les questions essentielles :

Quelle problématique ?

L’application doit répondre à une (et une seule !) problématique simple, concise et précise.

La facilité consisterait à vouloir répondre à un maximum de questions lors de l’élaboration de l’application. Ces « fourre-tout » ne répondront pas aux besoins d’analyse et de pilotage avec des indicateurs précis et lisibles, et ne donneront pas une bonne image de la Data Visualisation. A vouloir satisfaire le plus grand nombre, l’application ne sera utilisée que pour quelques métriques ou graphiques épars mais les utilisateurs ne se l’approprieront pas.

Quel public ?

Les fonctionnalités de l’application et son design doivent être adaptés au public cible. La maitrise de la connaissance des données et du sujet traité aidera à définir le niveau de technicité de l’application. Les utilisateurs finaux ne sont pas toujours habitués à manipuler des données, il faut donc que l’outil puisse s’adapter. Cette prise en compte de la maturité « data » et « techno »  participera à l’anticipation de l’accompagnement de l’appropriation des applications.

Quel périmètre data et quelle fréquence ?

Dans de nombreux secteurs, les sources de données sont variées et avec des niveaux d’accès hétérogènes. Il faudra donc s’assurer en premier lieu de l’existence de connecteurs entre la solution envisagée et les différentes sources de données à intégrer (bases de données relationnelles ou NoSQL, fichiers Excel, système industriel, …) ou la possibilité d’une solution technique réalisable.

La notion de mise à jour des données aura également une incidence forte sur l’architecture technique de l’application et son coût de développement, de la conception à l’industrialisation. Il est souvent demandé par les équipes métiers d’avoir du temps réel, mais il est fréquent de se rendre compte après analyse que ce n’est pas nécessaire.

Quelles métriques et quels axes d’étude ?

Véritable ossature du rapport, les métriques doivent être discutées dès les premiers échanges avec les équipes métiers tout en s’autorisant l’intégration de nouvelles données au fur et à mesure de la conception. Chaque métrique doit être clairement définie ; la création d’un référentiel d’entreprise est une bonne pratique afin d’éviter des indicateurs ayant les mêmes libellés mais des définitions différentes.

Bien que fastidieuse, la spécification précise des règles de gestion des indicateurs et la définition des axes d’analyses permettra également aux développeurs d’être en conformité avec les attentes métiers. Ces spécifications définiront le modèle de données et les sources de données à intégrer.

Quels types de graphiques ?

Il existe souvent des représentations spécifiques pour un indicateur : un tunnel de conversion dans le digital, ou simplement une visualisation totalement personnalisée pour représenter les données issues de capteurs.

Si les visuels souhaités sont simples (histogrammes, courbes, tableaux), il peut être intéressant de s’orienter vers une solution « clic-bouton ». Au contraire, certaines visualisations nécessiteront souvent un travail spécifique (radar charts, diagramme de sankey, …), qui pourront être plus facile à développer avec des outils basés sur du code (R, Python, D3.js).

L’identification des représentations graphiques et de leur faisabilité au plus tôt dans le projet évitera un sentiment déceptif lors de la présentation des maquettes et orientera le choix de l’outil.

Ddiagramme de Sankey

Quel niveau d’interaction ?

Il est important de comprendre à quel niveau les utilisateurs ont besoin de pouvoir interagir avec la donnée. Le choix d’une visualisation statique, interactive, voire modifiable par l’utilisateur aura également de fortes implications sur la solution retenue.

Quel niveau de sécurisation/confidentialité ?

Communiquer dès le départ avec les équipes informatiques et sécurité, de même que les administrateurs des bases de données permettra de s’assurer de l’accessibilité des données, et de la politique à laquelle devra se conformer l’outil mis en place.

Ces notions de sécurité auront un impact sur la conception de l’application et son intégration dans l’architecture technique de l’entreprise.

Les solutions développées peuvent être exploitées sur de multiples supports : smartphone, site Web, écrans au sein d’un open space…

Responsive Design : une même application qui s’adapte à tous les supports

Des outils éditeurs ou Open Source peuvent être « responsives » nativement pour s’adapter à ces différents formats alors que d’autres nécessiteront des développements supplémentaires.

Pour résumer ?

Chaque projet de Data Visualisation est unique. Le cadrage des projets réalisés pourra amener les entreprises à sélectionner des outils en fonction de leur budget ainsi que de leurs ressources et contraintes techniques. C’est pourquoi il est important de capitaliser sur l’ensemble des expériences de l’entreprise pour mener une démarche globale autour de la Data Visualisation avec une méthodologie générale éprouvée.

La création d’une communauté de Data Visualisation au sein de l’entreprise pourra booster l’adoption des réalisations et la montée en compétence à travers des présentations ou la mise à disposition de supports d’échanges.

Progressivement, les utilisateurs s’approprieront la culture de la donnée et son exploitation.

Leave a Reply