Inscrivez-vous à la Newsletter pour ne rien perdre de l'événement

5 tendances Data pour 2020

Par Stéphane Briffod, Directeur Avant-Vente Europe centrale, Qlik

Pour parvenir à transformer la multitude de sources de données disponibles en véritable opportunité pour l’entreprise, l’analyse des données ne suffit plus. Il faut à la fois procéder à leur synthèse et à leur analyse pour relier les données distribuées à la chaîne analytique, en utilisant les catalogues de données comme connecteur. Si nous disposons aujourd’hui de la technologie, cette dernière doit également être accompagnée des bons processus et des personnes compétentes. La synthèse et l’analyse sont deux éléments essentiels pour tirer parti de l’omniprésence des données et faciliter la transition vers la constitution d’une « mosaïque de données ».

Voici un extrait des 10 tendances majeures qui devraient s’imposer au cours de l’année à venir.

Du Big Data au « Wide Data »

Le terme de « Big Data » est un concept dont la définition varie selon les entreprises. Une façon de définir le Big Data serait de le concevoir comme le volume au-delà duquel les technologies existantes ne sont plus adaptées.

Dès lors qu’il est nécessaire de changer les infrastructures pour pouvoir traiter de plus gros volumes de données, alors on peut considérer qu’il s’agit d’un enjeu de type Big Data. Cette difficulté a néanmoins disparu avec la capacité infinie de stockage du cloud. Il est désormais très simple d’effectuer une indexation et une analyse au sein des bases de données, et des outils permettent de migrer les données au bon endroit. Il ne reste rien de la dimension mystique des données : la consolidation et la disparition rapide des distributeurs Hadoop en 2019 en sont le premier signal.

Le prochain enjeu sera les données très distribuées, ou « wide data » en anglais. Les formats de données sont de plus en plus variés et fragmentés. De ce fait, le nombre de bases de données adaptées à différents types de données a plus que doublé, de 162 en 2013 à 342 en 2019[1]. Les entreprises capables d’obtenir des synthèses de ces données fragmentées et de ces sources de données variées n’auront plus de difficultés à gérer les big data et auront un véritable avantage concurrentiel sur leur marché.

[1] https://db-engines.com/en/ranking

Allier DataOps et analytique en libre-service pour plus d’agilité

L’analytique en libre-service a permis de donner aux utilisateurs métiers des réponses plus proches de leurs besoins. Pourtant et jusqu’à maintenant, la gestion des données ne bénéficiait pas de ce même niveau d’agilité. C’est pourquoi le DataOps a été introduit. Cette méthodologie automatisée est axée sur les processus et est destinée à améliorer la qualité et à réduire le cycle de gestion des données pour l’analyse. Elle met l’accent sur une livraison continue en tirant partie des ressources IT existantes, et en automatisant les tests et le déploiement des données. Elle est facilitée par des technologies comme l’intégration en temps réel des données, le change data capture (CDC) et le streaming de pipelines de données. Grâce au DataOps, il est possible de mettre à la disposition des utilisateurs métiers 80% des données de base de manière systématique, et même de leur proposer, pour des besoins ponctuels, la préparation des données en libre-service. Avec le DataOps du côté de l’opérationnel et l’analytique en libre-service du côté de l’utilisateur métier, il est possible d’assurer la fluidité de l’ensemble de la chaîne de valeur reliant synthèse et analyse.

Le rôle essentiel des catalogues de métadonnées actifs 

Dans un contexte où les entreprises peinent encore à trouver, à inventorier et à synthétiser des données très distribuées et variées, la demande de catalogues de données est en forte hausse. En 2020, les catalogues de métadonnées seront enrichis de l’IA qui permettra de faire passer cette tâche colossale d’une démarche passive à une démarche active, adaptative et changeante. Ces catalogues serviront de connecteurs et de gouvernance pour l’agilité offerte par les DataOps et l’analytique. Ils impliquent aussi la personnalisation de l’information, qui est la clef pour générer des enseignements pertinents et du contenu personnalisé. Mais pour que cela soit possible, un catalogue ne doit pas fonctionner uniquement « au sein » d’un outil analytique, mais doit intégrer l’ensemble fragmenté des outils présents dans la plupart des entreprises.

La data literacy as a service : la solution pour démocratiser les usages de la data

Déployer des outils et espérer que les utilisateurs les adoptent ne suffit plus. Pour parvenir à dépasser les 35% de taux d’adoption de l’analytique, qui est la norme pour le secteur, il faut aider les individus à acquérir la confiance nécessaire pour lire, utiliser analyser et communiquer avec les données. En 2020, les entreprises s’attendent à voir la data literacy (ou datalphabétisation en français) se développer, et cherchent des fournisseurs pour les aider dans cette démarche. Comment ? Grâce à un partenariat combinant logiciel, formation et support, proposés as a service, et axé sur les résultats. Cet objectif devrait permettre d’atteindre les 100% de taux d’adoption, ce qui faciliterait l’alliance entre le DataOps et l’analytique en libre-service et contribuerait à faire en sorte que les données influent systématiquement dans les prises de décisions

Pourquoi ne pas “Shazamer” les données ?

Tout le monde connaît Shazam, application permettant d’enregistrer une mélodie pour en identifier la chanson. Plus récemment, cette technique a été élargie à de nouveaux cas d’utilisation, comme le fait de pouvoir acheter des vêtements à partir d’une simple photo, ou de pouvoir identifier des plantes ou des animaux. En 2020, les cas d’utilisation liés au fait de « shazamer » les données se multiplieront en entreprise, en imaginant, par exemple, « shazamer » une source de données pour en obtenir des informations sur son origine, ses utilisateurs, la qualité des données et la part des données ayant été modifiées.

Les algorithmes aideront les systèmes analytiques à prendre les empreintes digitales des données, identifier des anomalies et des enseignements, et suggérer des données à ajouter. Le processus d’analyse sera ainsi simplifié, et il sera possible de consommer les bonnes données au bon moment.

Vous pouvez accéder à l’intégralité des 10 prédictions 2020 en téléchargeant l’e-book « L’analytique seule ne suffit plus ».

Leave a Reply