Tendances 2019 : les 5 évolutions à ne pas manquer

Difficile d’aborder une nouvelle année sans se prêter au délicat exercice des prévisions. Dans le domaine de la Data & Analytics, les choses évoluent très vite. La data devient une source de pouvoir et elle est détenue par un nombre restreint d’entreprises qu’il est difficile de contourner. GAFAM et autres BATX se partagent le monde et nourrissent leurs algorithmes des immenses volumes de données qu’ils récoltent. Cette situation est inquiétante puisque l’usage abusif des données, craint par ceux qui luttent contre cette hégémonie, a déjà été démontré.

Pour lutter, il est essentiel aujourd’hui que les entreprises de tous secteurs et de toutes tailles mettent en place les systèmes qui leur redonnent le pouvoir. La question de la centralisation ou la décentralisation des données et de l’analytics et de la démocratisation de l’accès à cette donnée, représente sans doute l’une des problématiques les plus cruciales pour l’évolution de la société.

Voici 5 tendances qui montrent que les choses peuvent changer.

1. De nouveaux indicateurs pour faire progresser la Data Literacy

Les entreprises ont pris en compte les lacunes de leurs employés en termes de culture de la donnée (Data Literacy). Tout le monde n’est pas capable de lire, utiliser, analyser et argumenter avec les données, mais mesurer l’étendue de ces lacunes n’est pas simple.

En 2019, de nouvelles méthodes de mesure de la Data Literacy vont se développer, et permettre de mieux cibler les compétences à développer pour améliorer la culture de la donnée des employés. Il existe d’ailleurs déjà des outils de diagnostic, et leur usage a montré que le niveau de Data Literacy de l’entreprise est directement corrélé à ses performances sur des indicateurs tels que tels que la marge brute, le rendement des actifs, le rendement des capitaux propres et le rendement des ventes (cf. le Data Literacy Index : https://thedataliteracyproject.org/ ). Appuyer ses décisions sur la donnée ne peut que faire progresser l’entreprise, mais il faut pour cela être à l’aise avec l’analyse et l’exploitation des données.

2. L’analytics embarquée optimise les processus métiers

Intégrer l’analyse dans les processus de l’entreprise n’est pas nouveau, mais cette tendance va s’étendre en 2019. Tout d’abord parce qu’elle correspond à une demande des utilisateurs, car elle permet d’exploiter les données en temps réel, et de les utiliser pour une prise de décision immédiate.

L’IA et le Machine Learning vont accélérer cette tendance en procurant des perspectives contextualisées et en suggérant les actions à entreprendre. Nous verrons ainsi se développer « l’analytics en continu » capable de traiter les données en temps réel pour prescrire les actions en réponse à des situations métier.

3. La vision unifiée de toutes les données devient une réalité

Obtenir une vue unifiée de l’ensemble des données a toujours été un challenge, et cette situation ne s’améliore pas, compte tenu de la progression du nombre de sources de données, qui sont véhiculées dans des formats et à des vitesses variées.

Toutefois, les fournisseurs commencent à s’unir dans le but de normaliser les modèles de données, en particulier pour ce qui concerne les données dans le cloud. On constate d’autre part l’émergence de catalogues de données, qui proposent, via un hub, une vue unique de toutes ces données fédérées à la manière d’une place de marché. Plus les utilisateurs partageront, collaboreront et se serviront du hub, plus celui-ci deviendra une ressource précieuse pour l’entreprise.

4. L’IA décuple le pouvoir de l’humain

Les avis divergent sur les risques de l’IA concernant les emplois mais, selon Gartner, en 2020, elle créera plus de postes qu’elle n’en détruira. Il faut aussi penser qu’il existe un écart énorme entre la quantité de données créées, et la capacité humaine à traiter ces données. Beaucoup d’entreprises ne sont pas non plus équipées avec les outils analytiques qui pourraient les aider dans cette tâche.

L’IA peut aider à éliminer les goulets d’étranglement dans la chaîne de valeur des informations, de la collecte des données à leur préparation, en les analysant d’un point de vue critique avec moins de biais et en présentant des résultats contextuels. Il en résultera plus de pouvoir pour l’humain. Grâce à l’IA, les utilisateurs auront plus de temps à consacrer à ce qu’ils font le mieux, à savoir l’examen des problèmes complexes en fonction du contexte et la possibilité d’établir des liens non évidents via leur intuition et leur empathie.

5. Les plateformes évoluent vers une approche intégrée, combinant multi-cloud, cloud hybride et edge computing

Reste la question du lieu où sont stockées les données. De plus en plus d’entreprises choisissent le cloud, mais une centralisation chez un seul fournisseur peut mener à une dépendance, avec les coûts finaux associés, et moins de flexibilité face aux politiques et aux règlements sur la protection des données. Beaucoup adoptent donc une approche hybride en conservant la capacité de calibrer les données de manière centrale et de les distribuer vers de multiples clouds.

L’edge computing offre un complément décentralisé aux datacenters et au cloud. Ce modèle est souvent favorisé pour des raisons de latence, de confidentialité et de sécurité. Avec les nouvelles plateformes analytics, il sera possible de gérer les données, les workloads et les usages distribués dans des modèles multi-cloud, hybrides et edge en tant qu’ensemble cohérent.

Grâce à toutes ces évolutions, la démocratisation des données est en marche et l’analytics se rapprochera des usages des technologies grand public. Les collaborateurs dans l’entreprise, à tous les niveaux, seront de mieux en mieux formés à l’exploitation de la donnée, ce qui rendra leur entreprise plus performante.

Qlik sera présent au salon Big Data, et animera un webinaire le 30 janvier à 15H30.

Leave a Reply