Interview : Anthony Libor, Vice Président Data Analytics JEMS datafactory

Anthony Libor, Vice Président Data Analytics JEMS datafactory

On entend beaucoup parler de projets Vision 360 en ce moment, c’est une nouvelle tendance ?

Centraliser l’information clients n’est pas vraiment une nouvelle tendance. J’ai des exemples de projets d’entrepôts de données clients lancés il y a près de 15 ans chez des clients. A cette période, l’informatique décisionnelle permettait de répondre déjà à des problématiques de « pilotage de la performance commerciale ». Ces entrepôts centralisaient les données issues des différentes applications sources, progicielles ou applications métiers en offrant chacune une approche parcellaire du parcours client, en silo. Données permettant tantôt de calculer des KPIs de vente, tantôt d’effectuer des opérations marketing sur la base de l’analyse des transactions clients.

Alors qu’est-ce qui a changé ?

D’un point de vue métier, c’est tout d’abord la démultiplication des points de contact avec les clients finaux qui a évolué, modifiant radicalement le comportement d’achat et par conséquent le cycle de vente.

Les possibilités d’entrer en contact avec le client se sont démultipliées avec le développement d’internet, des sites e-commerce, l’irruption des technologies mobiles, en plus des points de contact déjà existant – points de vente physiques, supports traditionnels ; Maintenir la relation client dans le temps est donc devenu un enjeu majeur pour les directions métiers de nos clients.

Par conséquent, disposer d’un référentiel client unique vision 360 devient un fondement critique d’une politique Data Driven !

Pouvez-vous nous en dire plus sur le changement de processus d’achat ?

Je pense, dans le jargon marketing, à l’expression ROPO (research on line purchase off line), assez significative des comportements d’achats des dernières années. Où les consommateurs peuvent trouver des informations produits sur le net, aller voir le produit en magasin avant de prendre ou non la décision de l’acheter. Pour maximiser l’acte d’achat et à la fois minimiser l’effet ROPO, les directions marketing ont axé leur stratégie sur des programmes marketing d’acquisition / fidélisation client. En accentuant la connaissance des comportements de leurs clients, et en ayant une communication davantage personnalisée.

L’enjeu dépasse d’ailleurs largement les problématiques CRM : La donnée est notre fil d’Ariane dans la compréhension globale du parcours client, mais aussi sa relation à la Marque.

Par ailleurs, la gouvernance de la donnée oblige les organisations à se repenser.

Il ne s’agit donc plus seulement de traiter d’un processus transverse (le parcours client) mais, avec notre approche Data Driven, de transformer en profondeur les organisations pour une synergie entre les différentes directions métiers (communication, logistique, conformité, qualité, etc.).

Qu’est-ce qui tend à amener ce type de projet vers les technologies Big Data ?

On parle de vision 360 client ou de vision Cross-Canal, car nous exploitons en tant que source d’enrichissement de la connaissance client aussi bien les sites internet ou e-commerce (données de navigation) les données de campagnes marketing ou les données massives non structurées issues des réseaux sociaux.

La technologie permet cela.

Les architectures ont progressivement migré vers les technologies Big Data, avec l’augmentation exponentielle des volumes de données, conjuguées à leur hétérogénéité (nous ne travaillons plus sur le seul périmètre de l’information structurée) ; on considèrera également les besoins éventuels d’adresser nos clients au plus tôt, en réalisant des actions business en temps réel.

Le Data Lake devient alors le point de centralisation et de propagation de l’information client réconciliée. Et un élément important d’architecture dans les trajectoires Data Centric de nos clients.

Dans cet espace partagé par l’ensemble du SI et au carrefour des différents canaux de communication, on propose une vision fédérée de l’information client, permettant de générer de la valeur business.

Quand on démarre ce type de projet, on commence par quoi ?

On commence par penser à une architecture type, qu’elle soit on premise ou hébergée dans le cloud. Pas besoin qu’elle soit dimensionnée pour supporter l’ensemble des besoins métiers à horizon deux ans, l’intérêt des plateformes Big Data font qu’elles sont scalables dans le temps. On se focalisera sur les fonctionnalités à couvrir.

Nous préconisons alors de démarrer par une phase MVP, où on assoie à la fois l’architecture CORE MODEL et où on déploie un premier cas d’usage en production.

Ce premier cas d’usage, qui peut relever de l’industrialisation d’un algorithme de Data Science ou d’une première initiative de Data Visualization, ingèrera et mettra en cohérence au sein de la plateforme Big Data les périmètres de données nécessaires.

Avez-vous des exemples précis de la valeur dégagée chez certains de vos clients ?

Il faut voir ce type de projets comme des accélérateurs de cas d’usage.

On garantit l’exhaustivité des sources d’information mais par les traitements de mise en cohérence opérés sur les données, on garantit également la qualité de l’information produite.

Chez un client du secteur cosmétique, la marge d’erreur dans les prédictions de vente est passée de 30% à moins de 10%.

Chez un autre client de la banque de financement automobile, nous avons amélioré l’indice de rétention client de plus de 10 points.

Leave a Reply