Ateliers

Répartis dans 6 salles, les 200 ateliers représentent une concentration unique d’information sur les technologies et les solutions des marchés big data et IA, ainsi qu’une opportunité d’interagir avec ceux qui en sont à l’origine.
Ces sessions de 30 minutes illustrent de manière concrète l’apport que peuvent avoir le big data et l’IA sur un grand nombre de métiers, tout en renforçant votre socle de connaissance sur le sujet.

Atelier 1

  • Prédiction d’anomalies en temps réel et à l'échelle: application concrète avec Confluent & Databricks sur Azure pour la détection de fraude en ligne

    10h00 - 10h30

    L’accélération des échanges d’informations et l’augmentation des risques qui en découlent pour les entreprises et clients (commerce en ligne, supply chain, finance, télécommunications...), renforcent l’importance de traiter les données au fil de l’eau. Ce changement demande néanmoins une intégration simple, transparente et fiable des différents outils de traitement de données afin de déployer des solutions en production et à l’échelle. Nombreux sont les cas d’usage où la détection d’anomalies requiert une approche bout en bout, de l’ingestion au serving, qui est adapté au temps réel, robuste et collaborative.

    A travers du cas d’usage de fraude en ligne, la démonstration par notebook couvrira:

    • Les capacités de Confluent à ingérer, traiter et distribuer les événements au fil de l’eau
    • L’ingestion de flux de streaming Kafka par Databricks dans un lakehouse Delta Lake
    • La gestion, par Databricks, du cycle de vie des modèles machine learning de prédiction
    • L’intégration transparente des solutions Confluent et Databricks sur Azure: déploiement SaaS et complémentarité des fonctionnalités (Kafka & Spark streaming, Delta Lake, MLflow, ksqlDB, ...)

    Speakers :

    • Tarik Boukherissa, Architecte Data Cloud/CDO @ Databricks 
    • Pierre Haddad, Architecte Solutions @ Databricks 
    Voir en détail
  • Comment AT Internet a développé la solution analytique la plus éthique et puissante du marché

    10h30 - 11h00

    Sur un marché ultra concurrentiel, leadé par des mastodontes, AT Internet a fait le choix il y a 3 ans de reconstruire leur solution en s’appuyant sur le cloud à travers la techno Snowflake.
    Lors de cette session, nous reviendrons en détail sur les différentes étapes du projet :

    • Quelle stratégie AT Internet a adopté pour reconstruire son infrastructure ?
    • Quels résultats ont été obtenus trois ans après le début du projet Delta ?
    • Comment l'aspect écologique du projet prend une place importante dans les stratégies actuelles ?

    Speakers : 

    • Cédric Ferreira : Chief Product Officer @ AT Internet
    • Julien Larribe : Architecte Big Data @ AT Internet
    Voir en détail
  • L'unification de la BI et de l'IA à haute performance – véritable promesse ou simple slogan?

    11h00 - 11h30

    La BI et l'IA sont des outils de plus en plus décisifs dans un contexte d'entreprise. Alors que la BI fournit aux entreprises des informations et des analyses essentielles pour faciliter la prise de décision, l'IA va un peu plus loin. Telle que la BI indique aux entreprises ce qui était et ce qui est, l'IA peut prédire ce qui sera et ce que les entreprises devraient faire.  

    Dans cet atelier, nous vous présenterons comment l'IA peut permettre à la BI de produire des informations claires et utiles à partir des données qu'elle analyse et comment les entreprises peuvent synthétiser de grandes quantités de données en plans d'action cohérents, le tout sur une seule plateforme et à grande vitesse. 

    Speaker : Carsten Weidmann, Technical Alliance Manager, EXASOL

    Voir en détail
  • Corporate Data Lake : une plateforme au service de la data democratization chez Michelin

    11h30 - 12h00

    Michelin s’appuie sur une plateforme pour supporter sa stratégie Data driven et permettre à tous les acteurs du groupe, partout dans le monde, d’accéder simplement aux données et aux moyens de les valoriser. Cet objectif n’est pas sans challenge : la distribution à grande échelle de services, la pluralité de profils utilisateur ou la sécurisation de l’écosystème en sont des exemples. Nous vous proposons de partager notre expérience sur le chemin parcouru et nos prochains défis.

    Speakers :
    Jean-François Duteyrat, Product Owner, Michelin
    Julien Gagnet, Architect, Michelin

    Voir en détail
  • Ubisoft BPM x Dataiku : Comment un outil a révolutionné les usages en data science ?

    12h00 - 12h30

    Speaker : Vincent Nicolas, Data Scientist Manager, Ubisoft

    Voir en détail
  • Automation Journeys Empower Data-Driven Enterprise - Réduire les Silos et Valoriser les Données

    12h30 - 13h00

    Vos metiers s’appuient sur l’IT et consomment de plus en plus de données pour prendre des décisions pertinentes. Imaginez qu’un département métier n’ait plus à attendre pour accéder aux données dont il a besoin. Quels seraient les impacts pour votre business? SnapLogic facilite l’intégration des données et des processus métier en réduisant la complexité et les coûts. 

    Speakers: Benjamin Gougerot, Directeur des Ventes France et Jocelyn Arcega, Responsable Avant-Vente 

    Voir en détail
  • Moderniser les plateformes de données d’entreprise pour atteindre l’excellence opérationnelle

    13h00 - 13h30

    Pour accélérer leur transformation digitale et atteindre leurs objectifs d’excellence opérationnelle et de génération de valeur, les entreprises doivent s’appuyer sur un plateforme de données agile et évolutive et sur des approches méthodologiques éprouvées.

    Rejoignez Guy Tsanga Kepeden, CEO chez Flows management et Pascal Gasp, Ingénieur Solutions chez Couchbase pour découvrir comment la base de donnée moderne Couchbase pour les applications d’entreprise et l’approche méthodologique de design et d’implémentation de Flows Management permettent de répondre aux besoins d’excellence opérationnelle des applications (données opérationnelles, restful API) et analytiques (Big Data, Data Science, Business Intelligence).

    Speakers :
    Guy Tsanga Kepeden, CEO, Flows management
    Pascal Gasp, Ingénieur Solutions, Couchbase 

    Voir en détail
  • Fast Fail AI, ou l’avènement de l’autoML

    13h30 - 14h00

    Animées  par Jean Paul Muller, directeur Innovation, Global practice manager AI

    Voir en détail
  • De l'ingestion à l'IA : Un cas d'usage de segmentation client sur la plateforme Lakehouse de Databricks

    14h00 - 14h30

    Dans un contexte hyper-concurrentiel où la voix et les comportements clients sont de plus en plus valorisés, être en mesure de remonter rapidement les données fiables est l'élément de base pour tout le travail de rétention client à savoir churn, segmentation, recommandation, etc. 
    Les équipes Data doivent gérer les données provenant de différentes sources en temps réel et en tirer des informations à l'aide de l'apprentissage automatique et de l'IA pour une décision rapide et ciblée.
    Comment réduire la complexité de ces défis ? Comment pouvons-nous gérer le flux de données pour transformer les données brutes en décisions commerciales ? Comment industrialiser l'ensemble du pipeline pour un produit prêt pour la production ?

    Speakers :
    Marwa Krouma, Senior Solutions Engineer, Databricks
    Matthieu Lamairesse, Solutions Architect, Databricks

    Voir en détail
  • Comment garantir une vue à 360° des données de l'entreprise ?

    14h30 - 15h00

    70% des collaborateurs d’une entreprise n'accèdent pas aux données attendues, moins de 50% des données structurées sont utilisées dans les prises de décision, l'accès à la donnée et sa mauvaise qualité étirent le time to market, entraînant la perte de chiffre d’affaires. Comment relever ces défis afin d'exploiter pleinement vos capacités analytiques ?
    Lors de cette session, nous vous proposons d’explorer comment la combinaison du MDM avec la gestion des données de référence et la virtualisation des données garantit une vue à 360° de nos organisations et sert pleinement nos outils analytiques et de data science.

    Intervenant : Michaël Matovic, Solution consultant, TIBCO Software
     

    Voir en détail
  • La valeur de la data réside dans l'usage que les métiers en font

    15h00 - 15h30

    La nécessaire DataViz est-elle suffisante pour libérer les utilisateurs non IT ?

    Retour d’expérience du Groupe VALMONT

    Speaker : Mme Fabienne Le TADIC, Chief Strategy and Compliance Officer, Valmont Group

    Opérant sur une dizaine de pays dans le monde, le groupe Valmont a connu une forte croissance depuis sa création en 1985. Pour maîtriser sa croissance et rester en phase avec ses clients, VALMONT doit disposer d’une agilité et d’une capacité d’analyse immédiate sur son marché de la Cosmétique.

    Après une expérience récente de mise en place d’une solution de DataViz sur son Data Lake en mode SaaS, VALMONT a fait le constat que la Data Visualisation ne permet pas l’Autonomie des métiers et n’apporte pas non plus la réactivité qu’impose le marché. 

    Comme le constate Fabienne Le Tadic, « Nous avons compris que la personne capable de répondre à une question métier complexe dans un délai très court est la personne qui se pose cette question ! »

    Les outils de DataViz permettent aux Métiers de visualiser les données et de construire eux-mêmes leurs propres restitutions. Mais ils n’embarquent pas les fonctions de Data Management et ne leur permettent pas d’accéder simplement aux règles de gestion de leurs données afin de les adapter à l’analyse du moment.

    Aussi, lorsque les données ne correspondent pas à l’analyse que les utilisateurs veulent en faire, la DataViz ne leur évite pas les itérations avec l’Informatique ni les délais pour en obtenir de nouvelles. 

    Pour Valmont, la réponse a été le choix de la Self BI Suadeo.

    Le retour d’expérience du Groupe Valmont vous dira comment et pourquoi la Self BI Suadeo est la vraie réponse au besoin d’Autonomie et de Réactivité exigées par les métiers. Vous comprendrez comment passer d’une solution de DataViz sur le Cloud à la Self BI Suadeo.

    Voir en détail
  • A l’ère du data-driven marketing, quelle est la valeur réelle de vos données ?

    15h30 - 16h00

    Dans un monde dominé par les plateformes et dans un contexte de disparition du cookie, détenir sa propre donnée est devenu clé. Alors comment valoriser vos données et quelle est leur valeur réelle ? Nous y répondrons lors de cet atelier et partagerons le retour d’expérience de Pathé Gaumont.

    Speakers :

    • Béatrice Tourvieille,  Directrice Générale Adjointe Marketing & Digital - Les cinémas @ Pathé Gaumont
    • Benjamin Gorski, Digital, Data & AdTech Consulting Director @ EPSILON France
    • Laure Debos, Executive Vice President @ EPSILON France
       
    Voir en détail
  • Comment booster vos applications Cloud natives avec Azure CosmosDB

    16h00 - 16h30

    Venez découvrir dans cette session l'intérêt de l'utilisation du service Azure CosmosDB, la base de données NoSQL Multi modèles, dans vos applications cloud natives sur Microsoft Azure.

    Nous aborderons les avantages qu'offre la solution pour gagner en agilité, fiabilité pour des applications critiques avec des exemples clients concrets

    Speaker : Imène Kabla (Data&AI Cloud Solution Architect)

    Voir en détail

Atelier 2

  • Comment améliorer la connaissance géographique de vos clients ?

    10h00 - 10h30

    Les données spatiales sont riches en informations mais sont parfois difficiles à lire dans une simple feuille de calcul.

    Pour pouvoir les interpréter correctement, il faut pouvoir les transformer visuellement, pour ensuite être capable de prendre des décisions data-driven plus rapidement.

    Pendant ce webinar, nous verrons ensemble comment :

    • Visualiser votre zone de couverture
    • Découvrir quels clients se trouvent en dehors de votre zone de couverture
    • Ouvrir un nouvel établissement pour gagner en proximité
    • Détecter des établissements trop proches pour redéfinir votre maillage

     

    Speakers:
    Mathieu Fontaine, Sales Engineer, Alteryx

    Voir en détail
  • Comment tirer profit de vos données dans un contexte Big Data avec des tableaux de bord agiles ?

    10h30 - 11h00

    Éditeur d’un logiciel 100% européen, DigDash défie aujourd’hui les géants américains du tableau de bord et de l’analytique.

    Crée par 4 associés experts en outils décisionnels, DigDash Enterprise est la seule offre du marché à proposer une approche fonctionnelle "All Inclusive" et 100% sur mesure avec :

    • la préparation des données,
    • une base d'analyse haute performance,
    • l'exploration de la data,
    • la Business Intelligence en self-service,
    • la diffusion et l'export de rapport...etc

    Tous secteurs confondus, vous avez la certitude de bénéficier d'une solution adaptée à vos besoins métiers.

    Speaker :

    • Antoine Buat, Cofondateur et CEO @ DigDash
    Voir en détail
  • Tape à l’œil : la data au cœur de la vision d’entreprise

    11h00 - 11h30

    Créée en 1993, Tape à l’œil est une enseigne de vêtements et d’accessoires qui s’est fixée la mission de rendre accessible et la plus responsable possible la mode des 0-16 ans. En 2019, la stratégie « data » de Tape à l'œil est inscrite dans la vision de l’entreprise. La data devient un enjeu majeur pour l’ensemble des métiers, depuis la construction de l’offre et des collections en passant par la supply chain, l’expérience client mais également l’expérience collaborateur.

    Cette vision s’est accélérée avec la crise de la Covid-19. L'entreprise devait optimiser ses opérations digitales qui se sont fortement développé avec la pandémie et ont constitué la seule source d’activité de l’entreprise durant les différents confinements.

    Durant cette présentation, découvrez comment Tape à l’œil a pu mettre en place une vision client 360° ainsi qu’une irrigation de la donnée dans tout le SI en temps réel grâce à un accès à des données fiables permettant ainsi aux utilisateurs métiers et spécialistes des données d’optimiser les opérations et personnaliser l'expérience d'achat des clients de l’enseigne.

    Intervenant :

    • Guillaume Porquier, IT Director @Tape à l’œil
    Voir en détail
  • Façonner les données avec la plateforme Ab Initio

    11h30 - 12h00

    Les grandes entreprises ont besoin d'une plateforme de données à hautes performances qui offre automatisation et self-service. Elle doit être capable de réussir dans un environnement en changement perpétuel, de s'adapter aux nouvelles réalités et de relever les défis les plus difficiles en matière de traitement et de gestion des données dans l'informatique d'entreprise. Cette plateforme, c'est Ab Initio.


    Cette plateforme s’appuie sur les fondamentaux de la technologie Ab Initio :

    • Le moteur d’exécution est piloté par les métadonnées pour augmenter considérablement la généricité des chaînes de traitement.
    • Les mécanismes aboutis de calcul parallèle et distribué supportent nativement la mise à l’échelle élastique pour exploiter les conteneurs et Kubernetes.
    • Les traitements optimisent l’utilisation des ressources matérielles pour offrir des performances exceptionnelles en temps réel ou en mode batch.
    • Les applications Ab Initio s’exécutent sur la plupart des infrastructures de calcul physiques ou virtuelles, aussi bien sur site que dans le cloud ou dans une architecture hybride.
    • Le paradigme de programmation graphique par flux de données rend le code compréhensible pour les métiers.
    • Transformation de données sans code ou Low Code : La solution Ab Initio permet aux développeurs et aux experts métier de se concentrer sur l'aspect innovant de leurs applications plutôt que de s'occuper de développement bas niveau.

    Avec la plateforme de traitement de données Ab Initio, il devient simple de concevoir, d'implémenter et de tester des applications complexes On-Premise et dans le Cloud.

    Speaker : Mathias Chaillot, Technical Account Manager @ AB Initio

    Voir en détail
  • Modern Data Provisioning : Accélérer l’accès aux données sans risque

    12h00 - 12h30

    L'accès en temps opportun à des données de qualité permet aux entreprises de capter des connaissances et d'offrir ainsi de nouvelles opportunités à leurs clients et marchés.

    Mais comment les consommateurs de données peuvent-ils :

    • Accéder rapidement aux données ?
    • Garantir le respect des règles et réglementations en matière de confidentialité des données ?

    Rejoignez l'atelier pour découvrir comment Modern Data Provisioning offre aux organisations la possibilité d'équilibrer les deux en rationalisant les processus entre les équipes de confidentialité des données, les gardiens des données, les propriétaires des données et, en fin de compte, les consommateurs des données.

    Voir en détail
  • PAUSE DEJEUNER

    12h30 - 13h00
    Voir en détail
  • PAUSE DEJEUNER

    13h00 - 13h30
    Voir en détail
  • La cigale et la fourmi : être Data Driven ou Data Centric ?

    13h30 - 14h00

    La fable de la fontaine contient une double morale qui est particulièrement intéressante dans le contexte data. Cet atelier vous explique pourquoi avoir une entreprise DATA DRIVEN n’est peut être pas aussi pertinent qu’une entreprise DATA CENTRIC, et comment élaborer votre statégie Data autour.  

    Speakers :
    Cyrille COQUERET  - CTO JEMS 

    Voir en détail
  • Création d'un pipeline de données dans le Cloud – quelles sont les bonnes pratiques ?

    14h00 - 14h30

    Le transfert de données vers le Cloud s'accompagne de nombreux défis. Les processus ETL traditionnels peinent à diffuser rapidement dans toute l'entreprise des données fiables et pertinentes au fur et à mesure des besoins. 
    Cela entraîne une frustration des utilisateurs, dont les activités de pilotage et de reporting s'appuient sur des données erronées et non actualisées. 

    Cette session examine le rôle essentiel qu'une plateforme d'intégration des données peut jouer dans la conception d'un pipeline des données performant et prêt à l'emploi dans le Cloud. 
    Vous découvrirez comment la plateforme d'intégration des données de Qlik permet à ses clients d'exploiter toute la valeur de leurs données.

    Au programme :

    • Les principaux facteurs à considérer lors de la création et de la gestion d'un pipeline de données.
    • Les faibles temps de latence avec Change Data Capture (CDC) et Batch Reduction pour enregistrer les changements en temps réel.
    • La valeur concrète d'une diffusion des données en temps quasi réel vers les plateformes Cloud (AWS, Azure, GCP, Snowflake...)
    • La réplication des données sans impacter les performances de vos systèmes transactionnels, tels que SAP.

    Intervenant : Jean Atienza, Principal Solutions Architecte, Qlik Data Integration

    Voir en détail
  • Les principes clés de l’analytique visuelle

    14h30 - 15h00
    Il existe de nombreuses méthodes pour visualiser les données. Mais quel graphique ou quelle carte vous aidera le mieux à trouver des réponses à vos questions ?
    Suivez cet atelier pour découvrir comment l’analytique visuelle permet de transformer intelligemment vos données brutes en informations facilement exploitables pour l’ensemble de votre organisation.
     
    Intervenant : Selma Nebia, Ingénieur solutions, Tableau
    Voir en détail
  • Blockchain et Big Data : les deux faces d'une même pièce, la donnée.

    15h00 - 15h30

    Combien peuvent aujourd’hui affirmer n’avoir laissé aucune trace de ses données personnelles sur le web ? En cause, les achats réalisés en ligne, réseaux sociaux, professionnels et bien d’autres. L’explosion du numérique et de ses données quantitatives a contraint les chercheurs à trouver de nouveaux outils et technologies pour la collecte, partage, stockage mais aussi l'analyse de données. De là, est né le Big Data. Et sont nées aussi les inquiétudes liées à la sécurité et protection des données personnelles … Pour y remédier, la Blockchain a émergé ces dernières années et conduit un certain nombre d’acteurs à s’intéresser de plus près à une complémentarité entre Big Data et Blockchain.

    Voir en détail
  • Quantique et Machine Learning

    15h30 - 16h00

    Que peut-on attendre de l’informatique quantique pour le Machine Learning ? Où en sommes nous et quelles sont les perspectives ?

    De plus en plus prometteur dans le domaine du calcul, l’avantage quantique est porteur de ruptures qui pourront profiter à un large ensemble de domaines, comme la science des matériaux, la finance, l’optimisation et bien sûr le machine learning.

    Dans ce domaine, l'expert IBM fera le point sur la technologie et les développement.

    Speaker : Jean-Michel Torres, Quantum France Team, Technical Expert, IBM

    Voir en détail
  • Retour d'expérience de la mise en œuvre d'un projet BI full cloud

    16h00 - 16h30

    Face aux enjeux de valorisation de données, comment ajuster vos investissements avec la valeur des usages que vous en tirez ? Bluescale vous présente un retour d'expérience d'un projet basé sur des technologies Cloud Azure, Snowflake et Power BI.

    Speaker :
    Sébastien Teissier, Responsable offre BI, BLUESCALE

    Voir en détail

Atelier 3

  • Présentation des technologies Azure Computer Vision et retours d'expériences clients

    10h00 - 10h30

    Le computer vision ou la vision par ordinateur permet d'extraire des informations à forte valeur ajoutée depuis des images ou des vidéos. Les entreprises sont ainsi en mesure d’extraire automatiquement du texte depuis des documents, de réaliser des traitements de classification ou d’identification d’un ou de plusieurs objets depuis des images et de réaliser des analyses spatiales. Les modèles de Computer Vision Azure générés peuvent être déployés sur le cloud ou directement sur le périphérique (Edge).

    Les organisations peuvent ainsi répondre aux enjeux de contrôle qualité, de traitement automatique de documents, d’aide au diagnostic par exemple en exploitant des images ou des flux vidéos à l’aide de modèles d’IA de reconnaissance d’images. Les technologies Azure de Computer Vision sont disponibles via des interfaces « no-code » simples d’utilisation ou via un SDK Python en exploitant les ressources GPU disponibles dans le cloud Azure. 

    Des illustrations et retours d'expériences de projets de Computer Vision avec les technologies Azure seront présentées lors de cette session.

    Speaker :

    • Serge Retkowsky, AI Global Black Belt Specialist @ Microsoft
    Voir en détail
  • Optimisez la fonction Search de vos applications pour une meilleure expérience client

    10h30 - 11h00

    Le moteur de recherche Full-Text de MongoDB est directement intégré à la plateforme MongoDB Atlas et à son framework d'agrégation et ne requiert aucun processus complexe d’ETL. Avec Atlas Search, les équipes de développement n’ont plus besoin de créer et maintenir une plateforme de recherche séparée ni d’avoir à apprendre une nouvelle technologie puisque Atlas Search utilise le framework d’agrégation MongoDB.


    Speaker: Idriss Ouazzani, Solutions Architect, MongoDB

    Voir en détail
  • La Redoute : Un data hub produit pour répondre aux enjeux internationaux

    11h00 - 11h30

    Alexandre Dupont, Responsable Domaine Etude Publication & Marketplace - IT chez La Redoute, partagera les enjeux retail et data actuels de La Redoute, notamment ceux qui accompagnent leur projet de croissance à l’international. Il expliquera la nécessité de la refonte de la plateforme produit pour répondre à ces objectifs et aux besoins métier avec la mise en place d’un data hub de gestion de la donnée. Découvrez leur stratégie et programme autour de la donnée produit.

    Speaker :

    • Alexandre Dupont, Responsable Domaine Etude Publication & Marketplace - IT @ La Redoute
    Voir en détail
  • Une donnée gouvernée, indispensable à la création valeur dans le monde analytique

    11h30 - 12h00

    Une démarche analytique performante est celle qui se focalise sur la création d’une valeur métier. Sans bénéfice métier évident, cette démarche n’est qu’un exercice intellectuel et technologique infertile. De même si vous essayez de lancer ce type d’initiative avec des données non-gouvernées ou de qualité insuffisante.
    Lors de cet atelier vous verrez, avec des exemples concrets, comment les données gouvernées contribuent et sont essentielles pour atteindre cette valeur métier. Vous verrez également comment cette gouvernance indispensable au cycle de vie analytique, peut s’étendre aux autres domaines et départements pour devenir ainsi une pièce angulaire de l’organisation. Et finalement vous comprendrez comment les nouvelles technologies de Gouvernance de la Donnée peuvent vous aider à accélérer la mise en place de votre démarche analytique agile et performante.

    Intervenant : 
    Arturo Salazar, Expert Gouvernance de données, Informatica
     

    Voir en détail
  • Comment faire parler vos données sensibles tout en garantissant sécurité et conformité

    12h00 - 12h30

    Anonymisation des données, analyses croisées sur desdatasets dans différentes filiales ouentre partenaires externes, protection des donnéessensibles et des algorithmes confidentiels dans le cloud...

    Venez découvrir des cas d’usage concrets où les banques, l’industrie de la santé, la cybersécurité s’appuient sur Cosmian pour utiliser les données sensibles sans compromettre leur sécurité et confidentialité, dans le respect de laconformité.

    Speakers :

    • Arnaud REDON, Responsable Ventes @COSMIAN
    • Virginie ANNE, Ingénieure Avant-Vente @COSMIAN
    Voir en détail
  • IVIDATA

    12h30 - 13h00
    Voir en détail
  • PAUSE DEJEUNER

    13h00 - 13h30
    Voir en détail
  • Bases de données SQL vs NoSQL, Comment bien choisir son stockage ?

    13h30 - 14h00

    Les bases de données NoSQL ont le vent en poupe et de nombreuses entreprises ont parfois entamé des migrations de leurs SGBDR vers des MongoDB, Cassandra ou autres Redis

    Mais est-ce toujours la bonne démarche ? Cet atelier a pour objectif de remettre en perspective les choix qui s’offrent aux DSI, afin de prendre la décision la plus pertinente au regard des besoins et enjeux de l’entreprise.

    Speaker :
    Alassane KANE, Manager

    Voir en détail
  • SingleStore & Kafka: Une architecture simplifiée pour le traitement en temps réel de flux de streaming

    14h00 - 14h30

    Le traitement des données au fil de l’eau est plus que jamais un enjeu d’une grande importance pour les entreprises soucieuses de rester compétitives. Cela leur permettra non seulement de répondre aux besoins métiers en termes d’analyse opérationnelle mais également d’alimenter leurs applications intelligentes (smart apps) avec des analyses en temps réel sur des données fraîches afin de réagir de manière précise et instantanée (détection de fraude, recommandations, …).

    Lors de cette session vous découvrirez comment, à partir d’une architecture simplifiée intégrant Kafka et SingleStore, il est possible d’analyser d’une façon unifiée à la fois les flux de streaming Kafka ainsi que des volumes importants de données historiques, tout en utilisant un modèle relationnel et du SQL standard.

    Speaker :

    • Yassine FAIHE, Solution Consulting - International @ SingleStore
    Voir en détail
  • Contextual Knowldege Rendering: un nouveau paradigme d'accès à l'information multi-sources pour les utilisateurs.

    14h30 - 15h00

    Speaker : Frédérik Bilhaut- Innovation Director

    Voir en détail
  • Chatbots : élargir leurs connaissances sans effort

    15h00 - 15h30

    Les agents conversationnels (chatbots, voicebots) deviennent l'un des interlocuteurs privilégiés de vos clients ou employés. Sans entrer dans les débats sur leur "intelligence", il faut constater que leurs connaissances sont limitées aux dizaines ou centaines d'intentions qu'ils sont entraînés à reconnaître. Dans la gamme IBM Watson, le chatbot peut avoir réponse à  tout (enfin presque...): nous montrerons comment, en quelques clics, étendre considérablement les connaissances du chatbot (Watson Assistant) en exploitant les données disponibles, notamment les gisements de connaissances qui dorment au fond des bases documentaires.
    Tout cela est rendu possible par les technologies de traitement du langage (NLP) développées notamment à IBM Research pour créer un robot capable de débattre de différents sujets avec des humains.

    Votre chatbot aura réponse à tout (ou presque) aux demandes de vos clients ou employés, et ce dès le premier contact.

     

    Voir en détail
  • WORDLINE : La BI sur Azure : un accélérateur pour les intégrations

    15h30 - 16h00

    Le groupe Worldline, et auparavant Ingenico ont connu une forte croissance au cours des 10 dernières années matérialisée notamment par de nombreuses acquisitions. Découvrez comment la migration des solutions de BI sur Azure a permis et continue à favoriser une mise en commun plus rapide de l’information et une convergence des pratiques dans toutes les entités de la division Merchant Services de Worldline, présente sur tous les continents.

    Speaker :

    • Samuel DESORMONTS, Responsable Data @ Worldline
    Voir en détail
  • Move 10x Faster & Save Money with Real-Time Streaming to AWS

    16h00 - 16h30

    With over 30,000 kilometers of rail line and 154,000 employees, maintenance is a complex undertaking for the French railway, SNCF. Inefficiencies lead to booked resources and train stoppage resulting in cost overruns on the order of €100,000 per hour. Join this session to learn how the SNCF’s technical team used AWS and StreamSets to build a 360-degree view of infrastructure, people, and resources to streamline maintenance planning, get 10x faster insights, and create “huge cost savings.”

    Speakers :
    Paul Billingham, StreamSets
    Adrien Langlois, SNCF

    Voir en détail

Atelier 4

  • Comment transformer votre Data Platform en Lakehouse ?

    10h00 - 10h30

    L’accroissement de la volumétrie des données, mais également la multiplicité des formalismes associé aux besoins de simplicité d’accès, prend en défaut les grandes solutions de data management classiques que sont le Data Warehouse et le Data Lake.
    Afin de simplifier l’accès aux données, de créer une véritable indépendance des métiers pour améliorer le  « time to market » des nouveaux projets, une nouvelle approche offrant le meilleur des deux mondes doit être envisagée.
    Oracle propose une vision innovante du concept de Lake House combinant tous les avantages des anciens paradigmes pour vous permettre d’atteindre ces objectifs sans tout remettre en question. 

    Speaker :
    Eric Fleury, Cloud Engineer, Oracle

    Voir en détail
  • Utilisation pratique de Google Cloud Platform (GCP) pour développer et industrialiser des projets d’Intelligence Artificielle

    10h30 - 11h00

    L’utilisation des plateformes cloud comme GCP est de plus en plus répandue pour tout développer tout type de projet Data et IT, mais GCP apporte-t-il un plus pour développer des projets d’IA ?

    Quels outils IA utiliser pour rendre votre projet d’IA efficace, scalable et déployable avec le moins de difficultés possibles ?

    Au cours de cet atelier, les équipes de Business & Decision vous montreront au travers d’exemples concrets les nombreuses possibilités de développement en IA dans un environnement GCP.

    Speaker :
    Didier Gaultier, Directeur DataScience & AI, Business & decision

    Voir en détail
  • Combiner Machine Learning et Optimisation pour de meilleures décisions

    11h00 - 11h30

    Nous présenterons des cas d'usage et retours d'expérience de solutions d'IA d'IBM autour de la data science, du machine learning (SPSS, Watson Studio) et de l'optimisation (CPLEX).

    Nous verrons en particulier comment le fait de reposer sur une plateforme hybride  (CloudPak for Data) sans repartir de zéro permet d'accélerer les déploiements et d'anticiper les retours sur investissement.

    Nous soulignerons enfin l'importance primordiale d'un démarrage très rapide permis par l'automatisation avec AutoAI de Watson Studio dans le cloud.

    Voir en détail
  • Maîtriser les risques pour mieux protéger vos données critiques avec Oracle Data Safe

    11h30 - 12h00

    Sans technologie, ni automatisation, la plupart des organisations sont des cibles faciles.

    Nous devons repenser la manière de protéger les bases de données qui hébergent les données critiques.

    Découvrez comment Oracle Data Safe protège les données d'entreprise. 

    Lors de cet atelier, nous aborderons les thématiques suivantes : 

    • Mes bases de données sont-elles configurées de manière sécurisée ?
    • Suis-je en conformité par rapport à la règlementation RGPD ? 
    • Comment se faire accompagner dans la classification de ses données structurées ? 
    • Comment puis-je être alerté d'une activité utilisateur inappropriée ?

    Speaker :
    James Green, Security Engineer Specialist, Oracle
     

    Voir en détail
  • Move to Cloud Data : comment réussir son re-plaforming DATA

    12h00 - 12h30

    vec le témoignage d’ADEO : Laurent Ostiz, Global Chief Data Officer
    et de CGI : Rachid Bensmaine, Vice Président Retail

    Voir en détail
  • PAUSE DEJEUNER

    12h30 - 13h00
    Voir en détail
  • PAUSE DEJEUNER

    13h00 - 13h30
    Voir en détail
  • Témoignage d’Orange sur l’interconnexion des données on-premises et cloud avec Starburst

    13h30 - 14h00

    A travers notre plan stratégique, Engage 2025, nous accélérons notre transformation en plaçant l’IA et les données au cœur de l’amélioration de notre efficacité opérationnelle et de l’expérience client.
    A la recherche constante d’innovations et améliorations pour notre système d’information BI et Big Data, venez découvrir comment la solution Starburst nous permet d’adresser le changement de paradigme induit par l’adoption des dernières technologies du cloud public.

    Speakers :
    Nicolas DERACHE, Responsable du centre d’expertise BI et Big Data d’Orange France

    Voir en détail
  • Datalake, faites vos jeux, rien de ne va plus !

    14h00 - 14h30

    A l'heure de la COVID-19 et la prépondérance de transformer son organisation, adapter ses offres, optimiser son go-to-market, jamais l'exploitation de la donnée n'aura eu autant d'enjeux au sein d'une entreprise. 

    L'entreprise se doit de faciliter la mise à disposition de cette donnée à ses employés et lui permettre de focaliser son attention sur son exploitation et son analyse avancée : BI bien sûr, mais surtout Machine Learning et Intelligence Artificielle.

    Cette donnée, exponentielle, de format et de vélocité variés et variables, nécessite le recours à des technologies dédiées issues de la communauté open source et n'ayant jusqu'alors pas ou peu permis aux entreprises de réaliser tout le potentiel de leurs données. La consolidation ou le rachat de certains acteurs historiques sur ce marché en est d'ailleurs la parfaite illustration. 

    Venez découvrir dans cette session comment les entreprises clientes et partenaires Google Cloud capitalisent sur notre savoir-faire et réconcilient ROI, performance et agilité.
     

    Voir en détail
  • Vertex AI, vos nouveaux super-pouvoirs d'intelligence artificielle

    14h30 - 15h00

    Comment renforcer vos capacités d’adoption, de construction, de déploiement et de maintien en production des modèles de machine learning ? De quels outils les data scientists et les data engineers disposent aujourd'hui pour faire du MLOps une approche standard, à l’instar du DevOps ?
    Venez découvrir la dernière évolution de la plateforme IA de Google Cloud !
     

    Voir en détail
  • Comment EDF Commerce valorise les milliards d’enregistrements de son lac de données pour calculer des indicateurs-clés de son portefeuille clients particuliers avec AMADEA d’ISoft

    15h00 - 15h30
    Voir en détail
  • Comment démocratiser l'accès à l'IA et passer à l'échelle au sein de votre organisation ?

    15h30 - 16h00

    Avec Dataiku et Google Cloud, tous les membres de l'organisation, et pas seulement les experts en données et les ingénieurs, peuvent créer, déployer et gérer des projets de données basés sur l'IA à grande échelle. 

    Découvrez comment la plateforme de data science bout en bout de Dataiku déployée sur Google Cloud et intégrée avec ses services Data les plus avancés permet aux organisations de toute taille de fournir une IA d'entreprise dans un environnement hautement évolutif, robuste et collaboratif.
     

    Voir en détail
  • DBaaS open-source: un pilier de la transformation cloud native

    16h00 - 16h30

    La migration vers l’infrastructure cloud (IaaS) a déjà permis de réduire considérablement les dépenses d’exploitation. Mais une véritable transformation vers des technologies cloud native peut apporter beaucoup plus en termes de Time-to-Market, d’agilité et de réduction des coûts opérationnels à condition que certains piliers technologiques soient en place pour réduire le risque lors de la transformation et rendre l’expérience des équipes de développement et d’exploitation aussi facile et fluide que possible. Parmi ces piliers, la DBaaS open-source constitue une des fondations les plus essentielles. En proposant un environnement CloudOps intégrable, elle offre aux équipes IT un haut niveau de gestion, de disponibilité, de sécurité et de transparence, le tout au travers d’un simple bouton à cliquer. Découvrez comment Aiven permet la transformation “cloud native” en rendant les solutions de gestion de données open-source accessibles à des environnements et processus IT les plus exigeants.

     

    Speaker :
    Thomas Dubus, VP Sales EMEA, AIVEN

    Voir en détail

Atelier 5

  • Réussir votre transformation data quels que soient vos choix technologiques

    10h00 - 10h30

    En mettant les considérations technologiques en pause, nous vous proposons dans cet atelier de partager les éléments connexes importants pour mettre les données au cœur de la stratégie de votre entreprise.   

    Depuis la prise en compte des besoins métiers, la mise en place d’une culture de la donnée, jusqu’à l’adoption par les utilisateurs des outils d’analyse et leur intégration dans les processus métiers, découvrez  comment réussir une transformation data opérationnelle et durable à l’échelle de votre entreprise. L'exploitation des données est alors infusée naturellement à tous les niveaux pour accélérer l’innovation et améliorer les prises de décision
     

    Voir en détail
  • Introducing OneTrust Data Catalog

    10h30 - 11h00

    Join us for a workshop to see the tool in action and learn how Data Catalog can help your business find, understand, and use data to drive innovation and growth. In this session, we’ll talk about OneTrust’s core governance capabilities and how Data Catalog fits into the broader OneTrust privacy, security, and data governance platform.

    Speaker :
    Chris Paterson : Director, EMEA Solutions Engineering @OneTrust

    Voir en détail
  • Le "Cloud for Marketing" avec Epsilon & Google

    11h00 - 11h30

    Découvrez comment l'expertise data d'Epsilon adossée aux technologies de Google Cloud permettent de construire des solutions répondant aux enjeux marketing de personnalisation de l'expérience client et de création de valeur pour l'entreprise.

    Speakers :

    • Sanae EL MEHDAOUI, Google Cloud Customer engineer , Smart analytics specialist @ Google Cloud
    • Olivier Dukers, Directeur Technique @ EPSILON France
    Voir en détail
  • Utilisation inédite de l’IA pour booster les points de vente et les agences

    11h30 - 12h00

    Dans cette phase de reprise économique Post-Covid, booster l’activité des points de vente est devenu une priorité. Nous avons créé une toute nouvelle méthode, inédite, s’appuyant sur une combinaison d’intelligence artificielle et des données exclusives, en plus de vos données internes. Cette solution permet de comprendre l’impact des événements extérieurs sur le chiffre d’affaires et la fréquentation des enseignes, en temps réel : pics d’affluence, catégories de personnes, heure par heure, jour par jour, … 

    Aimeriez-vous :
    -           Estimer le véritable potentiel d’un point de vente ou d’une agence ?
    -           Prédire le chiffre d’affaires de chacun de vos points de vente à la semaine ? Au jour ?
    -           Connaître les meilleurs horaires d’ouverture en fonction du moment et des événements ?
    -           Estimer l’équipement nécessaire (par exemple la nécessité d’un parking, sa taille, etc …) ?
    -           Comparer 2 zones d’implantation,
    -           Et aussi optimiser vos campagnes marketing, …

    Si la réponse à l’une de ces questions est oui, ne manquez pas cet atelier, qui développera comment l’IA associée à des données externes inédites, permet de transformer tous les rêves cités ci-dessus en réalité tangible et opérationnelle.

    Speaker :
    Didier Gaultier, Directeur DataScience & AI, Business & decision

    Voir en détail
  • Un Data Warehouse à la fois hybride et multi-cloud avec Starburst et Google BigQuery

    12h00 - 12h30

    Les évolutions successives des systèmes d'information ont souvent généré chez les entreprises un nombre important de Data Warehouse et autres bases de données au fil des années, qui ne seront dans certains cas pas toutes modernisables vers une plateforme unique.

    En effet, des contraintes de souveraineté, d'adhérence aux systèmes opérationnels ou une stratégie multi-cloud peuvent amener certaines entreprises à construire une architecture cible qui restera hétérogène, hybride et cross-cloud.

    Starburst et Google proposeront dans cette session une solution permettant d'exécuter des requêtes SQL à travers tous ces silos quelles que soit leurs spécificité et plateforme d'hébergement, en proposant une expérience unifiée malgré la diversité des technologies sous-jacentes, tout en bénéficiant de la puissance de la plateforme analytique serverless de Google Cloud.

    Voir en détail
  • PAUSE DEJEUNER

    12h30 - 13h00
    Voir en détail
  • PAUSE DEJEUNER

    13h00 - 13h30
    Voir en détail
  • Dreamquark ; exemple d'IA explicable pour DSI et CDO de l’ANDSI

    13h30 - 14h00

    Speakers :

    • Nicolas Meric CEO @ Dreamquark
    • Christophe Parent CPO @ Dreamquark
    • Pierre Delort, Professeur Invité Telecom Paris, Président ANDSI
    Voir en détail
  • Comment construire sa plateforme MLOPS ; Revue des principaux challenges et solutions avec AWS

    14h00 - 14h30

    De plus en plus d'organisations commencent à voir la valeur des applications basées sur le Machine Learning, ce qui a conduit à une augmentation considérable de projets. Cependant, environ 80% de ces projets ne sont jamais mis en production et ce malgré l'augmentation des investissements. Bien que les entreprises soient désireuses d'appliquer les principes et les pratiques DevOps aux projets d'IA et de ML, elles manquent d'expérience dans ce domaine. En effet elles ne disposent pas des compétences et de l'expérience nécessaires pour concevoir et mettre en œuvre une solution de pipeline de ML entièrement automatisée.


    Speakers:
    Gontran FILET
    Machine Learning & AI
    AWS

    Didier PALUT

    Associate Partner
    DATA REPLY

     

     

    Voir en détail
  • Parole d'experts : Comment BPI propage la culture data dans toute l'entreprise

    14h30 - 15h00
    Voir en détail
  • Quelques clefs pour résoudre le casse-tête RH des métiers de la Data et répondre aux enjeux métiers de demain

    15h00 - 15h30

    Comment recruter, faire évoluer et retenir les profils Data pour les prestataires et les annonceurs ? Quelle stratégie adopter dans un contexte de multiplicité des formations et des parcours, de tension sur les salaires, et d’infusion de la data dans l’ensemble des métiers ? Les enjeux sont-ils les mêmes pour tous les profils, toutes les entreprises ?   

    Speakers :

    • Didier RICHAUDEAU, Associé en charge des activités data @ EQUANCY
    • Stéphane BOUCHARENC, DGA - Directeur du département data science @ AI&Data
    • Claude BITON, Président @ CBC Développement
    • Hélène GOMBAUD-SAINTONGE, Co-fondatrice en charge de la Data @ Thinkband
    Voir en détail
  • Le CPA fait le point sur le report des cookies tiers et présente en exclu une étude sur les flocs

    15h30 - 16h00

    Google a annoncé le report de la suppression des cookies tiers à mi 2023. C'est un véritable big bang qui se profile pour les directions marketing ! 

    Ce report est une belle opportunité pour être complètement prêt !

    Le CPA fait le point sur ce qui va changer, le planning et les alternatives, et présentera en exclusivité les résultats d'une étude sur les flocs, le nouveau système de ciblage de Google.

    Voir en détail
  • RPA et IA, des piliers de la Transformation des Fonctions Financières

    16h00 - 16h30

    Les DAF ont été parmi les premiers à adopter la RPA dans pour la transformation digitale de leurs fonctions. Couplé à des outils IA/ML c’est toute une plateforme d’automatisation intelligente que le DAF a à sa disposition pour plus de productivité, d’efficacité, de conformité, de satisfaction de ses collaborateurs, etc. Néanmoins le succès n’est jamais garanti. Nous passerons en revue ces outils, les écueils rencontrés et quelques clés de succès partagés dans le comité CSP/RPA de la DFCG et au niveau européen piloté par Armand Angeli, expert et évangelist de l’Automatisation Intelligente.

    Speaker : 

    • Armand Angeli, Président @ DFCG International
    Voir en détail

Atelier 6

  • Exploitez le pouvoir de vos données pour booster la transformation digitale

    10h00 - 10h30
    Peu importe l'avancement de leur transformation digitale, il est essentiel pour les entreprises de commencer dès maintenant à exploiter leurs données.

    En optant pour une solution d'analytique moderne comme Tableau, les entreprises permettent aux utilisateurs métier de prendre des décisions basées sur les données et de devenir de véritables acteurs de ce changement.

    Lors de cet atelier, découvrez comment la plate-forme Tableau vous permet de transformer les données de l’entreprise en informations exploitables qui orientent les actions des collaborateurs métier tout en faisant le bonheur de votre équipe IT.
     
    Intervenant : Benjamin Couve, Commercial Territory Manager, Tableau
    Voir en détail
  • AI Act - Premier cadre juridique sur l’Intelligence Artificielle

    10h30 - 11h00

    La Commission Européenne propose aujourd'hui de nouvelles règles et actions visant à faire de l'Europe le pôle mondial d‘une intelligence artificielle (IA) digne de confiance. Ce tout premier cadre juridique sur l'IA garantira la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l'adoption de l'IA, les investissements et l'innovation dans l'ensemble de l'UE.  

    Avec une approche fondée les risques, cette réglementation fixe un cadre de référence et de confiance pour veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, éthiques, impartiaux et sous contrôle humain. L’approche de l’UE en matière d’IA donnera donc aux citoyens la confiance nécessaire pour s’approprier des solutions fondées sur l’IA et encouragera les entreprises à les développer et les déployer.  

    A travers cet atelier, nous vous donnerons les clés de lecture et d’interprétation de cette réglementation afin de vous permettre d’anticiper son impact sur vos projets. 

    Speakers :
    Grégory Abisror, Associé Risk Advisory, Deloitte 
    Richard Eudes, Directeur Risk Advisory, Deloitte 
    Yves Yota Tchoffo, Senior Manager Risk Advisory, Deloitte

     

     

    Voir en détail
  • Le Machine Learning en support du métier de prévisionniste de ventes - exemple de déploiement chez Sephora monde

    11h00 - 11h30
    • Speakers :
      • Aurélie Auplat : Directrice Supply Chain Sephora Collection
      • Samuel Demont : Head of IRIS by Argon & Co
    Voir en détail
  • Accélération des enjeux DATA CENTRIC dans le monde bancaire

    11h30 - 12h00

    Le monde bancaire est en pleine mutation avec l’arrivée des nouveaux moyens de paiement digital, les neobanques et les assurances en ligne. Comment une banque traditionnelle peut s’adapter et pourquoi le modèle Data Centric et la solution ?

    Speakers :
    Olivier LEHE – responsable socle Data natif CA-GIP

    Voir en détail
  • L’IA au cœur des datacenters

    12h00 - 12h30

    Les datacenters sont les infrastructures numériques indispensables au stockage des données, au big data et à l’intelligence artificielle. Leur fonctionnement doit être optimal tant au niveau de la conception que de l’exploitation. L’IA peut justement être au service des datacenters pour répondre aux enjeux de continuité d’activité (maintenance prédictive) et d’efficacité énergétique.

    Speakers :
    Géraldine Camara, Déléguée générale France Datacenter
    Anne Plouvier, Responsable Secteur Stratégique Data Center, Dalkia
    Aurélien Schwartz, DG et co-fondateur, Métroscope
    Jérôme Paradis, Manager Groupes Électrogènes et UPS, Eneria
    Wilfrid Bolinois, Responsable de Déploiement de Technologies Prédictives, SNEF

    Voir en détail
  • PAUSE DEJEUNER

    12h30 - 13h00
    Voir en détail
  • PAUSE DEJEUNER

    13h00 - 13h30
    Voir en détail
  • Intelligence artificielle et big data au service des RH : quelle place pour les femmes ?

    13h30 - 14h00

    - Comment réinventer le développement, la valorisation et la rétention de vos talents ?
    - Comment peut-on encourager les femmes à rejoindre les métiers de la tech ?
    - Oui à l’IA pour une transformation data réussie, mais il faudra d’abord acquérir une certaine maturité dans la gouvernance des données
    - Quel est l'impact du juridique dans le cadre de l'IA et du big data ? Focus : présentation du projet de règlement européen en débat à la Commission européenne

    Speakers :

    Cécile BOYEKA, Consultante Data, Talan Solutions, membre de Women in Big Data Paris
    Emilie KORCHIA, Co-fondatrice, My Job Glasses
    Héla ATMANI, Co-fondatrice & CEO, Expanders & PALM
    Ngoné FALL, Directrice Data, Analytics & AI, Groupe BEL
    Marine HARDY, Avocat, Directrice des pôles Innovations et Sécurité, ITLAW Avocats
    Claudia WEBER, Avocat Associé Fondateur, ITLAW Avocats

    Voir en détail
  • Pain au chocolat ou Chocolatine ? prédire la demande et optimiser l’offre retail grâce à l’IA

    14h00 - 14h30

    Le Groupe Carrefour et Artefact présentent leur solution data-driven, adaptée à chaque magasin, déployée en collaboration avec les chefs de rayon boulangerie et managers des enseignes de proximité.

    Speaker :
    Yann Barraud - Global Chief Data Officer (CDO) chez Carrefour
    Jérôme Petit - Partner Data Conseils - Artefact
    Paul Devienne - Senior Data Scientist - Artefact

    Voir en détail
  • MATILLION

    14h30 - 15h00
    Voir en détail
  • Le Big Data et l’AI ont révolutionné la data marketing, mais comment ?

    15h00 - 15h30

    Speakers :
    - Artus de Saint Seine, DGA activités DATA, Isoskele
    - Nathalie Phan Place, Secrétaire Général et formatrice RGPD, DMA France

    Voir en détail
  • Mieux comprendre pour mieux servir – le NLU appliqué concrètement à la relation client

    15h30 - 16h00

    Face à une demande de plus en plus forte en services digitaux et intelligents, les entreprises multiplient les initiatives autour de l’IA mais peinent encore à fournir le niveau de qualité attendu par leurs clients. La qualité de la relation client commence par une compréhension précise des attentes du client, quel que soit le canal utilisé (email, SMS, chatbot, centre d’appels…), et doit pouvoir s’appuyer sur une infrastructure agile et performante.

    Dans cet atelier, Ynpact et expert.ai vous propose de découvrir comment la mise en place d’une solution d’IA appliquée à la compréhension du langage naturel vous permet de :

    • Déployer rapidement de nouveaux services dans le Cloud pour un ROI de quelques semaines
    • Offrir une qualité et un délai de réponse optimum pour améliorer la satisfaction client
    • Appliquer le même niveau de qualité à tous les canaux de communication

    A propos d’Ynpact : Ynpact is an AWS consulting partner with deep expertise on AZ Connect, the AWS CCAS, a disruptive contact center solution in the cloud, powered by AI & ML

    Ynpact provides architecture design, deployment, integration, & managed services of your contact center in the cloud.

    Speakers :

    • Manuel Michel-Tur – Co-founder & Chief  Acceleration Officer @ Ynpact
    • Eric Frances – VP Sales France & Benelux @ expert.ai
    Voir en détail

Mots clés associés

Inscrivez-vous dès à présent pour participer à Big Data & AI Paris 2021