Ateliers

Répartis dans 6 salles, les 200 ateliers représentent une concentration unique d’information sur les technologies et les solutions des marchés big data et IA, ainsi qu’une opportunité d’interagir avec ceux qui en sont à l’origine.
Ces sessions de 30 minutes illustrent de manière concrète l’apport que peuvent avoir le big data et l’IA sur un grand nombre de métiers, tout en renforçant votre socle de connaissance sur le sujet.

Atelier 1

  • Développer des applications de streaming d'événements Kafka avec Confluent Cloud et la plateforme Microsoft Azure

    10h00 - 10h30

    La technologie Kafka a su s’imposer comme un standard pour la mise en œuvre d’architectures orientées événements pour de nombreuses organisations. Confluent Cloud offre désormais la possibilité au clients Microsoft de tirer profit de la puissance Kafka à travers la simplicité, la souplesse et la robustesse d’un service managé disponible depuis la marketplace et intégré avec l’écosystème Azure (CosmoDB, Databricks, Azure Function, Synapse…).

    A découvrir au cours de cet atelier

    • Créer et démarrer un cluster Confluent Cloud dans Azure en quelques minutes
    • Connecter et intégrer des sources de données via les connecteurs
    • Développer une première application de streaming avec KSQLdb
    • Configurer une architecture hybride en capitalisant sur ses environnements Kafka on-premise avec Confluent Platform

    Speakers :

    • Stéphane Goudeau, Cloud Architect @ Microsoft
    • Olivier Laplace, Senior Solutions Engineer @ Confluent
    Voir en détail
  • Les principes clés de l’analytique visuelle

    10h30 - 11h00
    Il existe de nombreuses méthodes pour visualiser les données. Mais quel graphique ou quelle carte vous aidera le mieux à trouver des réponses à vos questions ?
    Suivez cet atelier pour découvrir comment l’analytique visuelle permet de transformer intelligemment vos données brutes en informations facilement exploitables pour l’ensemble de votre organisation.
     
    Intervenant : Selma Nebia, Ingénieur solutions, Tableau
     
    Voir en détail
  • La Finance moderne de Microsoft

    11h00 - 11h30

    Les organisations financières d'aujourd'hui sont confrontées à des défis importants pour prendre en toute confiance la meilleure décision pour leur entreprise, leur équipe ou leurs clients.
    Nous relevons nous-mêmes ces défis avec des technologies qui permettent à nos employés d’être plus efficaces. 

    Chez Microsoft, nous sommes en chemin non seulement pour aider nos clients à se transformer numériquement, mais aussi pour le faire au sein de nos propres opérations commerciales. Que le défi soit lié à l'augmentation des revenus ou à l'allocation de ressources, la technologie est le chemin le plus court vers une action meilleure et plus confiante. Mais pour donner vie à la technologie, nous devons investir dans notre personnel.

    Avec un esprit de croissance, nous sommes encouragés à prendre des risques et à apprendre et, par conséquent, nous pouvons nous sentir à l'aise en tant qu'organisation pour adopter le changement. Grâce à des formations en ligne et des académies, nous mettons nos équipes au courant des dernières technologies et évoluons vers une organisation financière moderne.

    Speaker : 

    • Ebru Cornet-Oner, CFO @ Microsoft
    Voir en détail
  • TOTAL ENERGIES : Démocratiser l’accès à la data à travers tous les métiers de l’organisation

    11h30 - 12h00

    Lors de cette session, Ridha Nabli témoignera des transformations de Total Energies autour de la data.

    Objectif du projet : rassembler tous les métiers autour des enjeux de la Data tout en mettant en place une plateforme data en temps réel.

    Nous reviendrons en détail sur les étapes du projet : stratégie, architecture, organisation interne, objectifs et challenges.  

    Speakers : 

    • Ridha Nabli : IT head of Data @ Total Energies
    • Jean Baptiste Preziosi : Energy & Utilities Sales Director @ Snowflake
    Voir en détail
  • Comment GRDF transforme et accélère le travail quotidien des métiers grâce à la donnée ?

    12h00 - 12h30

    Speaker : Matthieu Vinet, Lead Data Scientist, GRDF

    Voir en détail
  • AI from Data Center to the EDGE

    12h30 - 13h00

    Access an end-to-end AI portfolio of solutions from the Data Center to the EDGE. The purpose of this presentation is to provide key elements to identify opportunities for DL solutions for data science workflows. From the Data Center to the EDGE, PNY brings an ecosystem of hardware, software and educational services to maximize productivity, performance and ROI. PNY solutions have NVIDIA at their core and also include complementary solutions for end-to-end deployments such as AI storage from best-in-class storage providers and PNY in-house solutions, networking solutions including NVIDIA Networking and on module systems for Edge and IoT implementations. 

     

    Speakers : 

    Martin Jezequel – Product Manager Data Center,

    Mohamed Ali Hammami – Program Manager EDGE AI & IoT, PNY TECHNOLOGIES EUROPE 

    Voir en détail
  • Connaissance Client 360° : retour sur le déploiement de cas d’usage data-centric

    13h00 - 13h30

    On observe une accélération des projets data. Pourtant, malgré les ambitions croissantes, beaucoup rencontrent des difficultés pour définir une feuille de route data permettant le déploiement concret de cas d’usage générateurs de valeur pour l’entreprise.

    La connaissance client 360° est considérée comme le nouvel eldorado des entreprises. Découvrez des exemples concrets de cas d’usage data chez nos clients : ciblage intelligent, scoring prédictif, recommandation intelligente, personnalisation des produits/services dès leur conception, parcours client 360°, etc. Comment passer le cap, et déployer technologiquement vos cas d’usage ?

    A l’occasion de cette intervention, nous vous présenterons la démarche complète pour :

    Définir et prioriser une feuille de route de cas d’usage,
    Installer une culture data et une stratégie outillée de data management,
    Exemples concrets de cas d’usage basés sur la connaissance de vos clients.
     

    Speakers :
    Abdelaziz Joudar, Président Co-Fondateur
    Ornelle Tadjegou, Manager Big Data

    Voir en détail
  • Machine Learning en production: accélérez le déploiement de vos modèles

    13h30 - 14h00

    80% des projets de Machine Learning échouent et 65% d’entre eux ne sont jamais transférés en production selon Gartner. Les causes sont diverses : complexité du data management, hétérogénéité des plates formes de production et des plates formes analytiques…

    Au cours de cette session, nous vous montrerons comment Teradata Vantage permet de simplifier drastiquement la mise en production des modèles de Machine Learning.

    Agenda :

    1. Teradataml: comment interagir avec Teradata Vantage en Python
    2. Bring Your Own Model : comment importer un modèle pour l’exécuter dans Teradata Vantage

    Speakers : 

    • Jean-Charles Ravon, Principal Data Scientist @ Teradata EMEA 
    • Yannis Marigo, Principal Analytics Solution Engineer @Teradata EMEA
    Voir en détail
  • Réussir sa migration vers le Cloud : Comment migrer vos données et vos traitements Hadoop vers Databricks

    14h00 - 14h30

    Nous exposerons lors de cette session, à travers des cas pratiques, les différentes approches adoptées par nos clients pour migrer vers Databricks, les technologies requises ainsi que les outils nécessaires pour migrer les données et les traitements Hadoop dans le cloud.

    Speakers :
    Amine Benhamza, Azure Solutions Architect, Databricks
    Himanshu Arora, Partner Solutions Architect, Databricks

    Voir en détail
  • Comment l’UX/UI rebat les cartes du monde de la data

    14h30 - 15h00
    Voir en détail
  • FP&A : Automatisation de votre reporting & Forecasting dans la bonne humeur

    15h00 - 15h30

    Dans la famille FP&A, ce qui vous motive réellement pour attaquer la journée c'est l'analyse, la projection, la prescription et toute la valeur que votre expérience va pouvoir y apporter.

    Malheureusement face aux multiples sources et technologies, les étapes de nettoyage et de consolidation sont souvent manuelles et fastidieuses. Et toute cette complexité impose de rajouter de chronophages étapes de contrôle.

    Historiquement ces processus sont portés par des tableurs (Ouch !) ou des solutions de type EPM (Pilotage de la Performance) dont la mise en œuvre se compte en mois et impose un consulting conséquent.

    Bonne nouvelle, désormais Alteryx vous permet en quelques jours d'automatiser vous-même ce processus et d'aller encore plus loin dans la prédiction avec des algorithmes de DataScience embarqués.

    Venez découvrir la simplicité de mise en œuvre via un exemple concret de "mini EPM".

    On va enfin être guilleret tous les matins…

    Speakers

    • Stéphane Portier, Sales Engineer @ Alteryx
    Voir en détail
  • L'éthique de l'Intelligence Artificielle, enjeu majeur !

    15h30 - 16h00

    Si la recherche en IA et en Data Science s'est longtemps concentrée sur la performance et la précision des modèles d'apprentissage automatique, elle est maintenant majoritairement centrée sur les questions d'éthique en particulier sur la détection et la correction de la discrimination des décisions par l'IA.

    Speakers : 

    • Georges-Henri Moll, Developer Advocate - Distinguished Data Scientist 
    • Vincent Perrin, IBM Ecosystem Technical Leader 
    Voir en détail
  • Comment rendre agile la transformation et la circulation de la donnée

    16h00 - 16h30

    La clé pour une réelle réactivité des utilisateurs métiers
    Retour d’expérience de l’Agence de Services et de Paiement (ASP)

    Speakers :

    • François RABOISSON, Directeur Informatique et Technologie (DIT) @ ASP
    • Ghislain LAPORTE, Chef de service, Service Opérations, DIT @ ASP 

    Les décideurs publics font appel à l'Agence de services et de paiement pour les accompagner dans le traitement, le contrôle et le paiement de leurs aides. Outre ses tutelles, le ministère de l'Agriculture et de l'Alimentation et le ministère du Travail, de l'Emploi et de l'Insertion, l'ASP accompagne les acteurs du secteur public tels que :

    • 12 Ministères ;
    • 18 Conseils Régionaux, 96 Conseil départementaux, communautés de communes ;
    • Etablissements publics et organismes maniant des fonds publics : Agefiph, Agence du Service Civique ;
    • Fonds de solidarité, agences de l’eau, ODEADOM, ADEME ;
    • Personnes publiques étrangères.

    Après une phase importante de qualification et de benchmarking, l’ASP a choisi sa solution de Self BI. L’ASP a fait le double constat de l’exigence d’indépendance des utilisateurs métiers et du partage des données :

    • Pour libérer les utilisateurs il faut libérer leurs usages
    • Pour les rendre réactifs, il faut libérer les données

    La réactivité recherchée par les utilisateurs est tributaire du temps passé à identifier, extraire, traiter et recevoir les données censées alimenter leurs réflexions !

    L’enjeu majeur consiste donc à raccourcir ce délai de mise à disposition des données et des règles de gestion utiles aux questions business des utilisateurs.

    Plus intéressantes que les approches classiques de la BI trop orientées outils techniques, les approches actuelles centrées sur la Data, de types Big Data doivent répondre à la question suivante :

    Comment administrer et maîtriser la circulation des données dans l’entreprise et avec des entités externes ?

    Une vraie Data Gouvernance doit administrer concrètement en temps réel l’exposition de la donnée ainsi que sa consommation.

    C’est notamment l’objet de la nouvelle circulaire du Gouvernement de Jean Castex qui favorise la circulation de la donnée entre les établissements publics.

    L’ASP dit comment il exploite les dispositifs techniques de Suadeo à cet effet comme l'accès sécurisé aux données, la pseudonymisation, l’anonymisation ou l'agrégation pour assurer le partage de données entre administrations.

    Il utilise pour cela les grandes fonctions de la plateforme Suadeo qui lui garantit une meilleure circulation de la donnée dans des formats ouverts et exploitables par des tiers au travers notamment

    • d’un catalogue interne recensant les jeux de données sélectionnés par des partenaires externes
    • d’un explorateur des fichiers de toutes les bases ou structures de données
    • d’outil de gestion des transferts de données
    • d’un dispositif d’exposition et de publication des données
    • dans un système de sécurisation embarqué très fin
    • avec une solution Low-Code
    Voir en détail
  • L’Intelligence Artificielle durable

    16h30 - 17h00

    La trace carbone de l'intelligence artificielle peut dans certains cas être excessive, un article a même titré "AI me to the moon" car un modèle récent consomme autant qu'un voyage aller retour vers la lune. Toutefois il existe des approches qui permettent de réduire cettre trace carbone ouvrant des possibilités d'apprentissage jusque dans l'internet des objets. Cette session illustrera les problèmes potentiels et les approches pour une intelligence artificielle durable.

    Intervenant :  Marc Fiammante, IBM Fellow.

    Voir en détail

Atelier 2

  • Comment le temps réel et le streaming analytique enrichissent une plateforme digitale de gestion de l'espace urbain

    10h00 - 10h30

    Afin de piloter la consommation énergétique, améliorer la sécurité des usagers ou encore contribuer à des projets durables, découvrez comment le temps réel, le streaming analytique associés au no code-low code participent à la gestion des villes intelligentes

    Intervenant : Thomas Féron, Solution Consultant, TIBCO Software  +  témoignage client
     

    Voir en détail
  • Groupe Suez : La solution Denodo comme socle de la stratégie Data

    10h30 - 11h00

    Nicolas Cornet, Head of Data Engineering au sein du Groupe Suez détaillera comment la société a mis en œuvre la solution de virtualisation de données de Denodo au service des initiatives Data du groupe. Il abordera notamment les points suivants :

    • Positionnement de Denodo, déployé sur Azure, dans la stratégie digitale et l'écosystème global de Suez
    • Les différents cas d'usage déployés : remontée des KPIs Groupe, optimisations logistiques, Data Science …
    • La valeur apportée par Denodo pour le Groupe Suez

    Speakers : 

    • Nicolas CORNET, Group Head of Data Engineering, Data Office – Direction Digitale – RISE @ Groupe Suez
    • Lucie Deshayes, Account Executive @ Denodo
    Voir en détail
  • Valorisation de la donnée : quelle organisation adopter, avec quels profils

    11h00 - 11h30

    Les départements data et IT des organisations sont parfois, eux-aussi, victimes de la mode. Chaque ère technologique est marquée par une ou plusieurs tendances portées par l’innovation, les changements sociétaux ou de nouveaux besoins ou business models poussés par les organisations. 
     
    Avec une digitalisation de plus en plus importante qui s’est accélérée pour certains secteurs suite à la pandémie de la Covid-19 et des données présentes dans tous les coins et recoins d’une entreprise, les responsables IT, data et métier se rejoignent autour d’une même question : comment valoriser la donnée ? 
     
    Dans cette quête de valorisation, voire de monétisation, l’analyse des données prend une place de plus en plus importante au sein des organisations mais ces efforts demeurent trop souvent infructueux. Bien que les choix technologiques soient primordiaux, le problème est généralement d’ordre organisationnel : 

    • Existe-il une équipe idéale permettant de mieux comprendre les enjeux métier de la donnée ? 
    • Quels sont les nouveaux profils indispensables à la réussite de cette quête ? 
    • Quels sont les challenges en matière de recrutement ? 
    • Entre conduite du changement et organisation structurelle, comment réussir à fédérer autour de la donnée ?

    Speakers :

    • Mick Levy Directeur de l’Innovation Business @ Business & Décision
    • Hymane Ben Aoun Fleury, CEO @ Aravati
    • Jacques Padioleau, Regional VP Emea South @ Talend
    Voir en détail
  • Façonner les données avec la plateforme Ab Initio

    11h30 - 12h00

    Les grandes entreprises ont besoin d'une plateforme de données à hautes performances qui offre automatisation et self-service. Elle doit être capable de réussir dans un environnement en changement perpétuel, de s'adapter aux nouvelles réalités et de relever les défis les plus difficiles en matière de traitement et de gestion des données dans l'informatique d'entreprise. Cette plateforme, c'est Ab Initio.


    Cette plateforme s’appuie sur les fondamentaux de la technologie Ab Initio :

    • Le moteur d’exécution est piloté par les métadonnées pour augmenter considérablement la généricité des chaînes de traitement.
    • Les mécanismes aboutis de calcul parallèle et distribué supportent nativement la mise à l’échelle élastique pour exploiter les conteneurs et Kubernetes.
    • Les traitements optimisent l’utilisation des ressources matérielles pour offrir des performances exceptionnelles en temps réel ou en mode batch.
    • Les applications Ab Initio s’exécutent sur la plupart des infrastructures de calcul physiques ou virtuelles, aussi bien sur site que dans le cloud ou dans une architecture hybride.
    • Le paradigme de programmation graphique par flux de données rend le code compréhensible pour les métiers.
    • Transformation de données sans code ou Low Code : La solution Ab Initio permet aux développeurs et aux experts métier de se concentrer sur l'aspect innovant de leurs applications plutôt que de s'occuper de développement bas niveau.

    Avec la plateforme de traitement de données Ab Initio, il devient simple de concevoir, d'implémenter et de tester des applications complexes On-Premise et dans le Cloud.

    Speaker : Mathias Chaillot, Technical Account Manager @ AB Initio

    Voir en détail
  • Gérer un modèle de risque de crédit en production

    12h00 - 12h30

    Prevision.io a aidé un grand groupe bancaire à mettre en place un système prédictif de scoring de crédit dans un environnement hautement régulé. Prevision.io leur a permis de construire un modèle entièrement explicable pour afficher les scores dans les outils de travail des analystes. Le modèle est ré-entraîné régulièrement au fur et à mesure de la mise à jour des données et d’une boucle de retour des analystes. Chaque étape est traçable et versionnée, dans un processus facilement auditable

    Speaker :
    Gérôme Pistre, Chief Product Officer, Prevision.io

    Voir en détail
  • Machine learning supervisé pour les graphes dans Neo4j

    12h30 - 13h00

    Participez à cette session pour découvrir les capacités de machine learning supervisé de Neo4j et apprendre comment former et stocker des modèles de machine learning (ML) avec la bibliothèque Graph Data Science (GDS).

    La plupart des modèles de data science ignorent la structure des réseaux. La technologie des graphes, quant à elle, permet de créer des caractéristiques hautement prédictives pour les modèles de ML ce qui permet d'augmenter la précision et de répondre à des questions complexes en se basant sur des relations. La dernière mise à jour de GDS fournit un nouveau pipeline de construction de modèles de bout en bout entièrement dans Neo4j afin que vous puissiez profiter des techniques de ML de pointe et mettre continuellement à jour votre graphe - le tout sans quitter Neo4j.

    Dans cette session, nous montrerons comment générer des représentations de votre graphe à l'aide de graph embeddings, créer des modèles de ML pour la prédiction de liens ou la classification de nœuds, et les appliquer pour ajouter des informations manquantes à un graphe existant ou à des données de graphe entrantes. Vous découvrirez également d'autres mises à jour récentes, notamment de nouveaux algorithmes de graphes et l'optimisation de la mémoire. Nous répondrons à vos questions tout au long de cette session !

    Intervenant :

    • Nicolas Rouyer, Senior Sales Engineer @ Neo4j 
    Voir en détail
  • Couchbase 7.0 : La force du relationnel, la flexibilité et l'évolutivité du NoSQL

    13h00 - 13h30

    Les clients se tournent vers Couchbase lorsque d'autres bases de données ne peuvent pas fournir les performances, l'agilité de développement, la rentabilité et l'évolutivité dont ils ont besoin. Server 7 ajoute à Couchbase les atouts d'une base de données relationnelle, notamment les transactions en SQL, la modélisation des données et le premier optimiseur coûts du secteur pour une base de données JSON.

    Retrouvez flexibilité et performances et réduisez votre coût total de possession (TCO) en migrant sans couture votre ancienne base de données vers Couchbase.

    Rejoignez Pascal Gasp, Ingénieur Solutions chez Couchbase pour découvrir comment Server 7 révolutionne les bases de donnée notamment :

    • Élargit considérablement la prise en charge des applications transactionnelles, minimise la dépendance vis-à-vis du SGBDR et réduit vos coûts, l'étalement des données et les charges opérationnelles,
    • Simplifie les architectures d'applications avec de nouvelles structures de stockage des données qui se transposent facilement aux schémas SGBDR et améliorent la sécurité, le clustering à haute disponibilité, le sharding automatique et la réplication,
    • Fournit des performances opérationnelles plus rapides et un coût total de possession (TCO) réduit grâce à un nouvel accès aux données granulaires, un partitionnement, une indexation et l'optimiseur coûts.

    Speaker :
    Pascal Gasp, Ingénieur Solutions, Couchbase

    Voir en détail
  • Boostez la culture analytique au sein de votre entreprise

    13h30 - 14h00

    Pour capitaliser sur vos données et en tirer toute la valeur, il est temps de créer une vraie culture analytique au sein de votre société. Qu’il s’agisse d’améliorer des processus existants, de les automatiser ou d’en créer de nouveaux, ces tâches sont encore trop souvent cloisonnées à une minorité d’« experts data » onéreux et surchargés de travail.  

    Dans cette conférence inspirante, le Dr. Frank Vanden Berghen présente différentes solutions concrètes pour favoriser l’engagement de tous vos collaborateurs dans des activités « data » et ainsi créer une dynamique analytique au sein de votre organisation. 

    Speaker : 

    • Dr. Frank Vanden Berghen, CEO @ TIMi

     

    Voir en détail
  • Pourquoi & comment automatiser son architecture analytique ?

    14h00 - 14h30

    Alors que les architectures analytiques ne cessent de se complexifier par le nombre croissant d’applications, de traitements, de sources et d’environnements, il est aujourd’hui impératif pour les organisations d’accélérer leur transformation digitale.
    Pour ce faire, les organisations placent l’analytique et l’IA en tête de leurs priorités. 

    • Quel état des lieux des architectures analytiques et des besoins métiers ?
    • Quelles sont les options technologiques pour automatiser son architecture data et répondre aux nouvelles exigences des cas d’usages analytiques ? 
    • Live Démo : Zero Time To Data – la solution Indexima
    • Quels résultats escompter : FinOps, DataOps et temps projet

    Intervenants :
    Florent Voignier, Co-fondateur et CTO, Indexima
    Sébastien Farges, VP Engineering, Indexima
     

    Voir en détail
  • Talend Data Escape Game : Mission to Data Health!

    14h30 - 15h00

    Le vaisseau Talend s’apprête à décoller pour une nouvelle mission de la plus haute importance. Grâce aux premiers équipages, nous avons pu installer avec succès l’entrepôt de données sur la planète Mars mais nos chercheurs ont identifié un nouveau danger. 
    La fiabilité et l’intégrité des données est en jeu. 

    Rejoignez-nous sur Mars en direct de Big Data Paris 2021 pour nous aider et explorer de manière ludique les bonnes approches sur les sujets de qualité et gouvernance des données.
    Astronaute confirmé, vous êtes expert data ou en charge d’un projet de transformation mais vous ne connaissez pas les solutions Talend ? Nous avons besoin de votre expertise pour préserver la santé des données.

    Speaker : 

    • Jerome Elek, Pré-Sales  @ Talend
    Voir en détail
  • L'expérience Bayer, la combinaison bénéfique de l'analytique et de la data virtualisation

    15h00 - 15h30

    Quand TIBCO Spotfire permet l'analyse des données par les utilisateurs métiers au bon moment, TIBCO Data Virtualization résout l'accès aux données sans modification des sources physiques. Illustration par l'expérience de Bayer. 

    Intervenant : Mathieu Guillot, Solution engineer, TIBCO Software
     

    Voir en détail
  • La Data, au coeur de la stratégie de l’assurance du futur

    15h30 - 16h00

    Dans une volonté de repenser l’assurance, Luko & Wakam se sont associés pour offrir une expérience unique et 100% digitale à chacun de leurs assurés.
    Pour y parvenir, ils deviennent 100% data driven, utilisent les méthodes de machine learning les plus modernes et positionnent le data sharing, sécurisé et en temps réel, au cœur de leurs stratégies.Avec une capacité d’analyse ultra rapide et flexible, les deux assureurs obtiennent des insights clés sur l’ensemble de leurs activités et de leurs clients.

    Speakers :

    • Julien Gigoi, Chief Actuary Officer @ Luko
    • Raphaël Pousset-Bougère, Chief Data Officer @ Wakam
    • Yohann Zerbib, Sales Director, @ Snowflake
    Voir en détail
  • L’automatisation des processus métiers au sein de l’Analytics

    16h00 - 16h30

    Découvrez au travers d’une démonstration, comment Qlik Sense® et Qlik Application Automation® permettent de connecter vos Analytics à plus de 500 outils métiers différents (SFDC, Microsoft Teams, Marketo, Slack, HubSpot etc…) afin d’automatiser des processus métiers et déclencher des actions, le tout sans script. Nous prendrons l’exemple concret d’une campagne marketing qui sera déclenchée directement depuis Qlik Sense®, suite à une analyse de données clients. 

    Speaker:

    • Xavier Le Pitre, Principal Solution Architecte @ Qlik
       
    Voir en détail
  • Data centric AI

    16h30 - 17h00

    Moving from the common model-centric approach to a data-centric approach is a long path. At Kili, the data centric AI challenge gave us strong insights of the way to improve a model's performance, by iterating on the training and validation data we provide to the model. Cleaning the data and correcting mislabeled assets is the first step, but then what can I do next ? This talk will present the different techniques of analytics, dataset visualization, data augmentation to leverage your data and boost your model's performance.

    Key takeaways :

    • Increase dataset quality
    • Increase dataset size
    • Understand your dataset
    • Diagnose models

    Speakers : 
    Édouard d’Archimbaud, CTO et cofondateur de Kili Technology
    Paul Maisondieu, Data scientist chez Kili Technology. 

    Voir en détail

Atelier 3

  • 2021 Meilleure année pour Apache Cassandra™

    10h00 - 10h30

    Apache Cassandra™ est la base de données distribuée open source qui scale sans limites. Durant cette présentation venez découvrir pourquoi les géants du web comme Apple, Netflix, ou Uber la plébiscite et quels sont les différents cas d'usages.

    Cette année 2021 a été riche en innovations avec la sortie de Cassandra 4.0. Venez apprendre ce qui est nouveau et d'où proviennent les importants gains en performance et stabilité.

    DataStax est très active dans la communauté et nous présenterons les différentes innovations et nouveaux outils gratuits à votre disposition: Stargate.io, K8ssandra.io ou encore AstraDB.

    Speaker : Cedrick Lunven, Director of Developer Relations @ Datastax

    Voir en détail
  • Captez vos données en temps réel pour alimenter votre analytique et prendre la bonne décision au bon moment

    10h30 - 11h00

    Transformez les données brutes en résultats tangibles grâce à la seule solution d'intégration et d'analyse des données de bout en bout du marché.
    Lors de cet atelier, nous vous montrerons comment Qlik vous permet de capter vos données en temps réel (change data capture) et de les envoyer de façon automatisée vers Qlik Sense® pour les transformer en valeur métier 

    Speakers :

    • Jean Atienza, Principal Solution Architecte @ Qlik
    • Vincent Legeard, Principal Solution Architecte @ Qlik
    Voir en détail
  • La gouvernance et l'intégration des données, prérequis à des projets Big Data et AI réussis !

    11h00 - 11h30

    La mise en œuvre des solutions Big Data et AI nécessite comme prérequis la découverte des différents gisements de données de l’entreprise, leur normalisation, leur rapprochement et consolidation. Très souvent l’intégration de données externes est aussi nécessaire rendant encore plus délicate la création de Data Lakes et Data Warehouses complets et cohérents.
    Lors de cet atelier vous découvrirez comment la solution Cloud Native Boomi, leader sur le marché iPaaS, permet d’anticiper ces défis grâce à sa plateforme Cloud unifiée et Low-code. Tout ceci en intégrant les utilisateurs métiers dans ces processus de validation, qualification, et redressement des données métiers.

    Vous verrez notamment les capacités de Boomi en termes de :

    • Gouvernance des données (Data Catalog and Preparation)
    • Rapprochement , consolidation et vue unique (Master Data Hub)
    • Interconnexion, transformation et distribution (Integrate)
    • Interfaces et workflows utilisateurs métiers (Flow)
    • Intégration de sources de données externes & Exposition (API, EDI)

    Une approche qui vous permettra d’accélérer la mise en place de vos projets et d’améliorer la fiabilité et la cohérence des données indispensables aux métiers.

    Speaker : Bruno Labidoire Boomi Senior Presales Manager, EMEA SOUTH 

    Voir en détail
  • Eviter la ‘Data Indigestion’

    11h30 - 12h00

    Qu’est-ce qui empêche aujourd’hui les entreprises de valoriser leur patrimoine de données ? De devenir ‘data-driven’ ? Ce n’est pas le manque de données, au contraire, mais l’accumulation de données souvent périmées ou de mauvaise qualité, des équipes qui ne parviennent pas à travailler ensemble, des technologies pas adaptées…
    Une remise en forme s’impose, qui demande 1) de revoir complètement la gouvernance, et 2) de bâtir une plateforme de qualité industrielle.
    Pour éviter le cauchemar en arrière-cuisine, nous reviendrons sur les ingrédients d’un projet data réussi, en nous basant sur les recettes mises en œuvre chez nos clients.

    Speakers :
    Florent Legras, Head of Data @SFEIR Paris
    Olivier Rafal, Head of Consulting @SFEIR    

    Voir en détail
  • Le Deep Learning, ou apprentissage profond, est LA révolution technologique en cours dans le monde de la dématérialisation et du LAD / RAD

    12h00 - 12h30

    reciTAL, premier éditeur de traitement automatique des documents labellisé Deep Tech, a choisi Documation 2021 pour présenter sa nouvelle solution Extract dédiée à l'extraction d'informations dans tous les types de documents.

    A l'occasion de cette séance, Gilles Moyse, CEO de reciTAL, PhD en Intelligence Artificielle, présentera les dernières avancées de l'Intelligence Artificielle et du Deep Learning appliquées à l'automatisation du traitement des documents, et en donnera des exemples concrets au travers de la solution reciTAL Extract."

    Speaker :

    • Gilles Moyse est docteur en Intelligence Artificielle de Sorbonne Université. Il a également une formation d'ingénieur et une expérience de 8 ans dans des cabinets de conseil internationaux.

    Aujourd'hui, il est président et co-fondateur de reciTAL, un éditeur de logiciel de traitement automatique des documents.
    Gilles a fait partie de la délégation française du G20 des entrepreneurs en 2017, a reçu le prix AI Paris et le Coup de coeur Finance Innovation en 2019. Il a enseigné l'Informatique et l’Intelligence Artificielle à Sciences Po Paris, ESCP Europe et l'ECS.

    Voir en détail
  • Les 12 clés pour planter son projet d'IA

    12h30 - 13h00

    L’IA se démocratise. Tout le monde a le droit d’empiler des POC qui n’aboutissent à rien. Tout le monde a le droit de mobiliser des ressources pendant plusieurs années et de dépenser des budgets pharaoniques avant d’interrompre brutalement le projet faute de résultats. Tout le monde a le droit de faire des promesses irréalistes et de décevoir les utilisateurs. Voici les 12 clés pour planter à coup sûr son projet d’IA ! 

    Speaker :

    Gérald PETITJEAN - Expert en Intelligence Artificielle - EURODECISION

    Voir en détail
  • Adoptez une gestion moderne et décentralisée de vos données avec le Data Mesh

    13h00 - 13h30

    S’il y a un thème commun aux 30 dernières années d’innovation dans le domaine des plateforme de données, il s’agit certainement de la volonté de centraliser la donnée et de rationaliser les compétences nécessaires à sa gestion.

    De nouveaux outils à la pointe de cette innovation commencent à laisser entrevoir la possibilité d’un nouveau paradigme pour les entreprises, capitalisant sur leurs plateformes existantes tout en permettant aux équipes métiers de gérer leurs données de manière décentralisée dans le but d’en favoriser le partage, la qualité et la sécurité.

    Lors de cette session, nous vous présenterons plus précisément ce qu'est le Data Mesh, ses enjeux, ses bénéfices et comment la plateforme Google Cloud facilite la mise en œuvre de cette nouvelle approche de la donnée.

    Speaker : 

    • Johan PICARD, Data & Analytics Practice Lead @ Google Cloud
    Voir en détail
  • Utilisation du deep learning pour l’évaluation du risque de contamination à la Covid -19 en temps réel

    13h30 - 14h00

    Surveillance en temps-réel du respect du port du masque grâce à l’IA

    Utilisation combinée de la computer vision avec atoti

    Participez à notre atelier pour découvrir l’association du deep learning et de notre plateforme atoti autour d’un sujet d’actualité.

    Dans cette session, nous allons présenter une solution innovante à utiliser pour vérifier le respect des mesures barrières liées à la Covid-19 par caméra. Elle combine l’utilisation de la computer vision et d’atoti en deux étapes :
    1. Détection en temps-réel de visage masqué ou non à l’aide d’un modèle de deep learning
    2. Prise en compte des résultats de l’inférence du modèle (détections) et le post-traitement dans atoti; qui agrégera et restituera les résultats en temps-réel sous forme de metrics ou de KPI dans des dashboards interactifs.

    Lors de cette présentation, vous découvrirez comment utiliser un modèle de deep learning et en restituer les résultats post-traités en temps réel via des dashboards interactifs en utilisant atoti.

    Ici, nous nous limiterons à l’utilisation d’un notebook Jupyter, bien qu’atoti permette de complètement industrialiser cette application et l’héberger dans le cloud.

    Nous serons également présents pour répondre à vos questions en direct.

    Intervenant :
    Ariel IBABA
    Lead Data Scientist
    ATOTI

    Voir en détail
  • Modernisez vos applications avec Astra DB

    14h00 - 14h30

    Astra DB est une plateforme de base de données “serverless” fournissant Apache Cassandra-as-a service (DBaas) disponible sur les clouds GCP, Azure et AWS.

    Durant cette présentation, venez découvrir la simplicité et la rapidité du service qui reste neutre par rapport au cloud provider.

    En sus de l'utilisation de drivers historiques, la plateforme propose une Data Gateway, appelée Stargate, permettant l'expositions d'APIs REST, graphQL ainsi qu'un ingénieux moyen de manipuler des documents JSON.

    Cette présentation est complètement orientée démonstrations. Venez échanger avec nos experts pour comprendre comment et pourquoi vos développeurs deviennent plus productifs et votre “time to market” bien plus court.

    Speaker:  David Leconte, Pre-Sales Data Architect @ Datastax

    Voir en détail
  • Accélérer l'innovation avec une seule plateforme pour toutes les applications

    14h30 - 15h00

    La plate-forme de données d'application MongoDB s'est concentrée sur l'accélération de la productivité des développeurs et l'élimination de la taxe sur l'innovation associée aux infrastructures de données tentaculaires. Nous sommes convaincus que la meilleure façon d'aborder cela est avec une interface qui peut prendre en charge tout type de charge de travail d'application sans se limiter à un seul environnement de déploiement. Il s'agit d'accélérer l'innovation avec une seule plate-forme pour n'importe quelle application, n'importe où.

    Speaker:
    Sylvain Newland, Senior Solutions Architect, MongoDB

    Voir en détail
  • Knowledge graph vs. Machine Learning : et pourquoi ne pas combiner les deux ?

    15h00 - 15h30

    Analyser et comprendre automatiquement chaque mot, chaque phrase – dans son contexte métier spécifique – est le meilleur moyen de valoriser la connaissance au sein d’une organisation. Découvrez comment industrialiser l’exploitation des données linguistiques grâce à la 1ère plateforme de NLP/NLU vous permettant de combiner connaissances et apprentissage automatisé pour obtenir rapidement les meilleurs résultats quelle que soit la source des données et pour tous les cas d’usage. 

    Speaker :

    • Eric Frances – VP Sales France & Benelux @ expert.ai
    Voir en détail
  • MICROSOFT x ALPINE : La technologie propulse Alpine F1® Team au-delà de la piste

    15h30 - 16h00

    En Formule 1, chaque milliseconde compte. Alpine F1 Team suit le rythme de l'innovation pour pousser ses performances sur et en dehors de la piste. 
    Chaque fois que les pilotes d'Alpine F1 Team Fernando Alonso et Esteban Ocon prennent le volant, plus de 200 capteurs collectent plus de 50 milliards de points de données qui aident le personnel technique à améliorer l'aérodynamisme, les performances et la maniabilité.

    Les données sont critiques.

    Avec des courses à seulement une ou deux semaines d'intervalle, Alpine F1 Team doit concevoir, tester et fabriquer des optimisations à un rythme accéléré. Pour aider à cela, l'équipe se tourne vers ces milliards de points de données qu'ils capturent à partir de la voiture chaque week-end.

    En s'appuyant sur Microsoft Azure, l'équipe est en mesure de consolider toutes leurs données dans un seul environnement pour découvrir les informations clés qui façonnent les décisions de conception et éclairent la stratégie de course.

    Découvrez les données derrière Alpine F1 Team.

    Speaker : 

    • Marc Colson, Sales & Marketing IS Domain Manager @Alpine
    Voir en détail
  • Simplifiez tous vos uses cases d’intégration de données avec les solutions Oracle

    16h00 - 16h30

    L'intégration des données est une étape primordiale dans la mise en place et le fonctionnement d'une Data Platform. 

    Que ce soit un Data Warehouse, un Data Lake, un Lake House ou un Data Mesh, tous ces patterns nécessitent un déplacement fluide des données. 

    Néanmoins, les systèmes d'information de nos jours relèvent beaucoup de défis quant à la collecte de données : format, vélocité, volume, complexité de transformation et gouvernance.
    Venez découvrir comment les solutions d'Oracle vous aident à accélérer l'exploitation des données en couvrant tous les cas d’usages que vous pourriez rencontrer.

    Speakers :  
    Seif Abbassi, Cloud Engineer, Oracle
    Julien Testut, Senior Product Manager, Oracle 

    Voir en détail
  • Le futur de la Data avec Google Cloud en 2022

    16h30 - 17h00

    Google Cloud a annoncé en mai l'arrivée imminente de quatre nouvelles solutions data : Dataplex, Analytics Hub, Datastream et Dataflow Prime, une extension de son service phare de transformation de donnée basé sur Apache Beam. Avec la disponibilité en avant-première de Dataplex, Analytics Hub et Datastream, les entreprises peuvent se libérer des silos de données pour prédire en toute sécurité les résultats commerciaux, responsabiliser les utilisateurs et prendre des décisions éclairées et en temps réel dans l'environnement numérique dynamique d'aujourd'hui. Et avec l'arrivée de Dataflow Prime, les utilisateurs pourront passer à l'échelle automatiquement aussi bien horizontalement que verticalement grâce à une gestion élastique et serverless de son infrastructure. Et plus encore ! Venez découvrir les nouveautés de la plateforme Data de GCP, mêlant le meilleur de l'open source, du serverless et des méthodologies Google !" 

    Speaker : Ghizlane El Goutbi, Customer Engineer, Smart Analytics chez Google Cloud ;  Sabi Traifi, Customer Engineer, Smart Analytics chez Google Cloud

    Voir en détail

Atelier 4

  • AFFLELOU x EKIMETRICS : Data x Retail : Comment aborder une transformation stratégique au service de l’expérience client ?

    10h00 - 10h30

    Activer la data pour la mettre au service des enjeux business et de la connaissance client est un défi crucial pour le secteur du retail. Pour Alain Afflelou, qui a depuis longtemps fait de la stratégie client une priorité, la transformation data a débuté il y a quelques années. Une transformation aux côtés d’Ekimetrics plus récemment, qui a piloté main dans la main avec les équipes d’Alain Afflelou la mise en place d’un data lake, première pierre à l’édifice du socle data de l’entreprise. Construction de la roadmap data, défis techniques, gouvernance des données, cas d'usage, apport des métiers, data visualisation… 

    Que retenir de cette expérience, et quels sont les facteurs de succès d’une transformation data sur le court et le long terme ? 

    Speakers : 

    • Mathieu Choux, Partner @ Ekimetrics
    • Severine Claude, Head of Data & CRM @ ALAIN AFFLELOU
    Voir en détail
  • Révolutionner le traitement intelligent des documents

    10h30 - 11h00

    Et si vous pouviez

    • Rapidement & facilement transformer des documents professionnels non structurés en informations structurées et exploitables ?
    • Transférer en toute fluidité les connaissances (sous forme de compétences) à votre force de travail numérique et à vos utilisateurs professionnels ?
    • Intégrer l’intelligence à vos processus clés en lien avec les clients ?

    Tout cela est possible avec notre plateforme low-code/no-code de services cognitifs fournis sous forme de « compétences » qui utilisent l’IA pour comprendre vos documents de façon simple et rapide.

     

    Speaker :
    Linda AMEUR, Directrice Commerciale France, ABBYY

    Linda Ameur est Directrice Commerciale France chez ABBYY, responsable du développement de la stratégie commerciale locale. Avec plus de 10 ans d’expérience en tant que Channel Manager et Account Manager sur le marché du Business Process Automation et business Intelligence en France et en Australie, Linda a accompagné partenaires et clients dans la mise en place de solution de digitalisation afin d'accroitre leur compétitivité.

    Voir en détail
  • Repenser la gouvernance des données

    11h00 - 11h30

    La gouvernance des données est en panne.
    Depuis trop longtemps, les équipes informatiques s'efforcent de maintenir le contexte et la conservation des données avec des ressources limitées et une vision à court terme. Les gestionnaires des données passent trop de temps à effectuer manuellement des tâches fondamentales et les processus de gouvernance n'ont pas vraiment évolué pour prendre efficacement en compte l'ampleur et la portée considérables des nouvelles sources, des nouveaux types et des nouveaux silos de données. 
    Seules les organisations qui sauront faire évoluer leurs pratiques ancestrales de gouvernance des données pourront émerger en tant que leaders de leur marché.

    Il est grand temps d'adopter une nouvelle approche. Au lieu de continuer à utiliser des processus de gestion descendants, laissez vos données définir vos priorités de gouvernance. Repensez votre approche de la gouvernance pour diriger votre entreprise avec vos données, en tirant profit des nouvelles technologies de machine-learning et de deep-learning pour automatiser les processus, obtenir rapidement des informations exploitables, et améliorer la précision des procédures de gouvernance. Permettez aux gestionnaires des données de passer du traitement manuel des données à des processus automatisés, tout en leur donnant la possibilité d’instaurer une politique évolutive pour la gouvernance des données.

    Speaker :

    • Sebastien LeLarge, Solution Engineer, Southern EMEA @ BigID
    Voir en détail
  • Révélez le pouvoir de vos processus

    11h30 - 12h00

    Signavio vous permet de générer de la valeur plus rapidement dans vos initiatives de process mining intelligents, vos impératifs RPA à grande échelle, votre orientation processus de bout en bout, vos efforts collaboratifs, vos stratégies d’excellence client... et bien plus !

    Voir en détail
  • Apprentissage machine des données textuelles : quelques pièges à éviter.

    12h00 - 12h30

    L’analyse de données textuelles à l’aide de techniques d’apprentissage automatique, à des fins descriptives ou prédictives, est pleine de pièges que vous devez reconnaître afin de les éviter. Au cours de cette présentation, nous allons examiner les caractéristiques propres aux données textuelles qui posent un défi bien particulier ainsi que quelques exemples de situations où l’apprentissage machine est inopérant. Diverses solutions vous seront proposées. Nous examinerons le rôle des techniques de prétraitement, ainsi que la contribution possible d’une approche combinée d’analyse sémantique et qualitative aux techniques d’apprentissage machine pour atteindre de meilleurs résultats.

    Speaker :

    • Normand Péladeau, CEO, Président fondateur @ Provalis Research
    Voir en détail
  • IVIDATA

    12h30 - 13h00
    Voir en détail
  • Table Ronde CDO autour de l’IA - Finis les POC, place à la valeur à l’échelle !

    13h00 - 13h30

    Au cours des dernières années,  de nombreuses entreprises ont testé l'IA : recrutement de ressources spécialisées, quelques POC, premiers cas d'usage métier. Ces expérimentations ont permis d'envisager un potentiel énorme de l'IA pour les différentes lignes de métier.

    Depuis, les enjeux liés à l'adoption de l'IA ont évolué : la valeur pour les métiers doit dépasser le stade du POC pour réussir le fameux passage à l'échelle. Cet objectif ne peut être atteint à n'importe quel prix et de nouveaux risques font leur apparition. Nous voyons les enjeux réglementaires, de transparence ou d'IA de confiance devenir critiques.Nous aborderons ces thématiques et ouvrirons ensemble des solutions possibles autour d'une table ronde organisée par Datarobot, spécialiste des solutions d'IA en entreprise, en présence d'experts CDO reconnus dans le domaine.

    Speaker :
    Andre Balleyguier, VP Data Science EMEA, DataRobot
    Samir Amellal, Global Chief Data Officer, La Redoute
    Olivier Monnier, Group Chief Data Officer, Matmut

    Voir en détail
  • l’IA à l’épreuve des faits

    13h30 - 14h00

    L’Intelligence Artificielle est encore l’objet de nombreux fantasmes, notamment dans sa capacité à transformer l’entreprise et à lui permettre d’accroître sa valeur ajoutée. Mais dans les faits où en sommes-nous réellement ? Dans quels domaines l’IA répond-elle à cette espérance ? 

    Cet atelier a pour objectif de répondre à quelques-unes de ces questions en remettant en perspective une vision réaliste des apports de l’IA dans l’entreprise.

    Speaker :
    Olivier Guérin, Associé.

    Voir en détail
  • Les technologies Big Data et IA au service d’usages à partir de données modélisées par des graphes

    14h00 - 14h30

    Quotidiennement, l’IA et le Big Data s’articulent conjointement pour traiter, analyser et mettre en mouvement la donnée au service de nombreux objectifs stratégiques de l’entreprise. Les graphes permettent de représenter les liens entre différentes entités, et les applications potentielles sont nombreuses, comme dans les secteurs de la santé, la mobilité, les fraudes ou encore les ressources humaines. L’exploitation de ces données nécessite de développer des méthodes d’analyse et d’apprentissage spécifiques.

    • Comment cet écosystème s’harmonise-t-il ?
    • Comment est-il mis en valeur et quels sont ses impacts pour l’entreprise et sa croissance ?

    Découvrez les différents usages du Big Data et de l’Intelligence Artificielle à partir de données modélisées par des graphes, et comprenez l’articulation qu’il est possible d’établir pour votre propre entreprise.

    Speaker : Marie-Aude Aufaure, CEO Datarvest et Responsable pédagogique des parcours Big Data chez CentraleSupélec Exed

    Voir en détail
  • Découvrez comment éliminer les obstacles entre vous et vos données

    14h30 - 15h00

    Pour que l'analyse de données ne soit plus jamais frustrante ou compliquée, découvrez comment rendre clair ce qui est compliqué. Le secret derrière des taux d'adoption et de satisfaction records.

    Voir en détail
  • Modernisation de votre data management : carburez à l'hybride

    15h00 - 15h30

    L’adoption massive des multiples clouds, le contexte d’accélération de transformation digitale, le focus sur les interactions avec les clients, les partenaires, les employés, le recours à l’Intelligence artificielle et au Machine Learning pour mieux comprendre son environnement changent profondément la façon de considérer ses données.

    Trouver le bon mix data management devient un enjeu encore plus important, sinon une obligation.

    L’hybride est un des moyens d’obtenir plus d’efficience, une meilleure carburation pour conduire ces stratégies data. Mais ce n’est pas forcément l’hybride auquel vous pensez. Il existe quatre dimensions, quatre facteurs hybrides qui impactent les capacités de projection, les utilisateurs, les patterns d’intégration et les modes d’exécution.

    Nous illustrerons par quelques retours d’expérience, comment, avec Informatica Intelligent Data Management Cloud, nos clients réussissent leur modernisation en ajoutant de l’hybride dans leurs stratégies data.

    Speaker :

    • Cédric Israel, Cloud Sales Specialist France @ Informatica
    Voir en détail
  • Imerys : Assurer le succès d’un projet BI groupe avec la mise en place d’un Data Hub

    15h30 - 16h00

    Avec Alexis Guionin, Group Data Management Leader chez Imerys, découvrez comment une stratégie de master data management permet d’assurer la réussite d’un projet BI groupe. Il expliquera l’importance de l’harmonisation des données dans un environnement SI complexe issu de multiples fusions-acquisitions et le choix de mettre en place un data hub centralisé pour bénéficier d’une vision 360 des activités afin d’assurer l’efficacité commerciale.
    Lors de ce retour d’expérience, il abordera également les challenges rencontrés pour réaliser ce projet, les grandes étapes, les facteurs clés de succès et les bénéfices.

    Speaker :

    • Alexis Guionin, Group Data Management Leader @ Imerys
    Voir en détail
  • Comment une IA de confiance peut renforcer votre politique et stratégie de maintenance prédictive ?

    16h00 - 16h30

    Speakers :

    • Franck RAVAT, Professeur des Universités @ IRIT - Université Toulouse I Capitole
    • Jiefu SONG, Directeur R&D @Activus Group
    • Cyril FRANÇOIS, Consultant data supply chain architect @Activus Group
    Voir en détail
  • WSO2 : Comment valoriser son capital data grâce à un API Manager

    16h30 - 17h00

    Simon évoquera la possibilité de partager des données / services en plus grand nombre et de manière plus simple et pérenne,mais aussi de la capacité de monétiser ces services et, ainsi, de faire du partage de ces données / services une nouvelle offre de l'entreprise.

    Speaker :
    Simon GRIFFON

    Voir en détail

Atelier 5

  • Organizations and their data assets: a data mesh?

    10h00 - 10h30

    The data asset has significantly grown in importance over the last decade, and it shows no signs of stopping. We’ve seen new roles grow in data leadership (e.g., Chief Data Officer), new architectures emerge (e.g., Data Mesh), and an explosion in technologies to help tame the data asset.

    Despite this forward momentum many organizations today still struggle to increase their data maturity. Stan will share his perspective on the past decade of data, what it means for the roaring data twenties, and how you can build a data intelligent organization where we - as data citizens - are united by data.

    Speaker :
    Stijn “Stan” Christiaens, Founder, Chief Data Citizen

    Voir en détail
  • Construction d'une plateforme Data Cloud Native et Temps Réel

    10h30 - 11h00

    Avec l'avènement du Cloud, à quoi ressemblent les nouvelles plateformes Data ? A quelles évolutions devons-nous nous attendre dans les années qui arrivent ? Présentation et mise en lumière avec un retailer du CAC40.

    Speakers :
    Sebastien Aubriot - Responsable Data chez Devoteam Innovative Tech
    Valentin Blondeau - Consultant senior Data

    Voir en détail
  • Comment créer de la valeur avec la Data Science dès maintenant ?

    11h00 - 11h30

    Vous souhaitez améliorer la performance et augmenter la flexibilité de votre entreprise ? 
    Pour la plupart d'entre vous, exploiter le plein potentiel d’information contenue dans vos données reste un enjeu majeur. 

    Grâce à des capacités inégalées, Oracle propose une plateforme de data science complète qui améliore votre productivité.

    Lors de cet atelier, vous verrez comment mettre rapidement à disposition des utilisateurs des données fiables et pertinentes, et déployer plus facilement les modèles de machine learning, quel que soit votre profil : Data Scientist, Business Analyst, Data Engineer, Developer…

    Speaker :
    Eric Vessier, Expert Data Science & Analytics, Oracle

    Voir en détail
  • 7 Check Boxes for Your Open Source Roadmap

    11h30 - 12h00

    Open source is now an integral part of enterprise architectural strategy. Every major Fortune 500 company has an open source adoption roadmap. The reasons are not just cost benefits and avoiding technology lockdown. The key reasons extend to the ability to innovate faster, have a competitive advantage and its proven agility. Please join us for an exciting session to discuss open source in your organizations – how many boxes have you checked?

    • Why open source?
    • Popular use cases
    • Digital Transformations & open source
    • TCO, ROI and Innovation using open source
    • Instaclustr Data Platform: An open source company
    • Are you ready to leap?
    • Possible next steps

    What will you get out of the workshop?

    Open source has undergone an enormous transformation in the past 10 years. There are multiple categories, numerous vendors and conflicting options. In order to come up with a reliable and sustainable long-term open source strategy, it is critical to understand the motivation of the community, state of adoption in the market and possible challenges.
    Technology leaders are under tremendous pressure to reduce costs while continue to be agile and innovative. There is nothing better than embracing open source technologies. The workshop will specifically address the TCO and ROI issues along with deeper insight into innovation as a competitive advantage.

    Speaker :
    Anil Inamdar

    Voir en détail
  • Comment les grandes marques pilotent avec succès leurs stratégies CX et parcours client grâce à la data ?

    12h00 - 12h30

    Connaître les parcours empruntés par vos clients à travers tous vos canaux (online et offline), devient un enjeu primordial pour leur offrir la meilleure expérience possible. Pour ce faire, nous proposons de partager avec vous la démarche adoptée par nos clients autour de notre plateforme Big Data et IA.  

    Nous vous présenterons notamment : 

    • Comment fédérer les équipes métier et data pour parvenir à une compréhension commune des enjeux stratégiques ; 

    • Les bonnes pratiques à suivre pour réussir vos projets (définition des besoins métier, préparation de la data, méthodes de visualisation et d’analyse des données avec datakili, …) ; 

    • Les cas d’usage, les KPI’s et les résultats clefs par secteur (bancassurance, énergie, télécom, retail, …) ; 

    Vous découvrirez ainsi comment de grandes marques adressent des challenges clefs tels que : la détection d'irritants au sein des parcours clients, la lutte contre le churn, la diminution des appels à répétition, la fluidification des parcours d'achats/souscriptions, etc. 

    Cet atelier se veut collaboratif : nous consacrerons donc du temps pour aborder vos sujets prioritaires et répondre à toutes vos questions. 

    Speaker : Johan Evrard, Directeur Général, DATAKILI

     

    Voir en détail
  • Move 10x Faster & Save Money with Real-Time Streaming to AWS

    12h30 - 13h00

    With over 30,000 kilometers of rail line and 154,000 employees, maintenance is a complex undertaking for the French railway, SNCF. Inefficiencies lead to booked resources and train stoppage resulting in cost overruns on the order of €100,000 per hour. Join this session to learn how the SNCF’s technical team used AWS and StreamSets to build a 360-degree view of infrastructure, people, and resources to streamline maintenance planning, get 10x faster insights, and create “huge cost savings.”

    Speakers :
    Paul Billingham, StreamSets
    Adrien Langlois, SNCF

    Voir en détail
  • Construction d'une plate-forme de données Cloud moderne chez FM Logistic

    13h00 - 13h30

    Rejoignez-nous à cette session et écoutez le témoignage de Florent Martin, Data Manager chez FM Logistic qui présentera la manière dont ils utilisent HVR et Google BigQuery pour produire de nouveaux services rémunérateurs et ainsi accéder à une meilleure connaissance de leur business.

    Il s’avère qu’il n’est plus nécessaire d'attendre 24 heures et plus pour synchroniser vos sources de données, exécuter des requêtes complexes et analyser vos données pour vos prises de décisions. Il existe désormais une meilleure solution.

    Google Big Query, combiné à la technologie Change Data Capture (CDC) de HVR constitue la solution la plus efficace et la plus rentable pour obtenir des données en temps réel, accessibles et facilement disponibles à consommer et à analyser.

    Assistez à cette session animée par les spécialistes de HVR & Google pour découvrir :

    • Comment intégrer en continu vos données On premise (sur site) dans Google BigQuery à l’aide du CDC basé sur les journaux de transaction de HVR.
    • Comment exploiter la puissance des grands volumes de données et les transformer en informations commerciales précieuses et en temps-réel.

    Speakers :

    • Kamel ZERKAK, Owner @ DATA.FR
    • Florent MARTIN, Data Manager @ FM Logisitc
    Voir en détail
  • Observatoire de la maturité Data des entreprises – Edition 2021

    13h30 - 14h00

    Un long chemin... de l’élaboration de la Stratégie Data à l’acculturation des équipes.

    Datasulting, au-delà de son offre de service de conseil et réalisation de solutions Data Driven, souhaite partager au travers de cet atelier, 3 temps forts permettant de mieux mettre en perspective les enjeux, enseignements et difficultés des chefs d’entreprises et décideurs quand il s’agit de mettre la donnée au service de l’entreprise.

     Temps fort 1 : Baromètre de la maturité data 2021 des TPE/PME/ETI en France avec Gaël Philippe CEO chez Datasulting.

    Gaël partagera les principaux enseignements ainsi que les outils et les actions que l'Observatoire de la maturité data des entreprises compte mener. Observatoire lancé avec l’aide de plusieurs acteurs publics et privés comme Paris&Co, EBP ou encore l’IDATE. Une première enquête réalisée en Ile de France qui a permis de recueillir le feedback de plus de 170 décideurs.

    Temps fort 2 : Retour d’expérience de Véronique VASLOT Chief Data Officer et Responsable Data Marketing chez EBP, éditeur logiciel reconnu, client de Datasulting et partenaire de l’Observatoire.

    Véronique parlera du chemin parcouru depuis la mise en place de la stratégie data.

    Temps fort 3 : Intervention de Ludovic FAVARETTE, Directeur Gouvernance et Démocratisation de la Data au sein du groupe BPCE, client de Datasulting et partenaire de l’Observatoire. 

    Ludovic partagera ses bonnes pratiques et conseils pour développer la culture data dans l’entreprise.

     

    Voir en détail
  • Optimiser les stress tests bancaires

    14h00 - 14h30

    L’impact des conditions économiques et financières sur les résultats de l’entreprise est un enjeu majeur accentué par la crise sanitaire.
    Pour faciliter leurs prises de décisions, les entreprises doivent se doter d’outils performants afin d’avoir une prédiction précise de ces impacts.

    Cas d'usage : les outils d'intelligence artificielle Watson et de Planning Analytics d'IBM mis en place dans une grande banque française assistent la fonction Finance dans son processus de projection / modélisation et comparaison des scénarii de stress tests.

    Voir en détail
  • Les secrets du Data Lineage, ce que vous avez toujours voulu savoir !

    14h30 - 15h00

    Guillaume Bodet vous présentera son tout dernier Livre Blanc sur le Data Lineage en exclusivité !

    En tant que CEO et Directeur Produit chez Zeenea, Guillaume a souvent l’occasion de discuter avec des clients, des prospects ou des partenaires sur leurs attentes en matière de gestion de métadonnées. Dans ces discussions, un sujet revient de façon récurrente : le Data Lineage.

    Le sujet semble universel : quel que soit le secteur d’activité, toutes les parties prenantes dans une organisation Data cherchent à connaître l’origine (lineage amont) et la destination (lineage aval) des données qu’elles sont amenées à manipuler ou interpréter. Pour un éditeur de Data Catalog, la capacité à gérer le Data Lineage est une composante incontournable de son offre. Mais comme souvent, derrière une question simple et universelle se cache un monde de complexité difficilement appréhensive...

    Venez découvrir en Live comment un Data Catalog peut aider les entreprises à gérer leur Data Lineage. Guillaume répondra à vos différentes interrogations telles que : 

    • Comment mettre à jour l’énorme masse d’information que représente le lineage ? 
    • Comment restituer de façon digeste et pertinente un tel volume d’informations?

    Speaker :

    • Guillaume Bodet, CEO @ Zeenea
    Voir en détail
  • L’Oréal Beauty Tech : comment rassembler autour de la Data Gouvernance ?

    15h00 - 15h30

    Pour délivrer de la valeur, la donnée doit circuler et son accès doit être élargie au plus large nombre d’employés et partenaires. Dans ce contexte, la gouvernance de la donnée n’est plus une option. C’est un enabler stratégique.

    Aujourd’hui la donnée est sous la responsabilité d’une multitudes d’entités et de départements qui peuvent manquer d’alignement.

    Speakers :
    Olivier NOUALHAC, Data Governance Officer, L'Oréal
    Catherine HE SAY, Data Management Leader

    Voir en détail
  • How Active Data Governance Unlocks Valuable Insights and Creates Efficiencies

    15h30 - 16h00

    Active data governance gives organizations a competitive edge. Properly governed data leads to better data quality, increased data intelligence and more trusted data.  In this session, we'll highlight how data governance provides valuable insights about your data, helping to create greater efficiencies across your entire organization.​

    Speaker :
    Chris Paterson : Director, EMEA Solutions Engineering @OneTrust 

    Voir en détail
  • IA et critères ESG : enjeux, challenges et état de l'art

    16h00 - 16h30

    L'analyse des critères ESG - Environnementaux, Sociaux et de Gouvernance, pour évaluer la démarche RSE d'une entreprise - est devenue incontournable, mais elle présente des défis majeurs : analyse de vastes gisements de données hétérogènes, de sources variées et diverses, explicabilité des résultats...
     
    L'IA et en particulier les technologies de NLP / NLU permettent d'adresser ces défis ! Comment, et avec quels impacts sur la chaîne de valeur des critères ESG ? Et quels sont les facteurs clés de succès ?

    Voir en détail
  • L'informatique quantique et Machine Learning avec AWS

    16h30 - 17h00

    L’informatique quantique se révèle être une alliée de choix pour la réalisation d'objectifs de l'entreprise : au cours des deux dernières années, nombre d’applications d’informatique quantique ont fait leur entrée dans de multiples secteurs.

    L'optimisation quantique offre de nouvelles solutions de rationalisation et d'amélioration des process métiers, avec plusieurs applications à forte valeur ajoutée dans des domaines comme la finance, la logistique, les télécommunications, les ressources humaines et les transports. Les approches reposant sur la physique quantique peuvent garantir d’importants avantages à court terme.

    Le Quantum Machine Learning (QML) est une révolution prometteuse en matière d’amélioration de la performance des méthodes d’apprentissage automatique classiques utilisées.


    Speakers
    Gilles TOURPE
    Business Development Manager HPC
    AWS

    Olivier DEBLIQUY

    Director Advisory Services
    DATA REPLY

     

    Voir en détail

Atelier 6

  • Panel Fivetran x Dataiku : et si l'accès à la Data était aussi simple et fiable que l'accès à l'électricité ?

    10h00 - 10h30

    Que signifie "Modern Data Stack" et quelles notions stratégiques se cachent derrière ce terme pour les entreprises aujourd'hui ?
    Comment adopter une stratégie Data adaptée en temps réel et personnalisable pour accompagner l'entreprise dans son développement ?
    Et si la Data est le bien le plus précieux de l'entreprise, pourquoi avoir seulement une équipe d'experts en charge ?

    Autant de notions que nous vous proposons d'aborder avec nous lors de notre Panel avec 2 organisations expertes : Fivetran, leader de la Data Integration ELT et Dataiku, l'expert en vogue du Data Science. 

    Speakers :

    • Louis-Philippe Kronek, GM Dataiku Online, Dataiku
    • Marshall Wilson, Enterprise Expert, Fivetran
    • Shane O'Connell, Growth & Commercial Expert, Fivetran
    Voir en détail
  • NLP et Knowledge graph : le yan et le yang de la gestion des connaissances

    10h30 - 11h00

    Découvrez à travers les retours d’expériences sur différents cas d’usage comment la création d’ontologie et l’analyse sémantique s’alimentent mutuellement pour fournir un levier d’acquisition et de révélation des connaissances pour toute l’entreprise. 

    Speaker : François-Régis Chaumartin, VP Data Science et fondateur de Proxem, Dassault Systèmes

    Voir en détail
  • Comment Meetic fédère l’ensemble de ses données avec Starburst (Presto SQL/Trino)?

    11h00 - 11h30

    Cette année, Meetic fête ses 20 ans... et en 20 ans nous avons collecté une quantité colossale de données. Exploiter ces données est devenu le travail à plein temps de notre équipe Analytics qui doit analyser toujours plus finement les performances de notre site. Toutefois, un mur technologique se dressait devant nous avec l’augmentation continue de nos données et la multiplication de nos technologies de stockage. Afin de contourner ce mur technique, Meetic a déployé Starburst, la version entreprise de prestosql/trino.
    Lors de cet atelier, nous vous présenterons la mise en place de cette technologie qui révolutionne le quotidien de nos équipes.

    Speakers :
    Claire GUITTON - Analyste data
    Régis LE BRETONNIC - Architecte data

    Voir en détail
  • Data Office et Gouvernance de données : quelle mise en œuvre pour quels enjeux et bénéfices opérationnels ?

    11h30 - 12h00

    L’installation d’un Data Office est souvent perçue comme un travail de longue haleine, sans ROI mesurable, avec son levier sur la gouvernance des données. Ambition de transformation, maîtrise du patrimoine de données, et méthodologie de mise en œuvre seront l’objet de cet atelier avec le témoignage de la MGEN sur sa démarche de mise en oeuvre de la gouvernance de données.

    Speakers :

    • Franck Briendo, Repsonsable du chantier gouvernance des données @  MGEN
    • Bernard Duflos, Senior Manager Data & Strategie & Gouvernance @ EPSILON France 
    Voir en détail
  • Intelligence Artificielle et Sémantique pour l'analyse des données non structurées : cas d'usage et retours d'expérience. 

    12h00 - 12h30

    Retrouvez lors de cet atelier les applications et solutions QWAM dédiées aux usages suivants ainsi que des retours d'expérience associés : 

    - Analyse automatique et génération d'indicateurs métiers sur de grands volumes de données textuelles de tout type 

    - Consultation et analyse de documents et données textuelles complexes (techniques, juridiques, etc.), pilotage de référentiels techniques, exploitation de données de santé ou scientifiques, ... 

    - Investigation numérique et analyse d'échanges numériques, détection de fraudes, forensics, croisement de données contractuelles, ... 

    - Analyse avis et verbatims clients, retours expériences clients ; études de marché et tests produits, gestion des réclamations, ... 

    - Ressources Humaines : analyse enquêtes qualité de vie au travail et baromètres sociaux, screening de CV,  cartographie des compétences, ... 

    - Résumé ou synthèse de documents longs, extraction des passages pertinents par rapport à une grille d’analyse, aide à la lecture, … 

    Voir en détail
  • Optimiser et piloter votre parc immobilier, la gestion de vos territoires et leur environnement grâce à la data.

    12h30 - 13h00

    Que vos enjeux soient la massification de la rénovation énergétique, la trajectoire carbone et EnR ou le risque extra-financier, namR crée, transforme et valorise la data pour piloter vos transformations. 

    Mettre à votre disposition les données sur vos bâtiments, vos territoires et leur environnement, tel est l’objectif de namR. 

    À travers cet atelier, nous proposons d’illustrer par des cas d’usage concrets les bénéfices de la Data Intelligence au service de transition écologique : 

    • Pilotage de la performance énergétique et environnementale du bâtiment ; 

    • Gestion du risque environnemental et extra-financier ; 

    • Amélioration et accélération de l'efficacité opérationnelle. 

    Rendez-vous le 28 septembre à 12h30 dans la salle 6 

    Venez visiter notre stand A65 

     

    Speaker  : Vincent Boclé, Head of sales, namR

     

    Voir en détail
  • PAUSE DEJEUNER

    13h00 - 13h30
    Voir en détail
  • IA et contractualisation

    13h30 - 14h00

    Animées  par Jean Paul Muller, directeur Innovation, Global practice manager AI

    Voir en détail
  • Panorama des acteurs de la data 2021 – Méthodologie pour réussir vos projets data

    14h00 - 14h30

    Lancer un projet data demande une préparation et une réflexion, trop souvent bâclées !

    Comment prioriser mes sujets data ? Quel use case est le plus pertinent pour mon entreprise ? Comment développer mon projet : solution sur mesure ou solution clé en main ?

    Nous allons y répondre au travers de cet atelier, en vous dressant le panorama des acteurs data en 2021 et la méthodologie pour réussir votre projet data.

    Voir en détail
  • La comptabilité fournisseurs augmentée par l’Intelligence Artificielle

    14h30 - 15h00

    Le projet a pour but le traitement de plus de 600 000 factures fournisseur, enregistrées par près de 150 comptables, par an. Ces factures présentent à la fois une grande variété de contenu (de très nombreux fournisseurs, avec des domaines d’activité variés), ainsi qu’une forte variabilité d’imputations comptables (parfois plusieurs milliers de valeurs distinctes possibles à prédire pour certains champs)

    Speakers :
    Yann Coupris, Directeur de la Transformation des Solutions Finances pour le Groupe La Poste
    Vincent Bonnivard, Data Scientist, Chef de projet pour Probayes

    Voir en détail
  • Bien démarrer votre voyage vers l’automatisation avec le process mining

    15h00 - 15h30

    Comment identifier les processus ayant le plus d'impact sur les performances de l'entreprise ? Sur quelles données s’appuyer ? Quels sont les bénéfices concrets ?

    Le process mining est une approche s’appuyant sur l’analyse des données de l’entreprise et utilisant l’IA, et qui va travailler en profondeur à la maîtrise des différents processus de l’entreprise pour en trouver les failles et apporter les changements les plus appropriés.

    Cette technologie permet de bénéficier d’une vue d’ensemble des processus, afin de mieux les piloter, de prendre les meilleures décisions stratégiques possibles et de réaliser des économies substantielles.

    Voir en détail
  • SingleStore : votre dernière base de données

    15h30 - 16h00

    Votre organisation souffre certainement de ce que nous appelons le “data infrastructure sprawl”: plus votre entreprise a de données et de projets, plus vous avez de bases de données.

    Et si vous pouviez utiliser une seule technologie de base de données pour tous vos besoins?
    Venez découvrir SingleStore, la base de données utilisée par les grandes banques, les meilleures entreprises technologiques et un nombre croissant de startups, pour les usages transactionnels et analytiques.

    Nous allons explorer comment nos clients utilisent notre technologie unique, Universal Storage, pour ingérer et accéder à leurs données à des vitesses et volumes qu’aucune autre technologie ne permet aujourd’hui, dans le Cloud et leur centre de données.

    Speaker :

    • Alex SOLLEIRO, Sr Product Manager @ SingleStore
    Voir en détail
  • MEETUP LUMENAI

    16h00 - 18h00
    Voir en détail

Mots clés associés

Inscrivez-vous dès à présent pour participer à Big Data & AI Paris 2021