Programme

Vous pouvez désormais personnaliser votre programme.

Cliquez sur le bouton « Sélectionner » des interventions qui vous intéressent, puis renseignez vos coordonnées en bas de page pour recevoir votre planning personnalisé par e-mail.

CONFERENCES : relèvent d’un accès FULL PASS Conférences (payant).

Un système d’audio-traduction instantanée est disponible à l’accueil des conférences (ANGLAIS ↔ FRANÇAIS)

TRACK CONSULTING et ATELIERS : ouvert à tous.

1Grand Amphithéâtre

  • Conférences stratégiques
  • Accueil des participants

    09h00 - 09h10

    • Enguérand RENAULT Animateur des conférences, Rédacteur en chef média et technologies LE FIGARO

  • Discours d'ouverture

    09h10 - 09h40

    • Mounir MAHJOUBI Secrétaire d’État auprès du ministre de l’Économie et des Finances et du ministre de l’Action et des Comptes publics, chargé du Numérique

  • Deep Prescription: Optimizing The Enterprise With Artificial Intelligence

    09h40 - 10h10
    Keynote
    • Matthew FRITZ Director of Data Science SAMSUNG

  • Mes data sont à moi : pour une patrimonialité des données personnelles ?

    10h10 - 10h30
    Point de vue
    • Gaspard KOENIG Philosophe, Président et Fondateur du think tank GENERATIONLIBRE

  • Pause : Visite de l’exposition – Networking

    10h30 - 11h00

    Optimisez votre temps : programmez vos rencontres sur notre plateforme Connect by Corp
  • Maturité du Big Data : comment cela se concrétise aujourd'hui au sein des entreprises ?

    11h00 - 11h50
    Table ronde
    • Après des investissements dans un data lake, des outils de BI, des data scientists... quelle est la réalité de la démocratisation des usages du Big Data pour les métiers ? L'interface utilisateurs est-elle à la hauteur ?
    • Structure centralisée, décentralisée, intermédiaire avec un data lab... quelle est la meilleure option pour votre entreprise
    • Industrialisation des cas d'usages : état des lieux
    • Aïssa BELAID Lead Big Data & Analytics ENGIE

    • Cynthia TRAORE Responsable DataLab SWISS LIFE FRANCE

    • David GIBLAS Chief Innovation, Digital and Data Officer MALAKOFF MÉDÉRIC

    • Jérémie GUEZ Head of DataLab BNP PARIBAS PERSONAL FINANCE

  • How TomTom has evolved from a Navigation Company to a Big Data Company

    11h50 - 12h20
    Keynote
    • Alain DE TAEYE Founder of TeleAtlas, Member of the Management Board TOMTOM

  • Cérémonie des Trophées de l’Innovation Big Data

    12h20 - 12h40
    Trophées
    Pitch des 4 finalistes : votez pour le projet le plus innovant !
    Ouvert au public
  • Déjeuner

    12h40 - 14h00
    Une zone de restauration est accessible avec votre Full Pass Conférences
    Optimisez votre temps : programmez vos rencontres sur notre plateforme Connect by Corp
  • 1Grand Amphithéâtre
  • Parcours Retours d’expérience Métiers & BtoB
  • Comment Gemalto renforce l'identité en ligne à l'aide du Machine Learning

    14h00 - 14h20

    • Expérience utilisateur : analyse automatique des documents d'identité, vérification de la véracité des informations partagées à distance, et amélioration du niveau de confiance
    • Cybersécurité : conformité au régulations Know Your Customer (KYC), anonymisation et sécurité des données de la collecte à l’usage, en passant par les phases d’entraînement
    • Raphaël De Cormis VP Innovation Labs GEMALTO

  • Audi : Streaming au service de la voiture connectée

    14h20 - 14h40

    Comment Audi capture, traite et exploite les données en continu du parc de véhicules afin de permettre une conduite autonome et des services pilotés par les données.
    • Hubert FISCHER Senior IT Project Manager AUDI ELECTRONICS VENTURE GMBH

  • Retour sur le programme Smart& Innovative Operation Perform d’Air liquide : le Big Data pour la performance économique et le développement durable

    14h40 - 15h00

    • Comment Air Liquide améliore les performances économiques des usines du groupe réparties dans 40 pays grâce à un algorithme prescriptif
    • Comment cet algorithme a évolué vers une plateforme cloud afin de répondre aux nouveaux enjeux de ces usines
    • Comment utiliser cette plateforme et cet algorithme pour réduire les émissions de CO2 d'Air Liquide



    • Olivier RIOUX Program Manager SIO Perform AIR LIQUIDE

  • TOTAL : DÉVELOPPER LA TRANSVERSALITÉ DANS LA RECHERCHE D’INFORMATIONS EN S’APPUYANT SUR UNE PLATEFORME DE COGNITIVE SEARCH

    15h00 - 15h20

    • Comment valoriser la donnée textuelle non-structurée pour les différents domaines d’expertise ?
    • Comment accompagner les nouveaux usages dans l’accès à l’information, y compris les requêtes en langage naturel ?
    • Comment construire un dispositif fonctionnel commun améliorant l’expérience utilisateur des collaborateurs de Total ?
    • Mathilde FOURQUET Data Squad Manager TOTAL

  • Pause : Visite de l’exposition – Networking

    15h20 - 16h00

    Optimisez votre temps : programmez vos rencontres sur notre plateforme Connect by Corp
  • La donnée comme actif stratégique de Société Générale au cœur de sa transformation digitale

    16h00 - 16h20

    • Comment assurer une large diffusion de la culture de la donnée en interne, améliorer la qualité des données du Groupe et assurer la conformité à la réglementation notamment GDPR
    • Comment Société Générale tire parti des usages du Big Data, du Machine learning ou encore des outils de datavisualisation pour répondre aux problématiques bancaires et mieux servir ses clients
    • Emmanuelle PAYAN Chief Data Officer SOCIETE GENERALE

  • Comment l’approche data-centric participe à la transformation digitale de Carrefour ?

    16h20 - 16h40

    • SI Data Centric et temps réel : Retour sur les étapes initiales du projet Phenix ; Bilan et premiers résultats
    • Evolution et suite du projet : Migration de l’infrastructure existante vers le cloud ; nouveaux apports et usages de la donnée
    • Gouvernance : comment répondre à l’enjeu de convergence de l’ensemble des usages ? comment mobiliser les métiers et l’IT autour de l’approche data centric afin de pleinement tirer parti de ses nouveaux apports ?
    • Jean-Christophe BRUN Director Data Platform CARREFOUR

  • Le Big Data au service d’une agriculture durable grâce au programme européen Copernicus

    16h40 - 17h00

    • L’intelligence artificielle et les technologies temps-réel au service de pratiques agricoles durables
    • Comment exploiter des données spatiales pour répondre aux enjeux liés à l’irrigation des sols et l’utilisation d’intrants.
    • Le cloud public pour exploiter facilement les images issues des satellites et de capteurs terrestres, sans avoir à stocker cette importante volumétrie de données sur ses propres infrastructures.
    • François Thierart Co-Fondateur MyEasyFarm

    • Frédéric CLOUZEAU Ground Segment development manager AIRBUS

  • STMicroelectronics : Moteur de règles et machine learning pour la détection des failles d’exécution dans une ligne de production industrielle complexe

    17h00 - 17h20

    • Comment ST Microelectronics traite en temps réel des volumes considérables de données industrielles et détecte les situations anormales dans la ligne de production (qu’elles soient d’origine informatique, mécanique ou humaine
    • Aide au diagnostic en temps réel sur l’origine des anomalies et sur les actions correctives à engager
    • Exploitation de l’expérience accumulée par les opérateurs grâce à l’utilisation d’un moteur de règles
    • Guillaume LEPELLETIER Engineer STMICROELECTRONICS

    • Thomas BAILET CTO HURENCE

  • Ressources humaines : comment tirer parti du Big Data pour un meilleur accompagnement et une meilleure gestion des carrières ?

    17h20 - 17h40

    • Comment la SNCF répond à l’enjeu majeur de fidélisation des talents dans un contexte d’ouverture à la concurrence en 2020 ?
    • Comment mettre la donnée et l’IA au service du Talent Management dans le but de développer une connaissance accrue des collaborateurs, élargir le champ des possibles en matière de sourcing interne et de mobilité des collaborateurs ?
    • Marc LAGRIFFOUL Directeur Talent Management SNCF

2Amphithéâtre Bleu

  • Track Consulting - Accès gratuit
  • 2Amphithéâtre Bleu
  • Parcours Expert
  • La place du Edge Computing dans le Big Data

    14h00 - 14h20
    Keynote d'ouverture
    Quelle est sa position entre l'IoT et le Cloud Computing ? Quels bénéfices pour le Big Data ?
    • Damien ROUX Customer engineer GOOGLE CLOUD

  • Comment tirer parti de la dimension spatiale de vos données ?

    14h20 - 14h40

    Cette intervention vise à décrire l’explosion des données à composante spatiale et leur accessibilité grandissante, à parcourir les pans analytiques de l’analyse spatiale, à démontrer la valeur de l’intégration de la dimension géographique dans l’approche d’analyse de données massives.
    • David JONGLEZ Business development Director ESRI

  • Détection d'anomalies sur de la donnée de flux : quand les défis du Big Data rencontrent ceux du Machine Learning

    14h40 - 15h00
    Retour d'expérience
    Mise en place une solution de détection d'anomalies par Canal+ sur son parc d'applications de Streaming / VOD (plusieurs centaines de millions d'événements par jour).
    • Aymeric AUGUSTIN SVP Data CANAL+

    • Romaric LANCIEN Lead consultant MFG LABS

  • Le Big Data appliqué au diagnostic du cancer par spectrométrie de masse.

    15h00 - 15h20

    Traitement de données extrêmement volumineuses (plusieurs milliards de mesures par image) issues de la spectrométrie de masse, une technique proche de l’imagerie médicale pour améliorer l’analyse d’échantillons biologique et les capacités de diagnostic :
    • Format de stockage de données sur HDFS
    • Optimisation et parallélisation du traitement sur Spark afin d’exploiter l’ensemble des données
    • Modélisation d’un algorithme de diagnostic du cancer
    • Fabien PAMELARD IT manager IMABIOTECH

    • José CORRAL GALLEGO Fondateur & CEO SKAPANE

  • Pause : Visite de l’exposition – Networking

    15h20 - 16h00

    Optimisez votre temps : programmez vos rencontres sur notre plateforme Connect by Corp
  • Du Data lake au Machine Learning

    16h00 - 16h20

    • Intérêt de la création d’un Data Lake afin de constituer une base solide pour réaliser des analyses avancées, facilitant les applications de Machine Learning
    • Pourquoi les analyses avancées des données collectées par les entreprises sont devenus une source essentielle de création de valeur pour celles-ci : démonstration au travers de cas d’utilisation
    • Julien SIMON Principal Evangelist AMAZON WEB SERVICES

  • Stateful containers: how Kubernetes addresses Big Data challenges

    16h20 - 16h40

    Si les microservices et la containerisation permettent d'apporter de l'efficacité et de l'agilité, leur côté « stateless » les rends inadaptés pour les applications fortement consommatrices de données.
    Nous allons voir dans cette présentation comment l'utilisation de containers « stateful » avec Kubernetes associée à une approche « Dataware » permet de mettre en œuvre ces applications sans sacrifier les avantages des architectures microservices (agilité, efficacité, portabilité).
    • Rémi FOREST Senior Solutions Architect MAPR

  • Retour sur les méthodes de gouvernance de la SNCF

    16h40 - 17h00

    Pour multiplier les cas d'usage, la gouvernance des données doit être agile et s'intégrer au sein des projets pour apporter un réel bénéfice aux équipes. Par ailleurs, RGPD et les autres réglementations auxquelles la SNCF est soumise, imposent une définition claire des règles d'accès aux jeux de données (DataSet)
    • Comment la SNCF tire de la valeur des données grâce à une gouvernance agile ?
    •Défis et conduite du changement menée auprès des équipes SNCF
    • Julien IRIS Head of mission Fab Big Data SNCF

  • Comment Betclic améliore la connaissance de ses utilisateurs en temps réel grâce à la datavisualisation

    17h00 - 17h20

    • Retour sur les choix techniques du data pipeline à la restitution, qui ont permis à Betclic d’obtenir des insights produits
    • Prochaines étapes : Alimentation du datalake, mise en place d’une démarche data quality
    • Camille REVERDY IT Mobile Project manager BETCLIC

    • Christofer DAUSSION Head of data engineering team BETCLIC

Salle Ateliers A

  • 09h00 - 09h30

    Comment devenir une entreprise agile et évolutive à partir de la valorisation de données historiques (chaudes et froides) issues de plusieurs sources ?

  • 09h30 - 10h00

    Au coeur de la banque data driven avec le témoignage de BPCE

  • 10h00 - 10h30

    Parlez à vos données !

  • 10h30 - 11h00

    La data science et les missions régaliennes

  • 11h00 - 11h30

    de Big Data à Machine learning sans effort

  • 11h30 - 12h00

    Les “VANITY METRICS” ou INDICATEURS TROMPEURS

  • 12h00 - 12h30

    Passer du reporting à la Self BI : le défi de la Business Intelligence Agile à la BCGE - Banque Cantonale de Genève.

  • 12h30 - 13h00

    Comment Logitech a réussi sa migration vers le cloud sans impact sur ses opérations grâce à la Data Virtualization

  • 13h00 - 13h30

    Molotov.TV : les grandes étapes de l’implémentation d’un data warehouse 100% Cloud

  • 13h30 - 14h00

    Automatiser votre Data Warehouse dans le Cloud

  • 14h00 - 14h30

    Moderniser ses applications analytiques à l'ère de l'IA et du multi-cloud

  • 14h30 - 15h00

    ML@scale to Transform your Business - Beyond applying ML Algorithms

  • 15h00 - 15h30

    Industrialiser des processus intelligents

  • 15h30 - 16h00

    Plus besoin de choisir entre cloud et on-premise. Réunissez et orchestrez ces deux mondes pour exploiter au mieux vos données

  • 16h00 - 16h30

    Traitement du Langage Naturel, Machine Learning : mettez de l’intelligence dans votre bot !

  • 16h30 - 17h00

    Intelligence Artificielle et Big Data: comment intégrer des données d'entreprise dans une discussion en temps réel sur un chatbot?

  • 17h00 - 17h30

    Déployer sa place de marché de données, retour d’expérience dans le secteur agricole

  • 17h30 - 18h00

    RGPD, Machine Learning et robustesse des algorithmes par Michael Cohen - Rakuten

Salle Ateliers B

  • 09h00 - 09h30

    Le RGPD ? Quelle belle opportunité pour réinventer une prospection vertueuse, originale et efficace !

  • 09h30 - 10h00

    L'open source pour le traitement automatique des mails

  • 10h00 - 10h30

    Embedded Analytics : apportez les bons analytics à la bonne personne et au bon moment

  • 10h30 - 11h00

    2. Le vrai potentiel du Big Data : nourrir des processus intelligents

  • 11h00 - 11h30

    Confluent Cloud - La plateforme de streaming événementielle multi-cloud qui vous laisse libre

  • 11h30 - 12h00

    The Life Cycle of a Machine Learning Project with Sinequa

  • 12h00 - 12h30

    Ce que l’IA peut (et ne peut pas encore) faire pour votre business

  • 12h30 - 13h00

    Les données d'aujourd'hui sont toutes du Big Data

  • 13h00 - 13h30

    Pourquoi choisir une base de données orienté colonnes pour l'analytique moderne

  • 13h30 - 14h00

    Construire une plateforme analytique et IA hybride avec Cloudera dans Azure

  • 14h00 - 14h30

    Qlik révolutionne l’usage de vos Big Data !

  • 14h30 - 15h00

    Détection, Analyse et Visualisation de la fraude en temps réel sur un flux de transactions bancaires

  • 15h00 - 15h30

    Augmented Analytics: augmentez votre agilité et votre performance avec la BI

  • 15h30 - 16h00

    Sémantisation des données et Fast Data, les fondements d'un datalake performant

  • 16h00 - 16h30

    Venez découvrir une analyse du Grand Débat avec Proxem Studio

  • 16h30 - 17h00

    Pourquoi faut-il gérer votre projet (Big) data comme une start-up gère son produit ?

Salle Ateliers C

  • 09h00 - 09h30

    I-RPA et Big Data : la parfaite alliance?

  • 09h30 - 10h00

    La Data Science au service de la banque de réseau : une nouvelle façon d’aborder la relation client

  • 10h00 - 10h30

    Structurer vos données pour mieux absorber le non-structuré

  • 10h30 - 11h00

    Introduction à Cloudera Machine Learning: La nouvelle plateforme “Cloud-Native” pour le machine learning d’entreprise

  • 11h00 - 11h30

    Pas d'IA sans données fiables

  • 11h30 - 12h00

    Streaming & Finance

  • 12h00 - 12h30

    Projet Big Data prédictif: L’analyse du besoin, aussi importante que l’analyse de données

  • 12h30 - 13h00

    AG2R : retour d’expérience sur la mise en place de la gouvernance de données pour une mutuelle dans un contexte règlementaire avec Meta Analysis.

  • 13h00 - 13h30

    Analyser ET respecter la vie privée

  • 13h30 - 14h00

    Personal data : from cost to profit

  • 14h00 - 14h30

    Sécuriser un cluster Big Data dans le cloud

  • 14h30 - 15h00

    Vision 360° et unifiée de vos services ou comment tenir vos engagements clients

  • 15h00 - 15h30

    Démocratiser, Simplifier et Accélérer l’usage de l’analytique dans l’entreprise

  • 15h30 - 16h00

    L’Art du possible avec MicroStrategy : Augmented Intelligence, Data Management & Data Science

  • 16h00 - 16h30

    Ajouter des fonctionnalités analytiques en SaaS avec le service OEM de ForePaaS

  • 16h30 - 17h00

    Comment construire un avantage concurrentiel par l’hyper personnalisation ?

Salle Ateliers D

  • 09h30 - 10h00

    Comment chercher l’amour à l’ère de l’analytique ?

  • 10h00 - 10h30

    Match de cas d’usage : venez voter pour le meilleur projet Data + IA !

  • 10h30 - 11h00

    Accélérez la transformation de votre entreprise avec Master Data Visualizer

  • 11h00 - 11h30

    L’analytics pour répondre aux besoins métiers et gagner en compétitivité

  • 11h30 - 12h00

    Supervision d'usines avec LogIsland Suite Industrie 4.0

  • 12h00 - 12h30

    Le petit journal illustré de la Data Science : les bonnes pratiques et le écueils à éviter

  • 12h30 - 13h00

    Les défis d’un Etat plateforme ou comment piloter la transformation numérique des Armées par la révolution des usages ?

  • 13h00 - 13h30

    Du Datalake au datahub : accélérez vos projets data & AI en adoptant les pratiques DataOps et une Datafabric !

  • 13h30 - 14h00

    Construction de pipelines de données en temps réel dans le cloud avec Apache Spark et Databricks Delta

  • 14h00 - 14h30

    Plateforme Data dans le Cloud Public : How to ?

  • 14h30 - 15h00

    Retour sur le choix d’une plateforme de Data Management pour industrialiser un Data Lake Financement

  • 15h00 - 15h30

    Les 7 péchés capitaux des projets Big Data

  • 15h30 - 16h00

    Personal data : from cost to profit

  • 16h00 - 16h30

    Big Data for all! Le retour d'expérience d'AXA, Airbnb et Reeport

  • 16h30 - 17h00

    Comment automatiser le Big Data et l’intégrer dans le paysage global de l’entreprise

Salle Ateliers E

  • 09h30 - 10h00

    Protéger, sécuriser et classifier vos workloads Big Data

  • 10h00 - 10h30

    Talend Big Data au service des Ressources Humaines : Gestion d'un Datalake & croisement de données dans un objectif de gestion de carrière

  • 10h30 - 11h00

    Dataiku sur Azure : Accélérer vos projets en entreprise

  • 11h00 - 11h30

    Déploiement en un clic pour les environnements AI / ML / DL distribués dans l'entreprise

  • 11h30 - 12h00

    Encoder efficacement le 'Mobile Journey' avec des modèles de NLP à très grande échelle : conception et mise en production.

  • 12h00 - 12h30

    HOW TO BUILD A DATA-DRIVEN STRATEGY: THEORETICAL FRAMEWORKS AND EVIDENCE-BASED RESULTS

  • 13h00 - 13h30

    AI4Business

  • 13h30 - 14h00

    Data Science et Unit Commitment: retour d'expérience de Red Electrica

  • 14h00 - 14h30

    Machine Learning for Critical Systems

  • 14h30 - 15h00

    Le choix d’une infrastructure réseau intelligente, un des défis majeurs pour la réussite des projets Big Data et Machine Learning

  • 15h00 - 15h30

    Améliorer la communication d’un gestionnaire en assurance santé avec ses adhérents…Un enjeu pour le Machine Learning !

  • 15h30 - 16h00

    Comment dévoiler et optomiser vos relations d'affaires

  • 16h00 - 16h30

    StreamSets DataOps plateform: quand l'intégration de données rencontre le DevOps

Amphithéâtre Bleu

  • De la Data Science vers plus d’Intelligence Artificielle : comment relever ce défi au sein de votre entreprise ?

    10h00 - 11h00

    Alors que les outils de Data & Analytics sont aujourd’hui largement utilisés ou déployés, les entreprises sont désormais demandeuses de plus de technologies et d'automatisation des systèmes. Elles se tournent donc vers l’Intelligence Artificielle et s'interrogent sur leur maturité en la matière.
    Comment capitaliser sur la Data Science pour développer l‘Intelligence Artificielle ? Quelles sont les étapes à suivre et les moyens nécessaires ? Quelles sont les évolutions à envisager ? Quelles sont les conséquences liées au développement de ces nouvelles technologies ? Comment garder le contrôle et préserver la confiance ?
    Venez découvrir des retours d'expérience sur des projets Data Science et IA et les meilleures pratiques observées sur le terrain : smart customer relationship, predictive maintenance, quality manufacturing, field service analytics...

    Intervenants :
    Jean-David Benassouli - Associé responsable de l’activité Data Intelligence, PWC
    Marc Damez-Fontaine - Directeur Data Intelligence, PWC
    • PWC

  • Data Catalogs are the FUTURe of Working with Data

    11h00 - 12h00
    Data Catalogs are the FUTURe of Working with Dat
    Before the first Machine Learning Data Catalog, analysts and data scientists would typically spend more than 80% of their time in data discovery and understanding, instead of actually working with the data to uncover new insights. Today’s data catalogs ensure that instead of re-creating the wheel for every project, consumers of data can efficiently re-use existing data assets. Not only does this increase individual productivity, but often leads to a more collaborative approach to analysis and increased accuracy of the insights. Data Catalogs are delivering on the promise of increasing analyst and data science productivity 20-40% by making it easy to Find, Understand, Trust, Use and Re-use data across the enterprise. Join us to hear how major European companies like MunichRe, Scout24, and Allegro are increasing the productivity of their data teams with data catalogs.

    Intervenants :
    Stephanie McReynolds, Vice President of Marketing
    • ALATION


Recevoir mon agenda par email

Votre sélection est vide. Vous devez d'abord sélectionner des conférences ou des ateliers.

Inscrivez-vous dès à présent pour participer à Big Data Paris 2019