Inscrivez-vous à la Newsletter pour ne rien perdre de l'événement

Ateliers

Salle Atelier A

  • Hyper-personnalisation de l’expérience client grâce à l’analytique avancée à l’échelle avec Teradata Vantage Customer Experience

    09h30 - 10h00

     L’expérience client est devenue un impératif pour les entreprises qui souhaitent entretenir et pérenniser la relation établie avec leurs clients et les consommateurs.

    La personnalisation de cette expérience client, en proposant l’offre ou l’action la plus adaptée à un contexte donné pour chaque interaction et pour chaque client, est un des moyens qui s’impose dans la digitalisation de cette relation.

    Toutefois, si le multicanal est devenu une réalité pour les entreprises, certaines entreprises voient toujours chaque canal de manière distincte. Et les systèmes de recommandation adoptés pour faciliter la personnalisation ont toujours tendance à être développés de manière séparée pour chaque canal individuel, rendant encore plus complexe la cohérence entre données, analytiques et interactions au service de l’expérience client.

    Vous découvrirez dans cet atelier comment l’analytique à l’échelle rapidement déployable permet d’améliorer l’expérience client et comment la solution Vantage Customer Experience aide les entreprises à tirer le meilleur parti de toutes leurs données pour chaque interaction client.

    Speaker : Yann ROS, Senior Industry Consultant Marketing and Customer Experience, TERADATA

    Voir en détail
  • Betclic mise sur la plateforme Data Snowflake pour offrir la meilleure expérience possible à ses joueurs

    10h00 - 10h30

    En créant sa nouvelle plateforme Data autour de Snowflake, Betclic révolutionne son approche de la data mais aussi sa façon de travailler. Les technologies cloud alliées aux fonctionnalités avancées de Snowflake permettent une meilleure réactivité et une plus grande agilité.

    Speaker : Christofer DAUSSION, Head of Data Engineer chez BETCLIC

    Voir en détail
  • Démocratisation de l’accès à la donnée et Lab utilisateurs au sein de la plateforme Data chez Accor

    10h30 - 11h00

    Speakers : Olivier Tissot, Delivery Manager Data, Accor
    Sandra Bienayme, Customer Success Team Lead, Dataiku

    Voir en détail
  • Les dernières solutions Google Cloud pour héberger vos workloads d’entreprise

    11h00 - 11h30

    Vous souhaitez migrer votre infrastructure big data sur le cloud en évitant les blocages sur certaines technologies
    (licences, versions, administration) ? Venez découvrir comment les dernières solutions et partenariats de Google Cloud
    vous permettent de migrer vos workloads / base de données d’entreprise sereinement.

    Lors de cette session, de nombreux thèmes seront abordés :
    - Les migrations possibles
    - Le hardware certifié
    - Le deploiement
    - Le licencing
    - Les offres type infrastructure : solution Bare Metal
    - Les offres d’infrastructure managés
    - La latence
    - L’installation, configuration, management et support

    Speaker : Maxime Lanciaux - Sales Engineer, Google Cloud

    • Maxime Lanciaux Sales Engineer, Google Cloud GOOGLE CLOUD
    Voir en détail
  • Ab Initio: Develop once, run anywhere

    11h30 - 12h00

    Au delà de Hadoop, les systèmes d'information d'entreprise évoluent rapidement vers le cloud et les architectures de microservices. Lors de cette session, nous vous présenterons comment plusieurs clients Ab Initio ont pu atteindre leurs objectifs métier tout en déployant progressivement leurs nouvelles architectures IT (cloud, containers, Kubernetes, microservices)....

     

    Voir en détail
  • Spark & Kubernetes : l'après Hadoop.

    12h00 - 12h30

    Est-il toujours pertinent de provisionner toute la stack Hadoop avec les outils aujourd'hui disponibles ? Quelles stratégies adopter aujourd'hui pour optimiser ses coûts d'infrastructure ?
    Après avoir déployé de nombreux clusters Hadoop sous différentes distributions, et construit des datalakes spécialisés ou au contraire très mutualisés, il a fallu réfléchir à l'après Hadoop... Mais aussi, repenser les budgets alloués à la gestion de la donnée de masse.
    Les équipes plus agiles et pluridisciplinaires ont permis de partager les expertises et joindre les avantages des traitements "Big Data" et des infrastructures "Cloud".
    Cet atelier présentera un retour d'expérience sur les intégrations des traitements distribués et le monde des containers par les hommes de terrain. Franck et José exposeront un panorama des succès atteints et les difficultés à affronter lorsque le Cloud privé et la Data se rencontrent.

    Speakers : Franck NGaniet (FINAXYS) & José ALFARO (FINAXYS)

    • Franck NGANIET Team Leader WaaS CA-GIP
    • José ALFARO Directeur Technique FINAXYS
    Voir en détail
  • Comment construire votre plateforme de données agile & évolutive dans le Cloud ?

    12h30 - 13h00

    A l’heure où les données sont le principal catalyseur de l'ère numérique, l'agilité et la capacité de déployer de nouvelles technologies sont devenues essentielles. La convergence des plates-formes PaaS Cloud constitue un environnement idéal pour relever ces défis, en proposant un vaste ensemble de services gérés, des architectures de données matures et des méthodes agiles.

    Micropole vous aide à créer des plates-formes de données d'entreprises hautement évolutives et sécurisées dans le Cloud, en combinant les processus traditionnels de Business Intelligence et de Big Data avec des capacités analytiques avancées, à commencer par l’IA.

    Découvrez, avec notre atelier, comment tirer parti de vos données et mettre en œuvre une plate-forme de données agile pour traiter tout type de cas d’usage, qu’il soit analytique ou prédictif, en batch ou en temps réel.

    Speaker : Thomas Dallemagne, Directeur Centre d’Excellence AWS, Micropole

    Voir en détail
  • L’analyse de données en self service chez Digital Virgo avec Looker, BigQuery et Google Analytics 360

    13h00 - 13h30

    Au cours de cette conférence, Digital Virgo fera un retour d’expérience sur l’utilisation de la plateforme Looker.  Vous découvrirez comment Looker permet de démocratiser l’accès aux données grâce à sa couche de modélisation LookML et son interface d’exploration. Un focus particulier sera fait sur l’usage des données Google Analytics 360 afin d’illustrer les bénéfices de l’architecture Looker pour exploiter des données complexes et volumineuses dans BigQuery.

    Speaker: Anthony GIANASTASIO

    Voir en détail
  • Spark, TIMi: Speed & scalability experiments: Lessons learned

    13h30 - 14h00

    During this session we will explore the results of experiments conducted on the Hadoop-Spark platform and the TIMi platform. We are particularly interested in the computation time of these 2 platforms.

    The execution speed of data transformations is a crucial element in the everyday life of any 'data scientist'. Indeed, 'data scientists' are actually spending less than 20% of their time analyzing data. The remaining 80% is devoted to data management tasks: Research, unification and data cleaning (Source: IDG). This fact is also sometimes called the '80/20 data science dilemma' (google it!). Therefore, a fast and user-friendly solution for high-velocity data transformation is an important element for the comfort, the efficiency and the productivity of any data scientist. This explains the relative success of Spark. Indeed, the unique key selling point of Spark (visible on their website) is: 'speed: run workload 100x faster'.

    Our "speed experiments" are based on different benchmarcks. The most famous of these benchmarks is the TPC-H: it's the only benchmark universally recognized that measure the execution speed of data management solutions. The TPC-H workload is universally recognized as “interesting and representative” of the data transformations that are common in the everyday life of all data scientists.

    The least that we can say is that the results of this scientific process of experimentation are really *very* surprising! In fact, I can’t wait to share these interesting results with the whole big data community! For the sake of transparency, we have published on Github all the testing scripts and all the results obtained. I invite you to discover these results with us during this short 30-minute session dedicated to 'data engineering' and high-velocity data management.

    Speaker : Frank VANDEN BERGHEN, CEO, TIMi

    Voir en détail
  • Sécurité Prédictive : la Data Science au coeur de la création de services

    14h00 - 14h30

    Speaker : Florian Servaux, Responsable DataLab, Coyote

    Laurent Le Toriellec, Head of Products & Services, Coyote

    Voir en détail
  • La suprématie quantique et son potentiel

    14h30 - 15h00

    Cette année a vu un étape importante de l’informatique quantique avec l’annonce de la suprématie quantique. Nous
    profiterons de l’atelier pour évoquer :
    - comment la physique quantique a donné naissance à l’ordinateur quantique,
    - comment celui-ci pourrait permettre un changement d’échelle dans le big data,
    - comment est définie la suprématie quantique est en quoi elle peut être pertinente,
    - pour finir par aborder les applications à venir et ce qui est déjà possible aujourd’hui.

    Speakers : Pierre Frouge - Customer Engineer, Google Cloud et Damien Roux - Customer Engineer, Google
    Cloud Platform

    • Pierre Frouge Customer Engineer, GOOGLE CLOUD
    • Damien Roux Customer Engineer, GOOGLE CLOUD
    Voir en détail
  • Streaming d’évènements: les meilleurs use cases

    15h00 - 15h30

    Speaker : FlorEric Carlier, System Engineer - Confluent

    Voir en détail
  • Refondre son architecture data : mode d’emploi

    15h30 - 16h00

    Pour quels usages, quelles sources de données, sur quelle(s) plateforme(s) s’appuyer, quels outils faut-il ajouter à l’écosystème ? Nos experts présenterons les différentes étapes à suivre pour réussir la refonte de son architecture data.

    Speaker : Yann Legrand - EPSILON France

    Olivier Dukers, Directeur Technique - EPSILON France

    Voir en détail
  • Mettriez-vous votre vie dans les mains de votre modèle d’IA ?

    16h00 - 16h30

    Le développement de modèles d'intelligence artificielle (IA) ne cesse de gagner en popularité dans nos industries, ayant de facto un impact réel sur notre vie quotidienne. L’explicabilité et l’interprétabilité des modèles d'IA sont ainsi mises en question aujourd’hui. Alors que dans de nombreuses applications les ramifications d'un échec sont assez faibles (par exemple, un système de recommandation de film qui ne parvient pas à fournir des choix judicieux), il est impératif que les systèmes où la sécurité est critique, tels que la conduite automatisée, l’aérospatial, ou encore des dispositifs médicaux, obtiennent non seulement la bonne réponse, mais expliquent aussi comment une décision finale a été prise.
    Les ingénieurs et les scientifiques doivent être en mesure de bien comprendre et d'étudier un modèle avant de le mettre en production. Dans de nombreuses industries, il existe souvent des exigences réglementaires pour permettre la mise en production d'un modèle. Plus les conséquences d'une défaillance sont importantes, plus il est nécessaire d'expliquer en détail le comportement du modèle. Et un modèle « boîte noire » n’est souvent pas envisageable et difficile à déchiffrer.
    Plusieurs techniques visant à améliorer l'explicabilité du modèle seront examinées au cours de cette séance. Cela comprend des modèles simples, des modèles d'apprentissage plus avancés avec des visualisations éprouvées ainsi que des modèles testés et approuvés par des experts. L'accent sera mis sur la capacité de communiquer les propriétés des données, les décisions et les résultats du modèle, en détaillant non seulement le fonctionnement interne de ce dernier, mais aussi la façon dont il a été construit, les différentes techniques de validation, les comparaisons avec d'autres modèles, comment les données ont été recueillies et l'importance de l’entraînement, de la validation et des ensembles de tests.
    Un modèle explicable n'est qu'une partie d'un système d'IA complet : un modèle prêt pour la production doit être intégré dans un système beaucoup plus vaste et peut avoir besoin d'être exécuté sur du matériel spécifique tel que des GPU, des FPGA ou sur le cloud. Au cours de cette session, en utilisant MATLAB, nous jetterons les bases des étapes nécessaires à la mise en place d'un tel système : de la mise à l'essai du modèle et de la facilité d'explication au déploiement et à la conception du système.

    Speaker : Pierre Harouimi, Ingénieur d’application spécialisé en data analytics et en finance

    Voir en détail
  • Exposer ses données de manière sécurisée au travers d’une couche sémantique partagée pour permettre à l’utilisateur de modifier en temps réel ses règles métiers

    16h30 - 17h00

    La Self BI donne aux utilisateurs une liberté et une puissance d’analyse inégalées. Deux obstacles doivent pour cela être franchis.

    L’utilisateur non averti a besoin de récupérer à tout moment sa donnée sans se préoccuper de son format ou de sa structure.

    Il a également besoin de récupérer une donnée documentée avec une sémantique partagée dans l’entreprise.

    La Virtual Data Platform de Suadeo, au travers de son Catalogue, permet de partager de manière sécurisée, en temps réel, le référentiel de données de l’entreprise.

    Et à l’aide des Données d’Usage, l’utilisateur peut dans sa restitution faire appel à n’importe quelle donnée, où qu’elle soit, quelle que soit sa structure afin, s’il en a le droit, de la glisser dans son Dashboard ou son Report.

    Voir en détail
  • Parlons clients: 'Customers' la suite d'offres pré-packagées by Ysance

    17h00 - 17h30

    Toutes les entreprises partagent actuellement la même priorité de reprendre le contrôle sur les données clients, RGPD, Référentiel Client Unique, Marketing, Segmentation, Analytics...

    Ysance a développé une suite d'offres pré-packagées qui accélère la mise en place des principaux composants fonctionnels d'une plateforme clients : RCU, Segmentation, Analytics.
    A mi-chemin entre l'offre de conseil et la solution SaaS, nous apportons pour chaque offre: L'architecture, le modèle de données, du code pré-packagé et testé pour les différentes plateformes Cloud, une méthode d'intégration rapide qui renvoient les projets d'intégration long et complexes au siècle dernier. Issu de notre expérience auprès d'une centaine de clients, nous avons choisi de packager notre expertise et vous proposer un modèle de delivery innovant.

    Permettez à votre entreprise de faire du business, accélérez l'on-boarding de vos propres équipes sur ces sujets, comprenez enfin vos clients, reprenez le contrôle.

    Venez découvrir au cours de cet atelier:
    - Comment nous déployons en quelques semaines un RCU qui vous appartient et s'intègre naturellement à votre SI
    - Comment nous menons des projets de Customer Analytics
    - Comment vous traitons les nouvelles segmentations clients à l'heure du digital

    Intervenants : Guillaume Masseau et Sylvain Franco

    Voir en détail
  • Delivrez des expériences data à vos utilisateurs - Ils n’ont pas besoin d’un autre outil de Dataviz

    17h30 - 18h00
    Voir en détail
  • Construire une data stack agile en moins d'un mois sans Data Engineer

    18h00 - 18h30

    Speaker : Nolwenn Belliard, Data Analyst at Tiller Systems and Bruno Emsellem, CTO at Tiller Systems.

    Voir en détail

Salle Atelier B

  • Process Mining & RPA : le combo gagnant

    09h30 - 10h00

    Découvrez en temps réel ce qui se passe dans votre business avec le process intelligence en tirant profit de vos données cachées dans vos systèmes IT. Identifiez les zones à améliorer et optimisez vos processus pour gagner en performance, conformité, réduire vos coûts opérationnels et lancer vos projets RPA !

    Speaker : Stéphane Mauduit, Account Executive, Signavio

    Voir en détail
  • Les Digital Twins dans la stratégie de Mercedes-AMG Petronas Formula 1 Team, champion du monde des constructeurs de Formule 1

    10h00 - 10h30

    De nombreux facteurs connus contribuent aux performances d'une Formule 1 - conception, aérodynamisme, configuration, stratégie - auxquels s'ajoute un nouvel élément décisif : la simulation avancée.
    Mercedes-AMG Petronas Formula 1 Team investit dans les simulateurs digitaux qui reproduisent l'expérience sur circuit. Découvrez comment les technologies analytiques et d'intelligence artificielle de TIBCO participent à l’élaboration de jumeaux numériques (digital twins) et forgent une stratégie gagnante de course.

    Intervenant : Franck Léonard, Senior solutions consultant, TIBCO Software

    • Franck Léonard Sénior solutions consultant TIBCO
    Voir en détail
  • Qlik révolutionne l’usage de vos Big Data

    10h30 - 11h00

    Connectez toutes vos données, quelle qu'en soit le volume, pour mieux les explorer. Découvrez notre nouveau moteur associatif révolutionnaire dédié au Big Data : l’« Associative Big Data Index».

    Nous vous montrerons comment celui-ci permet à Qlik de vous proposer une approche unique, cohérente et complète de vos Big Data.

    Speaker : Loïc Formont, Solution Architect

    Voir en détail
  • Explorez vos données en libre-service

    11h00 - 11h30

    Découvrez comment Tableau vous permet de développer vos propres analyses et d'explorer vos données en quelques clics !
    Sans codes ni compétences techniques, décelez des insights concrets et pertinents pour engager des conversations basées sur les données avec vos collègues et diffuser les informations que vous avez trouvées.

    Voir en détail
  • Comment créer un environnement antifraude grâce aux processus d’analyses automatisés

    11h30 - 12h00

    Venez découvrir comment réduire de façon considérable, rapide et durable le coût de la fraude dans votre entreprise, quel que soit votre domaine d’activité.
    À travers 2 cas d’usage concret nous allons montrer comment :
    - Les analyses géospatiales peuvent calculer la distance entre vos clients et vos agences afin d’identifier toute situation anormale d’acceptation d’un crédit
    - Le Machine Learning peut créer un algorithme capable d’identifier les transactions bancaires à risque.
     

    • Stéphane Portier Ingénieur Commercial ALTERYX
    Voir en détail
  • Data Assistant : l’IA au service de la démocratisation de la data

    12h00 - 12h30

    On assiste depuis deux ans à la naissance d’une nouvelle ère sur le marché de la business intelligence. Les outils de BI ‘traditionnels’ et de data discovery laissent peu à peu place aux nouvelles technologies de data assistance, dotées d’une IA. Cette nouvelle ère, baptisée "Augmented Analytics" par Gartner, révolutionne peu à peu les usages et permet d’aller plus loin dans la démocratisation de la donnée en entreprise.

    Découvrez askR.ai, le data assistant doté d’une IA, qui permet à tout utilisateur, sans compétences techniques, d’avoir accès à la bonne donnée en moins de 2 secondes. It’s time to chat with your data!

    Intervenant : Matthieu Chabeaud - Co-founder & CEO

    Voir en détail
  • Analyser le contenu vidéos en utilisant un réseau de neurones avec les données web

    12h30 - 13h00

    Nous introduirons les bases de l'analyse vidéo utilisant un réseau de neurones et expliquer une manière innovante d'apprendre avec le moins d'intervention humaine possible. L'approche se base sur les données Web et une synergie entre les métadonnées textuelles et le contenu visuel de la vidéo.

    Speaker : Nicolas Chesneau, Technical Lead Machine Learning – Ekimetrics

    Voir en détail
  • Datalab, un atout pour les projets Big Data et IA

    13h00 - 13h30

    Moteurs de recherche, reconnaissance vocale, analyse de réseaux sociaux, analyse sémantique, ... Aujourd'hui l'IA et le Big Data permettent d'appuyer un ensemble complet de process métier. Mais comment mettre en place ces solutions et avec quelle méthodologie ? Quel place pour un Datalab au sein des entreprises ? 

    Speaker : Alexis Trentesaux - MC2I

     

    Voir en détail
  • Et s'il existait une architecte de données simple et unifiée ?

    13h30 - 14h00

    Avec Cloud Pak for Data, plateforme de services de données et d'IA collaborative, fédérez vos utilisateurs métiers et informatique.
    Offrez-leur la même expérience et culture de la donnée. Accélérez l'industrialisation et l'adoption de l’Intelligence Artificielle.

    Speaker : Corinne Baragoin, Architecte Big Data, IBM

    Voir en détail
  • Where People Meet Data

    14h00 - 14h30

    Filiale du groupe Crédit Agricole spécialisée dans la fourniture de services financiers aux investisseurs institutionnels, Caceis a mis en place une plateforme big data pour tirer pleinement profit de ses données et repenser son expérience client, dans une approche data-centric.

    Pour simplifier et fiabiliser l'alimentation du datalake Hadoop, Caceis a fait le choix Qlik Replicate (Attunity), qui lui assure, en temps réel, l'ingestion de ses données issues de sources hétérogènes.

    Cette nouvelle architecture permet d’offrir aux clients un accès à des analyses de leurs données via le portail Olis, qui sera présenté à l’occasion de cet atelier.

    « Le Data Lake, colonne vertébrale de Caceis. » Fabien Azavant, Chief Information Officer Caceis.

    Ahmed Kissay, Associate Partner chez DXC Analytics et Cyril Davanier , IT Asset Investor Servicing chez Caceis, expliqueront l'architecture en place, les points clefs du produit et les résultats obtenus, tant du côté business qu'IT.

    Voir en détail
  • Météo des données X NODATA - une vision à 360º de vos flux

    14h30 - 15h00
    Voir en détail
  • Table ronde : Découvrez les trois clés de la réussite de vos projets Data

    15h00 - 15h30

    - Les équipes : quels profils, et comment les attirer et les fidéliser ?

    - La démarche : comment engager le business, du design à la gouvernance ?

    - La plate-forme : comment collaborer autour de la data sans perdre en efficacité ?

     Partagez les retours d’expériences des experts de Talend et de ses partenaires.

    Speakers:

    Charles Parrat, Directeur Stratégie et Innovation, Micropole
    Mick Levy, Directeur de l’Innovation, Business & Decision
    Laurent Letourmy, CEO, Ysance
    Jean-Michel Franco, Directeur Marketing Produit, Talend

    Voir en détail
  • Integration des algorithme de Machine learning dans un environnement Big Data

    15h30 - 16h00

    Quels sont les enjeux futurs? Quelles sont les limites de distribution/parallélisation de ces calculs et données.

    Speaker : Fahd ESSID, CTO LANSROD

    Voir en détail
  • Vertica & Pure Storage - Stocker beaucoup de données de suffit pas. Quelles options pour transformer et dynamiser vos projets analytiques ?

    16h00 - 16h30

    Venez découvrir comment Vertica et Pure Storage peuvent vous aider à repenser votre environnement Big Data

    Speakers : François Guerin, Consultant avant-vente - Vertica

    Bertrand Ounanian, Systems Engineer - Pure Storage

    Voir en détail
  • La transformation numérique : un vrai challenge

    16h30 - 17h00

    Illustration, par un cas client, du déploiement d'une plateforme Big Data spécialisée dans la donnée personnelle - RGPD as code - qui a poussé le client à raisonner en dehors des sentiers battus et à adresser son enjeu de transformation numérique de façon centralisée. Ce cas client démontre qu'avec une telle approche, il est enfin possible d'aller au-delà de l'exploitation analytique des données personnelles.

    Speakers :

    - Fabrice RECOQUE, Directeur de la division Motocycles, Honda France.

    - Antoine DEBLONDE, Technical Leader, Keyrus

    - Thibault LEIGNÉ, Chief of Staff to the CEO & DPO, Black Tiger

    • Hugues Levental NC BLACK TIGER
    Voir en détail
  • Accélérez les initiatives big data avec le virtual data lake ou du rôle de la data virtualisation dans l'accès aux données

    17h00 - 17h30
    Voir en détail
  • AB testing & CRO with Advanced Analytics

    17h30 - 18h00

    La CRO (Conversion Rate Optimization) est un levier clé pour rendre les sites performants, en augmentant le ratio acheteurs/ visiteurs.

    Au sein des grands sites eCommerce, le CRO est souvent dirigé par les équipes produits, avec de fortes approches UI / UX et de nombreux outils puissants (Google Analytics, ContentSquare, Kameleoon, AB Tasty,…).

    Cependant, ces outils ne sont efficaces que grâce à la donnée, mais tirer de l'intelligence de ces données est souvent assez complexe, car nécessite à la fois une solide base statistique / technique et une bonne connaissance de l'activité de l'entreprise. Par conséquent, l'analyse des AB Tests est souvent l'apanage de ressources coûteuses et rares au sein des équipes analytics ou au sein des cabinets de conseil.

    Avec DataMa, l'équipe analytics de Pierre et Vacances Center Parcs a réussi à prendre une longueur d'avance en proposant aux équipes Produits des analyses actionnables, d'où que viennent les données.

    Cet atelier vous donnera un aperçu de comment vous pourriez en quelques jours:

    • Attribuer la valeur à chaque page et prioriser vos AB Tests en fonction de cette valeur 
    • Créer un outil de lecture automatisée des AB Tests (server & client side), 
    • Comprendre les facteurs impactant ces écarts pour informer la refonte de vos pages

    Intervenants: Fanjuan Shi (Pierre et Vacances Center Parcs), Matthieu Barrue (Pierre et Vacances Center Parcs), Guillaume de Bénazé (DataMa)

    Voir en détail
  • La Secret Sauce AI de Google et Facebook : ce que tout le monde devrait savoir sur l'annotation des données.

    18h00 - 18h30

    L'IA s'immisce partout, dans toutes les entreprises. Pourtant 2/3 des projets d'IA échouent par manque de données d'entraînement pour alimenter les modèles supervisés.
    Les applications industrielles sont souvent spécifiques et spécialisées et la donnée que l'on peut trouver dans le monde de l'open-source ne couvrent pas ces cas d'utilisation.
    Nous montrons les leçons qu'il faut tirer de ces sociétés emblématiques, Google ou Facebook, pour faire de l'IA à échelle industrielle. Il faut permettre aux entreprises et aux data scientists de transformer leur industrie, en simplifiant radicalement l'annotation de données non supervisés.

    Voir en détail

Salle Atelier C

  • Décrochez 150k€ pour développer votre projet de data portability grâce au programme européen DAPSI

    09h30 - 10h00

    Vous développez un projet pour répondre aux défis de la portabilité des données ? Rejoignez le programme DAPSI et obtenez jusqu’à 150 000 euros de subventions (sans fond propre), un support technique et commercial ainsi qu’un accès à des infrastructures de haut niveau !

    Le nouveau programme européen DAPSI (Data Portability and Services Incubator) dispose d'un fonds de 5,6 millions d'euros pour permettre aux ‘internet innovators’ de développer de nouvelles solutions dans le domaine de la portabilité des données.

    Le règlement général sur la protection des données (RGPD) a pour objectif de faciliter considérablement la transmission et portabilité des données stockées auprès d'un fournisseur de services directement à un autre fournisseur. Mais dans la plupart des cas, il demeure difficile de le faire.

    Pour répondre à cet enjeu, DAPSI soutiendra des projets à fort potentiel visant à faciliter la portabilité des données.
    Ce programme de 9 mois apportera aux projets sélectionnés :
    - un coaching d’experts européens de premiers plans, qui fourniront une méthodologie de travail éprouvée,

    - un accès aux infrastructures de pointe,
    - jusqu'à 150 k€ de financement (sans fonds propres)

    Les équipes de Cap Digital – partenaire français du projet DAPSI – vous présenteront en détail ce programme ainsi que le process et le calendrier de l’appel à candidature (open call) associé.

     

    Voir en détail
  • Séparation du compute / storage dans votre Data Center grâce à CDP

    10h00 - 10h30

    Cloudera Manager introduit la notion de Cluster Privé Virtuel, qui permet le déploiement de clusters indépendants du stockage.
    Les avantages de ce nouveau style d'architecture sont multiples : meilleure isolation des traitements et de l'administration pour adresser les 'problèmes de voisinage', mise à disposition d'infrastructure éphémères selon les besoins, utilisation de machines à faible stockage, support de versions différentes, scalabilité à deux dimensions...
    Des clusters séparés ne doivent pas constituer des silos complexes à administrer : grâce au partage de contexte (données, métadonnées, et sécurité) entre clusters offert par la couche Shared Data Experience, la donnée est unique et visible de tous, de manière consistante, avec respect des règles de gouvernance en place.
    Nous ferons également l'introduction de Cloudera CDP Private Cloud qui apportera encore plus d'agilité et d'expérience self-service en permettant aux utilisateurs l'exécution de leurs traitements Data Science et SQL à la demande, dans une infrastructure à base de conteneurs.
     

    • Mael Ropars Ingénieur Solutions Cloudera
    Voir en détail
  • FROM BIG TO SMART DATA : De la carte grise au décryptage du mode de vie des français

    10h30 - 11h00

    Témoignage de la société AAA DATA (spécialisée dans l’exploitation statistique et commerciale des données d’immatriculation) sur les chantiers co-réalisés avec les équipes Estia depuis 4 ans.
    L’IA et la data science, combinées à une base de données massive, ont ainsi permis de passer d’une vision « véhicule » à une vision « customer centric », nouvelle source d’efficacité pour les annonceurs.
    Découvrez comment les sociétés AAA DATA et Estia ont mené à bien les actions de valorisation de la base de données massive !
    Au programme de cette intervention coanimée par les équipes Estia et AAA DATA, un retour d’expériences sur :
    • L’exploitation analytique de millions de données,
    • Le décryptage et la segmentation des modes de consommation automobile,
    • Le développement d’algorithmes d’IA pour basculer dans une dimension prédictive,
    • L’industrialisation en environnement big data.

    • Faiza BOUFROURA Responsable Valorisation des données AAA DATA
    • Nicolas ROTY Datascientist AAA DATA
    • Nathalie COSTA Directrice du Développement Groupe Estia
    Voir en détail
  • Operational Excellence with Data at Scale

    11h00 - 11h30

    Data plays a key role in growth and innovation. Yet, most companies make it exceptionally difficult to work with data for everyone in the organization. Data democratization can help alleviate the pain felt by the "data-poor" and your overtaxed Data Team. In this talk you'll learn actionable methods to help your organization excel at using data to drive growth and innovation while simultaneously increasing efficiency. 

    Speaker : Christy Haragan, Solutions Engineer EMEA

    Voir en détail
  • DataRobot pour prédire le gagnant de la Ligue des Champions 2020

    11h30 - 12h00

    Rejoignez-nous pour suivre pas à pas les pronostics de la finale de la Ligue des Champions. En tirant parti du Big Data et de la plateforme d’intelligence artificielle de DataRobot nous allons prédire ensemble le vainqueur éventuel de la Ligue des Champions.

    Nous vous présenterons la préparation de ces données avec Paxata, puis la création de modèles prédictifs avec notre solution de Machine Learning Automatisé. Vous allez voir émerger des informations fascinantes sur le football !

    Envie d’en savoir plus ? Participez à l’atelier de notre partenaire Appex (10 mars à 14h30) pour découvrir le retour d’expérience de Carrefour et Infolegale sur l’accélération de leurs projets IA avec DataRobot.

    • Julien Sigonney Directeur Régional France DATAROBOT
    • Stéphan André Data Scientist DATAROBOT
    Voir en détail
  • Comment rater sa migration BIG DATA dans le Cloud

    12h00 - 12h30

    De plus en plus d’entreprises veulent migrer leurs données dans le Cloud Computing afin d’optimiser leurs coûts et profiter de ressources conséquentes.
    Dans une époque où les données sont générées à un rythme exponentiel, il est de plus en plus difficile de bien réussir sa migration. JEMS a été une des premières sociétés à se lancer sur la Big Data et a donc une expérience très forte avec plus de 40 projets migrés dans le Cloud.
    Nous vous proposons de vous livrer les cinq façons de rater sa migration Big data. Car on apprend beaucoup plus de nos échecs que de nos réussites.

    • AYMEN GHADGHADI Vice Président Cloud JEMS GROUP
    Voir en détail
  • Comment le contexte rend l’Intelligence Artificielle plus fiable et plus efficace ?

    12h30 - 13h00

    L'intelligence artificielle devrait être guidée non seulement par des normes techniques solides, mais aussi par des normes éthiques solides. Le contexte est un principe clé qui se recoupe dans ces deux domaines. L'information contextuelle permet non seulement d'obtenir des systèmes d'IA plus performants et plus précis, mais aussi d'offrir une perspective éthique plus claire à ceux qui la créent et la façonnent.

    Les systèmes d'IA et d'apprentissage machine sont plus efficaces, fiables et robustes lorsqu'ils sont étayés par des informations contextuelles fournies par des plateformes de graphes. On vous expliquera pourquoi et comment le contexte doit être intégré dans les systèmes d'IA afin de s'assurer qu'ils sont vraiment fiables, robustes et dignes de confiance.

    • Nicolas Rouyer Senior Pre-Sales NEO4J
    Voir en détail
  • Big Data versus Smart Data, où placer la qualité des données pour assurer fiabilité, traçabilité et compliance ?

    13h00 - 13h30

    - Pourquoi la qualité des données reste cruciale, même dans les projets Big Data ? Contrainte ou catalyseur ?
    - Où placer la qualité des données dans mon architecture Big Data ?
    - Quel impact sur l'opérationnel, l'analytics et le prédictif ?

    Intervenant:
    Elodie Solirenne

    Responsable des solutions Uniserv

    Voir en détail
  • Analyse de données textuelles : approche qualitative ou machine learning ? un faux dilemme

    13h30 - 14h00

    Beaucoup de solutions d’analyse sémantique reposent essentiellement sur une approche de « marchine learning ».  Certains experts émettent cependant de sérieux doutes sur la validité de telle approche et préconisent plutôt une analyse qualitative fine.  Il est couramment admis qu’une approche Quali est surtout indiquée pour une petite quantité de texte alors qu’une approche reposant sur l’IA est plus appropriée pour de plus gros volumes de texte. Mais, est-ce aussi simple ? Ces différentes méthodes d’analyse s’excluraient-elles mutuellement ? Dans quelle mesure peuvent-elles se compléter ou se combiner, et ce, quelle que soit la quantité de données?  Nous tenterons de rassembler quelques éléments de réponses et d’y apporter un nouvel éclairage sur la relation entre ces différentes approches.

    Speaker :  Dr. Normand Péladeau, CEO

    Voir en détail
  • Assistez au témoignage du leader du commerce en centre-ville Monoprix : Retour d’expérience de mise en œuvre d'un data warehouse dans le Cloud

    14h00 - 14h30

    Monoprix a entrepris un projet de modernisation de son infrastructure analytique en implémentant le seul entrepôt de données dans le cloud, Snowflake.

    Keyrus accompagne ainsi Monoprix dans ce projet qui leur permet de gagner en performance, réduire les délais d’attente, faciliter les analyses plus profondes, rendre possible le partage de données (data sharing), et satisfaire les besoins des équipes en matière de machine learning.

    Découvrez comment ce passage vers le cloud permet à Monoprix de mettre la data au profit de ses activités stratégiques .

    Voir en détail
  • Nouvelles lignes directrices de la CNIL pour la gestion des cookies : Les nouveautés et ce que cela signifie pour vous

    14h30 - 15h00

    Speaker : Christian Mintchev, Privacy Engineer, ONETRUST

    Voir en détail
  • 3 usages de vos données dans un logiciel de tableaux de bord: pilotage, exploration et communication.

    15h00 - 15h30

    DigDash est un éditeur français d’un logiciel agile de tableaux de bord, de visualisation de données, d'exploration et d’analytique. Après une présentation de Digdash, nous aborderons plusieurs points au travers d'exemples concrets.

    ● Les tableaux de bord de pilotage
    ● L'exploration et la manipulation de données
    ● La communication à une audience large autour de ces données

    Découvrez notre outil qui révolutionne la façon de travailler de nos clients. Tous secteurs confondus, il permet aux entreprises d'obtenir une visibilité claire sur leurs données.

    • Antoine Buat Cofondateur et CEO DIGDASH
    Voir en détail
  • Bénéfices de l’Intelligence Artificielle Cognitive

    15h30 - 16h00

    Expert System, éditeur de logiciels basé en Europe et en Amérique du Nord, développe et commercialise des logiciels d’analyse cognitive fondés sur des algorithmes d’intelligence artificielle capables de lire et comprendre le contenu de vos documents textuels. Grâce à notre gamme de logiciels, les entreprises et les acteurs publics peuvent désormais trouver, découvrir et valoriser l’information afin de pouvoir améliorer leurs connaissances, arbitrer leurs décisions et réduire leurs risques opérationnels plus simplement. Analyser et comprendre automatiquement chaque mot, chaque phrase - dans leur contexte métier spécifique - est le meilleur moyen de valoriser la connaissance au sein d’une organisation. Plus précises que les systèmes classiques à base de mots clés, nos solutions sémantiques se distinguent en analysant le sens, la nature et la pertinence de vos contenus internes ou externes. Notre logiciel Cogito® fonde ses capacités d’analyse cognitive sur des algorithmes d’intelligence artificielle qui reproduisent les processus humains de lecture et de compréhension des contenus textuels. Cogito est une solution cognitive multilingue brevetée et reconnue qui propose des fonctionnalités de traitement automatique du langage naturel, d’extraction sémantique et de classification.

    Grâce à sa capacité de comprendre le texte dans son contexte, Cogito est un actif stratégique pour les entreprises qui leur permet de découvrir les informations pertinentes, d’automatiser les processus métiers, de transformer leur engagement envers le client et d’aider à la prise de décision.

     

    • Alain Biancardi VP Sales EXPERT SYSTEM
    Voir en détail
  • Décisionnel & Data Stream : canalisez et exploitez vos flux de données

    16h00 - 16h30

    Stocker l’information ne suffit pas. Les nouvelles technologies de Data Stream permettent de transformer vos flux de collecte en flux d’analyse temps réel et votre infrastructure de stockage en véritable plateforme décisionnelle. Cas d’usage concrets, présentation technique, enjeux de sécurité, découvrez les bases du streaming analytique.

    Voir en détail
  • Réussir sa gouvernance de données avec la nouvelle approche DataOps d’IBM

    16h30 - 17h00

    La donnée est au cœur de la stratégie des entreprises pour atteindre leurs objectifs de productivité,  compétitivité et conformité réglementaire.

    Mais comment faire pour rendre la donnée compréhensible, accessible et utilisable par tous ?

    Pour faire face à ces défis, venez découvrir l'approche IBM DataOps, combinant DevOps, Data Management, et gouvernance de la donnée.
    Au travers de cas d'usages concrets, vous comprendrez comment tirer bénéfice de cette méthode grâce à la plateforme IBM Cloud Pak for Data."

    Speaker :  Laurène Combette, Client Technical Professional, IBM France

    Voir en détail
  • Pourquoi la Data Virtualization devient indispensable dans toutes les stratégies data

    17h00 - 17h30

    Denodo, leader et pionnier de la Data Virtualization parle aux CxO, CDO, architectes, data scientists et développeurs.

    Découvrez dans cet atelier comment avancer sur vos initiatives métier autour de la donnée et sur l’évolution de votre infrastructure technique en parallèle, grâce à la Data Virtualization. Vous verrez comment déverrouiller l’accès à vos données d'entreprise, optimiser vos stratégies big data et la gouvernance de vos données tout en en traçant l’usage, et piloter facilement des projets de migration vers le cloud sans impact sur le business.

    Avec le témoignage de Vincent Boucheron, Data Influencer indépendant et ancien Head of IS Data Services d’une grande banque : découvrez comment il y a réduit le time to data grâce à la data virtualization et tous les gains obtenus en termes de self service, gouvernance et sécurité.

    Speakers :

    • Yahya Jarraya - Senior Account Manager, Denodo
    • Vincent Boucheron - Data Influencer & Managing Partner, D.I.A.M.S
    Voir en détail
  • Databricks & WANdisco - Building Reliable Data Lakes at Scale with Delta Lake

    17h30 - 18h00

    Le travail fastidieux d'administration et de fiabilisation des DataLakes Hadoop on-premises afin d'atteindre les niveaux de service attendus (SLA) par les métiers est à l'origine du faible taux de projets BigData livrés en production (entre 10 et 20% en moyenne). Cette limitation structurelle peut entraver de façon durable les initiatives stratégiques dans la conception de nouveaux services à valeur ajoutée autour de la donnée comme les projets de Machine Learning ou d'Analyses Avancées.

    Le projet open-source #Delta Lake a été conçu comme une couche de stockage supplétive sur les technologies existantes de stockages objet des fournisseurs Cloud (Blob, S3) afin d'améliorer la fiabilité et de désenclaver les DataLakes en étant nativement compatible avec les API Apache Spark. Cette innovation disruptive garantie de façon inédite les caractéristiques ACID des transactions sur le DataLake, la gestion des métadonnées à grande échelle, l'historisation des actions sur les données (en accord avec la RGPD) ainsi qu'une administration centrale et automatisée des processus de collecte des données par batch ou streaming.

    Databricks & WANdisco présenteront les avantages significatifs en termes de performance, scalabilité et fiabilité du #Delta Lake pour sécuriser la montée en puissance de vos initiatives stratégiques de Machine Learning et d'Intelligence Artificielle, ainsi qu'une démonstration d'une stratégie de migration de données garantissant la continuité de service de vos projets critiques en production.

    Speakers

    • Seifeddine SAAFI - Solutions Architect - Databricks
    • Pierre TROUFFLARD - Territory Manager - WANdisco
    Voir en détail
  • Monter son premier projet Big data

    18h00 - 18h30

    Quand l’innovation est un impératif et l’exploitation des données une urgence, on se retrouve vite face à une question : par où débuter ?

    A partir d’exemples simples, nous vous proposons de poser quelques jalons pour mieux comprendre le paysage du Big Data et commencer rapidement vos premiers programmes.
    Nous vous aiderons à répondre à vos interrogations.

     

    Voir en détail

Salle Atelier D

  • Qu’est-ce que je fais de mon Hortonworks ?

    09h30 - 10h00

    Début 2019, Hortonworks annonce son rapprochement avec Cloudera, en faveur de ce dernier. Cette fusion annonce un tournant dans l’univers du Big Data et soulèvent des interrogations.

     En effet, nombreuses sont les entreprises qui ont précédemment investi en temps et en argent pour disposer de la plateforme d’Hortonworks !

     Dans ces conditions, que faire de son Hortonworks ? Des solutions existent-elles ? Si oui, vers laquelle se tourner ? Et surtout, comment mener à bien cette transition ?

    Si cette question vous travaille vous aussi ou si vous voulez comprendre comment l’univers de l’infrastructure Big Data va évoluer dans les prochaines années…

    Retrouvez Benoit Petitpas, Directeur Big Data, qui répondra en tant qu’expert à toutes ces questions.

     

    Speaker : Benoit PETITPAS, Directeur Big Data

    Voir en détail
  • MicroStrategy : Avec HyperIntelligence, donnez un super pouvoir à vos utilisateurs !

    10h00 - 10h30

    Découvrez lors de cette session une approche disruptive pour enfin démocratiser l’analytique au plus grand nombre dans l’entreprise.

    • Augmenter l’adoption de la BI et des analytics
    • Intégrer les analytics aux applications les plus populaires (email, office, browser, CRM, ERP…)
    • Analyser toutes sources de données et les croiser sans efforts
    • Démocratiser l'apport des algorithmes de datascience et de machine learning pour conseiller sur la prochaine bonne action à effectuer

    Selon Gartner « HyperIntelligence fait partie des fonctionnalités les plus innovantes apparues sur le marché des plateformes BI et analytics depuis les deux dernières années »

     

    Voir en détail
  • Leveraging DataOps to Deliver an Omnichannel Customer Experience

    10h30 - 11h00

    Wynd is the one stop solution for global retailers’ omnichannel transformation, enabling them to handle their cash-in and fulfilment. Thanks to Wynd’s software, retailers can connect their stores with their website or mobile apps and offer innovative services to their customers like home delivery or click and collect. Meanwhile, they save money on stock levels, smoothen order management and turn their store associates into assets. 

    Having real time, unified data on stocks, orders, customers and capacity is crucial to building an omnichannel customer experience. Integration and stability can prove challenging in complex networks of stores and logistics centers across multiple industries.

    Wynd has partnered with Streamsets to solve this challenge. By leveraging thedatz StreamSets platform Wynd uses php workers to retrieve the various kinds of data about customers and then integrate them using the StreamSetsPlatform. In concert Wynd and StreamSets deliver relevant and easily maintainable solutions without slowing down the completion times of data integration flows, and that's how Streamsets is helping Wynd build a DataOps practice.without slowing down the completion times of data integration flows, and that's how Streamsets is helping Wynd build a DataOps practice.

    Voir en détail
  • L'IA en production dans la santé : projet PharmIA

    11h00 - 11h30

    Le projet PharmIA propose une plateforme digitale d’analyse des prescriptions médicales destinée aux pharmaciens hospitaliers et qui met en œuvre des algorithmes d’Intelligence Artificielle afin d’améliorer la qualité de prise en charge des patients à l’hôpital, d’optimiser l’efficacité de l’organisation de la pharmacie hospitalière et de réduire les dépenses de santé au titre du médicament.

    Voir en détail
  • SAP HANA Cloud Services - Découvrez le nouveau socle SAP HANA dans le cloud, une passerelle unique vers toutes vos données sécurisées, en temps réel et peu importe où elles se trouvent.

    11h30 - 12h00

    Dans un monde où la donnée est en constante croissance, tirez parti des dernières innovations de SAP HANA pour exploiter tout le potentiel de votre paysage de données. Combinez et apportez de la valeur à vos données pour permettre à tous les membres de votre organisation de prendre des décisions percutantes, rapides et sûres.

    Avec une solution optimisée pour le cloud, vous aurez désormais un accès illimité à SAP HANA au travers des solutions de management de la donnée et d’analyses avancées. Venez découvrir comment simplifier l’accès à l’ensemble de vos données et réaliser des analyses instantanées pour vos prises de décision.

    Speakers :

    Emilie Almouzni – SAP Solution Architect Business Technology Platform

    Abdelmajid Bekhti – Senior Solution Advisor Business Technology Platform

    Voir en détail
  • Comment gagner en agilité dans sa stratégie multicloud ?

    12h00 - 12h30

    Le multicloud devient une évidence pour bon nombre de DSI ! Et vous, êtes-vous prêts ? Découvrez dans cet atelier, comment Oracle peut vous aider à relever le défi en vous apportant cohérence, sécurité, haute disponibilité, gouvernance, maîtrise des coûts quels que soient les cas d’usage (Big Data, Analytics, Data Science, Sécurité, Containerisation, Management....).

    Speakers :Frederic Marsaud (Cloud Solution Architect, Oracle) et Antoine Gouedard (Business Analytics & Big Data Solution Engineer, Oracle)

    Voir en détail
  • raisons pour lesquelles le Search et les analyses basées sur l'IA ne sont pas toutes égales

    12h30 - 13h00

    Il est facile d’ajouter une barre de Search.
    Cependant faire fonctionner ces moteurs de recherche pour l'analytique, c’est une autre histoire! Surtout quand les besoins des métiers sont complexes.
    Découvrez comment l'approche unique de ThoughtSpot en matière d'analyse basée sur le Search et l’IA fournit des réponses instantanées sur l’ensemble des données de l’entreprise

    Speaker: Alexandre PICARD, Sales Engineer chez ThoughtSpot

    Voir en détail
  • Découvrez le témoignage d’un leader du secteur bancaire, la Société Générale : retour d’expérience d’un Data Hub Client dans le Cloud Azure

    13h00 - 13h30

    Face à des volumes de données de plus en plus importants et à l’émergence de nouveaux concurrents, la Société Générale tire les bénéfices des innovations technologiques pour se doter d’une connaissance complète de ses clients, produits et points de contact.

    Micropole accompagne la Société Générale dans son accélération autour de l’exploitation et du décloisonnement de ses données. Cette plate-forme d’intégration et de gouvernance des données a permis à la direction financière de se doter d’une vue 360° sur l’ensemble des informations financières et non financières.

    Découvrez, à travers une discussion croisée, comment le Cloud permet à la Société Générale de reprendre le contrôle et d’exploiter ses données clients au maximum de leur potentiel.

    Speakers :

    • Ludovic Moullé, Responsable de domaine SI, Société Générale
    • Jean-Michel Franco, Sr Director, Product Marketing, Talend
    • Christophe Kerlero De Rosbo , Senior Practice Manager, Micropole
    Voir en détail
  • AXA optimise sa stratégie « data-driven » en créant la plateforme SHINE dans le cloud Azure

    13h30 - 14h00

    Speaker : Sylvain  MATHEVET, Head of Data, BI & Analytics, AXA Group Operations

    Voir en détail
  • MicroStrategy : Atelier retour d’expérience avec NRJ BI

    14h00 - 14h30

    A travers diverses analyses basées sur de l’open data, NRJBI vous fera découvrir lors de cette session l’outil de dataviz Self-Service de MicroStrategy (Dossier) ainsi que l’application native MicroStrategy Library.

    Cette application mobile MicroStrategy Library (pour tablette et smartphone) vous permet de profiter partout, en ligne comme hors ligne, de votre intelligence d’entreprise en accédant à un ensemble personnalisé d'analyses et de visualisations modernes : les dossiers MicroStrategy.

    Voir en détail
  • Big Data et Machine Learning au service de la détection d’anomalies - cas d’usages

    14h30 - 15h00
    Voir en détail
  • Macif assure sa transformation métier en démocratisant l’accès aux données grâce à Trifacta

    15h00 - 15h30

    Face à la multiplication et à la diversification des données, comment transformer rapidement ces données en avantage stratégique ? Retour d’expérience de la MACIF sur l’utilisation de Trifacta pour la préparation de données en environnement Big Data dans le cadre de reporting opérationnel et réglementaire

    Speaker: Laurent Aucouturier, Direction Digital & Systèmes d’Information Groupe Responsable Data Solutions, MACIF

    Voir en détail
  • Découvrez la plateforme d’IA qui protège en temps réel 90% des transactions bancaires françaises : retour d’expérience Market Pay (Groupe Carrefour)

    15h30 - 16h00
    Voir en détail
  • Comment démarrer une gestion des métadonnées ?

    16h00 - 16h30

    Qu’est-ce qu’une gestion des métadonnées ? Pour quels bénéfices ? Mais surtout, comment démarrer de manière à produire de la valeur le plus tôt possible pour vos consommateurs de données ?

    En 30 minutes, nous relevons le défi de répondre à ces problématiques et vous guider dans cette nouvelle (et indispensable) aventure à l’aide d’un data catalog.

     

    Speaker : David Martin

    Voir en détail
  • Exploiter l'intégralité de vos données avec notre Datalab as a service : Hadoop et Spark pour la [Big] Datascience

    16h30 - 17h00

    Speaker : José Corral Gallego

    Voir en détail
  • Ce que vous devez savoir pour piloter un produit Data Science

    17h00 - 17h30

    La Data Science agile... Tester, se tromper, apprendre, tester à nouveau, obtenir des petites réussites puis recommencer... Voici une partie de notre quotidien depuis 3 ans.
    Il n'est finalement pas nécessaire d'être un pro en algorithme pour livrer un produit qui répond avec succès à un besoin utilisateur. En revanche, les rudiments du pilotage d'un produit, une collaboration accrue et quelques pratiques organisationnelles vous seront fortement utiles.  Nous vous partagerons quelques enseignements pour construire un produit Data Science.

    Speakers :

    Nelson Dufossé, Coach Agile
    Marjolaine Clough - Data Product Owner

    Voir en détail
  • Exploitez la pleine valeur de vos données avec la plateforme bee4sense

    17h30 - 18h00

    bee4sense est une plate-forme de valorisation de l’information qui repose sur un paradigme en rupture avec les approches majoritairement mises en œuvre à ce jour.

    Les technologies d’IA et de Traitement Automatique du Langage Naturel mises en œuvre à tous les niveaux du cycle de traitement de l’information depuis son acquisition jusqu’à son utilisation, permettent de passer d’un modèle « Software rules Data » à une approche « Data rules software ».

    Cette approche innovante a permis à bee4sense de devenir la plate-forme de référence dans les procédures d’enquête et d’investigation du Ministère de l’Intérieur.

    Nous vous invitons à une présentation de cette approche et à une démonstration des applications qui, en sont dérivées.

    Voir en détail
  • Machine Learning, deep Learning et NLP au service des entreprises : Présentation et applications.

    18h00 - 18h30

    Intervants: Mr Dhaou GHOUL & Mr Abdelfatah GTET

    Voir en détail
  • Machine Learning, deep Learning et NLP au service des entreprises : Présentation et applications.

    18h30 - 18h30

    Intervenants:

    Mr Dhaou GHOUL & Mr Abdelfatah GTET.

    Voir en détail

Salle Atelier E

  • Comment tirer profit du NLP pour optimiser l’expérience client

    09h30 - 10h00

    Comment tirer profit du NLP pour optimiser l’expérience client pour :

    • Analyser et comprendre efficacement les retours-clients ;
    • Scorer automatiquement les appels clients enregistrés au sein des CRC ;
    • Détecter les entités nommées, les concepts et les sentiments ;

    En utilisant des techniques d’ASR (Automatic Speech Recognition), de NLP (Natural Language Processing), NLU (Natural Language Inderstanding), de NER (Named Entity Recognition), de POS tagging (Part-Of-Speech tagging) , de Dependency parsing, de Topic modelling, de sentiment analysis…

    Voir en détail
  • Le Logiciel Libre et le Big Data: Comment choisir la bonne technologie pour votre situation

    10h00 - 10h30

    Choisir la bonne technologie pour construire votre plate-forme de données peut être un défi de taille. Pendant de nombreuses années, les solutions proprietaires etaient le premier choix: les fournisseurs vous vendaient un produit sous licence soutenu par du support et peut-être un peu de R&D. Pour les décideurs informatiques, ce modèle pratique se fait au détriment du vendor lock-in, d’une coûteuse licence d’utilisation, et s’acompagne d’une perte de flexibilité.

    Avec l'avancement de nombreux projets open source (pensez Cassandra, MongoDB, Elasticsearch, Kafka, Spark, Kubernetes, Ignite etc…) pour résoudre des problèmes complexes de données volumineuses et distribuées, le processus de choix et de sélection de la bonne technologie a changé. En tant que leader informatique de votre organisation, vous devrez comprendre les avantages de chaque solution, leur maturité et leur adequation à votre cas d'utilisation, sans nécessairement pouvoir discuter avec un fournisseur. Vous devrez recueillir les informations necessaires auprès de multiples sources et vous poser les bonnes questions afin de pourvoir prendre une décision éclairée.

    Instaclustr a de nombreuses années d'expérience dans l’utilisation de produits open source pour le Big Data; et fourni de nombreux sevices sur ces technologies a ces clients. Dans cet exposé, nous partagerons avec vous ce que nous pensons être les considérations clés lors du choix d'une technologie pour résoudre votre cas d'utilisation. Nous évaluerons cette approche par rapport à certaines technologies populaires pour lesquelles nous possédons une vaste expertise - à savoir Cassandra, Kafka, Spark et Elasticsearch.

    À la fin de cet exposé, vous serez armé d’une approche coherente pour evaluer et choisir la technologie open source adapte à votre probleme. Vous aurez aussi un comprehension

    • Christophe Schmitz Vice président consultant INSTACLUSTR
    Voir en détail
  • How Amadeus and Couchbase partner to offer best-in-class Merchandising solutions to airlines

    10h30 - 11h00

    Amadeus is a leading travel technology company powering the operations of all the actors in the industry, and assist them to improve and redefine the travel experience. Among our objectives, we provide airlines with solutions to optimize their merchandising strategy by adapting to the offer context and their customers in real-time.

    During this session we will showcase how Couchbase helps us to deliver on this promise and get ready for going to the next level:
    · Covering a large range of Big Data needs, from key/value stores to complex queries and indexing
    · Enabling multi-cloud global deployments of our services

    Speaker : François Costes – Regional Sales Director Southern Europe & Benelux @ Couchbase

    Voir en détail
  • Comment réussir le virage omni-canal et fidéliser ses clients avec un Intelligent Data Hub

    11h00 - 11h30

    Au travers de ce retour d'expérience client vous découvrirez comment l’Intelligent Data Hub de Semarchy a permis à GrandVision de construire son référentiel client unique pour tirer tous les bénéfices de ses données client et résoudre la plupart des problématiques associées.

    Christophe Ulses, Directeur des Études Informatiques chez GrandVision France abordera les sujets suivant : 

    • Construire un référentiel client qui prend en compte le contexte métier
    • Maximiser la qualification client et réduire les coûts du marketing
    • Respect de la RGPD et gouvernance de la donnée client
    • Augmenter la satisfaction du client et son rapport à la marque
    • Upsell plus pertinent avec la vision 360
    Voir en détail
  • Infor Birst Smart Analytics

    11h30 - 12h00

    Birst Smart Analytics développe le pouvoir et les capacités d’Intelligence artificielle de Coleman A.I. Smart Analytics et s'appuie sur des algorithmes d'apprentissage automatique pour générer des informations automatisées et personnalisées. Il met le pouvoir de la data science entre les mains des utilisateurs.

    Speaker : Eric Delattre, Directeur général des activités de Birst en France

    Voir en détail
  • Vers l’entreprise « Data Centric » avec HPE : retours d’expérience, fondamentaux & approches pour accélérer votre transformation Big Data / AI

    12h00 - 12h30

    Les entreprises de tous les secteurs adoptent des application modernes, des techniques analytiques avancées faisant appel au Big Data, à l'IA et à l'apprentissage automatique (ML) pour une grande variété de cas d'utilisation. Cependant, nombre de ces entreprises ont du mal à déployer des environnements Big Data Analytics / AI / ML de manière opérationnelle et à l’échelle.

    Au cours de cette session, nous explorerons les retours marchés puis évoquerons les éléments de base à considérer pour le succès de vos déploiements Big Data & IA.

    Nous ensuite introduirons la vision Intelligent Data Platform de Hewlett Packard Enterprise puis survolons brièvement les actualités, les solutions et les bénéfices des offres MAPR et de la toute nouvelle HPE Container Platform.

    Speaker : Olivier Tant, Sales Category Manager, HPE Data Platform

    Voir en détail
  • Valoriser son patrimoine informationnel, mode d'emploi

    12h30 - 13h00

    Ce n’est que maintenant, en 2020, que nous franchissons le palier de la valorisation des données. Nous commençons à percevoir que la data constitue un patrimoine en tant que tel, au même titre qu’une usine, des postes de travail ou des actifs fonciers. Certains considèrent même que la donnée n’est pas un actif permettant de générer de la valeur, mais qu’elle constitue elle-même la valeur que doit produire l’entreprise !

    Mais quels sont les facteurs de réussite d’une démarche de valorisation des données de l’entreprise ? A quels paradoxes la gouvernance de la donnée devra-t-elle répondre ?

    Speaker : François BOUTEYRE, Directeur Conseil Data Management – CGI Business Consulting

     

    Voir en détail
  • Architectures de données IoT et Edge : cas concrets

    13h00 - 13h30

    D'ici 2025, près de 80 % des données industrielles seront générées par les Edge de toutes sortes (mini-datacenter, gateway IT/OT, capteurs, objets connectés, routeurs, ..).
    L'arrivée de la 5G va dynamiser un marché déjà en croissance et permettre de gérer des mini-cloud distribués et connectés aux usines. Coté manufacturing, les Edge industriels (IIoT) deviennent déjà clés pour connecter les machines dans les lignes de fabrication, entrepôts, usines et ateliers et obtenir ainsi les données pour le pilotage.


    Les questions qui se posent :
     - quelle cohabitation avec les clouds centraux ?
    -  quelle architecture IT/OT Industrie 4.0 pour intégrer les edges (PLC, SCADA, Gateways, etc ..) ?
    -  quels sont les cas d'usage par industrie (chimie pétrole, construction, automobile, électronique, manufacturing) qui ont besoin de Edge ?
    -  comment passer à l'échelle ?

    Speaker : Serge Bonnaud, architecte IoT, IBM France
     

    Voir en détail
  • 6 étapes pour construire la valeur de vos données

    13h30 - 14h00

    Want to realize real value from your data? ASG Technologies proposes a six-step approach that will guide you to your objective. Realizing value from data is a journey that needs to start with inventory and understanding of the data you have - if you want to govern them and correctly share with the right stakeholders. These logic steps are translated into a sound DI process, in six steps, that will enable you to achieve your business objectives effectively and faster. Learn how to simply manage for example migration to cloud or a data lake with a clear path in mind and reliable technologies at hand.


    Speaker:
    Alain BUENO - Data Intelligence Sales Specialist, ASG Technologies

    Voir en détail
  • Comment les données satellitaires révolutionnent le monde de l’assurance ?

    14h00 - 14h30

    Les acteurs de l’assurance et de la réassurance sont en première ligne face aux évolutions sociales et changements climatiques.

    Dans ce contexte, les données satellitaires couplées à l’Intelligence Artificielle leur procurent des avantages indéniables en leur offrant une visualisation plus précise du risque et en leur permettant d’offrir de nouveaux services à leurs clients.

    Speakers :

    Michel Benet , CEO Diginove

    Précilia Fibleuil, Responsable Marketing Innovation et programme startup, Orange Business Services

    François Alter, CNES

    Voir en détail
  • A VENIR

    14h30 - 15h00
    Voir en détail
  • Graph Analytics : nouvelle frontière des graphes (en anglais)

    15h00 - 15h30

    Si le concept de la base de données de graphes n'a rien de nouveau, le Graph Analytics est en revanche beaucoup moins répandu. C'est pourquoi notre atelier vous invite à découvrir comment implémenter un scénario de machine learning avec scoring de modèle en temps réel sur TigerGraph – une prouesse difficile, voire impossible pour les bases de données de graphes d'ancienne génération.

    Les premières expérimentations de cette technologie limitaient en effet l'analyse des relations. Dès qu'une requête dépassait trois arcs de traversée, les temps de réponse chutaient, rendant leur utilisation difficile dans des environnements temps réel. Or, l'intérêt même d'une base de données de graphes réside dans la découverte de connexions non-superficielles, lesquelles s'étendent sur plusieurs arcs.

    Le Native Parallel Graph™ de TigerGraph marque l'entrée dans une nouvelle génération de base de données de graphes pour l'analyse temps réel de relations complexes. Stockage de graphes compressé et distribué, architecture MPP pour un maximum de scalabilité et de parallélisme, moteur de traitement efficace, langage de requête puissant mais facile à apprendre (GSQL)... tous les ingrédients sont réunis pour des analyses de très haute performance sur les graphes.

    Cette session vous montrera à quel point il est rapide et facile de créer et remplir des graphes, mais aussi de formuler des requêtes analytiques en GSQL. Enfin, vous verrez comment mettre en pratique les résultats de ces requêtes en temps réel.

    Voir en détail
  • V and B modernise son réseau de franchises, grâce à une plateforme d’intégration as a service.

    15h30 - 16h00

    V and B, acteur dans le retail, doté de 210 points de vente, fait face à une forte croissance depuis 10 ans. A bientôt 20 ans, ce concept novateur doit revoir son infrastructure IT et ses processus métiers pour conforter sa position de leader et opérer une réelle transformation digitale :

    • Passer d'une organisation retail à une organisation omnicanale
    • Faire communiquer des systèmes hétérogènes
      • Optimisation processus
      • Sécurisation / pilotage
    • Exploiter la data pour optimiser la performance
      • Optimisation de l'offre centrale
      • Optimisation du pilotage des points de ventes
      • Améliorer la connaissance client pour innover sur l'expérience client
    • Imaginer une organisation IT souple 
      • préserver l'agilité dans une structure de plus en plus importante, préservez son dynamisme.
      • Piloter et maîtriser les flux de données dans un environnement interconnecté

    Découvrez le retour d’expérience de V&B sur la mise en place de sa plateforme iPaaS, dans le cloud, avec Informatica.

    Speakers :

    • Cédric Israel – Cloud sales specialist Informatica
    • Richard Zuber – Responsable relation client – V and B
    Voir en détail
  • NLP, IA et ML en 2020 : de la R&D aux usages concrets

    16h00 - 16h30

    Les dernières avancées du deep learning appliqué au traitement automatique des langues ont permis d’améliorer les résultats de toutes les tâches de NLP. Cette conférence permettra d’expliquer, en termes simples, les modèles récents : BERT, ELMo, ULM-FiT, XLNet… Toutefois, mixer les approches symboliques et statistiques reste indispensable pour réussir ses projets. Le conférencier, également auteur du livre « Traitement automatique des langues – Comprendre les textes grâce à l’intelligence artificielle » (Dunod, 2020), illustrera cette dualité sur des cas concrets avec l’utilisation de Proxem Studio.

    • François-Régis Chaumartin CEO de Proxem & auteur du livre PROXEM
    Voir en détail
  • Responsible Machine Learning for Credit Risk

    16h30 - 17h00
    Voir en détail
  • Le Machine Learning au service du Design Thinking en Assurance Santé !

    17h00 - 17h30

    Ses objectifs : Revoir les offres d’un assureur complémentaire en Santé, sur la base d’une analyse du parcours de soins de ses clients 

    Son partenaire : Cegedim Insurance Solutions, éditeur de logiciels et opérateurs de services dans le secteur de l’Assurance santé

    Le projet : Utiliser les outils de Machine Learning pour identifier les cohortes de patients, comprendre la dynamique de leur parcours et proposer des offres plus pertinentes

     

    Vous découvrirez la méthode retenue dans ce projet, ses premiers résultats associés à des illustrations concrètes ».

     

      • Intervenants :
        • COMBLE Pierre-Henri
        • ASFANI Abdellali

     

    Voir en détail
  • Logs, Metrics, APM, Uptime: Observer à 360° votre SI avec Elastic

    17h30 - 18h00
    Voir en détail
  • Étude 2020 sur les salaires data en France et focus Women in Tech

    18h00 - 18h30

    Le Turing Club, club associatif dédié aux Data Science et au Data Marketing, regroupe plus de 10 000 experts en Data Science et devient de fait une association incontournable dans l’univers de la data, de la Data Science et de l’Intelligence Artificielle. Le club rassemble les principaux acteurs du marché data et Data Science. 

    En 2018, le club a lancé une étude sur les salaires data en France en se basant sur 3 indicateurs : la fonction, la zone géographique et l'ancienneté. Pour cette nouvelle édition, nous avons également étudié le salaire des femmes dans le milieu de la data, ainsi que la place qu'elles occupent.

    Voir en détail

Mots clés associés

Inscrivez-vous dès à présent pour participer à Big Data Paris 2020