Ateliers

Salle Ateliers 1

  • Les ateliers commencent à 9h30

    09h20 - 09h30
    Voir en détail
  • Hyper-personnalisation de l’expérience client grâce à l’analytique avancée à l’échelle avec Teradata Vantage Customer Experience

    09h30 - 10h00

     L’expérience client est devenue un impératif pour les entreprises qui souhaitent entretenir et pérenniser la relation établie avec leurs clients et les consommateurs.

    La personnalisation de cette expérience client, en proposant l’offre ou l’action la plus adaptée à un contexte donné pour chaque interaction et pour chaque client, est un des moyens qui s’impose dans la digitalisation de cette relation.

    Toutefois, si le multicanal est devenu une réalité pour les entreprises, certaines entreprises voient toujours chaque canal de manière distincte. Et les systèmes de recommandation adoptés pour faciliter la personnalisation ont toujours tendance à être développés de manière séparée pour chaque canal individuel, rendant encore plus complexe la cohérence entre données, analytiques et interactions au service de l’expérience client.

    Vous découvrirez dans cet atelier comment l’analytique à l’échelle rapidement déployable permet d’améliorer l’expérience client et comment la solution Vantage Customer Experience aide les entreprises à tirer le meilleur parti de toutes leurs données pour chaque interaction client.

    Speaker : Yann ROS, Senior Industry Consultant Marketing and Customer Experience, TERADATA

    Voir en détail
  • Accédez aux données du monde grace au Data Cloud Snowflake

    10h00 - 10h30
    • Speakers :
      • Fabrice Pariente, Senior Sales Director, Snowflake
      • Mike Uzan, Senior Sales Engineer, Snowflake
    Voir en détail
  • Comment mettre en production et suivre la performance de nombreux scores (appétence, churn...) dans le temps ? Retour d'expérience sur l'industrialisation de scores au sein du pôle Connaissance Client, chez Bouygues Telecom

    10h30 - 11h00

    Speaker : Matthieu Pourbaix, Chef de projet Data science, AVISIA

    Voir en détail
  • Les dernières solutions Google Cloud pour héberger vos workload d'entreprise

    11h00 - 11h30

    Vous souhaitez migrer votre infrastructure big data sur le cloud en évitant les blocages sur certaines technologies (licences, versions, administration) ? Venez découvrir comment les dernières solutions et partenariats de Google Cloud vous permettent de migrer vos workloads / base de données d’entreprise sereinement.

    Speaker : Christophe Parent - Customer Engineer, Data Management, Google Cloud

    • Maxime Lanciaux Sales Engineer, Google Cloud GOOGLE CLOUD
    Voir en détail
  • Data Privacy vs. Data Innovation

    11h30 - 12h00

    With stricter data privacy regulations, such as GDPR, companies across different industries need to adapt their workflows in order to keep working efficiently. Companies working with sensitive customer data have to be aware of the risks of improper data handling. Safely leveraging sensitive data and using it for collaborations is an essential part of innovative work processes, therefore privacy compliance is one of the companies’ most important issues. Join Statice's workshop to learn about the latest research in machine learning and data privacy and discover how leading companies are able to leverage their data without compromising their customer’s security."

    Speaker : Sebastian Weyer

    Voir en détail
  • Data, Machine Learning & Intégration de Documents

    12h00 - 12h30

    Le monde de l'IA évolue à grande vitesse, et les concepts de Machine Learning, Deep Learning et réseaux neuronaux trouvent de plus en plus d'applications très concrètes.

    Le Lab R&D FINAXYS s’est penché sur l'intégration de documents papier tels que les factures et les CV afin d’éprouver ces concepts d’auto-apprentissage machine et imaginer les perspectives qu'ils offrent sur des problématiques d’entreprise.

    Lors de cet atelier, nos experts partageront leurs avancées, leurs succès et l’ensemble des questionnements qui les ont traversés pour aboutir à un socle technique… bluffant.

    FINAXYS vous donnera rendez-vous sur son stand A26 pour assister en live aux démonstrations de la machine et ses méthodes d’apprentissage.

    Speakers : José ALFARO (Directeur Technique FINAXYS) & la FINAXYS Academy

    • Franck NGANIET Team Leader WaaS CA-GIP
    • José ALFARO Directeur Technique FINAXYS
    Voir en détail
  • Comment construire votre plateforme de données agile & évolutive dans le Cloud ?

    12h30 - 13h00

    A l’heure où les données sont le principal catalyseur de l'ère numérique, l'agilité et la capacité de déployer de nouvelles technologies sont devenues essentielles. La convergence des plates-formes PaaS Cloud constitue un environnement idéal pour relever ces défis, en proposant un vaste ensemble de services gérés, des architectures de données matures et des méthodes agiles.

    Micropole vous aide à créer des plates-formes de données d'entreprises hautement évolutives et sécurisées dans le Cloud, en combinant les processus traditionnels de Business Intelligence et de Big Data avec des capacités analytiques avancées, à commencer par l’IA.

    Découvrez, avec notre atelier, comment tirer parti de vos données et mettre en œuvre une plate-forme de données agile pour traiter tout type de cas d’usage, qu’il soit analytique ou prédictif, en batch ou en temps réel.

    Speaker : Thomas Dallemagne, Directeur Centre d’Excellence AWS, Micropole

    Voir en détail
  • Permettre à chacun d’extraire de la connaissance et de la valeur hors de ses données

    13h30 - 14h00

    Découvrez comment TIMi révolutionne le travail des data scientistes au quotidien. En l'espace d'une demi-heure et sur des données réelles, nous accomplissons ce que toute autre technologie ferait en plusieurs semaines. À partir des données brutes d’une grande chaine de supermarchés avec plus de 1 million de consommateurs, nous construisons une vue client à 360°, des modèles prédictifs de vente croisées et le dashboard connexe. Pour ce faire, nous utilisons un simple laptop et une souris.


    Frank VANDEN BERGHEN
    CEO
    TiMi

    Voir en détail
  • Les algorithmes génétiques en 3 clics pour l'optimisation de tournées

    14h00 - 14h30

    De la Supply Chain aux processus industriels en passant par le marketing, les méthodes d'optimisation sont l'une des applications fondamentales de l'IA. Parmi les méthodes disponibles, les Data Scientists choisissent généralement d'utiliser les algorithmes génétiques, la qualité des résultats générés reposant essentiellement sur une bonne modélisation de l'objectif business et des données. L'implémentation de ces algorithmes reste malheureusement une étape complexe, nécessitant beaucoup de développements spécifiques.

    Afin de lever cette barrière technique, nous avons développé un plugin DSS permettant de pré-configurer un notebook implémentant ces méthodes, à partir de vos datasets ! En quelques clics, nous montrerons comment :
    > créer un projet d'optimisation de tournées dans DSS,
    > déployer notre plugin sur ce projet,

    > générer et visualiser les solutions optimales.

    Speaker : Arnaud Canu, CTO, EULIDIA

    Voir en détail
  • Stream data analytics avec Google Cloud Platform

    14h30 - 15h00

    La capacité de pouvoir analyser et visualiser ses données en temps réel devient un enjeu majeur dans un monde ou les plateformes de données d'entreprises gagnent en maturité. Google Cloud se propose ici de vous démontrer la simplicité de mise en place d'une chaîne de traitement temps réel de bout en bout sur sa plateforme, jusqu'à la BI et son intégration dans un processus d'entreprise.

    Speaker : Soulaima Ben Rejeb - Customer Engineers, Google Cloud

    Voir en détail
  • Streaming d’évènements: les meilleurs use cases

    15h00 - 15h30

    Speaker : FlorEric Carlier, System Engineer - Confluent

    Voir en détail
  • Refondre son architecture data : mode d’emploi

    15h30 - 16h00

    Pour quels usages, quelles sources de données, sur quelle(s) plateforme(s) s’appuyer, quels outils faut-il ajouter à l’écosystème ? Nos experts présenterons les différentes étapes à suivre pour réussir la refonte de son architecture data.

    Speaker : Yann Legrand - EPSILON France

    Olivier Dukers, Directeur Technique - EPSILON France

    Voir en détail
  • Mettriez-vous votre vie dans les mains de votre modèle d’IA ?

    16h00 - 16h30

    Le développement de modèles d'intelligence artificielle (IA) ne cesse de gagner en popularité dans nos industries, ayant de facto un impact réel sur notre vie quotidienne. L’explicabilité et l’interprétabilité des modèles d'IA sont ainsi mises en question aujourd’hui. Alors que dans de nombreuses applications les ramifications d'un échec sont assez faibles (par exemple, un système de recommandation de film qui ne parvient pas à fournir des choix judicieux), il est impératif que les systèmes où la sécurité est critique, tels que la conduite automatisée, l’aérospatial, ou encore des dispositifs médicaux, obtiennent non seulement la bonne réponse, mais expliquent aussi comment une décision finale a été prise.
    Les ingénieurs et les scientifiques doivent être en mesure de bien comprendre et d'étudier un modèle avant de le mettre en production. Dans de nombreuses industries, il existe souvent des exigences réglementaires pour permettre la mise en production d'un modèle. Plus les conséquences d'une défaillance sont importantes, plus il est nécessaire d'expliquer en détail le comportement du modèle. Et un modèle « boîte noire » n’est souvent pas envisageable et difficile à déchiffrer.
    Plusieurs techniques visant à améliorer l'explicabilité du modèle seront examinées au cours de cette séance. Cela comprend des modèles simples, des modèles d'apprentissage plus avancés avec des visualisations éprouvées ainsi que des modèles testés et approuvés par des experts. L'accent sera mis sur la capacité de communiquer les propriétés des données, les décisions et les résultats du modèle, en détaillant non seulement le fonctionnement interne de ce dernier, mais aussi la façon dont il a été construit, les différentes techniques de validation, les comparaisons avec d'autres modèles, comment les données ont été recueillies et l'importance de l’entraînement, de la validation et des ensembles de tests.
    Un modèle explicable n'est qu'une partie d'un système d'IA complet : un modèle prêt pour la production doit être intégré dans un système beaucoup plus vaste et peut avoir besoin d'être exécuté sur du matériel spécifique tel que des GPU, des FPGA ou sur le cloud. Au cours de cette session, en utilisant MATLAB, nous jetterons les bases des étapes nécessaires à la mise en place d'un tel système : de la mise à l'essai du modèle et de la facilité d'explication au déploiement et à la conception du système.

    Speaker : Pierre Harouimi, Ingénieur d’application spécialisé en data analytics et en finance

    Voir en détail
  • COMMENT EXPLOITER DIRECTEMENT UN DATALAKE AU TRAVERS D'UN OUTIL SELF BI

    16h30 - 17h00

    Quel outil de Data Gouvernance ?

    L’enjeu du Décisionnel en temps réel, et donc de la BI en temps réel, s’est déplacé de la DataViz à la Data Gouvernance.

    Azqore, filiale du Crédit Agricole, offre des prestations de BI (mise à disposition des données) à des banques clientes en Europe et en Asie.

    La direction et le Chief Data Officer d’Azqore ont relevé le défi qu’aucune société ayant un Datalake a réussi à ce jour, à savoir d’exploiter directement son Datalake avec des outils de DataViz branchés directement dessus en mode Self BI.

    « Nous devions agir, nos clients acceptaient de moins en moins le temps, les délais et les coûts juste pour pouvoir disposer de leurs données et faire leurs analyses. »

    Azqore a rapidement compris que la réponse était dans un système de Gouvernance des données couplé à des outils de DataViz fonctionnant en mode Self BI.

    « En voyant l’agilité et la performance de la plateforme DataViz, DataManagement et Data Gouvernance Suadeo avec son architecture Tout-en-Un Big Data, nous avons compris que nous avions la clé du problème à résoudre.»

    L’Atelier animé par le CDO d’Azqore a pour but de présenter la solution retenue, en cours de mise en place, permettant à la fois de laisser les banques clients venir exploiter directement les données du DataLake en mode Self BI (autonomie complète, ne nécessitant plus l’intervention du IT Azqore pour préparer des données) et maîtriser - contrôler en temps réel les habilitations, la sécurité de la donnée de bout-en-bout, qui fait quoi avec les données et la traçabilité des usages.

    Intervenant : Nicolas FRANCES, Chief Data Officer, AZQORE SA

    Voir en détail
  • Parlons clients: 'Customers' la suite d'offres pré-packagées by Ysance

    17h00 - 17h30

    Toutes les entreprises partagent actuellement la même priorité de reprendre le contrôle sur les données clients, RGPD, Référentiel Client Unique, Marketing, Segmentation, Analytics...

    Ysance a développé une suite d'offres pré-packagées qui accélère la mise en place des principaux composants fonctionnels d'une plateforme clients : RCU, Segmentation, Analytics.
    A mi-chemin entre l'offre de conseil et la solution SaaS, nous apportons pour chaque offre: L'architecture, le modèle de données, du code pré-packagé et testé pour les différentes plateformes Cloud, une méthode d'intégration rapide qui renvoient les projets d'intégration long et complexes au siècle dernier. Issu de notre expérience auprès d'une centaine de clients, nous avons choisi de packager notre expertise et vous proposer un modèle de delivery innovant.

    Permettez à votre entreprise de faire du business, accélérez l'on-boarding de vos propres équipes sur ces sujets, comprenez enfin vos clients, reprenez le contrôle.

    Venez découvrir au cours de cet atelier:
    - Comment nous déployons en quelques semaines un RCU qui vous appartient et s'intègre naturellement à votre SI
    - Comment nous menons des projets de Customer Analytics
    - Comment vous traitons les nouvelles segmentations clients à l'heure du digital

    Intervenants : Guillaume Masseau et Sylvain Franco

    Voir en détail
  • How Spendesk is accelerating growth by making data-driven decisions

    17h30 - 18h00

    Speaker : Damien Maillard, Lead Engineer at Spendesk

    Voir en détail

Salle Ateliers 2

  • Les ateliers commencent à 9h30

    09h20 - 09h30
    Voir en détail
  • Process Mining & RPA : le combo gagnant

    09h30 - 10h00

    Découvrez en temps réel ce qui se passe dans votre business avec le process intelligence en tirant profit de vos données cachées dans vos systèmes IT. Identifiez les zones à améliorer et optimisez vos processus pour gagner en performance, conformité, réduire vos coûts opérationnels et lancer vos projets RPA !

    Speaker : Stéphane Mauduit, Account Executive, Signavio

    Voir en détail
  • Les Digital Twins dans la stratégie de Mercedes-AMG Petronas Formula 1 Team, champion du monde des constructeurs de Formule 1

    10h00 - 10h30

    De nombreux facteurs connus contribuent aux performances d'une Formule 1 - conception, aérodynamisme, configuration, stratégie - auxquels s'ajoute un nouvel élément décisif : la simulation avancée.
    Mercedes-AMG Petronas Formula 1 Team investit dans les simulateurs digitaux qui reproduisent l'expérience sur circuit. Découvrez comment les technologies analytiques et d'intelligence artificielle de TIBCO participent à l’élaboration de jumeaux numériques (digital twins) et forgent une stratégie gagnante de course.

    Intervenant : Franck Léonard, Senior solutions consultant, TIBCO Software

    • Franck Léonard Sénior solutions consultant TIBCO
    Voir en détail
  • Qlik révolutionne l’usage de vos Big Data

    10h30 - 11h00

    Requêtez vos datalakes en temps réel, connectez vos données, comprenez les et décidez, grâce à Qlik Sense et aux Dynamic Views.

    Intervenant : Loïc Formont, Solution Architect, Qlik

    Voir en détail
  • Explorez vos données en libre-service

    11h00 - 11h30

    Découvrez comment Tableau vous permet de développer vos propres analyses et d'explorer vos données en quelques clics !
    Sans codes ni compétences techniques, décelez des insights concrets et pertinents pour engager des conversations basées sur les données avec vos collègues et diffuser les informations que vous avez trouvées.

    Voir en détail
  • Comment créer un environnement antifraude grâce aux processus d’analyses automatisés

    11h30 - 12h00

    Venez découvrir comment réduire de façon considérable, rapide et durable le coût de la fraude dans votre entreprise, quel que soit votre domaine d’activité.
    À travers 2 cas d’usage concret nous allons montrer comment :
    - Les analyses géospatiales peuvent calculer la distance entre vos clients et vos agences afin d’identifier toute situation anormale d’acceptation d’un crédit
    - Le Machine Learning peut créer un algorithme capable d’identifier les transactions bancaires à risque.
     

    • Stéphane Portier Ingénieur Commercial ALTERYX
    Voir en détail
  • Data Assistant : l’IA au service de la démocratisation de la data

    12h00 - 12h30

    On assiste depuis deux ans à la naissance d’une nouvelle ère sur le marché de la business intelligence. Les outils de BI ‘traditionnels’ et de data discovery laissent peu à peu place aux nouvelles technologies de data assistance, dotées d’une IA. Cette nouvelle ère, baptisée "Augmented Analytics" par Gartner, révolutionne peu à peu les usages et permet d’aller plus loin dans la démocratisation de la donnée en entreprise.

    Découvrez askR.ai, le data assistant doté d’une IA, qui permet à tout utilisateur, sans compétences techniques, d’avoir accès à la bonne donnée en moins de 2 secondes. It’s time to chat with your data!

    Intervenant : Matthieu Chabeaud - Co-founder & CEO

    Voir en détail
  • Analyser le contenu vidéos en utilisant un réseau de neurones avec les données web

    12h30 - 13h00

    Nous introduirons les bases de l'analyse vidéo utilisant un réseau de neurones et expliquer une manière innovante d'apprendre avec le moins d'intervention humaine possible. L'approche se base sur les données Web et une synergie entre les métadonnées textuelles et le contenu visuel de la vidéo.

    Speaker : Nicolas Chesneau, Technical Lead Machine Learning – Ekimetrics

    Voir en détail
  • La gouvernance des projets Big Data et IA s'harmonise sous le concept de DataLab

    13h00 - 13h30

    Qu’est-ce qu’un DataLab ? Une cellule unique et pluridisciplinaire de gouvernance des projets Big Data et IA. Équivalent d’une start-up au sein d'une grande entreprise, le DataLab est un melting pot de compétences complémentaires qui permet d’aboutir à une innovation à la fois technologique et business.

    Lors de cet atelier, nous aborderons l'intérêt de mettre en place un DataLab au sein des entreprises en parcourant les méthodes de travail qui fonctionnent bien en mode projet, les outils nécessaires à son intégration et notre expérience au sein de mc2i.

    Speaker : Alexis Trentesaux - MC2I

     

    Voir en détail
  • Quelles sont les différentes facettes d'une plateforme de données moderne ?

    13h30 - 14h00

    Comment une organisation peut-elle prospérer en 2020 tout en faisant face aux demandes de plus en plus importantes sur les données, aux offres de produits multiples et aux architectures qui se complexifient ?

    Il faut repenser l’usage de la donnée dans son apport au business, la valoriser de manière intégrée par l’analytique ou l’intelligence artificielle, la maîtriser et la gouverner automatiquement, et rendre cette donnée disponible où qu'elle se trouve auprès des utilisateurs. Telles sont les différentes facettes auxquelles doit répondre une plateforme de données moderne et innovante aujourd’hui.

    L’adoption d’une plateforme intégrée, basée notamment sur le principe de la containerisation, permet d’accélérer, d’être plus productifs, et de partager les assets et la connaissance des données dans l’organisation.

    Speaker : Corinne Baragoin, Data Architect, IBM

    Voir en détail
  • Where People Meet Data

    14h00 - 14h30

    Filiale du groupe Crédit Agricole spécialisée dans la fourniture de services financiers aux investisseurs institutionnels, Caceis a mis en place une plateforme big data pour tirer pleinement profit de ses données et repenser son expérience client, dans une approche data-centric.

    Pour simplifier et fiabiliser l'alimentation du datalake Hadoop, Caceis a fait le choix Qlik Replicate (Attunity), qui lui assure, en temps réel, l'ingestion de ses données issues de sources hétérogènes.

    Cette nouvelle architecture permet d’offrir aux clients un accès à des analyses de leurs données via le portail Olis, qui sera présenté à l’occasion de cet atelier.
    « Le Data Lake, colonne vertébrale de Caceis. » Fabien Azavant, Chief Information Officer Caceis.
    Ahmed Kissay, Associate Partner chez DXC Analytics et Aziza BEN GHOZZIA, Head of unit Big Data & Client Experience chez CACEIS, expliqueront l'architecture en place, les points clefs du produit et les résultats obtenus, tant du côté business qu'IT.

    Voir en détail
  • Edge Computing X NODATA

    14h30 - 15h00

    Diminuer les coûts et améliorer les performances du reporting

    Speaker : Nicolas BRIGITTE-ALPHONSINE / CEO @ NODATA

    Voir en détail
  • Table ronde : Reprenez le contrôle avec des données fiables.

    15h00 - 15h30

    Nos données sont précieuses et on en attend toujours plus : plus de précision dans les analyses, plus de vitesse et d’automatisation dans la prise de décision, plus d’éthique et de contrôle dans les prescriptions. Mais, aucune de ces transformations n’est possible sans confiance. Partagez les bonnes pratiques et les retours d’expériences des experts en matière de responsabilisation, d’automatisation, de démocratisation et de simplification des usages de la data.

    Partagez les bonnes pratiques et les retours d’expériences des experts en la matière pour responsabiliser, automatiser, et démocratiser les usages autour de la data.
     

    Speakers:

    Charles Parrat, Directeur Stratégie et Innovation, Micropole
    Mick Levy, Directeur de l’Innovation, Business & Decision
    Laurent Letourmy, CEO, Ysance
    Jean-Michel Franco, Directeur Marketing Produit, Talend

    Voir en détail
  • Integration des algorithmes de Machine Learning dans un environnement Big Data

    15h30 - 16h00

    Quels sont les enjeux futurs? Quelles sont les limites de distribution/parallélisation de ces calculs et données.

    Speaker : Fahd ESSID, CTO LANSROD

    Voir en détail
  • Vertica & Pure Storage - Stocker beaucoup de données de suffit pas. Quelles options pour transformer et dynamiser vos projets analytiques ?

    16h00 - 16h30

    Venez découvrir comment Vertica et Pure Storage peuvent vous aider à repenser votre environnement Big Data

    Speakers : François Guerin, Consultant avant-vente - Vertica

    Bertrand Ounanian, Systems Engineer - Pure Storage

    Voir en détail
  • La transformation numérique : un vrai challenge

    16h30 - 17h00

    Illustration, par un cas client, du déploiement d'une plateforme Big Data spécialisée dans la donnée personnelle - RGPD as code - qui a poussé le client à raisonner en dehors des sentiers battus et à adresser son enjeu de transformation numérique de façon centralisée. Ce cas client démontre qu'avec une telle approche, il est enfin possible d'aller au-delà de l'exploitation analytique des données personnelles.

    Speakers :

    - Fabrice RECOQUE, Directeur de la division Motocycles, Honda France.

    - Antoine DEBLONDE, Technical Leader, Keyrus

    - Thibault LEIGNÉ, Chief of Staff to the CEO & DPO, Black Tiger

    • Hugues Levental NC BLACK TIGER
    Voir en détail
  • Accélérez les initiatives big data avec le virtual data lake ou du rôle de la data virtualisation dans l'accès aux données

    17h00 - 17h30

     Les datalakes ont évolués. Les entreprises utilisent désormais plusieurs référentiels pour répondre à plusieurs usages : data science, BI agile, IoT ...
    Mais ces datalakes reposent désormais sur plusieurs technologies distribuées et hétérogènes, ce qui complexifie la mise à disposition de ces données.
    Nous allons vous présenter comment la Data Virtualization aide à simplifier l'accès aux données, en exposant les données de manière unifiée comme un seul datalake virtuel.

    Speaker : Hicham El Ghazali, Solutions Consultant, TIBCO Software

    Voir en détail
  • Millions € of AB test uplift with advanced analytics solutions

    17h30 - 18h00

    La CRO (Conversion Rate Optimization) est un levier clé pour rendre les sites performants, en augmentant le ratio acheteurs/ visiteurs.

    Au sein des grands sites eCommerce, le CRO est souvent dirigé par les équipes produits, avec de fortes approches UI / UX et de nombreux outils puissants (Google Analytics, ContentSquare, Kameleoon, AB Tasty,…).

    Cependant, ces outils ne sont efficaces que grâce à la donnée, mais tirer de l'intelligence de ces données est souvent assez complexe, car nécessite à la fois une solide base statistique / technique et une bonne connaissance de l'activité de l'entreprise. Par conséquent, l'analyse des AB Tests est souvent l'apanage de ressources coûteuses et rares au sein des équipes analytics ou au sein des cabinets de conseil.

    Avec DataMa, l'équipe analytics de Pierre et Vacances Center Parcs a réussi à prendre une longueur d'avance en proposant aux équipes Produits des analyses actionnables, d'où que viennent les données.

    Cet atelier vous donnera un aperçu de comment vous pourriez en quelques jours:

    • Attribuer la valeur à chaque page et prioriser vos AB Tests en fonction de cette valeur 
    • Créer un outil de lecture automatisée des AB Tests (server & client side), 
    • Comprendre les facteurs impactant ces écarts pour informer la refonte de vos pages

    Intervenants: Fanjuan Shi (Pierre et Vacances Center Parcs), Matthieu Barrue (Pierre et Vacances Center Parcs), Guillaume de Bénazé (DataMa)

    Voir en détail
  • La Secret Sauce AI de Google et Facebook : ce que tout le monde devrait savoir sur l'annotation des données.

    18h00 - 18h30

    L'IA s'immisce partout, dans toutes les entreprises. Pourtant 2/3 des projets d'IA échouent par manque de données d'entraînement pour alimenter les modèles supervisés.
    Les applications industrielles sont souvent spécifiques et spécialisées et la donnée que l'on peut trouver dans le monde de l'open-source ne couvrent pas ces cas d'utilisation.
    Nous montrons les leçons qu'il faut tirer de ces sociétés emblématiques, Google ou Facebook, pour faire de l'IA à échelle industrielle. Il faut permettre aux entreprises et aux data scientists de transformer leur industrie, en simplifiant radicalement l'annotation de données non supervisés.

     

    Edouard d'ARCHIMBAUD, CTO, KILI

    Voir en détail

Salle Ateliers 3

  • Les ateliers commencent à 9h30

    09h20 - 09h30
    Voir en détail
  • Intégrer jusqu'à 10 fois plus rapidement vos données et vos applications !

    09h30 - 10h00

    Vos projets d'intégration sont-ils trop longs ?

    Est ce que vous trouvez que votre service informatique n’est pas assez proactif par rapport aux besoins métiers ?

    Avez vous du mal à synchroniser vos outils existants ?

    Avez-vous besoin d'intégrer tous types de données différents ?

    Avez-vous besoin de créer un data lake et ‘data warehouse sur le cloud ?

    Si votre réponse est « Oui », rejoignez-nous pour une présentation pratique de SnapLogic de 30 minutes où nous couvrirons les problématiques d'intégration qui affectent les organisations aujourd’hui, présentant des cas clients pratiques (Schneider Electric, Suez, …) et ferons une démonstration de comment SnapLogic vous aidera à :

    •  Intégrer jusqu'à 10 fois plus rapidement grâce à son interface intelligente ;
    • Consolider vos sources avec des métriques justifiants les ROI ;
    • Unifier les données en temps réel pour réagir plus rapidement ;
    • Utiliser facilement les technologies Cloud Azure et AWS ;
    • Travailler avec les standards du marché sans développer de codes, en respectant tous les formats de stockage quel que soit les volumes.

    Speakers:

    • Leonardo L’ecaros, Directeur des ventes, Europe du Sud, SnapLogic
    • Linus Hakansson, Ingénieur Avant-Vente, Europe, SnapLogic
    Voir en détail
  • Ne plus choisir entre agilité et contrôle dans votre Data Center avec Cloudera Private Cloud

    10h00 - 10h30

    CDP Private Cloud  représente la plus grande innovation de plate-forme dans le centre de données depuis la fusion de Cloudera et Hortonworks.  CDP Private Cloud est une architecture de nouvelle génération, Cloud Native, pour les déploiements sur site dans votre Data Center.  

    Il sépare Compute et Stockage, et isole les espaces projets tout en s’appuyant sur une suite d'outils de sécurité et de gouvernance, et en regroupant l’ensemble au sein d’un portail de gestion plus simple et intuitif..  

     

    Chez Cloudera, nous avons conçu cette nouvelle architecture avec un objectif prioritaire : apporter l'agilité exigée par les utilisateurs souhaitant toujours plus d’autonomie pour accéder aux données sans renoncer à la sécurité et à la gouvernance exigées par l'informatique centrale et l'InfoSec.

    Voir en détail
  • FROM BIG TO SMART DATA : De la carte grise au décryptage du mode de vie des français

    10h30 - 11h00

    Témoignage de la société AAA DATA (spécialisée dans l’exploitation statistique et commerciale des données d’immatriculation) sur les chantiers co-réalisés avec les équipes Estia depuis 4 ans.
    L’IA et la data science, combinées à une base de données massive, ont ainsi permis de passer d’une vision « véhicule » à une vision « customer centric », nouvelle source d’efficacité pour les annonceurs.
    Découvrez comment les sociétés AAA DATA et Estia ont mené à bien les actions de valorisation de la base de données massive !
    Au programme de cette intervention coanimée par les équipes Estia et AAA DATA, un retour d’expériences sur :
    • L’exploitation analytique de millions de données,
    • Le décryptage et la segmentation des modes de consommation automobile,
    • Le développement d’algorithmes d’IA pour basculer dans une dimension prédictive,
    • L’industrialisation en environnement big data.

    • Faiza BOUFROURA Responsable Valorisation des données AAA DATA
    • Nicolas ROTY Datascientist AAA DATA
    • Nathalie COSTA Directrice du Développement Groupe Estia
    Voir en détail
  • Operational Excellence with Data at Scale

    11h00 - 11h30

    Data plays a key role in growth and innovation. Yet, most companies make it exceptionally difficult to work with data for everyone in the organization. Data democratization can help alleviate the pain felt by the "data-poor" and your overtaxed Data Team. In this talk you'll learn actionable methods to help your organization excel at using data to drive growth and innovation while simultaneously increasing efficiency. 

    Speaker : Christy Haragan, Solutions Engineer EMEA

    Voir en détail
  • Maîtriser et exploiter vos données clients à l’heure de la multiplication des points de contact et de la complexification des parcours clients.

    12h00 - 12h30

    Speakers : Olivier Basset, de Mehdi El Yassir et Christophe Rit, MICROSOFT

    Voir en détail
  • Comment le contexte rend l’Intelligence Artificielle plus fiable et plus efficace ?

    12h30 - 13h00

    L'intelligence artificielle devrait être guidée non seulement par des normes techniques solides, mais aussi par des normes éthiques solides. Le contexte est un principe clé qui se recoupe dans ces deux domaines. L'information contextuelle permet non seulement d'obtenir des systèmes d'IA plus performants et plus précis, mais aussi d'offrir une perspective éthique plus claire à ceux qui la créent et la façonnent.

    Les systèmes d'IA et d'apprentissage machine sont plus efficaces, fiables et robustes lorsqu'ils sont étayés par des informations contextuelles fournies par des plateformes de graphes. On vous expliquera pourquoi et comment le contexte doit être intégré dans les systèmes d'IA afin de s'assurer qu'ils sont vraiment fiables, robustes et dignes de confiance.

    • Nicolas Rouyer Senior Pre-Sales NEO4J
    Voir en détail
  • Big Data versus Smart Data, où placer la qualité des données pour assurer fiabilité, traçabilité et compliance ?

    13h00 - 13h30

    - Pourquoi la qualité des données reste cruciale, même dans les projets Big Data ? Contrainte ou catalyseur ?
    - Où placer la qualité des données dans mon architecture Big Data ?
    - Quel impact sur l'opérationnel, l'analytics et le prédictif ?

    Intervenant:
    Elodie Solirenne

    Responsable des solutions Uniserv

    Voir en détail
  • Assistez au témoignage du leader du commerce en centre-ville Monoprix : Retour d’expérience de mise en œuvre d'un data warehouse dans le Cloud

    14h00 - 14h30

    Monoprix a entrepris un projet de modernisation de son infrastructure analytique en implémentant le seul entrepôt de données dans le cloud, Snowflake.

    Keyrus accompagne ainsi Monoprix dans ce projet qui leur permet de gagner en performance, réduire les délais d’attente, faciliter les analyses plus profondes, rendre possible le partage de données (data sharing), et satisfaire les besoins des équipes en matière de machine learning.

    Découvrez comment ce passage vers le cloud permet à Monoprix de mettre la data au profit de ses activités stratégiques .

    Voir en détail
  • Lignes directrices de la CNIL : Les nouveautés et tout ce qu’il y a savoir pour optimiser vos programmes de gestion des cookies

    14h30 - 15h00

    Speaker : Christian Mintchev, Privacy Engineer, ONETRUST

    Voir en détail
  • 3 usages de vos données dans un logiciel de tableaux de bord: pilotage, exploration et communication.

    15h00 - 15h30

    DigDash est un éditeur français d’un logiciel agile de tableaux de bord, de visualisation de données, d'exploration et d’analytique. Après une présentation de Digdash, nous aborderons plusieurs points au travers d'exemples concrets.

    ● Les tableaux de bord de pilotage
    ● L'exploration et la manipulation de données
    ● La communication à une audience large autour de ces données

    Découvrez notre outil qui révolutionne la façon de travailler de nos clients. Tous secteurs confondus, il permet aux entreprises d'obtenir une visibilité claire sur leurs données.

    • Antoine Buat Cofondateur et CEO DIGDASH
    Voir en détail
  • Bénéfices de l’Intelligence Artificielle Cognitive

    15h30 - 16h00

    Expert System, éditeur de logiciels basé en Europe et en Amérique du Nord, développe et commercialise des logiciels d’analyse cognitive fondés sur des algorithmes d’intelligence artificielle capables de lire et comprendre le contenu de vos documents textuels. Grâce à notre gamme de logiciels, les entreprises et les acteurs publics peuvent désormais trouver, découvrir et valoriser l’information afin de pouvoir améliorer leurs connaissances, arbitrer leurs décisions et réduire leurs risques opérationnels plus simplement. Analyser et comprendre automatiquement chaque mot, chaque phrase - dans leur contexte métier spécifique - est le meilleur moyen de valoriser la connaissance au sein d’une organisation. Plus précises que les systèmes classiques à base de mots clés, nos solutions sémantiques se distinguent en analysant le sens, la nature et la pertinence de vos contenus internes ou externes. Notre logiciel Cogito® fonde ses capacités d’analyse cognitive sur des algorithmes d’intelligence artificielle qui reproduisent les processus humains de lecture et ade compréhension des contenus textuels. Cogito est une solution cognitive multilingue brevetée et reconnue qui propose des fonctionnalités de traitement automatique du langage naturel, d’extraction sémantique et de classification.

    Grâce à sa capacité de comprendre le texte dans son contexte, Cogito est un actif stratégique pour les entreprises qui leur permet de découvrir les informations pertinentes, d’automatiser les processus métiers, de transformer leur engagement envers le client et d’aider à la prise de décision.

     

    • Alain Biancardi VP Sales EXPERT SYSTEM
    Voir en détail
  • Décisionnel & Data Stream : canalisez et exploitez vos flux de données

    16h00 - 16h30

    Stocker l’information ne suffit pas. Les nouvelles technologies de Data Stream permettent de transformer vos flux de collecte en flux d’analyse temps réel et votre infrastructure de stockage en véritable plateforme décisionnelle. Cas d’usage concrets, présentation technique, enjeux de sécurité, découvrez les bases du streaming analytique.

    Voir en détail
  • Le Data Catalog un composant à la main des métiers pour valoriser vos données

    16h30 - 17h00

    La donnée est au cœur de la stratégie des entreprises pour atteindre leurs objectifs de productivité,  compétitivité et conformité réglementaire.
    Mais comment faire pour rendre la donnée compréhensible, accessible et utilisable par tous ?
    Pour faire face à ces défis, venez découvrir l'approche IBM DataOps, combinant DevOps, Data Management, et gouvernance de la donnée.
    Au travers de cas d'usages concrets, vous comprendrez comment tirer bénéfice de cette méthode grâce à la plateforme IBM Cloud Pak for Data.

    Speaker :  James Lebas, Unified Governance Integration technical expert, IBM

    Voir en détail
  • Pourquoi la Data Virtualization devient indispensable dans toutes les stratégies data

    17h00 - 17h30

    Denodo, leader et pionnier de la Data Virtualization parle aux CxO, CDO, architectes, data scientists et développeurs.

    Découvrez dans cet atelier comment avancer sur vos initiatives métier autour de la donnée et sur l’évolution de votre infrastructure technique en parallèle, grâce à la Data Virtualization. Vous verrez comment déverrouiller l’accès à vos données d'entreprise, optimiser vos stratégies big data et la gouvernance de vos données tout en en traçant l’usage, et piloter facilement des projets de migration vers le cloud sans impact sur le business.

    Avec le témoignage de Vincent Boucheron, Data Influencer indépendant et ancien Head of IS Data Services d’une grande banque : découvrez comment il y a réduit le time to data grâce à la data virtualization et tous les gains obtenus en termes de self service, gouvernance et sécurité.

    Speakers :

    • Olivier Tijou, VP Régional EMEA Francophone & Russie
    • Vincent Boucheron - Data Influencer & Managing Partner, D.I.A.M.S
    Voir en détail
  • Databricks & WANdisco - Building Reliable Data Lakes at Scale with Delta Lake

    17h30 - 18h00

    Le travail fastidieux d'administration et de fiabilisation des DataLakes Hadoop on-premises afin d'atteindre les niveaux de service attendus (SLA) par les métiers est à l'origine du faible taux de projets BigData livrés en production (entre 10 et 20% en moyenne). Cette limitation structurelle peut entraver de façon durable les initiatives stratégiques dans la conception de nouveaux services à valeur ajoutée autour de la donnée comme les projets de Machine Learning ou d'Analyses Avancées.

    Le projet open-source #Delta Lake a été conçu comme une couche de stockage supplétive sur les technologies existantes de stockages objet des fournisseurs Cloud (Blob, S3) afin d'améliorer la fiabilité et de désenclaver les DataLakes en étant nativement compatible avec les API Apache Spark. Cette innovation disruptive garantie de façon inédite les caractéristiques ACID des transactions sur le DataLake, la gestion des métadonnées à grande échelle, l'historisation des actions sur les données (en accord avec la RGPD) ainsi qu'une administration centrale et automatisée des processus de collecte des données par batch ou streaming.

    Databricks & WANdisco présenteront les avantages significatifs en termes de performance, scalabilité et fiabilité du #Delta Lake pour sécuriser la montée en puissance de vos initiatives stratégiques de Machine Learning et d'Intelligence Artificielle, ainsi qu'une démonstration d'une stratégie de migration de données garantissant la continuité de service de vos projets critiques en production.

    Speakers

    • Seifeddine SAAFI - Solutions Architect - Databricks
    • Pierre TROUFFLARD - Territory Manager - WANdisco
    Voir en détail
  • Monter son premier projet Big data

    18h00 - 18h30

    Quand l’innovation est un impératif et l’exploitation des données une urgence, on se retrouve vite face à une question : par où débuter ?

    A partir d’exemples simples, nous vous proposons de poser quelques jalons pour mieux comprendre le paysage du Big Data et commencer rapidement vos premiers programmes.
    Nous vous aiderons à répondre à vos interrogations.

     

    Voir en détail

Salle Ateliers 4

  • Les ateliers commencent à 9h30

    09h20 - 09h30
    Voir en détail
  • Qu’est-ce que je fais de mon Hortonworks ?

    09h30 - 10h00

    Début 2019, Hortonworks annonce son rapprochement avec Cloudera, en faveur de ce dernier. Cette fusion annonce un tournant dans l’univers du Big Data et soulèvent des interrogations.

     En effet, nombreuses sont les entreprises qui ont précédemment investi en temps et en argent pour disposer de la plateforme d’Hortonworks !

     Dans ces conditions, que faire de son Hortonworks ? Des solutions existent-elles ? Si oui, vers laquelle se tourner ? Et surtout, comment mener à bien cette transition ?

    Si cette question vous travaille vous aussi ou si vous voulez comprendre comment l’univers de l’infrastructure Big Data va évoluer dans les prochaines années…

    Retrouvez Benoit Petitpas, Directeur Big Data, qui répondra en tant qu’expert à toutes ces questions.

     

    Speaker : Benoit PETITPAS, Directeur Big Data

    Voir en détail
  • MicroStrategy HyperIntelligence - l'analytique zéro clic intégrée dans les outils du quotidien

    10h00 - 10h30

    97% des micro-décisions quotidiennes dans les entreprises reposent toujours sur l’intuition ou sur des données locales non fiables.

    Comment résoudre ce problème et donner à chacun la possibilité d’avoir en un clin d’œil la bonne information au bon moment pour prendre une décision éclairée ?

    Vous comprendrez tous les avantages d’HyperIntelligence :

    • La première solution d’analytics en zéro-clic
    • Augmenter l’adoption de la BI et des analytics dans l’entreprise
    • Intégrer les analytics aux applications les plus populaires (email, office, browser, CRM, ERP…)

     

    Voir en détail
  • Leveraging DataOps to Deliver an Omnichannel Customer Experience

    10h30 - 11h00

    Wynd is the one stop solution for global retailers’ omnichannel transformation, enabling them to handle their cash-in and fulfilment. Thanks to Wynd’s software, retailers can connect their stores with their website or mobile apps and offer innovative services to their customers like home delivery or click and collect. Meanwhile, they save money on stock levels, smoothen order management and turn their store associates into assets. 

    Having real time, unified data on stocks, orders, customers and capacity is crucial to building an omnichannel customer experience. Integration and stability can prove challenging in complex networks of stores and logistics centers across multiple industries.

    Wynd has partnered with Streamsets to solve this challenge. By leveraging thedatz StreamSets platform Wynd uses php workers to retrieve the various kinds of data about customers and then integrate them using the StreamSetsPlatform. In concert Wynd and StreamSets deliver relevant and easily maintainable solutions without slowing down the completion times of data integration flows, and that's how Streamsets is helping Wynd build a DataOps practice.without slowing down the completion times of data integration flows, and that's how Streamsets is helping Wynd build a DataOps practice.

    Voir en détail
  • L'IA en production dans la santé : projet PharmIA

    11h00 - 11h30

    Le projet PharmIA propose une plateforme digitale d’analyse des prescriptions médicales destinée aux pharmaciens hospitaliers et qui met en œuvre des algorithmes d’Intelligence Artificielle afin d’améliorer la qualité de prise en charge des patients à l’hôpital, d’optimiser l’efficacité de l’organisation de la pharmacie hospitalière et de réduire les dépenses de santé au titre du médicament.

    Voir en détail
  • SAP HANA Cloud Services - Découvrez le nouveau socle SAP HANA dans le cloud, une passerelle unique vers toutes vos données sécurisées, en temps réel et peu importe où elles se trouvent.

    11h30 - 12h00

    Dans un monde où la donnée est en constante croissance, tirez parti des dernières innovations de SAP HANA pour exploiter tout le potentiel de votre paysage de données. Combinez et apportez de la valeur à vos données pour permettre à tous les membres de votre organisation de prendre des décisions percutantes, rapides et sûres.

    Avec une solution optimisée pour le cloud, vous aurez désormais un accès illimité à SAP HANA au travers des solutions de management de la donnée et d’analyses avancées. Venez découvrir comment simplifier l’accès à l’ensemble de vos données et réaliser des analyses instantanées pour vos prises de décision.

    Speakers :

    Emilie Almouzni – SAP Solution Architect Business Technology Platform

    Abdelmajid Bekhti – Senior Solution Advisor Business Technology Platform

    Voir en détail
  • Comment gagner en agilité dans sa stratégie multicloud ?

    12h00 - 12h30

    Le multicloud devient une évidence pour bon nombre de DSI ! Et vous, êtes-vous prêts ? Découvrez dans cet atelier, comment Oracle peut vous aider à relever le défi en vous apportant cohérence, sécurité, haute disponibilité, gouvernance, maîtrise des coûts quels que soient les cas d’usage (Big Data, Analytics, Data Science, Sécurité, Containerisation, Management....).

    Speakers :Frederic Marsaud (Cloud Solution Architect, Oracle) et Antoine Gouedard (Business Analytics & Big Data Solution Engineer, Oracle)

    Voir en détail
  • L’ANALYTICS BASÉ SUR LE SEARCH ET L’IA, OU COMMENT BÂTIR LE DATA STACK DU FUTUR

    12h30 - 13h00

    Aujourd’hui plus que jamais, il est critique d’avoir un accès rapide et libre aux données et aux insights. Dans une conjoncture changeante et instable, les entreprises doivent devenir agiles et déployer un stack de nouvelle génération, avec du Cloud, de l’ETL, du Machine Learning et une interface moderne et simple, pour donner à tous accès à des insights en temps réel.

    A travers cet atelier, vous découvrirez pourquoi l’Analytics, basé sur le Search et l’IA, est l’unique solution pour libérer le potentiel réel d’un Data Stack et préparer votre activité pour demain.

    Speaker: 

    Martial COIFFE, Sales Executive chez ThoughtSpot

    Alexandre PICARD, Sales Engineer chez ThoughtSpot

     

    Voir en détail
  • Découvrez le témoignage d’un leader du secteur bancaire, la Société Générale : retour d’expérience d’un Data Hub Client dans le Cloud Azure

    13h00 - 13h30

    Face à des volumes de données de plus en plus importants et à l’émergence de nouveaux concurrents, la Société Générale tire les bénéfices des innovations technologiques pour se doter d’une connaissance complète de ses clients, produits et points de contact.

    Micropole accompagne la Société Générale dans son accélération autour de l’exploitation et du décloisonnement de ses données. Cette plate-forme d’intégration et de gouvernance des données a permis à la direction financière de se doter d’une vue 360° sur l’ensemble des informations financières et non financières.

    Découvrez, à travers une discussion croisée, comment le Cloud permet à la Société Générale de reprendre le contrôle et d’exploiter ses données clients au maximum de leur potentiel.

    Speakers :

    • Ludovic Moullé, Responsable de domaine SI, Société Générale
    • Jean-Michel Franco, Sr Director, Product Marketing, Talend
    • Christophe Kerlero De Rosbo , Directeur Practice Cloud & Data, Micropole
    • Bertrand Rolain, Directeur Centre Excellence Cloud Microsoft, Micropole
    Voir en détail
  • AXA optimise sa stratégie « data-driven » en créant la plateforme SHINE dans le cloud Azure

    13h30 - 14h00

    Speaker : Sylvain  MATHEVET, Head of Data, BI & Analytics, AXA Group Operations

    Voir en détail
  • Vous n’avez jamais eu autant besoin d’analyser vos données que maintenant !

    14h00 - 14h30

    Au vu de la crise sanitaire, le besoin d'accéder à une information sécurisée, gouvernée et de confiance est au centre du pilotage de vos organisations.

    Dans cette session, nous vous présenterons comment la plateforme MicroStrategy vous permet de mettre à disposition des informations de confiance à tous vos utilisateurs quelle que soit l'application utilisée.

     

    Voir en détail
  • Big Data et Machine Learning au service de la détection d’anomalies - cas d’usages

    14h30 - 15h00
    Voir en détail
  • Macif assure sa transformation métier en démocratisant l’accès aux données grâce à Trifacta

    15h00 - 15h30

    Face à la multiplication et à la diversification des données, comment transformer rapidement ces données en avantage stratégique ? Retour d’expérience de la MACIF sur l’utilisation de Trifacta pour la préparation de données en environnement Big Data dans le cadre de reporting opérationnel et réglementaire

    Speaker: Laurent Aucouturier, Direction Digital & Systèmes d’Information Groupe Responsable Data Solutions, MACIF

    Voir en détail
  • Découvrez la plateforme d’IA qui protège en temps réel 90% des transactions bancaires françaises : retour d’expérience Market Pay (Groupe Carrefour)

    15h30 - 16h00

    A travers le retour d’expérience de Market Pay (Groupe Carrefour Banque) découvrez comment Market Pay a industrialisé sa lutte contre la fraude et  sécurise en temps réel l’ensemble de ses transactions bancaires.

    Éditeur de logiciel français, ISoft conçoit des solutions d’Intelligence Artificielle et de Data Science hautes performances au service des projets Métiers. Rendant possible l’analyse en temps réel de milliards de données, la technologie d’IA d’ISoft est leader de la lutte contre la fraude bancaire. Sa technologie protège 4 des 10 premières banques européennes et sécurise 90% des transactions bancaires françaises. Les solutions Métiers d’ISoft sont également utilisées par les grands comptes du CAC 40 dans les domaines de la finance, du marketing, de la santé et de l’industrie.

    Speakers :

    Fabrice HAAS, Responsable Lutte contre la Fraude Carte, Market Pay Tech – Carrefour Banque

    David POLVERARI, Head of Risk Solutions, ISoft

    Voir en détail
  • Comment démarrer une gestion des métadonnées ?

    16h00 - 16h30

    Si, comme chez nos clients, votre défi est : Avoir une meilleure visibilité de vos données et initiatives data au sein de votre entreprise. Vous êtes au bon endroit !

    Qu’est-ce qu’une gestion des métadonnées ? Pour quels bénéfices ? Mais surtout, comment démarrer de manière à produire de la valeur le plus tôt possible pour vos consommateurs de données ?

    En 30 minutes, nous relevons le défi de répondre à ces problématiques et vous guider dans cette nouvelle (et indispensable) aventure à l’aide d’un data catalog.

    Speaker : David Martin, Customer Success Director chez Zeenea 

    Voir en détail
  • Exploiter l'intégralité de vos données avec notre Datalab as a service : Hadoop et Spark pour la [Big] Datascience

    16h30 - 17h00

    Speaker : José Corral Gallego

    Voir en détail
  • Le deep reinforcement learning : pour quoi faire ?

    17h00 - 17h30

    Speaker : Johan Jublanc 

    Voir en détail
  • Exploitez la pleine valeur de vos données avec la plateforme bee4sense

    17h30 - 18h00

    bee4sense est une plate-forme de valorisation de l’information qui repose sur un paradigme en rupture avec les approches majoritairement mises en œuvre à ce jour.

    Les technologies d’IA et de Traitement Automatique du Langage Naturel mises en œuvre à tous les niveaux du cycle de traitement de l’information depuis son acquisition jusqu’à son utilisation, permettent de passer d’un modèle « Software rules Data » à une approche « Data rules software ».

    Cette approche innovante a permis à bee4sense de devenir la plate-forme de référence dans les procédures d’enquête et d’investigation du Ministère de l’Intérieur.

    Nous vous invitons à une présentation de cette approche et à une démonstration des applications qui, en sont dérivées.

    Voir en détail
  • Machine Learning, deep Learning et NLP au service des entreprises : Présentation et applications.

    18h00 - 18h30

    Intervants: Mr Dhaou GHOUL & Mr Abdelfatah GTET

    Voir en détail

Salle Ateliers 5

  • Les ateliers commencent à 9h30

    09h20 - 09h30
    Voir en détail
  • Tiraillé entre l’engagement d’un nouveau client et le risque de faire face à un mauvais payeur ?

    09h30 - 10h00

    La modélisation permet d’évaluer le potentiel clients et de définir les bonnes actions (garantie, offres plus adaptées…) vis-à-vis des clients les plus fragiles.

    • Collecter les données clients et les enrichir avec des données socio-démographiques ;
    • Scorer automatiquement le potentiel et le risque clients ;
    • Recommander les actions à mettre en œuvre, voire optimiser les dates de prélèvement ;

    Découvrez comment déployer simplement la solution, en utilisant la plateforme Alteryx et des algorithmes Random Forest, Gradient Boosting, K-Means…,

    Speakers :
    Jean-Marc GUIDICELLI, Axys Consultants, Associé et directeur des practices Digital et Data
    Marc MIRONNEAU, Axys Consultants, Manager
    Adrien MOREAU, Axys Consultants, Data Scientist

    Voir en détail
  • Comment automatiser Data Management et Gouvernance pour devenir Data-Driven ?

    10h00 - 10h30
    Voir en détail
  • How Amadeus and Couchbase partner to offer best-in-class Merchandising solutions to airlines

    10h30 - 11h00

    Amadeus is a leading travel technology company powering the operations of all the actors in the industry, and assist them to improve and redefine the travel experience. Among our objectives, we provide airlines with solutions to optimize their merchandising strategy by adapting to the offer context and their customers in real-time.

    During this session we will showcase how Couchbase helps us to deliver on this promise and get ready for going to the next level:
    · Covering a large range of Big Data needs, from key/value stores to complex queries and indexing
    · Enabling multi-cloud global deployments of our services

    Speaker : François Costes – Regional Sales Director Southern Europe & Benelux @ Couchbase

    Gilles Gagniard et Xavier Rousselot  - Architect – Offer Airlines R&D @Amadeus

    Voir en détail
  • Comment réussir le virage omni-canal et fidéliser ses clients avec un Intelligent Data Hub

    11h00 - 11h30

    Au travers de ce retour d'expérience client vous découvrirez comment l’Intelligent Data Hub de Semarchy a permis à GrandVision de construire son référentiel client unique pour tirer tous les bénéfices de ses données client et résoudre la plupart des problématiques associées.

    Christophe Ulses, Directeur des Études Informatiques chez GrandVision France abordera les sujets suivant : 

    • Construire un référentiel client qui prend en compte le contexte métier
    • Maximiser la qualification client et réduire les coûts du marketing
    • Respect de la RGPD et gouvernance de la donnée client
    • Augmenter la satisfaction du client et son rapport à la marque
    • Upsell plus pertinent avec la vision 360
    Voir en détail
  • Data Storytelling: THE winning Communication Strategy for untrained Business Users

    11h30 - 12h00
    Voir en détail
  • Accélérez votre transformation pilotée par les applications et les données ! avec HPE EZMERAL

    12h00 - 12h30

    Les entreprises sont plus que jamais focalisées sur leurs applications, traditionnelles et modernes, à travers lesquelles se jouent les interactions et l’innovation dans  l’entreprise et avec les clients. Les données, carburant des applications, explosent de toute part  – périphérie, Datacenter, cloud – et l’analytique, l’IA sont devenues indispensables pour leur gestion, leur contrôle et leur valorisation.  Les enjeux sont énormes et les écueils nombreux : migration, complexité, sécurité, coût …

    HPE vient d’introduire le portefeuille de solutions logicielles HPE EZMERAL, amenant une nouvelle approche « plateforme-as-a-service » pour  la containerisation, l’automatisation, l’analytique, l’AI / ML, le Devops, le contrôle des coûts…  A travers cette session d’introduction, vous découvrirez comment cette nouvelle offre apportent les solutions afin de mieux exécuter, gérer, contrôler et de sécuriser vos applications, vos données, votre IT des Edges vers les clouds.

    Speaker : Olivier Tant, Sales Category Manager, HPE Data Platform

    Voir en détail
  • Valoriser son patrimoine informationnel, mode d'emploi

    12h30 - 13h00

    Ce n’est que maintenant, en 2020, que nous franchissons le palier de la valorisation des données. Nous commençons à percevoir que la data constitue un patrimoine en tant que tel, au même titre qu’une usine, des postes de travail ou des actifs fonciers. Certains considèrent même que la donnée n’est pas un actif permettant de générer de la valeur, mais qu’elle constitue elle-même la valeur que doit produire l’entreprise !

    Mais quels sont les facteurs de réussite d’une démarche de valorisation des données de l’entreprise ? A quels paradoxes la gouvernance de la donnée devra-t-elle répondre ?

    Speaker : François BOUTEYRE, Directeur Conseil Data Management – CGI Business Consulting

     

    Voir en détail
  • Architectures de données IoT et Edge : cas concrets

    13h00 - 13h30

    D'ici 2025, près de 80 % des données industrielles seront générées par les Edge de toutes sortes (mini-datacenter, gateway IT/OT, capteurs, objets connectés, routeurs, ..).
    L'arrivée de la 5G va dynamiser un marché déjà en croissance et permettre de gérer des mini-cloud distribués et connectés aux usines. Coté manufacturing, les Edge industriels (IIoT) deviennent déjà clés pour connecter les machines dans les lignes de fabrication, entrepôts, usines et ateliers et obtenir ainsi les données pour le pilotage.
    Les questions qui se posent:
    -    quelle cohabitation avec les clouds centraux ?
    -    quelle architecture IT/OT Industrie 4.0 pour intégrer les edges  (PLC,  SCADA,  Gateways,  etc ..)?
    -    quels sont les cas d'usage par industrie (chimie pétrole, construction, automobile, électronique, manufacturing) qui ont besoin de Edge ?
    -    comment passer à l'échelle ?

    Speakers : Serge Bonnaud, Executive Architect , IBM France et Christophe Didier CTO IoT/Industry 4.0, IBM

    Voir en détail
  • 6 étapes pour construire la valeur de vos données

    13h30 - 14h00

    Want to realize real value from your data? ASG Technologies proposes a six-step approach that will guide you to your objective. Realizing value from data is a journey that needs to start with inventory and understanding of the data you have - if you want to govern them and correctly share with the right stakeholders. These logic steps are translated into a sound DI process, in six steps, that will enable you to achieve your business objectives effectively and faster. Learn how to simply manage for example migration to cloud or a data lake with a clear path in mind and reliable technologies at hand.


    Speaker:
    Alain BUENO - Data Intelligence Sales Specialist, ASG Technologies

    Voir en détail
  • Comment les données satellitaires révolutionnent le monde de l’assurance ?

    14h00 - 14h30

    Les acteurs de l’assurance et de la réassurance sont en première ligne face aux évolutions sociales et changements climatiques.

    Dans ce contexte, les données satellitaires couplées à l’Intelligence Artificielle leur procurent des avantages indéniables en leur offrant une visualisation plus précise du risque et en leur permettant d’offrir de nouveaux services à leurs clients.

    Speakers :

    Michel Benet , CEO Diginove

    Précilia Fibleuil, Responsable Marketing Innovation et programme startup, Orange Business Services

    François Alter, CNES