Inscrivez-vous à la Newsletter pour ne rien perdre de l'événement

Ateliers

Salle Atelier A

  • La cartographie des données personnelles en pratique

    09h00 - 09h30
    Voir en détail
  • Vantage en Action

    09h30 - 10h00

    Teradata Vantage démocratise l’accès et l’usage de toutes vos données quel que soit le profil d’utilisateurs :

    • Offrir aux Data Scientists, via R et Python, l’accès à toutes les données et à la puissance de traitement de son architecture massivement parallèle unique.

    • Simplifier l’exploration des données pour les Data Analysts et les Business Users, et permet la mise en place de process de data science complexes industrialisés sans développer de code.

    • Accélérer le déploiement d’applications autour de la donnée pour convertir rapidement vos analyses en réponses métiers en mode a la consommation.

    • Accéder à vos données sous divers format sur stockage Objet Cloud (S3, Blob Storage) et dans un environnement hybride Cloud (AWs, Azure, GCP, Private Cloud, On Premise)

    Speakers : Pierre MAUSSION, Senior Solution Engineer, TERADATA

    Denis MOLIN, EMEA Sales Data Scientist, TERADATA

    Voir en détail
  • Opérationnaliser le RGPD et la Privacy by Design: Ce qui doit être automatisé dans votre programme de confidentialité

    10h00 - 10h30

    Speaker : Christian Mintchev, Privacy Engineer, ONETRUST

    Voir en détail
  • Comment créer des occasions de jeux supplémentaires en poussant une recommandation selon les préférences de jeu des clients ?

    10h30 - 11h00

    Speakers : Christelle Jason, Responsable Data Mining/Data Science, PMU

    Jean-Baptiste Jesbac, Responsable Marketing CRM, PMU

    Helene Bernery, Data analyste / datamining senior, PMU

    Voir en détail
  • NoOps : Une plateforme data serverless avec Google Cloud Platform

    11h00 - 11h30

    Après plusieurs années d’adoption et de mise en place de plateformes big data, un constat global commence à se
    dessiner : ce sont des plateformes coûteuses, difficile à maintenir et à faire évoluer pour répondre aux besoins toujours
    plus pressants des métiers.

    Venez découvrir comment Google Cloud se propose de résoudre ce problème :
    - grâce à une plateforme data serverless pouvant traiter et analyser de façon transparente jusqu’à des Pétaoctets
    de données,
    - en vous libérant des problématiques d’infrastructure, d’opérations, de passage à l’échelle et des coûts associés.

    Speaker : Johan Picard - Sales Engineer, Google Cloud

    • Johan Picard Sales Engineer GOOGLE CLOUD
    Voir en détail
  • Construisez votre framework événementiel avec Confluent & MongoDB

    11h30 - 12h00

    Speakers : Florent Ramière - System Engineer - Confluent

    Guillaume Meister - Principal Solutions Architect - Mongo DB

    Voir en détail
  • La Self BI Suadeo, la réponse à une réelle autonomie et indépendance données aux métiers dans leurs analyses au quotidien ; retour d’expérience du Crédit Agricole d’Ile de France

    12h00 - 12h30

    Après une longue période d’évaluation et un Dossier de Consultation, le Crédit Agricole d’Ile de France a choisi la plateforme logicielle de Suadeo.

    La DataViz seule ne fait pas la Self BI. CADIF a opté pour l’approche « Tout en Un » de Suadeo combine les outils de DataViz (Dashboard, Report,…) avec les technologies de Datamanagement (ETL, Données d’Usage, Catalogue de données, Couche sémantique). Un utilisateur peut à tout moment de manière sécurisée récupérer les données, où qu’elles soient et quels que soient leurs formats ou tailles, et alimenter les règles métiers qui constituent son Dashboard ou son Report en temps réel.

    L’Agilité est un atout essentiel dans la liberté exigée par les utilisateurs tout en garantissant une sécurisation de bout en bout du cycle de vie de la donnée et une capacité de traitement de grosses volumétries de données.

    Intervenants:  

    Crédit Agricole d'Ile-de-France : Nasser BEN KHEMIS, Département Organisation & Système d’Information

    Suadeo : Olivier Saurais, Direction Suadeo Suisse

    Voir en détail
  • L’IA pour la sécurité des paiements et la lutte contre la fraude, Témoignage de Crédit Agricole Payment Services

    12h30 - 13h00

    La fraude est un enjeu majeur pour les entreprises et les organismes publics. Son augmentation constatée dans la plupart des domaines est liée à la multiplication des systèmes déclaratifs, à la dématérialisation des échanges et à la cohabitation de données structurées et non structurées (courriers, tél, email, images, formulaires…).

    A travers un retour d'expérience concret, venez découvrir comment Crédit Agricole Payment Services et Micropole ont réussi, en utilisant toute la puissance de l'Intelligence Artificielle, à circonscrire la fraude aux paiements CB et aux virements.

    Speakers :

    Yves Péchiné, Responsable du département Sécurité des Paiements et Authentification, Crédit Agricole Payment Services.
    Tanguy Le Nouvel, Directeur Data Science, Micropole.

     

    Voir en détail
  • Relever les défis du data engineer avec Delta Lake.

    13h00 - 13h30

    Assurer la qualité des données, veiller à éviter toutes pertes ou corruption des données lors de l'ingestion et de la préparation, ou encore garantir la robustesse d’une architecture solide, fiable et déployable à l’échelle, sont autant de challenges que les équipes data doivent relever dans leurs projets quotidiens.
    Databricks vous propose un atelier dédié à Delta Lake, un service de stockage open-source qui apporte de la robustesse aux data lakes. Delta Lake fonctionne en complément de votre Data Lake existant (Azure Data Lake Storage, AWS S3, Hadoop HDFS, on-premise, etc).

    Rejoignez cet atelier pratique pour apprendre comment Delta Lake peut vous aider à construire des pipelines de données robustes et à l’échelle. Cet atelier vous donnera l’opportunité de :
    - Comprendre le fonctionnement de Delta Lake open source
    - Apprendre à construire des pipelines de données robustes et à l’échelle en utilisant Delta Lake
    - Découvrir en profondeur Delta Lake en action dans un environnement de démo

    Speaker: Nicolas Maillard, Directeur Field Engineering, Databricks

    Voir en détail
  • Devenir (enfin) Data driven?

    13h30 - 14h00

    Plus de 80% des projets big data n'apporteraient pas les bénéfices escomptés selon selon un analyste Gartner. Pourtant les entreprises ont massivement investi ces dernières années dans les projets Data tandis que la technologie continuait à gagner en maturité et que les écoles d'informatique renforçaient leurs enseignements. Le constat est sévère puisque très peu d'acteurs ont réussi à créer l'étincelle pour devenir vraiment "Data Driven" et faire de la data un vecteur de différentiation. Les questions suivantes se posent : les projets data doivent-ils être rebootés ? Comment faut-il les aborder ?
    Dans cet atelier,  Thomas et José reviendront sur la définition de "Data driven" ainsi que sur les différentes étapes de maturité pour y arriver. Ce sera l'occasion d'évoquer quelques success stories (BBVA, AirBnB). Puis ils listeront les principaux drivers d'échec des transformations qui amènent de nombreuses entreprises à "rebooter" leurs programmes data. Enfin, ils détailleront la méthode pour se (re)lancer efficacement dans une transformation data driven et discuteront des principaux facteurs clés de succès.

    Speakers : Thomas Le Ligné (WeeFin) José ALFARO (FINAXYS)

    Voir en détail
  • Ask, l’intelligence artificielle d’Allianz France au service de la relation client et des réseaux de distribution

    14h00 - 14h30

    Comment l'intelligence artificielle peut améliorer l'orientation et la priorisation des emails ? Découvrez le projet Ask d'Allianz France et plus particulièrement l'analyseur d'emails appelé "Ask Mail", véritable assistant en temps réel des collaborateurs dans le traitement des demandes clients.

    Speakers :

    • Anaël Cabrol, Manager Data Science - EPSILON France
    • René Harig, Head of Big Data & AI Factory - Allianz France UDCC
    • Aurélien Barthe, Program manager Big Data & AI Factory - Allianz France UDCC
    Voir en détail
  • Modernisez vos développements big data Hadoop et Spark avec une touche Cloud-native grâce à Google Cloud Dataproc.

    14h30 - 15h00

    Aujourd’hui de nombreuses initiatives big data peinent à répondre aux exigences métier dans les délais impartis et à
    fournir un ROI satisfaisant en raison de contraintes telles que :
    - Le manque de souplesse dans la gestion des infrastructures big data en accord avec les obligations métier
    - La complexité de la gestion opérationnelles d’une plateforme big data Hadoop
    - La difficulté de mise en place du paradigme “one size fits all” au sein d’une plateforme Big Data traditionnelle à
    cause de la variété de cas d’usages et leurs schémas de consommation de ressources hétérogènes.

    Lors de cet atelier, venez découvrir comment déployer de façon simple et rapide vos cas d’usages sur des plateformes
    Big Data managées. Vous pourrez ainsi :
    - optimiser les coûts et gagner en rapidité, flexibilité et scalabilité,
    - capitaliser sur vos développements et votre expertise Hadoop existants
    - moderniser ces derniers
    - innover dans le cloud Google, grâce au service Google Cloud Dataproc qui s'appuie sur des composants open source

    Speaker : Eric Djatsa Yota - Customer Engineer- Data Analytics Specialist, Google Cloud

    Voir en détail
  • MicroStrategy : Avec HyperIntelligence, donnez un super pouvoir à vos utilisateurs !

    15h00 - 15h30

    Découvrez lors de cette session une approche disruptive pour enfin démocratiser l’analytique au plus grand nombre dans l’entreprise.

    • Augmenter l’adoption de la BI et des analytics
    • Intégrer les analytics aux applications les plus populaires (email, office, browser, CRM, ERP…)
    • Analyser toutes sources de données et les croiser sans efforts
    • Démocratiser l'apport des algorithmes de datascience et de machine learning pour conseiller sur la prochaine bonne action à effectuer

    Selon Gartner « HyperIntelligence fait partie des fonctionnalités les plus innovantes apparues sur le marché des plateformes BI et analytics depuis les deux dernières années »

    Voir en détail
  • Edge Computing X NODATA – Diminuer les coûts et améliorer les performances du reporting

    15h30 - 16h00
    Voir en détail
  • Automatiser les cas d’usage métiers de Machine Learning grâce à SAS® Viya® : présentation de deux cas pratiques

    16h00 - 16h30

    Le choix des langages des programmation ainsi que celui des algorithmes de modélisation sont importants dans un projet analytique, toutefois la valeur de ce projet se mesure par la capacité à appliquer ses résultats dans les systèmes opérationnels et créer de la valeur le plus rapidement et durablement possible.

    La possibilité de développer, valider, déployer et maintenir en condition opérationnelle des modèles analytiques grâce à une plateforme hybride qui permet de gérer le projet de bout en bout, est un réel gain de temps, de productivité et de création de valeur.

    Lors de cet atelier nous illustrerons par deux « use cases » comment accroitre le taux de succès des projets analytiques et accélérer la création de valeur.

    Intervenants : Charlotte Douette et Mathieu Fabre, Data Science Advisors

    Voir en détail
  • L'avènement des plateformes intégrées de Data Science

    16h30 - 17h00

    Après l'essor de la Data Science et des solutions de gestion de modèles analytiques et prédictifs, l'heure est à la réunification des opérations de gestion des données (collecte, intégration, validation, gouvernance) et des étapes de production des modèles de Data Science : préparation des données, développement du modèle, déploiement, intégration dans les applications métier et enfin maintenance.

    Les plateformes de Data Science actuelles se doivent donc de couvrir un spectre complet afin de répondre à des problématiques métiers clairement identifiés et ainsi apporter une réponse globale qui sera mise en production grâce à une collaboration des équipes Data Engineers et Data Scientists.

    SAP Data Intelligence offre une couverture intégrale pour les scénarios de Data Science afin de pouvoir réunir dans une seule et même plateforme :

    • Des fonctions de connectivité à de multiples systèmes (applications métier, stockages objets ou autres services cloud),
    • Des fonctions d'intégration et de transformation de tous types de données (structurés, semi-structurés, non-structurés),
    • Des fonctions de gestion d'un modèle prédictif ou de Machine Learning (dans le langage préféré du data scientist),
    • et enfin des fonctions d'intégration avec les applications métiers de votre système d'information.

    Cette approche permet ainsi d'apporter une réponse de bout-en-bout lorsqu'une problématique métier est identifiée et qu'une réponse doit être apportée via la Data Science.

    Speaker :  Presales Solution Lead Business Technology Platform

    Voir en détail

Salle Atelier B

  • Une entreprise Data Centric

    09h00 - 09h30

    Speaker : Yoel Tordjman

    Voir en détail
  • Acteurs des PGC : révolutionnez l’usage de vos données

    09h30 - 10h00

    IRI, entreprise pionnière du Big Data , intègre et consolide la plus large base de données mondiale en matière de ventes, d’achats, de fidélité et de médias.

    IRI a l’innovation dans son ADN et va au-delà des données pour créer de la croissance pour ses clients industriels et distributeurs.

    L’eco-système IRI Liquid Data, combinaison harmonieuse de ces données et de technologies de pointe, offre aux organisations une plateforme permettant de transformer le Big Data en Smart Data.

    Grace à l’agilité conversationnelle alliée à la puissance de calcul, AIRIA (Artificial Intelligence Reporting and Insights Assistant) et Opportunity Finder, sont de véritables game changers : de l’insight à l’action,  pour une optimisation de l’exécution.

    Il vous seront présentés en live et en avant-première sur ce salon.

    Speaker : Delphine Sacher Genet, Responsable IRI Liquid Data Innovation et Olivier Cottrant, Consultant Expert, IRI.

    Voir en détail
  • Accroitre son ROAS grâce à la donnée 1st party

    10h00 - 10h30

    Comment donner un nouveau KPI de suivi des performances site-centric ? Le projet Conversion Scoring (CRMint) a été déployé dans le but de scorer tous les cookies site (Google Analytics) et de définir un score de propension à convertir grâce à un modèle statistique. Retour sur les résultats et la mise en place de ce nouveau scoring pour un acteur PGC.

    Speakers :

    • Laure Debos, Executive Vice President – EPSILON France
    • Jérôme Perissel, - Head of Digital & Innovation – ZENITH
    • Laure Debos Executive Vice President EPSILON
    • Jerôme Perissel Head of Digital & Innovation ZENITH
    • Giancarlo Miluccio Chief Data Officer L’ORÉAL
    Voir en détail
  • Immersion dans le cycle de vie de la donnée

    10h30 - 11h00

    Découvrez comment les différents acteurs d'une organisation peuvent construire et partager de l'information exploitable tout de suite, à partir de données à l'état brut.
    De la préparation de la donnée à son impact réel sur votre activité, cet atelier est une démonstration de la puissance analytique de Tableau.
    Intervenant: Jérôme Ivain, Sales Consultant

     

    Voir en détail
  • Cas pratique : Comment mobiliser business et IT autour de leurs données les plus précieuses ?

    11h00 - 11h30

    Absence de contrôle et de responsabilisation, création de silos de données,  non-maîtrise de la qualité des données, manque d’alignement avec les enjeux business. Les principales raisons des échecs des initiatives centrées sur les données sont largement connues.

    Pour les affronter, il ne suffit pas de décréter la transformation numérique en renforçant les équipes métiers et IT avec de nouveaux talents – chief data officers, analystes, data scientists, engineers, stewards, data protection officers… Encore faut-il organiser leur collaboration au quotidien !

    Autour d’un cas pratique, cette session illustre les moyens pragmatiques pour y parvenir.

    Speakers:

    David Talaga, Directeur Product Marketing Governance, Talend

    Jérôme Elek, Solution Engineer Lead, Talend

    Voir en détail
  • Qonto libère la puissance des données pour accompagner son hypercroissance

    11h30 - 12h00

    En passant sur Snowflake, la néobanque Quonto a pu gagner en agilité et en disponibilité pour alimenter en données ses différents services, de la lutte contre la fraude, l’optimisation produit, la performance marketing ou encore la relation client.

    Speaker : Amaury Dumoulin, Lead Data chez QONTO

    Voir en détail
  • La recette du succès de vos projets de Data Science

    12h00 - 12h30

    85% des projets de data science n’atteignent pas leurs objectifs d’après une récente étude de Gartner. Pourquoi ? Principalement du fait qu’on ne leur accorde pas une méthodologie de construction et de déploiement appropriée. En se basant sur l’expérience acquise au cours de 13 années de construction de solutions dans tous les secteurs, Ekimetrics a défini les règles, les méthodes et les pratiques qui font le succès de vos projets de Data Science. Il s’agit en quelque sorte du mode d’emploi pour créer de la valeur grâce à vos données.

    Speaker : Aymeric Souleau, Senior Manager - Ekimetrics

    Voir en détail
  • Data Gouvernance et gestion des données RH

    12h30 - 13h00

    ... ou comment MetaAnalysis permet à la RH du groupe Kiloutou d'avoir des indicateurs de qualité ...

    Nous avons le plaisir de vous convier à notre #atelier lors du salon du BIG DATA PARIS le 10 mars à 12H30 sur le #rex du groupe KILOUTOU avec Arnaud Maton, responsable du service Data Management

    Voir en détail
  • Ce que le film « Un jour sans fin » nous apprend sur les datalake

    13h00 - 13h30

    Speaker : Xavier PERRET , Directeur Azure Microsoft France

    Voir en détail
  • AutoAi : booster votre IA !

    13h30 - 14h00

    Dans cet atelier, vous découvrirez:
    - les principes de base de l'auto-modeling,
    - la différence entre auto-modeling et autoAI
    - le point de vue d’IBM sur la data science et l’IA pour augmenter le pouvoir des data scientists.


    Intervenant: Zied Abidi, Hybrid Cloud and Data Science Technical Architect
     

    Voir en détail
  • Data Literacy : développez les compétences data des utilisateurs pour tirer toute la valeur de vos projets

    14h00 - 14h30
    • Savez-vous que 3 décideurs métier sur 4 n’ont pas confiance dans leur capacité à utiliser efficacement  les données ?
    • Et que ce manque de compétences data génère un stress important et une mauvaise utilisation des outils ?
    • Au-delà de la technologie, les responsables de la donnée se doivent d’assurer un accompagnement efficace des utilisateurs, pour s’assurer que les applications sont correctement exploitées et dégagent toute la valeur escomptée.
    • Découvrez comment le projet « Data Literacy » va aider vos utilisateurs de tous niveaux, avec Qlik ou non,  à mieux comprendre et appréhender vos Data, pour une meilleure adoption de vos projets.

    Speakers : Pierre-Yves Lesage, Managing Director, Applied Intelligence, OCTO Technology.
    Hervé Chapron, Senior Director EMEA System Integrators Alliances

    Voir en détail
  • Ne laissez pas le RGPD affecter votre stratégie marketing : ce que les marketeurs doivent savoir sur le RGPD

    14h30 - 15h00
    Voir en détail
  • Connexin Data Platform - La plateforme de données intégrée pour les centres de soin

    15h00 - 15h30
    Voir en détail
  • A VENIR

    15h30 - 16h00
    Voir en détail
  • Industrialisation des projets Data Science : quelles contraintes ? quelles solutions ?

    16h00 - 16h30

    1 - Organisation Nous sommes à l'aube d’un monde augmenté par la Data Science et le Machine Learning. L’enjeu majeur pour les entreprises est de créer de la valeur à l’aide des data, des nouvelles technologies et la rendre accessible à un plus grand nombre au sein de l’entreprise. Or déployer un projet de Data Science nécessite d’identifier et de mettre en place une organisation efficace pour la mettre en oeuvre.

    2 - Gouvernance Un projet Data Science doit-il forcément passé par l’étape du POC ? Les organisations veulent aller vite, à moindre coût, et portent bien souvent le POC en Production : cela ne fonctionne pas. Le Proof Of Concept a été un pilier de l'innovation au cours des dernières années (les POC étant censés fournir rapidement les résultats d’initiatives innovantes). Ils étaient considérés comme un moyen de valoriser l’approche Machine Learning au sein des entreprises. Cependant, les POC appliqués aux projets Data Science n’apportent pas les succès espérés (très peu de projets de Data Science sont industrialisés lors de leur passage en Production).

    3 - Technique Les projets Data Science impliquent une grande complexité d’implémentation : - Interdépendances des librairies vs frameworks vs drivers vs composants - Disponibilité des librairies/frameworks dans leurs différentes versions sur les différents environnements - Design des pipelines d’automatisation des déploiements DEV2PROD, vs adossement à des services managés/API existantes - Industrialisation des processus (robustesse, flexibilité, scalabilité, monitoring…)

    Conclusion :
    La concrétisation des projets Data Science peut être longue et couteuse. Par conséquent il est très important de considérer l’industrialisation des process dès la genèse des projets.
    IVIDATA peut vous accompagner dans l’intégralité de cette démarche, de la définition de la stratégie au livrable industrialisé !

    Voir en détail
  • Tirer bénéfice de la donnée avec l’IA: ou comment comprendre sa donnée et deployer ses cas d’usage pour apporter la valeur aux métiers!

    16h30 - 17h00
    Voir en détail

Salle Atelier C

  • AACC

    09h00 - 09h30
    Voir en détail
  • If you can’t measure it, you can’t protect it: the importance of quantifying privacy risk

    09h30 - 10h00

    Privacy-enhancing technologies (PETs) have emerged in recent years to enable companies to perform analysis on their data without falling foul of increasingly strict data protection regulations. However, it is very rare to see examples where the privacy risk is measured before and after application of PETs to demonstrate whether privacy risk has been reduced and enable data controllers to make more effective decisions. We will describe how failing to objectively measure the privacy risk that exists or remains in a dataset may leave companies exposed to regulator scrutiny, fines and sanctions.

    Speaker : Dr. Maurice Coyle, Chief Data Scientist, Trūata

    Voir en détail
  • DataOps : accélérez et fiabilisez le déploiement de vos projets Data en adoptant les bonnes pratiques et outils

    10h00 - 10h30

    « Data is the new oil » dit-on depuis un moment. Dans cette image, la nappe de pétrole serait matérialisée par votre datalake, porteur d'un capital d'information brute - structurée ou non - et de grande volumétrie. Les derricks permettant de puiser dans cette nappe seraient alors représentés par des outils tels qu'Hive ou Impala, permettant effectivement de requêter la donnée. Mais ces technologies ne sont pas nouvelles. Aussi, je vous propose plutôt de discuter de la raffinerie, cet ensemble de processus et de technologies permettant d'industrialiser la valorisation de votre capital d'information. Nous discuterons ainsi d'organisation, avec le concept de datalab, nous parlerons d'automatisation, avec l'application des principes du continuous delivery au monde de la data, ou encore de métrologie et d'amélioration continue. Le but ? Industrialiser vos projets et accélérer leur mise en production au travers du DataOps.

    • Adrien Blind DataOps Evangelist SAAGIE
    Voir en détail
  • Réalité augmentée, wide & big data, IoT. La donnée au cœur de l'innovation industrielle

    10h30 - 11h00

    L’intelligence artificielle et l’analytique avancée permettent de valoriser vos données, notamment celles issues de capteurs en temps réel, en optimisant des processus complexes (digital twins), en identifiant des anomalies, en détectant des dérives ou en anticipant des pannes (maintenance prédictive). À partir de cas d’usage dans l’industrie des semi-conducteurs, vous explorerez comment les technologies TIBCO, couplées aux outils open source et aux approches innovantes d’analyse en streaming et de bases de données en mémoire, permettent de tirer pleinement parti de l’internet des objets (IoT), depuis la collecte temps réel des données jusqu’à l’industrialisation des modèles prédictifs, dans un secteur fortement concurrentiel et à forte valeur ajoutée.

    • Thomas Feron Senior solutions consultants TIBCO
    • Olivier Lebret Senior solutions consultants TIBCO
    Voir en détail
  • Libérez la puissance de l'analytique avec la confidentialité des données

    11h00 - 11h30

    La plateforme « Privitar Data Privacy » protège les données personnelles sensibles des clients et permet ainsi aux entreprises d’extraire le maximum de valeur des données qu’elles collectent et transforment.

    Speaker : Sebastien Cognet, Senior Privacy Engineer, Privitar

    Voir en détail
  • Comment tirer parti du cloud public pour vos applications critiques sur plateforme Cloudera

    11h30 - 12h00

    Vous avez des workloads sur vos plateformes Cloudera On Premise et vous faites face à des pics d'utilisation dépassant vos capacités installées ? Ou vous souhaitez ajouter temporairement de nouveaux clusters, ou applications pour évaluation ? Tester de nouveaux algorithmes de Machine Learning sur vos données ?
    Grâce à CDP (Cloudera Data Platform) et son architecture optimisée pour le Cloud et les services intégrés comme Workload Manager, vous déterminez facilement les applications pouvant être migrées dans le cloud public – temporairement ou pas.
    Vous copiez ou déplacez vos données, mais aussi vos meta-données ainsi que la sécurité en place dans votre environnement cloud public et bénéficiez de l'élasticité du Cloud – puissance de calcul et stockage.
    Vous verrez comment étendre facilement vos infrastructures Cloudera On Premise/DataCenter dans le cloud public, gérer et administrer tous vos environnements hybrides grâce à CDP et contrôler les coûts du cloud.

    • Patrick Cousin Ingénieur Solutions Cloudera
    Voir en détail
  • MariaDB Platform X4 : Un SGBD ACID / Colonne offrant des transactions intelligentes et le stockage objet type S3, disponible dans le cloud (SkySQL) et on-premise

    12h00 - 12h30

    MariaDB Platform X4 est la première base de données conçue pour des applications modernes exécutées dans le cloud. L'analytique en temps réel optimisées pour un stockage dans le cloud et une infrastructure évolutive permettent aux développeurs d'apporter de la valeur aux transactions.

    Grâce à la mise en place des transactions intelligentes et du stockage natif dans le cloud, ils peuvent en particulier tirer parti d'analyses en temps réel, qui s’appuient sur un stockage des objets évolutif et peu coûteux (par exemple, Amazon S3, Google Cloud Storage).

    Lors de cette présentation, Sebastien Giraud, précédemment DevOps pour un grand hébergeur français et désormais Ingénieur Solution pour MariaDB va explorer avec vous l'immense océan de possibilités offert par MariaDB Platform X4 et la plateforme managée disponible dans notre cloud SkySQL.

    Nous verrons ensemble

                    • les nouveautés de MariaDB Platform X4 ;

                    • comment les transactions intelligentes sont utilisées pour créer des applications modernes ;

                    • comment mettre à profit le stockage natif dans le cloud;

                    • comment déployer X4 en tant que DBaaS multi-cloud.

    Speaker : Sebastien Giraud, Sales Engineer / PS Consultant

    Voir en détail
  • Jupyter on Kubernetes : retour d'expérience de Generali sur une plateforme de production Big Data / ML

    12h30 - 13h00
    Voir en détail
  • Améliorer la « culture digitale » des collaborateurs grâce aux outils de BI augmentée

    13h00 - 13h30

    La Data Literacy, qui peut être traduite en culture digitale, ou alphabétisation digitale, consiste à avoir la capacité à lire, analyser, travailler, et argumenter avec de la donnée.

    Aujourd’hui c’est une compétence nécessaire dans presque tous les métiers des entreprises : savoir interagir avec de la donnée, comme l’on apprend depuis notre plus jeune âge à interagir avec notre environnement, pour prendre des décisions éclairées.

    Ce qui change drastiquement depuis quelques années, c’est que les ordinateurs font un pas vers l’humain, en acquérant des compétences linguistiques et un raisonnement logique calqué sur celui du cerveau humain.

    Ces capacités, exploitées par SAP Analytics Cloud permettent d’interagir avec la donnée Big Data, non seulement en posant des questions de manière naturelle, mais aussi en utilisant la puissance des algorithmes pour analyser automatiquement les données et en ressortir des informations estimées pertinentes pour les besoins métiers des utilisateurs.

    Et s’il est nécessaire de former chacune et chacun à la culture digitale, le fossé est en train de se réduire parce que les outils de BI adoptent des comportements de plus en plus proches de ceux du cerveau humain.

    Une démonstration de SAP Analytics Cloud mettra en avant comment à l’instar de grands organisations, l’outil facilite les décisions éclairées par votre culture digitale, et par les Analytics augmentés restitués par l’outil : BI augmentée, Planning augmenté et prédictif, sur des gros volumes de données.

     

    Speaker :

    Florian Hamon – SAP Center of Excellence Analytics

    Voir en détail
  • Maîtriser la complexité des chaînes de traitement pour satisfaire des exigences métier croissantes

    13h30 - 14h00

    Dans un environnement business et règlementaire de plus en plus contraignant, complexe et exigeant, votre S.I. doit produire des résultats fiables, corrects, dans les délais attendus. Garantir la qualité des données produites est une exigence incontournable, mais avec des processus métier qui intègrent à la fois des traitements automatisés, de très gros volumes de données et des interventions humaines de vérification/contrôle, remédiation, et certification, respecter son contrat de service devient de plus en plus difficile et coûteux.

    Nous montrerons comment intégrer tous les acteurs, contributeurs et parties prenantes de vos processus, qu’ils soient humains ou informatiques, dans un modèle unifié qui donne à chacun la vision et les outils dont il a besoin pour mener à bien sa mission, qu’il s’agisse de produire un résultat de calcul, effectuer des vérifications manuelles, réagir au plus tôt à des incidents opérationnels, ou simplement contrôler l’avancement général de la chaîne.

    Intervenant: Joao Moreira – Product Manager Finance

    Voir en détail
  • Data Science Factory

    14h00 - 14h30

    Data Science Factory : comment passer à l'échelle industrielle ?
    Les projets de data science et d'IA sont nombreux et tous les secteurs investissent lourdement dans ce domaine.
    Cependant, peu d'entreprises ont réussi à passer à l'échelle industrielle et réaliser un vrai retour sur leur investissement.  
    IBM propose de partager ses retours d'expérience au travers notamment du cas de la Data Science Factory dans une entreprise du secteur de l'Assurance.
     
    Intervenant:  Robert Worsley, Data Science Leader, Cognitive Business Decision Support, IBM France

                        Jan Eilhard, Consultant, IBM Services

    Voir en détail
  • Concilier données site-centric et ad-centric malgré la jungle media. 5 leçons tirées de 8 000 dashboards

    14h30 - 15h00

    Alors que le digital nous offre la promesse de pouvoir tout mesurer en quasi temps-réel, nombreux sont ceux qui naviguent encore à vue face à leurs budgets média. Si la jungle media est dense en leviers, agences et indicateurs, comment s'armer des bons chiffres pour piloter vos investissements ?


    Cet atelier sera l'occasion de s'interroger sur :

    • Comment piloter mes investissements medias ?
    • Comment concilier les données de tous mes leviers avec mes données web analytics ?
    • Comment m'assurer que mes partenaires me fournissent mes données ?
    • L'automatisation mon processus data>insights est-elle vraiment possible ?
    Voir en détail
  • Data Assistant : l’IA au service de la démocratisation de la data

    15h00 - 15h30

    On assiste depuis deux ans à la naissance d’une nouvelle ère sur le marché de la business intelligence. Les outils de BI ‘traditionnels’ et de data discovery laissent peu à peu place aux nouvelles technologies de data assistance, dotées d’une IA. Cette nouvelle ère, baptisée "Augmented Analytics" par Gartner, révolutionne peu à peu les usages et permet d’aller plus loin dans la démocratisation de la donnée en entreprise.

    Découvrez askR.ai, le data assistant doté d’une IA, qui permet à tout utilisateur, sans compétences techniques, d’avoir accès à la bonne donnée en moins de 2 secondes. It’s time to chat with your data!

    Intervenant : Matthieu Chabeaud - Co-founder & CEO

     

    Voir en détail
  • Serverless Datalake : Une approche hybride et multi-cloud sécurisée, économique et performante

    15h30 - 16h00

    Le Cloud fait partie intégrante de l'écosystème des directions informatiques. Les bénéfices multiples tels que : La réduction du time-to-market, des coûts de maintenance et d’exploitation significativement réduits ainsi qu’une haute disponibilité régionale et globale des infrastructures font aujourd'hui le consensus dans l’exploitation des solutions Cloud.

    Des risques demeurent. La capacité à interconnecter les systèmes On Premise et Cloud (cloud hybride) et les Cloud entre eux (multi-cloud) ainsi que la mise en oeuvre de solutions sécurisées conforme aux normes et exigences légales les plus restrictives restent un challenge pour nombre de services informatiques.

    Dans cet atelier nous présentons notre approche dans la mise en oeuvre de “Serverless Datalake” tirant parti de l'élasticité des ressources du Cloud et prenant en compte les contraintes de sécurité les plus exigeantes avec des réductions de coûts significatifs au travers d'une démarche FinOps adaptée.

    Intervenant : Hayssam Saleh – CTO - Ebiznext

     

    • Hayssam Saleh CTO ebiznext
    Voir en détail
  • Découvrez l’intérêt de fusionner systèmes de Data Warehousing et d’Analyse Big Data en une seule solution

    16h00 - 16h30

    Speaker : Sihame AARAB, Product Marketing Manager for Microsoft Azure

    Voir en détail
  • Une plateforme data inédite pour optimiser ses campagnes offlines et digitales

    16h30 - 17h00

    Lincoln et CSA (entité data du groupe Havas) vous présentent leur plateforme data-driven pour améliorer la performance des leviers marketing. Cette solution innovante permet de piloter l'efficacité des campagnes sur l'ensemble du purchase funnel, en réconciliant les parcours offline et digitaux.

    Cette plateforme vous aidera à ajuster vos plans media marketing en continu, tout au long de l'année, notamment grâce à ses algorithmes de marketing prédictif qui prévoient l'impact attendu de vos futures campagnes. 

    Voir en détail

Salle Atelier D

  • A Modern Data Platform for Fintech

    09h30 - 10h00

    Lors de cet atelier, nous reviendrons sur les problématiques de notre client qui souhaitait mettre en place une data platform pour optimiser les coûts marketing, comprendre mieux leurs clients, et développer un système anti fraude

    Nous aurons l'occasion de présenter les différentes étapes : 

    - Data ingest  avec Fivetran

    - Data Lake avec Snowflake

    - ELT + Data Viz avec Looker

    Voir en détail
  • Big Data Gouvernance: Pourquoi la gouvernance de données est critique en environnement Big Data

    10h00 - 10h30

    Les capacités de traitement massif de données à des fins d’analyses avancées et de déclenchement d'(inter)actions plus intelligentes sont essentielles aux résultats de l'entreprise. 

     

    Alors que les architectures supportant ces données ont évolué, les trois-quarts des entreprises signalent toujours que l'adoption par les métiers reste un défi majeur. Croissance exponentielle des données, règles de confidentialité, mauvaise qualité, manque d’accès et de compréhension... Tous ces facteurs nécessitent de mettre en place une gouvernance intelligente des données autour du Data Lake.

     

    - Les données présentes sur votre Data Lake sont souvent brutes et avec des niveaux de qualité diverses ? Pas de Machine Learning sans une bonne qualité des données!

    - Votre Data Lake consolide aujourd’hui de nombreuses sources de données ? Une cartographie manuelle n'est ni souhaitable ni possible!

     

    Au travers de nombreux cas d'usage et références, venez découvrir comment la plateforme Informatica aide nos clients et leurs différents acteurs (Data Scientists, Data Stewards, Data Analysts, etc.) à maîtriser cet asset capital qu'est l'information pour tirer le meilleur profit de leurs initiatives Big Data.

     

    Bienvenue dans l'ère de la Big Data Gouvernance!

    Voir en détail
  • Collaborer efficacement autour des données avec les métiers pour préparer le futur de la Data Intelligence

    10h30 - 11h00

    Pour bénéficier pleinement du potentiel des données, les responsables doivent placer les données au centre de l’entreprise. Cela requiert une forte culture data, centrée sur la connaissance des données à tous les niveaux de l’organisation. Venez échanger avec Stijn Christiaens, CTO et co-fondateur de Collibra, ainsi que des spécialistes produits qui présenteront la transformation des pratiques de gestion et d’utilisation des données dans l’entreprise pour créer une véritable valeur ajoutée. En résultent des données qui, par leur fiabilité, deviennent un véritable actif d’entreprise et sont facilement exploitables de manière transverse par les différents métiers de l’entreprise.

    Présentateurs : Aurélien GOUJET, Filipe DE AZEVEDO, Nizar BEN KHALIFA, Stijn CHRISTIAENS

     

    Voir en détail
  • Data Science : comment industrialiser pour exploiter le plein potentiel de ses données ?

    11h00 - 11h30

    Malgré les promesses de la Data Science et les énormes investissements dans ce domaine, de nombreuses entreprises n’arrivent toujours pas à exploiter le plein potentiel de leurs données ! Découvrez dans cet atelier, comment Oracle répond à cette question en proposant une version hybride du Data Management optimisé pour traiter tous types de données et pour valoriser les informations à destination des métiers. Grâce à sa plateforme Data Science de toute dernière génération, Oracle accompagne vos Data Scientists dans l’industrialisation de leurs projets, de l’analyse jusqu’à l’exploitation des modèles prédictifs, de manière innovante, collaborative et extensible !

    Speaker : Eric Vessier (Principal Sales Consultant, Oracle) et Eric Fleury (Cloud Platform Architect, Oracle)

     

    Voir en détail
  • Localisez et Identifiez les données personnelles et confidentielles

    11h30 - 12h00

    Découvrez comment la plateforme de Cognitive Search Sinequa a permit à ses clients d'optimiser leur conformité RGPD & Compliance. Sinequa utilise du Machine Learning et du NLP afin de traiter, d'analyser et de classifier des données structurées et non structurées.

    Speaker: Adrien Gabeur, Cognitive Solutions Director 

    Voir en détail
  • Une plateforme unique pour le Big Data et la Data Science, du développement à la mise en production.

    12h00 - 12h30

    Il est difficile de trouver un consensus quand on tente de définir précisément ce que l'on entend par Big Data ou Data Science.

    Mais dans la plupart des cas, on associe certaines technologies à l'un ou l'autre (ou les deux).

    Par exemple, lorsque l'on collecte et stocke un volume important de données via des logiciels tels que Apache Nifi, Kafka et HDFS, on parle plutôt de Big Data.

    Mais lorsque l'on crée des modèles via des logiciels tels que Jupyterlab et Spark, on parle plutôt de Data Science.

    De plus, il devient de plus en plus commun d'appliquer les principes du DevOps au Big Data et à la Data Science, on parle alors de DataOps.

    Et cela induit l'utilisation de logiciels tels que Gitlab, Jenkins et Kubernetes.

    Durant ce talk, nous couvrirons les différentes solutions disponibles pour couvrir ces besoins.

    Pour finir, nous démontrerons comment une même et unique plateforme peut tous les couvrir, que ce soit on premise ou dans le cloud.

     

    Speaker : Denis Jannot, Distinguished Sales Engineer

    Voir en détail
  • Cas d'usage et besoin d'hybridation dans l'industrie 4.0

    12h30 - 13h00

    Découvrez les besoins de l’industrie 4.0 : hybridation, streaming, edge computing, machine learning et bénéficiez du partenariat IBM-Cloudera pour vous accompagner

    Speakers :

    - François Perruchon : Cloudera, Account Executive

    - Jacques Marchand : Cloudera, Sales Engineer

    - Christophe Burgeaux : IBM Data Architect and Data Scientist

    Voir en détail
  • De la BI dopée à l'IA

    13h00 - 13h30

    Découvrir les informations cachées dans les données avec l'aide de l'IA.
    L’IA est désormais un différenciateur essentiel entre les entreprises car elle vous permet de :

    -        d’explorer les données
    -        de tirer profit du Machine Learning
    -        de préparer les données pour leur analyse
    -        de gagner en productivité
    Dans cette course mondiale de l’économie de la data, participez à ce workshop pour tirer le meilleur parti de l’intelligence augmentée dans la BI
    Intervenants: Frédéric Mercier, BI Segment Leader et Eric Sagot, Technical Sales, Business Intelligence, IBM France.

     

    Voir en détail
  • Applications data en production: pourquoi le groupe coréen SK a choisi une approche plateforme pour piloter la performance de ses chantiers dans le monde.

    13h30 - 14h00
    Voir en détail
  • SQL or NoSQL? Get the Best of Both Worlds with Couchbase!

    14h00 - 14h30

    Couchbase is the only SQL-compatible NoSQL database that spans from the Cloud to the edge.

    No matter if you're on-premises, in the cloud, in containerized microservices or on a mobile device, Couchbase is the best of breed, enterprise-class NoSQL platform that every industry relies on for their critical applications.

    In this session, we will see how easy it is with Couchbase to build fast, scalable and highly available applications that leverage the power and the familiarity of SQL combined with advanced Full-text Search, Eventing and Analytics capabilities.

    And how easy it is to transition from the relational world to NoSQL!

    Speaker : Stéphane Lang – Senior Solutions Engineeer - COUCHBASE

     

    Voir en détail
  • Maîtrise et gouvernance des données personnes dans un environnement applicatif complexe et mouvant

    14h30 - 15h00

    Dans le cadre de sa transformation digitale, AG2R LA MONDIALE, leader français de la protection sociale et patrimoniale, met en place une architecture innovante d'urbanisation de son système d'information pour mieux servir ses clients et ses services métier. M. Deraet dirige cet effort autour des données Personnes et partage son expérience dans cet atelier au travers de plusieurs aspects :
    • Construction d’une vision unique et partagée des personnes dans un environnement applicatif complexe en silos et en constante évolution,
    • Architecture d'intégration d'un Data Hub opérationnel avec les applications métier et le data lake.
    • Bénéfices de l'approche Data Hub : amélioration de la relation client, meilleure gestion des risques réglementaires (RGPD), optimisation des coûts opérationnels, fluidification et transparence de l'information.

    Speaker: Frédéric Deraet, Responsable de Service Etudes Informatiques chez AG2R LA MONDIALE

    Voir en détail
  • Les sept péchés capitaux du Big Data – Le Retour

    15h00 - 15h30
    Voir en détail
  • Adopter PostgreSQL dans les entreprises

    15h30 - 16h00

    Aujourd’hui, de nombreux DSI décident d’adopter des technologies de base de données Open Source pour des raisons de coûts, de performance et de flexibilité.

    PostgreSQL est l’une des technologies leaders pour ce type de projet grâce à une fiabilité et une intégrité des données qui sont reconnues.

    La société EDB Postgres (www.enterrpisedb.com) permet l'utilisation de cette technologie dans le monde de l'entreprise en y ajoutant des fonctionnalités plus avancées pour faciliter notamment les déploiements, la supervision, gérer la haute disponibilité, l’automatisations des sauvegardes et les migrations et son usage dans des multi-environnements de production (sur site, Cloud, hybride...).

    Nous vous présenterons comment:

    • Superviser et gérer vos bases PosgreSQL au travers d'une console centralisée
    • Assurer la Haute Disponibilité de vos applications sensibles
    • Sécuriser vos données par l'anonymisation
    • Répliquer vos bases de données (single-Master & Multi-Master)
    • Déployer vos bases de données avec l'Opérateur Kubernetes EDB
    Voir en détail
  • Comment gérer et valoriser les données distribuées à l’échelle de l’entreprise en temps réel dans un environnement hybride.

    16h00 - 16h30

    L’hybride est devenu la norme. Les données sont produites partout, à tout instant, au sein des infrastructures Cloud, dans les centres de données et en périphérie (Edge) avec les solutions d’IoT.

    Dans cette session, Atos et Cloudera aborderont les défis engendrés par cette explosion de données distribuées : gouvernance, sécurité, silos, gravité des données, processus de valorisation et gestion opérationnelle.

    Speaker : Gauvain Girault

    Voir en détail
  • 5 Ways to Slash your Data Platform Costs

    16h30 - 17h00

    Make your data platform faster, better & cheaper with Unravel by joining Chris Santiago, Solution Engineering Manager to learn how to reduce the time troubleshooting and the costs involved in operating your data platform. During this session we will demonstrate how Unravel complements and extends your existing data platform to:

    Instantly understand why technologies such as Spark applications, Kafka jobs, and Impala underperform or even fail!
    Define and meet enterprise service levels through proactive reporting and alerting.
    Reduce the overall cost of Cloudera/Hadoop/Spark/Databricks/EMR through better cluster utilisation resulting to an immediate reduction in MTTI and MTTR

    Speaker  : Chris Santiago, Solution Engineering Manager

    Voir en détail

Salle Atelier E

  • Pas de panique, les consommateurs toujours prêts à partager leurs données.

    09h00 - 09h30

    Les consommateurs toujours prêts à partager leurs données ? Les résultats issus de l'étude de la European Interactive Digital Advertising Alliance (EDAA) l’affirment !

    Présentée pour la première fois lors de l'événement de la FEDMA "Keep Calm & Foster Trust" au Parlement européen à Bruxelles, cette enquête de l'EDAA, analysée par le Sncd, établit le lien entre la compréhension du RGPD des internautes européens et la confiance qu'ils accordent dans l'utilisation ou le partage de leurs données. 

    Intervenants : Nathalie Phan Place, Secrétaire Général du Sncd et Didier Farge, Président du Comité stratégique du Sncd et Président de Conexance by Wunderman Thompson Data

    Voir en détail
  • Comment traiter et sécuriser toutes vos données avec Talend et AWS ?

    09h30 - 10h00

    Si le traitement et la sécurité de vos données représentent des enjeux majeurs pour votre organisation, alors cet atelier est fait pour vous.

    Au travers d'une démo, nos experts présenteront :

    - Copie des données opendata OpenAQ (Air Quality) dans le datalake, stockage dans Amazon S3

    - Alimentation du data warehouse Amazon Redshift via Talend Cloud Manager 

    - Agrégation des données dans Amazon Redshift (ELT), espace "Smart Data"

    - Création de dashboards analytics via Amazon Quicksight.

    A l'aide de cet atelier, vous découvrirez comment s'y prendre et surtout, pourquoi, à l'aide des outils Talend et Amazon Web Services  

    Voir en détail
  • Libérer sa donnée pour réussir sa transformation digitale

    10h00 - 10h30

    Depuis plus de 10 ans, les entreprises sont poussées vers la promesse de la transformation digitale. En réalité, le mot 'Digital' est un code pour modernisation. Alors que les attentes sont claires - adresser un nouveau marché, améliorer l'expérience client et proposer des services innovant, le tout en réduisant les coûts - seulement une minorité d'entreprises a réussi ce virage et en a tiré les bénéfices. Un des principaux problèmes est la donnée, trop souvent silotée et mal exploitée. MongoDB vous propose de faire un tour d'horizon des entreprises ayant réussi cette transformation et comment MongoDB a été un acteur majeur de cette transformation.

    Voir en détail
  • Introduction à la HPE Container Platform : optimisez le déploiement des workloads modernes et orientées données !

    10h30 - 11h00

    Le but de cette session est de montrer comment HPE Container Platform (HPE CP) peut aider les Data Engineers, les Data Scientists, les Data Analysts ...pour provisionner des applications cloud natives ou tradtionnels en mode libre-service sur une plate-forme multi-cluster et multi-locataire. Grâce à des clusters gérés mutualisés (K8, EPIC ...) et des catalogues d'applications personnalisés, les utilisateurs peuvent activer des applications, des données et des ressources performantes comme GPU ... à la demande en ce qui concerne le contrôle des règles de sécurité via les locataires et le contrôle d'accès sécurisé.

    Speaker : Jérome Armand, HPE Solution Architect

    Voir en détail
  • From Surfing to Diving : nouvelle approche pour l’analyse des articles de recherche avec le Big Data et l'IA.

    11h00 - 11h30

    Entre 2007 et 2017 le volume des publications scientifiques mondiale mis en ligne a augmenté de 60 %. Chaque année les équipes de recherche publient plus 1 million de publications scientifiques. Ces publications et les métadonnées associées représentent des milliards d’informations non structurées. Dans ce contexte il est nécessaire d’apporter une visibilité et une structure cohérente à ces données de masses. Cela, afin de rendre facilement accessible et lisible par les chercheurs et ingénieurs l’ensemble des informations qui sont liées à un contexte de recherche. Ces réseaux de données scientifiques contextualisés et interfacés sous la forme de graphes de connaissances aident à acquérir des ressources stratégiques pour la R&D.

    Intervenant :

    Mathieu Lemaitre, 

     

    Voir en détail
  • Migrer d’Hadoop vers le Cloud : Comment Simplement Moderniser les Applications Analytiques ?

    11h30 - 12h00

    Les entreprises comptent sur leurs plates-formes de données et d’analyse, qui constituent le fondement de leur stratégie d’innovation et de transformation numérique.
    Cependant, de nombreux utilisateurs on-premise d’Hadoop rencontrent des difficultés en raison de la complexité de son système, de son infrastructure difficilement scalable et de la charge DevOps.
    • Pourquoi les entreprises optent pour les plates-formes modernes basées sur le cloud et déployables en quelques clics telles que qu’Indexima ?
    • Comment permettre à des utilisateurs, sans compétence infra, de mettre en œuvre, en un clic, l’analytique en instantané dans le cloud sur l’ensemble des données ?
    • Live démo : instantation d’Indexima sur AWS & construction d’une data app en quelques clics sur 20 milliards de lignes
     

    • Florent Voignier CTO INDEXIMA
    • Nicolas Korchia COO INDEXIMA
    Voir en détail
  • Comment maintenir à flot ses projets Data dans un écosystème technologique en constante mutation ?

    12h00 - 12h30

    Dans un écosystème technologique en mutation permanente, les défis de Time-to-Market des projets exploitant de la donnée sont de plus en plus nombreux. Alors comment garder le cap en terme de compétences, de technologies et de coûts liés à la donnée ? Comment recentrer la technologie sur les cas d'usage tout en la maîtrisant ?

    Les experts de Thales vous proposent de répondre à ces questions avec un retour d'expérience sur les sujets d'accès, de transport, d'enrichissement et d'exploitation de la donnée avec des cas d'usage d'intelligence artificielle issus de ses lignes de produits : mise en production, maintenance et interprétabilité.

    Intervenants :

    • Dimitri Tombroff: Architect & Data Engineer, créateur de la PunchPlatform
    • Damien Fontanes : Data Scientist, Puncher

     

    Voir en détail
  • Document intelligence solutions : traitement des mails et recherche d’information

    12h30 - 13h00

    Le NLP (ou TAL en français) est un élément important dans le développement de l’IA. L’approche du NLP a ainsi pu créer des liens importants entre l’être humain et l’ordinateur. reciTAL utilise aujourd’hui ces techniques de deux manières chez ses clients banque et assureur : une solution destinée au traitement automatique de mails et qui effectue une multitude de tâches (Quieto), et une solution qui interroge les documents et les données internes pour les transformer en une base de connaissance (Genius). Dans les deux cas, c’est un vrai gain de temps pour l’entité et ses collaborateurs, puisque sont éliminées de leur planning les tâches les plus rébarbatives. Cet atelier permettra de présenter des cas d’usages concrets et de faire le point sur le potentiel  de cette technologie.

    Voir en détail
  • Elastic SIEM & Endpoint Security: Protection 360° du SI

    13h00 - 13h30
    Voir en détail
  • Build your future with DATA

    13h30 - 14h00

    Dans un monde qui s’accélère, dans lequel de nouveaux entrants - pure players digitaux - peuvent rapidement atteindre les sommets et à l’inverse, où les leaders d’hier ont beaucoup de mal à maintenir leur rang, la donnée devient une ressource vitale - le succès d’initiatives stratégiques et technologiques étant dépendantes de sa disponibilité et de sa qualité.

    Tout comme le souligne Forrester, la mise en valeur des données a été ralentie par de nombreux challenges tels que les silos de données, les outils peu adaptés, le manque de compétences, les équipes désorganisées face aux flux de données croissants ainsi que le Shadow IT. 

    Lors de ce workshop, nous discuterons des tendances et des meilleures pratiques pour mieux capitaliser sur les données disséminées au sein de l'entreprise afin de construire le futur de votre organisation.

    Il sera question notamment de garantir le succès de projets innovants impliquant l'IA, l’IOT, les analyses prédictives, la blockchain, l’embedded analytics...

    mais aussi de partager les informations obtenues pour améliorer la performance de l’entreprise, réduire les coûts et augmenter l’expérience client en monétisant les données.

    Speaker : Eric Frances, Directeur Commercial

     

    Voir en détail
  • En IA, devenez tout, sauf Data scientist !

    14h00 - 14h30

    Il y a 5 ans, datascientist était appelé à devenir le métiers le plus sexy du 21ième siècle. Après 5 ans de POCs qui ne passent pas en production, de datalab qui ferment, de datascientists qui ne restent pas en poste et des millions de dépenses en IA avec un ROI uniquement sur le papier, il est temps de tirer un bilan sur les compétences attendues pour créer de la valeur avec de l’IA, et la datascience des années 2010 n’en fait pas partie. Explications et nouveaux métiers

    Voir en détail
  • Retours d’expériences de Carrefour & Infolégale sur l’utilisation de DataRobot : un accélérateur de projet en IA

    14h30 - 15h00

    Découvrez le retour d’expérience de Carrefour et Infolegale sur l’accélération de leurs projets IA avec DataRobot.

    Ils répondront aux problématiques suivantes :

    1. Comment optimiser la prédiction des risques de solvabilité, simplifier les démarches de compliance grâce à la Data Science ? 
    2. Comment accélérer et sécuriser ses décisions d'implantation de nouveaux points de vente en s'appuyant sur le Machine Learning.

    Notre atelier aura pour objectif de présenter les problématiques adressées autour de la data science : les processus, les méthodes ainsi que les mises en place de solutions.

    Nous verrons l’importance d’une solution comme DataRobot dans les projets de nos clients comme accélérateur de projet IA.

    Voir en détail
  • Données client : passer du pilotage à l'action. Retour d'expérience d'un programme d'activation client.

    15h00 - 15h30

    Jean-Christophe et Jean-David vous présenteront les opportunités et perspectives qu'offrent actuellement les données clients.
    Ils illustreront cette mise en perspective de façon concrète à travers le retour d'expérience d'un client ayant mis en place un programme d'activation client.

    Intervenants
    Jean-David Benassouli
    Associé responsable de l’activité Data Intelligence, PwC France

    Jean-Christophe Bertrand
    Associé Stratégie et Transformation clients, PwC France

    Voir en détail
  • Colas x Axionable : constituer son patrimoine de données, pré-requis à une stratégie data/IA ambitieuse

    15h30 - 16h00
    Voir en détail
  • Connected office : La Data science au service des employés

    16h00 - 16h30

    Comment mieux gérer et anticiper les besoins en énergie liés à la consommation du chauffage et de la climatisation grâce à la data ?

    Comment capter des informations liées à l’environnement de travail, les stocker, les analyser et les transformer en leviers afin d’optimiser les conditions de cet environnement ?

    Découvrez un exemple de solution d'architecture sur-mesure pour réduire votre bilan carbone et évaluer la qualité de l’environnement au travail grâce aux objets connectés.

    Analyser les données pour définir des actions dans l'objectif de suivre, d’informer et d’anticiper l’évolution de ces facteurs grâce à la data science, en faveur d'une consommation d'énergie raisonnée et d'un environnement de travail sein selon plusieurs dimensions complémentaires : température, humidité, niveau sonore, qualité de l'air.

    Speaker : Jonathan Petit, Data Science Manager

    Voir en détail
  • Comment la data et l’IA ont transformé la publicité digitale ?

    16h30 - 17h00

    Voici quelques-uns des thèmes qui seront abordés :

    Data et ciblage : d’une approche segmentée à une approche globale pour nourrir les algorithmes
    Intelligence artificielle : l’exemple Facebook et son impact sur les performances publicitaires
    Machine learning : retour d’expérience des “Dynamic Creative” de Google
    Data : plongée au coeur de l'écosystème (réseaux sociaux, apps, sites internet…)
    Matching d’audience : comment ça marche ?

    Intervenant : Claudez Aurélien , Responsable Réseaux Sociaux et Branding à la performance

     

    Voir en détail

Mots clés associés

Inscrivez-vous dès à présent pour participer à Big Data Paris 2020