LES MERCREDIS DU BIG DATA

WEBINARS BIG DATA PARIS 2019

Les webinars Big Data Paris sont de retour cette année encore, tous les mercredi après-midi à partir de 15h.

Au programme cette année, 8 webinars dédiés aux solutions et projets qui font l’actualité du Big Data.

23 Janvier 2019
2019-01-23
Webinars
30 Janvier 2019
2019-01-30
Webinars
6 Février 2019
2019-02-06
Webinars
13 Février 2019
2019-02-13
Webinars
20 Février 2019
2019-02-20
Webinars
27 Février 2019
2019-02-27
Webinars
6 Mars 2019
2019-03-06
Webinars
11 Mars 2019
2019-03-11
Parcours REX Marketing & BtoC
Parcours Expert
Conférences Stratégiques
12 Mars 2019
2019-03-12
Parcours REX Métiers & BtoB
Parcours Expert
Conférences Stratégiques
Webinars
Webinars
Webinars
Webinars
Webinars
Webinars
Webinars
Parcours REX Marketing & BtoC
Parcours Expert
Conférences Stratégiques
Parcours REX Métiers & BtoB
Parcours Expert
Conférences Stratégiques
15:00 - 15:30
Les nouvelles architectures data lake dans le cloud hybride
15:00 - 15:30
Le vrai potentiel du big data : nourrir des processus métiers intelligents

Au cours des dernières années, de nombreux formats de données sont venus s’ajouter aux données transactionnelles classiques (texte, image, voix ou encore vidéo), venant de nouvelles sources de données (l’Internet des Objets ou les réseaux sociaux).
Mais que faire ensuite de ces données? Pour mettre en place un véritable cycle vertueux, la collecte massive de données ne suffit pas. La vraie valeur réside dans les usages : comment réinjecter la connaissance issue des données dans les processus métiers, pour en faire un levier d’action au service de l’entreprise et de ses clients ?
Venez découvrir comment les clients SAP améliorent leur productivité, à travers des exemples concrets : pour une maintenance prédictive, les données issues de multiples capteurs connectés sont analysées pour calculer des probabilités de pannes. Pour analyser les déplacements des clients dans un magasin, l’analyse vidéo permet d’optimiser les processus de vente et de marketing.

Frederic Puche
Customer Experience Officer, SAP FRANCE
15:30 - 16:00
Ouvrez de nouvelles perspectives grâce à l’exploration géographique de vos data

Avec le développement des applis mobiles et de l’IoT, le volume des données géolocalisées explose. L’analyse géographique devient un pré-requis pour de nombreux métiers : elles ouvre des perspectives nouvelles et permet de prendre des décisions plus rapidement.
Mais la représentation cartographique de l’information n’apporte de la valeur que si elle est dynamique et permet d’explorer librement les données.

Lors de cet atelier, nous démontrerons l’intérêt de l’analyse géographique à travers plusieurs cas d’usages :

  • Analyse des performances d’un réseau de boutiques
  • Décision d’implantation d’un magasin à travers le calcul des zones de chalandise
  • Optimisation des trajets dans le cadre de la distribution usine / entrepôt.
Xavier Le Pitre
Principal Solution Architect, QLIK
15:00 - 15:30
NODATA, une plateforme alliant connaissance et diffusion de la donnée

La position centrale de la donnée au sein de l’entreprise, la diversité des systèmes de stockage, et les contraintes règlementaires imposent un moyen fiable de construire, maintenir et diffuser les méta-données tout autant que les données elles-mêmes. NODATA permet l’alliance des usages et de la cartographie des données, tout en offrant une mise en œuvre accélérée.

Nicolas Brigitte-Alphonsine
CEO de NODATA
15:00 - 15:29
Construction & et mise en production d’une plateforme analytique agile : Conseils d’experts et retour sur un cas concret
Hoda El Haddad
Mouhamadou Diallo
15:00 - 15:30
L’Art du possible avec MicroStrategy : Augmented Intelligence, Data Management & Data Science
Henri-Francois CHADEISSON
Senior Solutions Architect
15:00 - 15:30
Dataiku
15:00 - 15:30
Google Cloud
12:10
Informatique quantique et Big Data : la prochaine révolution dans l’analyse des données ?

Keynote

 

Intervenant :

Damien ROUX
Customer engineer
GOOGLE CLOUD

14:00
Comment choisir entre cohérence et haute disponibilité en toute connaissance de cause tout en bénéficiant de niveau de service garantis

Keynote d’ouverture

 

Intervenant :
Bernard OURGHANLIAN
CTO
MICROSOFT

14:00
Démarche Data Centric : comment Covéa réunit l’ensemble de la data issue de ses systèmes d’informations au sein d’un datahub et en tire profit

• Centralisation et mise au pivot des données issues des Systèmes Legacy de trois marques du Groupe (MAAF , MMA et GMF) pour faciliter la convergence et la transformation du SI de Covéa
• Comment le datahub permet la mise à disposition de la donnée aux métiers et l’amélioration de la connaissance client : segmentation des clients, mise en lumière des profils à risques…
• Prochaines étapes : de nouveaux usages tant au niveau interne (création d’un nouveau CRM) qu’au niveau externe (détection de fraudes)

 

Intervenant :

Antoine JOUSSE
Responsable des centres de solutions Décisionnel et Big Data
COVEA

14:20
Zalando: fashion in the age of Big Data and Machine Learning

• How do Machine learning and Data Analytics drive a relevant user experience
• How does a multi-cloud Data Infrastructure enable world-class operations at Zalando?
• Optimizing operations: how data driven predictive analytics enable the customer to get what they want when they want

 

Intervenant :
Kshitij KUMAR
VP Data Infrastructure
ZALANDO

14:40
A practical guide to Cloud-based systems at Big Data Scale

Cloud probably doesn’t mean what you think it means. It does not mean just picking a cloud vendor and having all your problems simply disappear. In fact, cloud is one word with several, very different meanings. Dealing with the good and the bad aspects of the many meanings of cloud is complex enough, but when you do it at scale, it can be really hard.

Ted Dunning will describe several use cases where real users with very large amounts of data have been able to take advantage of the advantages of cloud without being forced to swallow the bitter parts. He will describe the way that they ported applications to cloud-style architectures, how applications are managed, how data is managed and how multi cloud and hybrid cloud deployments are positive rather than negative.

 

Intervenant :
Ted DUNNING
Chief Application Architect
MAPR

15:00
IoT Sensor Analytics with Apache Kafka, KSQL and Tensor Flow

This talk shows how to leverage Kafka and KSQL in an IoT sensor analytics scenario for continuous health checks and integration with real time monitoring systems.

 

Intervenant :
Kai WAEHNER
Technology Evangelist
CONFLUENT

16:00
Comment Renault utilise le Big Data pour mesurer combien rapportent réellement ses campagnes marketing dans un contexte B2B2C ?

• Comment mesurer quotidiennement la contribution du marketing digital dans les ventes du Groupe Renault en répondant aux défis suivants : gestion de données complexes et hétérogènes provenant de plus de 25 pays
• Développement d’un algorithme d’attribution permettant d’isoler l’impact réel de chaque campagne marketing
• Retour sur les apprentissages business et sur l’impact de l’outil sur les pratiques digitales du Groupe Renault

 

Intervenants :

Laurent CROCHET
Product Owner
RENAULT

 

Pierre MARCENAC
Data engineer
SICARA

16:00
Retour sur un scénario IoT et Predictive Quality

Intervenant :
Rémi ASTIER
Senior Solutions Architect
SAP

16:20
Finance corporate (CIB) : La data science pour optimiser les activités de back office

• Élaboration et déploiement d’un algorithme de prédiction dans la gestion des dossiers de crédit.
• Mise en œuvre de l’algorithme et déploiement dans un environnement SparkMLlib.
• Mise à disposition au travers d’une solution de data vizualization largement utilisée dans les organisations.

 

Intervenants :

Florian CARINGI
Coordinateur de la plateforme Hadoop de la CIB
NATIXIS

 

Mikael LE BARS
Data scientist
NATIXIS

 

Nicolas KORCHIA
Co Founder
INDEXIMA

16:40
Quelle place pour les outils MDM dans les environnements Big Data aujourd’hui ?

Le développement des plateformes Big Data a provoqué une croissance exponentielle de la volumétrie des données stockées atteignant les limites techniques des outils MDM actuels. Les architectures de données doivent donc être repensées en cohérence afin d’exploiter pleinement la puissance de stockage et de calcul des plateformes Big Data.
Alors comment positionner le traitement des données de référence dans ce nouvel écosystème ? Faut-il l’intégrer directement au coeur du datalake ? Doit-on appréhender de la même façon les différentes typologies de données de référence ?

 

Intervenant :
Pascal DURY
VP Data management
JEMS FACTORY

17:00
Comment la mise en place d’une plateforme user-centric a permis à l’Occitane de mieux comprendre les comportements d’achat de ses clients

• Comment l’Occitane a dépassé les limites de son outil décisionnel traditionnel via la création d’un datahub dans le cloud
• Pilotage omni canal et client first : augmentation du ROI d’acquisition des campagnes CRM, suivi de l’effet ROPO, prédictif et segmentation client

 

Intervenants :
Delphine FOURNIER
Senior CRM manager
L’OCCITANE

 

Gabriel GORGE
BI and Analytics Manager
L’OCCITANE

 

Laurent LETOURMY
CEO
YSANCE

17:00
Panorama des solutions Big Data & Machine Learning à utiliser (et celles à oublier)

Point de vue
Avis critique sur les solutions de big data et d’intelligence artificielle du marché (open source ou propriétaires) avec les nouveaux frameworks à tester absolument, ceux à mettre en prod et ceux à remplacer d’urgence !

 

Intervenant :
Cédric CARBONE
CTO
OGURY

17:20
Comment Eram intègre les données émotionnelles des internautes au cœur de sa stratégie e-commerce

Analyse de millions d’images, émotions couplées avec les données transactionnelles : comment l’IA et les neurosciences permettent à Eram de mieux comprendre les motivations de ses clients et d’optimiser le parcours client sur son site

 

Intervenants :
François FEIJOO
CEO
ERAM

 

Xavier FISCHER
Chief Product officer
DATAKALAB

11:50
How TomTom has evolved from a Navigation Company to a Big Data Company

Keynote

 

Intervenant :
Alain DE TAEYE
Founder of TeleAtlas
Member of the Management Board
TOMTOM

14:00
La place du Edge Computing dans le Big Data

Keynote d’ouverture
Quelle est sa position entre l’IoT et le Cloud Computing ? Quels bénéfices pour le Big Data ?

 

Intervenant :
Damien ROUX
Customer engineer
GOOGLE CLOUD

14:00
Comment Gemalto renforce l’identité en ligne à l’aide du Machine Learning

• Expérience utilisateur : analyse automatique des documents d’identité, vérification de la véracité des informations partagées à distance, et amélioration du niveau de confiance
• Cybersécurité : conformité au régulations Know Your Customer (KYC), anonymisation et sécurité des données de la collecte à l’usage, en passant par les phases d’entraînement

 

Intervenant :
Raphaël De Cormis
VP Innovation Labs
GEMALTO

14:20
Comment tirer parti de la dimension spatiale de vos données ?

Cette intervention vise à décrire l’explosion des données à composante spatiale et leur accessibilité grandissante, à parcourir les pans analytiques de l’analyse spatiale, à démontrer la valeur de l’intégration de la dimension géographique dans l’approche d’analyse de données massives.

 

Intervenant :

David JONGLEZ
Business development Director
ESRI

14:40
Détection d’anomalies sur de la donnée de flux : quand les défis du Big Data rencontrent ceux du Machine Learning

Retour d’expérience
Mise en place une solution de détection d’anomalies par Canal+ sur son parc d’applications de Streaming / VOD (plusieurs centaines de millions d’événements par jour).

 

Intervenant :
Aymeric AUGUSTIN
SVP Data
CANAL+

 

Romaric LANCIEN
Lead consultant
MFG LABS

15:00
Total : Développer la transversalité dans la recherche d’informations en s’appuyant sur une plateforme de cognitive search

• Comment valoriser la donnée textuelle non-structurée pour les différents domaines d’expertise ?
• Comment accompagner les nouveaux usages dans l’accès à l’information, y compris les requêtes en langage naturel ?
• Comment construire un dispositif fonctionnel commun améliorant l’expérience utilisateur des collaborateurs de Total ?

 

Intervenant :
Mathilde FOURQUET
Data Squad Manager
TOTAL

15:00
Le Big Data appliqué au diagnostic du cancer par spectrométrie de masse

Traitement de données extrêmement volumineuses (plusieurs milliards de mesures par image) issues de la spectrométrie de masse, une technique proche de l’imagerie médicale pour améliorer l’analyse d’échantillons biologique et les capacités de diagnostic :
• Format de stockage de données sur HDFS
• Optimisation et parallélisation du traitement sur Spark afin d’exploiter l’ensemble des données
• Modélisation d’un algorithme de diagnostic du cancer

 

Intervenants :
Fabien PAMELARD
IT manager
IMABIOTECH

José CORRAL GALLEGO
Fondateur & CEO
SKAPANE

16:00
La donnée comme actif stratégique de Société Générale au cœur de sa transformation digitale

• Comment assurer une large diffusion de la culture de la donnée en interne, améliorer la qualité des données du Groupe et assurer la conformité à la réglementation notamment GDPR
• Comment Société Générale tire parti des usages du Big Data, du Machine learning ou encore des outils de datavisualisation pour répondre aux problématiques bancaires et mieux servir ses clients

 

Intervenante :
Emmanuelle PAYAN
Chief Data Officer
SOCIETE GENERALE

16:20
Stateful containers: how Kubernetes addresses Big Data challenges

Si les microservices et la containerisation permettent d’apporter de l’efficacité et de l’agilité, leur côté « stateless » les rends inadaptés pour les applications fortement consommatrices de données.
Nous allons voir dans cette présentation comment l’utilisation de containers « stateful » avec Kubernetes associée à une approche « Dataware » permet de mettre en œuvre ces applications sans sacrifier les avantages des architectures microservices (agilité, efficacité, portabilité).

 

Intervenant :
Rémi FOREST
Senior Solutions Architect
MAPR

16:40
Retour sur les méthodes de gouvernance de la SNCF

Pour multiplier les cas d’usage, la gouvernance des données doit être agile et s’intégrer au sein des projets pour apporter un réel bénéfice aux équipes. Par ailleurs, RGPD et les autres réglementations auxquelles la SNCF est soumise, imposent une définition claire des règles d’accès aux jeux de données (DataSet)
• Comment la SNCF tire de la valeur des données grâce à une gouvernance agile ?
• Défis et conduite du changement menée auprès des équipes SNCF

 

Intervenant :
Julien IRIS
Head of mission Fab Big Data
SNCF

16:40
Le Big Data au service d’une agriculture durable grâce au programme européen Copernicus

• L’intelligence artificielle et les technologies temps-réel au service de pratiques agricoles durables
• Comment exploiter des données spatiales pour répondre aux enjeux liés à l’irrigation des sols et l’utilisation d’intrants.
• Le cloud public pour exploiter facilement les images issues des satellites et de capteurs terrestres, sans avoir à stocker cette importante volumétrie de données sur ses propres infrastructures.

 

Intervenant :
François Thierart
Co-Fondateur
MyEasyFarm

 

Frédéric CLOUZEAU
Ground Segment development manager
AIRBUS

17:00
STMicroelectronics : Moteur de règles et machine learning pour la détection des failles d’exécution dans une ligne de production industrielle complexe

• Comment ST Microelectronics traite en temps réel des volumes considérables de données industrielles et détecte les situations anormales dans la ligne de production (qu’elles soient d’origine informatique, mécanique ou humaine
• Aide au diagnostic en temps réel sur l’origine des anomalies et sur les actions correctives à engager
• Exploitation de l’expérience accumulée par les opérateurs grâce à l’utilisation d’un moteur de règles

 

Intervenants :
Guillaume LEPELLETIER
Engineer
STMICROELECTRONICS

 

Thomas BAILET
CTO
HURENCE

17:20
Ressources humaines : Comment tirer parti du Big Data pour un meilleur accompagnement et une meilleure gestion des carrières ?

• Comment la SNCF répond à l’enjeu majeur de fidélisation des talents dans un contexte d’ouverture à la concurrence en 2020 ?
• Comment mettre la donnée et l’IA au service du Talent Management dans le but de développer une connaissance accrue des collaborateurs, élargir le champ des possibles en matière de sourcing interne et de mobilité des collaborateurs ?

 

Intervenant :
Marc LAGRIFFOUL
Directeur Talent Management
SNCF

Select date to see events.

Inscrivez-vous dès à présent pour participer à Big Data Paris 2019