inscription

12 & 13 mars 2018

Palais des Congrès • PARIS

inscrivez-vous en ligne pour participer à big data paris 2018

réservez votre badge

BigData Paris est un congrès réalisé par Corp Agency, l’agence événementielle au service du grand public et des professionnels.

éditions précédentes

2013

2012

éditions précédentes

2012

2013

9h30 - 10h

Salle a

 

 

Today's Best Architecture for Fast Data

 

Streaming data systems, so called "Fast Data", promise accelerated access to information, leading to new innovations and competitive advantages. But they aren't just "faster" versions of Big Data. They force architecture changes to meet new demands for reliability and dynamic scalability, more like microservices. This workshop tells you what you need to know to exploit Fast Data successfully.

 

Intervenant : Mr. Trevor Burton-McCreadie - Solutions Architect, Lightbend

Salle b

Comment réussir sa stratégie d'intelligence artificielle ? Une application du content tagging pour l'industrie pharmaceutique.

 

Univadis est une plateforme leader de l'information à destination des professionnels de la santé. L'utilisation des technologies du Big Data et de l'Intelligence Artificielle représente un enjeu stratégique majeur dont le succès dépend de multiples critères : business, compétences, organisation et technique.

 

Dans ce contexte, Quantmetry a collaboré avec Aptus Health afin de co-développer une solution de content tagging basée sur de nouvelles méthodes de Machine Learning, l'objectif étant de maitriser la complexité sémantique du corpus médical pour personnaliser le contenu auprès de son audience.

 

Intervenant : Aptus Health - François-Xavier Rousselot, VP Global Data and Artificial Intelligence

Karl Neuberger, Partner, Quantmetry

 

Salle c

L’Intelligence Artificielle au service du client, avec le témoignage de Pierre Andrieux (Data Science – Groupe Clarins)

 

L’avènement de l’Intelligence Artificielle dans notre quotidien alimente autant d’utopies que de dystopies. Mais qu’en est-il réellement et concrètement au niveau de l’entreprise ?

Nous faisons tous le constat de technologies Big Data facilement accessibles et exploitables car désormais disponibles sur le Cloud. Ainsi, les moyens de traitement de la donnée sont quasi illimités à l’échelle d’une entreprise. Mais quels en sont les usages concrets dans la stratégie d’une organisation, d’une marque vis-à-vis de son marché et de ses clients ?

Comment ces opportunités technologiques permettent-elles de relever les challenges incessants et répétés de maîtrise et de conquête de marchés ?

 

Nous verrons donc comment, grâce au Big Data, une Intelligence Marketing d’entreprise peut exploiter plus finement les données déjà présentes dans son écosystème digital. Comment il devient concrètement possible de produire de nouvelles informations grâce à l’intelligence artificielle :

Déceler des tendances comportementales, décrypter les expériences clients au travers de leurs contributions en ligne (avis clients, commentaires, réseaux sociaux …)

Identifier les anomalies, les axes d’améliorations, les attentes du marché et les potentielles opportunités de nouveaux business

 

En conclusion, pourquoi ces solutions permettent de rapprocher efficacement les décideurs de leurs clients, présents et futurs, compte tenu de la visibilité et de la pertinence d’analyse qu’elles apportent.

 

Salle d

L'internalisation des usages dérivant du recours à l'Intelligence Artificielle dans les entreprises

 

Les experts métier se sont emparés du Big Data et de l'Intelligence Artificielle depuis plusieurs années. Après la vague des usages révolutionnaires, des "Preuves de Concept" et des solutions sur l'étagère, le phénomène est en train de s'ancrer dans le quotidien des entreprises. Les réticences des uns reculent tandis que les attentes des autres se font plus réalistes avec la montée en maturité des équipes internes. A présent, les experts métier les plus mûrs veulent reprendre la main et inscrire ces innovations au cœur de l'activité de l'entreprise. Cette internalisation est marquée par des changements organisationnels structurants, par l'implication directe des décideurs métier et IT dès l'amont des projets, et par une valorisation tangible des usages déployés. Comment mieux accompagner cette dynamique? Comment monter un véritable portefeuille de projets data, générateur d'une valeur en cohérence avec la stratégie de l'entreprise ?

 

Intervenant : Anna Nesvijevskaia, Directrice Associée chez Quinten

10h - 10h30

Salle a

 

Atelier TIBCO Jaspersoft pour Amazon Web Services

 

 

Découvrez la solution SaaS de reporting open source la plus populaire sur AWS. Conçue pour se connecter à l'environnement Amazon tels que RDS, Redshift et EMR, Jaspersoft confère une élasticité maximale, à consommer en fonction de ses besoins.

 

Passez à la vitesse supérieure : de la connexion aux données à un tableau de bord embarqué dans votre application web ou mobile.

Intervenants : Fabien Medat, Head of IoT expertise, Cisco France, Loïc LINAIS, Chief Product Officer, TellMePlus

Salle b

Passez maître dans l'art de visualiser vos données avec Tableau

 

 

Durant cet atelier, vous découvrirez comment maitriser et exploiter vos données pour tirer le meilleur de votre business.

Anastasiia Sergiienko, experte Tableau, vous révelera toutes ses astuces pour devenir un pro de l'analyse visuelle.

Vous aurez ainsi toutes les cartes en main pour :

- Vous connecter rapidement a vos données

- Explorer vos données

- Créer des analyses géographiques, temporelles

- Concevoir des tableaux de bords interactif en quelques clics

- Partager vos tableaux de bord facilement en toute sécurité

 

Cet atelier est destiné à toute personne travaillant avec des données, quelles que soient ses connaissances techniques ou analytiques. N'hesitez pas à nous rejoindre.

 

Intervenant : Anastasiia Sergiienko, Senior Product Consultant – Tableau Software

 

Salle c

Big for smart data : de la carte grise au décryptage du mode de vie des français

 

Témoignage de la société AAA Data (spécialisée dans l'exploitation statistique et commerciale des données d’immatriculation) sur le chantier co-mené avec les équipes Estia. La data science combinée à une base de données massive permettra ainsi de passer d’une vision « véhicule » à une vision « customer centric », nouvelle source d’efficacité pour les annonceurs.

Découvrez comment Estia a accompagné la société AAA Data dans la valorisation de sa base de données massive ! Au programme de cette intervention co animée par les équipes Estia et AAA Data: exploitation analytique de millions de données , chaînage des individus, analyse et décryptage des parcours des consommateurs, identification des habitudes d’achat, développement d’algorithmes pour basculer dans une dimension prédictive, conception et industrialisation dans un environnement technologique big data.

 

Intervenants : Emmanuel Leprat, AAA Data, Directeur Données et Analyses

Faiza Boufroura, AAA Data, Responsable valorisation des données

Nathalie Costa, Groupe Estia, Directrice Delivery

 

Salle d

Comment BICS tire parti d'un Data lake Hadoop et d'Informatica pour améliorer l'expérience client et la profitabilité ?

 

Basé à Brussel, Belgacom International Carrier Services (BICS) fournit des solutions globales de télécommunication à travers le monde. En participant à cette session, vous pourrez découvrir comment l’opérateur transforme les Big Data en valeur client grâce à un Data Lake basé sur Hadoop et Informatica.

 

Danielle Kana, Data Integration Architect chez BICS, vous expliquera comment :

• Obtenir une vision à 360° de l’activité, améliorer le ciblage marketing et anticiper les incidents grâce à une analyse en temps réel ;

• La mise en place d’un Data Lake Hadoop en complément d’un datawarehouse permet à BICS de stocker et traiter les données à l’échelle ;

Les couches d’analyses Big Data et de Big Data Management d’Informatica permettent de gérer stratégiquement l’intégration, la gouvernance et la sécurité des données du Data Lake.

 

Intervenant : Danielle Kana, Data Integration Architect chez BICS

 

10h30 - 11h

Salle a

Comment passer d’une cacophonie de données à une harmonie d’information ?

 

Quand on aborde le sujet du Master Data Management, on commence souvent par la fin, à savoir par les plateformes ou les logiciels qui permettent d’intégrer les données dans les systèmes experts de l’entreprise.

Et si on commençait par le commencement ? Car avant de l’injecter dans « les tuyaux » la Data se doit d’être une matière première à la qualité indiscutable et ayant satisfait à différentes étapes de process et de qualité.

D’autre part, les données référentielles, en ce qu’elles ont d’essentiel, forment le ciment des différents métiers dans l’entreprise, mais leur disparité de nature, de provenance, de format les rend souvent difficilement exploitables.

Bref, il faut bien connaître son solfège avant d’écrire sa partition.
Venez écouter les virtuoses d’Altares le 13 mars de 10h30 à 11h et faites-vous une idée sur la question.

 

Intervenant : Michaël Lisch – Pre-sales Altares

Bachir Belbachir – Head of Pre-sales Altares

 

Salle b

PRéSENTATION NODATA

Salle c

a DataScience au service des entreprises, oui… mais pas n’importe comment !

 

Basé sur des expériences concrètes de projets clients en Machine Learning / Deep Learning, nous vous présenterons les éléments clés de cette Data-Science à mettre en œuvre dans le cadre de votre transformation Data. Entre méthodologies et points d’attentions, nous détaillerons plusieurs aspects et opportunités pour démontrer l’importance de ces Framework et outils.

 

Intervenant : Antonin Bruneau, Sales Engineer, Cloudera

Selsabil GAIED, Datascientist, Capgemini

Salle d

Chut... On a mis du Big Data en production !

 

Des traitements de données et de machine learning en production, ça paraît normal... mais pas tant que ça !

Découvrez comment Saagie permet à tout datalab et DSI de simplifier ses processus de gestion et de mise en production de traitements et d'applications de données et ce, malgré l'hétérogénéité des technologies Big Data existante

 

Vous découvrirez les différents axes d'accélération de projets de données avec :

- La data fabric pour organiser les traitements et les applications au dessus de votre lac de données

- La data governance pour la documentation du contenu du lac de données, les habilitations et le lineage.

 

Notre mission : accélérer les projets big data pour libérer, délivrer la puissance de la donnée dans vos entreprises !

 

Intervenant : Youen Chéné, CTO Saagie

 

11h - 11h30

Salle a

Les enjeux de la machine à café connectée pour les Cafés Richard

 

Connecter au Cloud les machines à café, qu’elles se situent dans des brasseries, des hôtels, des restaurants ou en entreprise, c’est la prochaine étape pour les Cafés Richard qui y voient un moyen d’améliorer le service rendu aux clients tout en optimisant la maintenance.

Les Cafés Richard  s’appuient ici sur l’expertise du SAP Leonardo Center de Paris* et concrétisent un projet complet autour de la machine à café dans un esprit de co-innovation.

  • Pragmatisme, collaboration et prototypage : les ingrédients clefs du projet
  • Quels services peut apporter le Big Data issu de cette connexion ?
  • Comment une PME peut-elle intégrer un projet de cette envergure dans son quotidien ?

 

* SAP Leonardo Centers : un réseau mondial qui porte l’innovation avec la technologie SAP Leonardo : IoT, Machine Learning, Analytics, Big Data, Blockchain et Data Intelligence

 

 

Intervenant : Thomas de La Fouchardière - Directeur des Opérations, Expresso Service ; Serge Frappier – Innovation et Nathalie Dietz – Leonardo Center Paris, SAP France

 

Salle b

Vos données sont-elles prêtes pour GDPR ?

 

Les exigences liées à la nouvelle réglementation GDPR sont multiples et dépassent les enjeux juridiques et de sécurité des systèmes : elles imposent un programme de gouvernance et de management des données.

Face aux courts délais imposés par la nouvelle réglementation, ce programme doit être pragmatique, sur la base d’un data lake et d’une suite d’initiatives bien délimitées pour cartographier et documenter les données personnelles, gérer les droits fondamentaux de la personne (consentement, droit à l’oubli, d’accès, de rectification, portabilité des données), l’anonymisation et la protection des données y compris dans le cloud.

Au travers d’un cas d’usage concret visant à tirer parti de l’IA et du machine learning pour personnaliser les interactions clients en temps réel tout en respectant leur vie privée, cette session illustrera les actions pratiques à mettre en œuvre en vue de votre conformité GDPR.

 

Intervenant(s) : Jean-Michel Franco, Senior Director Product Marketing, Talend

Salle c

Machine Learning & Intelligence Artificielle à la portée de tous.

 

Comment profiter d’un environnement Autonomous Data Warehouse / Datalake d’entreprise tout en bénéficiant d’agilité, de simplicité et d’élasticité.  Une révolution pour vos entrepôts de données.

 

Démonstration dans un contexte œnologique :

« Comment facilement et simplement industrialiser vos expérimentations en Data Science ?

En partant d’une analyse dans un notebook, et grâce à la première base autonome au monde, vous verrez comment rendre pérenne et disponible aux utilisateurs l’ensemble des informations enrichies à partir d’un contexte big data».

 

Intervenants : Cédric Guyot – Business Analytics & Big data Consultant Oracle, Eric Vessier – Senior Presales Consultant Analytics Oracle

Salle d

Demystifying Cloud Data Warehousing

 

  • What is a cloud data warehouse
  • What should we expect
  • What are the common scenarios and key use cases
  • Data challenges today
  • Evolution of data platforms
  • Introducing Snowflake
  • Key concepts about Snowflake
  • Cool features about Snowflake
  • Snowflake in action
  • Demo

 

Intervenants : Baret, Nicolas,Director of Pre-Sales EMEA @Snowflake

 

11h30 - 12h

Salle a

 

Développer, combiner, comparer et gérer visuellement des modèles prédictifs de Machine Learning

 

La Data Science apporte de nombreuses opportunités de création de valeur, la bonne nouvelle est qu’elle est à la portée de toute entreprise : disponibilité d’algorithmes modernes, stockage moins coûteux, traitements distribués et puissance calculatoire accrue ouvrent cette technologie à des domaines d'application multiples.

Lors de cette session, vous pourrez voir comment construire simplement et efficacement un workflow analytique dans une plateforme ouverte.

Illustration d’une expérience visuelle de développement, combinaison, comparaison et gestion des modèles de Machine Learning avec SAS® Viya.

 

Intervenant : Marcel Lemahieu – Business Solution Manager – SAS West Europe

Mathieu Fabre - Consultant Analytique – SAS France

Salle b

Datalab et projets analytiques avancés chez la DSI GRDF : retour d’expérience et bonnes pratiques

 

« Prévision de la charge d’appel, GDPR, détection d’anomalie: GRDF s’est lancé dans l’aventure analytique pour résoudre de nombreux challenges business. Après quelques années d’expérimentations, quels enseignements en ont-ils dégagé? Quels sont les outils, les compétences et les types de data nécessaires? Découvrez dans cette masterclass un témoignage inédit des responsables big data de GRDF »

 

Intervenant : Paul Fournier, Responsable Datalab de la DSI GRDF

 

Salle c

Identifier les leviers d’innovation dans votre secteur d’activité : décryptage de 3 projets Data Science.

 

Tous les projets en Data Science ne se ressemblent pas, et c’est cette unicité qui rend la mise en œuvre d’un projet si complexe.

Enjeu de productivité pour un leader automobile, disruption d’un métier existant dans le secteur financier, qualification d’un large volume de requêtes pour un acteur majeur du digital... A travers ces 3 exemples issus de sociétés leader ou à taille humaine, nous mettrons en lumière différentes approches de la Data Science, chacune adaptée à son contexte, avec ses contraintes et sa complexité propres. Plus qu’une méthode générique, nous décryptons pour vous les jalons d’une approche business sur-mesure, combinée à une excellence analytique, qui ont permis de mettre en place de nouveaux leviers d’innovation en quelques mois.

 

Intervenant : Dimitri Bettebghor / Lead technique Machine Learning, Clément Beaudelaire / Senior Data Scientiste

Salle d

Learn globally, act locally : Cloud, on-premises, edge: comment valoriser l’ensemble de vos données

 

Pour extraire la quintessence de toutes les données de votre entreprise, il est nécessaire de mettre en place une plateforme de données globale qui puisse utiliser ces données quelle que soit leur localisation (Cloud, on-premises, edge).

 

A travers des exemples concrets (véhicules autonomes, aide au diagnostic médical, anticipation de fraude), vous découvrirez comment mettre en oeuvre une plateforme de données globale combinant streaming, analytique et temps réel pour créer des modèles d’apprentissages centralisés afin de les appliquer localement.

 

Intervenant : Grall, Tugdual, Chief Technology Evangelist EMEA, MapR/MapR Data Technologies

Remi Forest, Senior Solution Engineer, MapR Data Technologies

 

12h - 12h30

Salle a

Comment faire de la BI instantanée avec un datalake sur S3 ?

 

Dans cette session nous montrerons comment les principaux outils de dataviz du marché peuvent se connecter directement aux données stockées sur Amazon S3 tout en ayant des réponses immédiates quelle que soit la volumétrie des données.

 

L’atelier présentera Indexima, un moteur analytique optimisé pour le cloud qui accélère plus de mille fois l’exécution des requêtes grâce à des hyperindex mis à jour en temps réel.

 

En présentant des cas concrets nous utiliserons Power BI, Tableau, Qlik, MicroStrategy ou Excel pour explorer en un clin d’œil plusieurs milliards de lignes de données décisionnelles.

L’ensemble des données d’un datalake sur S3 devient facilement accessible en quelques clics.

 

Intervenants : Florent Voignier – CEO/CTO - Indexima, Nicolas Korchia – COO - Indexima

Salle b

Comment automatiser vos processus informationnels et chronophages grâce à la technologie sémantique ?

 

Les professionnels de l’analyse du marketing, de la relation client, des RH, ou de l’IE, de l’analyse des risques opérationnels, de la conformité sont tous victimes du Big Data. Automatiser certaines tâches opérationnelles informationnelles chronophages est devenu une vraie nécessité pour leur permettre de se concentrer sur des actions à plus forte valeur ajoutée.

 

Avec la technologie d’analyse cognitive Cogito, il est désormais possible de s’affranchir de certaines tâches routinières. Capable de comprendre comme un humain le contexte et le sens des données contenues dans les documents, Cogito permet d’organiser et analyser rapidement de gros volumes de documents non structurés multi sources, de collecter des renseignements stratégiques, voire même de découvrir les tendances ou détecter des signaux faibles.

 

Lors de cet atelier, vous comprendrez en quoi Cogito est unique (technologie linguistique professionnelle, réseau de connaissances multilingue étendu, machine learning supervisé, intégration des référentiels métier des organisations). Vous découvrirez l’amplitude des tâches que la technologie sémantique peut permettre d’optimiser à travers plusieurs cas d’usage (détection des données personnelles-RGPD, gestion des sinistres, analyse de CV, de verbatim/emails clients, comparaison de contrats, détection de fraude, intelligence stratégique, …). Enfin, vous pourrez évaluer les gains de temps et de productivité concrets liés à l’optimisation de plusieurs processus métier stratégiques.

 

Intervenant : Alain Biancardi, VP Sales, Expert System France

Salle c

L’impact dU RGPD sur vos projets Big Data

 

  • Le Règlement Général sur la Protection des Données (RGPD) ou General Data Protection Regulation (GDPR) entrera en vigueur le 25 mai 2018. C’est le changement le plus important dans la réglementation sur la confidentialité des données depuis 20 ans et il s’applique à toutes les organisations et leur SI qui collectent et traitent les données des résidents européens. La non-conformité n’est pas une option, en effet les amendes des entreprises contrevenantes peuvent aller jusqu’à 4 % du CA de l’entreprise avec un plancher à 20 M€.
  • Dans ce contexte, tous les projets Big Data manipulant des données individuelles sont concernés.
  • Cet atelier a pour objectif de passer au crible les contraintes de la RGPD et de comprendre leurs impacts sur les projets typés Big Data.
  • n s’appuyant sur des retours d’expérience concrets, Artik vous présentera les éléments clefs pour, d’une part rendre vos applications existantes « GDPR compliant » et d’autre part prendre en compte le « privacy by design » dans vos nouveaux projets.
  • Vous pourrez ainsi découvrir les méthodes, les architectures et les « patterns » de conception compatible avec la GDPR.

 

Intervenants : Joachim TORDJMAN, Expert Big Data

Salle d

Top 5 des profils les plus demandés

 

Face aux enjeux économiques et stratégiques impulsés par l’essor des Big Data, les entreprises recherchent de nouveaux profils pointus.

Data scientist, Data analyst, architecte Big Data, Chief Data Officer, ingénieur Big Data …. Il n’est pas toujours évident de faire le tri parmi ces métiers attractifs aux activités complexes.

CentraleSupélec Exed vous propose de faire le point sur les métiers les plus recherchés et les compétences indispensables pour décrocher le job de vos rêves et donner un nouvel élan à votre carrière.

 

Intervenants : Marie-Luce Picard, Principal Business Consultant, Utilities. Teradata, Marine Krol, Responsable RH, Quantmetry, Hervé Guignot, Directeur Adecco Analytics

 

Animatrice : Marie-Aude Aufaure, Responsable programmes Big Data à CentraleSupélec Exed

 

12h30 - 13h

Salle a

 

GED Data Centric

 

Avec l’accélération de la dématérialisation des processus, la pression de plus en plus forte du législateur pour assurer la transparence sur les informations connues par l’entreprise de tout un chacun, le devoir de conservation et autre droit à l’oubli,  le volume des documents électroniques à gérer par l’entreprise explose, leur variété croit et corrélativement les besoins d’ingestion, de stockage, de reconnaissance, de contrôle, d’archivage légal à valeur probante, de recherche, d’accès direct par les utilisateurs concernés s’étendent considérablement. Face à cette situation, de nombreuses entreprises nous interrogent sur la pertinence de leur socle GED actuel, généralement construit sur des solutions progicielles au dessus de base de données relationnelles, versus des solutions basées sur des technologies Big Data augmentées d’IA et dopées à la BlockChain, qui viennent les challenger sur les aspects performances, coûts, traçabilité et fonctionnalités (LAD/RAD intelligent, analyse en masse du patrimoine documentaire versus la conformité, resilience, immuabilité...). Lors de cet atelier nous partagerons notre vision d’une GED à la puissance Big Data et nos premiers retours d’expérience.

 

Intervenant : Intervenant(s) : Olivier Armand, Architecte Senior Big Data et Ayoub Bacherki, Consultant Senior Innovation & Industrialisation

Salle b

IBM Data Science : Comment créer et industrialiser vos analyses de Machine Learning ?

 

Le succès des projets de Big Data et de Machine Learning, ainsi que leur capacité à délivrer de la valeur métier, dépend en grande partie de leur industrialisation. L'intégration, le déploiement et l'automatisation de ces analyses sont des phases dont l'importance est trop souvent sous-estimée dans les projets. Nous vous proposons de découvrir les solutions pour relever ces défis.


Dans cet atelier, nous vous présenterons l'écosystème Watson Data Platform d'IBM et détaillerons les différentes composantes de cette plateforme Cloud : stockage des données, exploration des données, réalisation d’analyses de Machine Learning ainsi que le déploiement et l’automatisation de ces analyses.


Venez découvrir également dans cette session les nouvelles tendances en termes de plateforme Big Data : services cognitifs ou deep learning, optimisation mathématique, intégration avec Hortonworks Data Platform. Vous pourrez également échanger avec les experts IBM du sujet.

 

Intervenant : Serge Retkowski , Expert BI et Analyse Prédictive, IBM France
Zied Abidi, Data Scientist, IBM France

 

Salle c

« Spotfire, l'outil polyvalent de valorisation du datalake »

 

Spotfire est une plateforme d’analyse, d’exploration et de visualisation de données que nous préconisons à nos client lorsqu'ils sont à la recherche d’un outil permettant de valoriser leur datalake.

 

Spotfire permet en effet de faire collaborer toutes les compétences autour des données :

• les utilisateurs métiers peuvent explorer leurs données depuis une interface intuitive

• les analystes et experts BI peuvent construire des tableaux de bord riches et interactifs

• les data scientists peuvent mettre en production leurs modèles

 

Intervenant : Geslin Jonathan

Salle d

OpenText Magellan, la nouvelle plateforme d’intelligence artificielle qui rend vos prises de décision plus pertinentes et accélère votre croissance

 

Abstract : Votre entreprise est submergée quotidiennement par des volumes croissants de données issues de sources multiples. Votre direction souhaite les exploiter au mieux pour anticiper les évolutions de votre marché et rester devant vos concurrents. Mais les coûts, le temps et les effectifs associés au développement d’une solution cognitive en interne représentent un défi majeur pour votre entreprise.

La division Analytics d’OpenText aide les entreprises à améliorer la prise de décision et à gagner en efficacité opérationnelle grâce à la solution OpenText Magellan, en leur permettant d’analyser une mine de données pertinentes rapidement et simplement pour définir les bonnes stratégies.

La nouvelle solution OpenText Magellan est une plateforme d’intelligence artificielle et d’analytics flexible, qui associe des fonctionnalités de machine learning, d’analyse avancée et de BI à l’échelle de l’entreprise, avec la capacité d’acquérir, fusionner, gérer et analyser des Big Data structurés et non structurés.

 

Intervenant : Guillaume Lory – Principal solutions Consultant

 

13h - 13h30

Salle a

Machine Learning en production avec DataRobot

 

Construire, Déployer et Monitorer des modèles prédictifs est complexe et chronophage.

Résultat : 80% des projets de Machine Learning ne dépassent pas le stade de prototype, et ne génèrent donc aucune valeur pour le métier.

 

Au cours de cet atelier vous verrez comment la solution DataRobot automatise et simplifie le Machine Learning, pour créer, déployer et monitorer des modèles prédictifs en une fraction du temps normal.

 

#Prédiction #Déploiement #Automatisation #Productivité #Démocratisation

 

Intervenant : Stéphane Feniar, Data Scientist chez DataRobot

 

Salle b

Démocratiser, Simplifier et Accélérer l’usage de l’analytique sur un écosystème centralisé

 

Démocratiser l’accès à l’analytique en combinant des analyses multi-genres tout en partageant  un socle unique de données par la mise en place d’un écosystème analytique hybride.

Cette session présentera l’évolution des plateformes analytiques à travers la solution « Teradata Analytic Platform »  qui permet d’intégrer :

  • Différents types de moteurs d’analyses tels que SQL, Aster, Graph, Spark, Tensorflow, etc.
  • Différents langages tels que SQL, Python, R, SparkQL, Go, Scala, etc.
  • Différents stockages tels que relationnel, S3, HDFS, In Memory, Columnar, etc.
  • Différentes interfaces de développement tel que Jupiter, DataIku, Rstudio, Knime, etc.

Par ailleurs, nous décrirons comment ces différentes analyses peuvent être combinés via une couche d’orchestration QueryGrid/Presto (Open Source) et comment rendre accessibles ces analyses au plus grand nombre grâce au Framework de développement d’application libre Covalent basé sur NodejS et AngularJS.

Ces fonctionnalités seront illustrées par des cas d’usages sous forme de démonstration.

 

Intervenant : MAUSSION Pierre, Solution Architect & SIGWALD Etienne, Architecte Data & Analytics | Teradata

Salle c

Stocker et exploiter des valeurs temporelles (Time Series) dans Redis

 

Les données chronologiques connaissent une forte croissance directement liée à l’explosion des données en général et notamment des données de type Big Data. La gestion, le stockage et l’utilisation de ces données deviennent un véritable défi.

On doit pouvoir stocker et utiliser ces données en temps réel. Redis permet d’exploiter nativement les données de type Time Series.

Cet atelier présentera un nouveau type de structure de données natif dans Redis : les Streams. Il permet d’apporter l’optimisation des performances de Redis aux Time series et de traiter la problématique de manipulation des données temporelles de manière simple et optimisée.

 

Intervenants : Georges Carbonnel, Responsable France

Francois Cerbelle : Solutions Architect

 

Salle d

La place de l'archivage à l’ère du Big Data ?

 

Le capital informationnel des entreprises a pris une toute autre valeur depuis quelques années, que ce soit en termes juridiques ou financiers, dans un contexte d’explosion non contrôlable des volumes et de grande hétérogénéité de l’information. L’archivage numérique est confronté à de nouveaux défis. Les technologies utiles des Record Managers de demain doivent « sublimer » les données, apporter une réelle valeur ajoutée pour aider les entreprises à maîtriser leur Capital Informationnel. De quelle manière l’archivage devient incontournable à l’ère du Big Data et de la transformation digitale ? Quelles pratiques les entreprises doivent-elle mettre en place pour tirer pleinement parti de leurs archives ? Le Big Data a changé la donne, on vous explique tout.

 

Intervenants : Rabah Ammouche, consultant et expert en archivage chez Everteam

                        Autre intervenant (confirmation à venir)

13h30 - 14h

Salle a

Pilotage visuel de simulations financières : exemple d’application avec la SIMMT

 

La Structure Intégrée du Maintien en condition opérationnelle des Matériels Terrestres (SIMMT) est un service de l’armée de terre française chargé de proposer la politique, de fixer les orientations et d’organiser les missions liées au maintien en condition opérationnelle des matériels terrestres des armées et services (MCO-T). A ce titre, la SIMMT a notamment en charge la programmation ainsi que la gestion budgétaire et financière du MCO-T de l’ensemble des parcs, représentant plus de 30 000 matériels. Pour se faire, chaque année un processus d’analyse physico-budgétaire est réalisé afin de réévaluer l’adéquation entre les besoins en maintenance, les coûts associés et les budgets disponibles.

 

Nous vous présenterons comment la technologie INVIOO facilite et accélère ce processus d’analyse itératif en permettant la réalisation de simulations, directement à partir de tableaux de bord grâce à sa technologie d’interaction visuelle.

 

Salle b

Retour d’expérience détaillé du programme Big Data + Data Science d’un opérateur réseau d’envergure mondiale

 

Big Data, NoSQL, Data Science, Analyse Sémantique et Dataviz sont au programme de ce projet à fort ROI.

Chez cet opérateur réseau d’envergure mondiale, le terme « Big » Data n’est pas exagéré ! Les problématiques techniques et de performance du traitement des données sont au cœur des challenges. Mais c’est avant tout la création de valeur pour les métiers qui guide la démarche projet. Plusieurs cas d’usage mettant en œuvre des algorithmes avancés et l’exploitation de données non structurées ont été mis en œuvre. Ici, c’est grâce à la construction d’un socle Big Data robuste que les applications d’intelligence artificielle à forte valeur ajoutée peuvent pleinement s'exprimer.

Business & Decision vous propose un retour d’expérience détaillé de ce programme. Lors de cet atelier, nous partagerons avec vous les challenges et solutions techniques ainsi qu’une présentation des usages développés. Les volets méthodologiques projet et Data Science seront aussi présentés pour montrer comment l’ambition initiale s’est transformée en succès.

 

Intervenants : Mick LEVY, Directeur de l’Innovation Business

Salle c

Comment Axa Belgium réplique ses données opérationnelles dans son datalake ?

 

Les bases de données opérationnelles sont difficilement accessibles pour des raisons de sécurité et de performance.

Une réplication real time non intrusive dans un environnement unique permet de casser les silos, offre de nouvelles opportunités, et ouvre de nouveaux cas d’usages.

Une approche standardisée pour construire un event-store.

 

Intervenants : Fabien JANSSENS, Chef de Projet Axa Belgium, Laurent SZPIRGLAS, Sales Director Attunity France

 

Salle d

En Cloud Public ou en Cloud on-Premise, accélérez vos projets clients Big Data avec Data Platform as a Service

 

Cette année, Outscale présente la solution Data Platform as a Service sur une plateforme Cloud disponible en mode privé ou hybride. Compatible avec le RGPD, certifiée ISO/IEC 27001:2013 et basée sur les technologies MapR, la solution Data Platform est disponible sur l’appliance TINA on-Premise d’Outscale.

 

Intervenants : Benjamin Laplane, EMEA Chief Sales & Solutions Officer, Outscale

Simon Decarpentries, EMEA Cloud & Solutions BDM, NetApp

 

14h - 14h30

Salle a

Pourquoi les nouvelles générations de plateformes de marketing prédictifs, qui permettent la génération de contacts ultra-qualifiés, s’affirment comme des outils indispensables à la mise en œuvre d’une stratégie data driven à succès.

 

La digitalisation croissante de l’économie et un marché concurrentiel de plus en plus dense ont fait de la maîtrise des solutions Smart Data un enjeu majeur pour les entreprises.

Pour émerger face à ses concurrents, il est désormais essentiel d’intégrer à son organisation une stratégie orientée data driven et d’y associer des solutions de conquête commerciale online.

 

Si la data a toujours été une composante du marketing, l’arrivée des nouvelles générations de plateformes de marketing prédictif qui allient smart data et algorithmes permet désormais aux entreprises de disposer d’un allié de choix dans la mise en œuvre de leurs campagnes multicanal pour livrer aux services commerciaux des contacts ultra-qualifiés.

Découvrez à travers un Use Case, comment l’intégration d’une solution de création, d’analyse et d’extraction de segments B2B adaptée à vos enjeux marchés peut optimiser le développement commercial de votre entreprise.

 

Intervenants : Lionel Bianco – Directeur Commercial Manageo, filiale digitale d’Altares

Clémence Cessiecq – Directrice e-marketing & Communication Manageo, filiale digitale d’Altares

Salle b

Intelligence Augmentée : Advanced Analytics

 

L’intégration de R et Python dans les plateformes analytiques permet d’amener beaucoup plus loin les capacités d’analyse de données. Nous vous présenteront comment l’intégration des fonctionnalités d’Advanced Analytiques permettent aux utilisateurs métier d’aller beaucoup plus loin dans leur découvertes de manière simple et intuitive.

 

 

Intervenants :  Frédéric Romagna (Directeur du Conseil) et Baptiste Durand (Consultant Senior)

 

Salle c

 

Les bonnes pratiques de la mise en production des projets Big Data

 

Chez JEMS datafactory, nous formons nos consultants Big Data non seulement aux langages et outils du Big Data, mais aussi sur les fondamentaux des architectures distribuées. Cette démarche assure que les traitements mis en œuvre soient en adéquation avec les ressources systèmes majeurs d’une architecture distribuée, en optimisant par exemple le nombre de CPU alloués, la mémoire, et l’utilisation des disques.

 

Cette maîtrise des fondamentaux et notre expertise technique, nous permettent d'intégrer les solutions Big Data à vos environnements informatiques, qu'ils soient locaux ou dans le cloud, constituant ainsi un environnement pervasif.

 

Pour que cette intégration soit la plus harmonieuse et la plus transparente possible, nos experts s'attachent au respect de nombreux critères : l'implémentation des règles métiers, la cohabitation avec les différentes solutions internes, la sécurité et le respect des juridictions, la gouvernance etc

 

Ce sont l'ensemble de ces critères qui permettront ensuite le meilleur dimensionnement de la solution et du développement des différents traitements. Dès lors, nous pourrons tirer toute la valeur non pas de l'architecture Big Data seule, mais de votre système d'information dans sa globalité afin de renforcer la valeur de votre cas d'usage.

 

Intervenants : Aymen Ghadghadi, Vice-Président en charge du Big Data chez JEMS datafactory

Salle d

Cas d’usages pour démocratiser la donnée dans l’entreprise

 

Les entreprises persistent à mal concevoir la portée du big data et à le cantonner aux experts analystes et à la R&D. Pourtant, il n’y a pas plus opérationnel qu’un projet big data. Bien au contraire, la grande étape à franchir maintenant est bien sa désacralisation au profit d’une adoption généreuse, au sein des entreprises, par les utilisateurs, les métiers, le terrain. C’est à eux aussi que le big data s’adresse.

 

Et parce qu’il s’agit d’abord d’un concept, c’est associé aux technologies de business intelligence et d’analytique qu’il développe son plus grand potentiel.

 

Vous découvrirez lors de cet atelier des cas d’usages qui démocratisent l’usage des données dans l’entreprise et plus particulièrement les big data :

  • Partage et collaboration,
  • Smart & easy data discovery,
  • Intelligence artificielle, smart bots, prédictif,
  • Analyse temps réel,
  • Command center

 

Intervenants : Henri-François Chadeisson, Consultant Avant-Vente Senior, MicroStrategy

 

14h30 - 15h

Salle a

Pour un pilotage par les données dans un contexte de transformation digitale

 

Il est incroyablement complexe de réussir à combiner des données issues de Lacs, de Stockages Objets, d’Applications Cloud, du Legacy… Une complexité  qui tient  essentiellement dans trois dimensions que sont : la gouvernance, les pipelines et le partage

  • Comment savoir qui a modifié les données, qui les a utilisées et en quoi elles ont été modifiées ?
  • Comment transformer des données brutes en données affinées et utilisables ?
  • Comment obtenir l’accessibilité, la connectivité et l’harmonisation des données entre les systèmes?

La réponse à ces questions grâce à SAP Data Hub : une approche simplifiée et évolutive de la gestion des environnements de données qui, en en facilitant l’intégration, permet de rendre  les opérations agiles, d’accélérer les projets de développement, tout en offrant une meilleure visibilité et une gouvernance centralisée de toute l’entreprise

 

Intervenants : Elsa Roux, Solution Advisor Plateforme Big Data et Stéphane Mirambeau, Architecte Innovation, SAP France

 

Salle b

Le big data au service de la cancérologie : La base régionale des tumeurs solides dans le Limousin

 

Témoignage de la mise en œuvre de Neo4j et d'Elastic Search afin de connaitre le parcours et les différentes étapes de la prise en charge des patients atteints de tumeurs solides, qui deviendra une source de recherche translationelle et d'évaluation clinique.

Exemple de collaboration médicale, technologique et éthique dans cette collecte de données médico-administratives structurées et non structurées des différents logiciels d'établissements de santé publics et privés.

 

Intervenants : Karine Pallier, PhD - Coordinatrice Scientifique - Centre de coordination en cancérologie de la Haute Vienne, Joël Da Costa - Directeur général – Connexin

 

Salle c

Redéfinir le Big Data grâce à la performance des graphes et des données connectées

 

L’avènement du Big Data a permis de se rendre compte de la masse de données détenues par les entreprises, peu importe leur taille. Les récupérer, les trier, les gérer, et en tirer bénéfice, voilà le plus gros défi du Big data de ces dernières années. Il reste toutefois des données non exploitées : les données connectées. Apprenez comment accélérer l’adoption de ces mégadonnées par l’exploitation des liens qui les associent les unes aux autres.

 

Intervenants : Cédric Fauvet - Responsable du développement France - Neo4j

 

Salle d

 

 Retour d’expérience CEGID : organiser le voyage de la donnée pour une data-transformation réussie !

Valoriser sa data pour favoriser le développement de son entreprise : répondre à un tel enjeu passe d’abord par une bonne approche stratégique puis méthodologique (Selon Gartner, 60% des projets ne franchiront pas le stade des pilotes). Viennent ensuite des sujets structurels tels que l’hébergement et la sécurisation des données qui nécessitent prise en compte de l’existant et juste dimensionnement au projet et à ses perspectives pour aboutir enfin à l’objectif : créer de valeur. Venez découvrir comment, avec l’aide d’Orange Business Services,  CEGID met en œuvre une stratégie gagnante de data-transformation.

 

Intervenants : Frédéric BORNUAT - Chief Data Officer – CEGID

                       Laurent HERR – Directeur Data – Orange Applications for Business

15h - 15h30

Salle a

L’Opérational Data Hub, accélérateur de votre transformation digitale

 

La transformation digitale vise à améliorer l’expérience et l’efficience de tous les acteurs de l’entreprise, aussi bien des clients que des employés, ainsi qu’à créer l’opportunité de nouveaux services.

Pour cela, les données de l’entreprise doivent être disponibles partout, à tout moment et avec un temps de réponse le plus rapide tout en étant capable d’ingérer des volumes de données toujours plus importants.

L’Operational Data Hub est une brique de l’architecture IT qui permet d’accoster les nouveaux besoins de la transformation digitale tout en limitant l’impact sur les composants existants.

 

Intervenant : Vincent Poncet - Solution Engineer - DataStax

 

Salle b

telligence Artificielle en action : Traitement en temps réel d’images grâce au Deep Learning avec calcul automatique de scores grâce au

Machine Learning

 

Sport data intelligence:  use AI to find the next great football star

With the right data, or cameras capturing footage in real time, SAS AI capabilities can

model player movements in any type of sport.

The collected data can then be used to identify rising stars or undervalued players by benchmarking their performance against others in the given sport.

In this presentation we will showcase this variety of analysis and insights by describing the significant data, which steps we take using deep learning and which human expertise is needed.

SAS will present a real case where Sport Analytics help to detect early signs of performant young football players and evaluate their future potentials …

 

Intervenant : Marcel Lemahieu – Business Solution Manager – SAS West Europe

Mark Bakker – Business Solution Manager – SAS West Europe

 

Salle c

Comment l’IA peut faciliter la création de contenus ? Use case "20 Minutes"

 

Au sein de la rédaction du site d’information de 20 Minutes, les journalistes publient en parallèle de leurs articles des métadonnées servant à garantir un bon référencement du site dans les moteurs de recherche. Ces métadonnées prennent la forme de tags, contenus rattachés (recommandations d’articles), méta-titres (résumés d’articles), photos et vidéos.

 

Créer ces métadonnées s’avère très chronophage avec une faible valeur ajoutée pour les journalistes de la rédaction. Afin d’optimiser cela, 20 Minutes s’est lancé dans l’expérimentation d’une nouvelle approche afin de créer un "assistant du journaliste" à travers l’utilisation de l’Intelligence Artificielle.

 

Keyrus a accompagné 20 Minutes pour expérimenter et implémenter des méthodes de Machine Learning, de traitements naturels du langage ainsi que des méthodes de Deep Learning afin d’aider les journalistes à générer des tags, rechercher des articles similaires, contextualiser et associer des images à un article, créer des méta-titres…

 

> Cet atelier s’adresse aux fonctions :

. Chief Information Officer

. Chief Data Officer

. Data Scientist

 

Intervenant :  Winoc COPPENS, DSI de 20 Minutes, Nicolas MARIVIN, Manager Data chez Keyrus, Bouzid AIT AMIR, Manager Data Science chez Keyrus

 

Salle d

Transformer votre DataLake en Spatial DataLake pour révéler le potentiel de vos Big Data

 

Si nul ne doute des nouvelles opportunités représentées par les Big Data, la plupart des entreprises éprouvent des difficultés à extraire de la valeur des données de localisation.

En effet, la croissance rapide des Big Data s’accompagne d’informations plus détaillées sur les clients, ainsi que d’interactions et d’informations de localisation plus précises que jamais,grâce à l’amélioration des processus de capture des données.

Les applications mobiles, les géotags et les capteurs intelligents génèrent des millions de nouveaux points de données par heure avec une composante de localisation associée à chacun d’eux. Les données structurées, semi-structurées et non structurées sont souvent déjà référencées par des coordonnées géographiques. ou possède une composante spatiale. Par ailleurs, l’enrichissement spatial est une bonne façon de contextualiser les données pour créer de la valeur. L’analyse géospatiale joue donc un rôle de plus en plus important mais la complexité de mise en œuvre et de maitrise, les volumes et les temps de traitements sont autant de facteurs qui peuvent nuire

aux performances de l’Enterprise. La solution Spatial Data Lake de Pitney Bowes résout les problèmes inhérents afin que les entreprises profitent pleinement du contexte spatial. Grâce à une seule plate-forme de géolocalisation intégrée, les entreprises peuvent facilement produire et partager des informations dans toute leur organisation.

 

 

Intervenant : Trawinski, Charles, Consultant Solution Pitney Bowes

 

15h30 - 16h

Salle a

Optimiser et automatiser votre datalake

 

Court extrait de ce qui sera couvert : présentation de l’application big data Générateur de workflow (cycle de vie et automatisation) d’intégration, de traitements et d’exposition tous les types données brutes (tous type fichiers, flux streaming, BDD relationnelles, Open data, web services, etc..) dans un datalake hadoop.

 

 

Intervenant : ESSID Fahd – CTO Big data – LANSROD BIG DATA

 

Salle b

L’approche Data Lake sur AWS : BI, Analytics et IA a porté de main

 

Cet atelier a pour but de vous faire découvrir l’approche Data Lake d’AWS. Faites tomber les silos, sécurisez vos données et donnez-leur de la valeur grâce aux services de BI, d’Analytique et d’Intelligence artificielle de la plateforme.

Nous décrirons les grandes briques du datalake ainsi que les services vous aidant à tirer rapidement tout le potentiel de vos données.

 

Intervenant : Xavier Delacour, Solutions Architect, AWS

Salle c

L’Intelligence Artificielle, nouveau moteur de croissance dans les entreprises DATA DRIVEN

 

Les données dans les entreprises sont une véritable une mine d’or. Afin de prendre les bonnes décisions et d’avoir des réponses à ses questions métiers, Kaufman & Broad a utilisé Alteryx et Tableau pour préparer et visualiser ses données. Philippe Minier, DSI chez Kaufman & Broad a décidé d’aller plus loin avec DataRobot, une plateforme d’analyse prédictive et d’Intelligence Artificielle.

L’entreprise a aujourd’hui une vue analytique de ses performances métiers et souhaite prédire et anticiper les futures tendances et nouveaux comportements à partir de ses données.

Ce témoignage vous montrera comment l’Intelligence Artificielle et l’analyse prédictive peuvent impacter l’évolution de votre entreprise et vous apporter un avantage concurrentiel majeur

 

Intervenant : Philippe MINIER, DSI chez Kaufman & Broad

Salle d

Retour d’expérience détaillé du programme Big Data + Data Science d’un opérateur réseau d’envergure mondiale

 

Big Data, NoSQL, Data Science, Analyse Sémantique et Dataviz sont au programme de ce projet à fort ROI.

Chez cet opérateur réseau d’envergure mondiale, le terme « Big » Data n’est pas exagéré ! Les problématiques techniques et de performance du traitement des données sont au cœur des challenges. Mais c’est avant tout la création de valeur pour les métiers qui guide la démarche projet. Plusieurs cas d’usage mettant en œuvre des algorithmes avancés et l’exploitation de données non structurées ont été mis en œuvre. Ici, c’est grâce à la construction d’un socle Big Data robuste que les applications d’intelligence artificielle à forte valeur ajoutée peuvent pleinement s'exprimer.

 

Business & Decision vous propose un retour d’expérience détaillé de ce programme. Lors de cet atelier, nous partagerons avec vous les challenges et solutions techniques ainsi qu’une présentation des usages développés. Les volets méthodologiques projet et Data Science seront aussi présentés pour montrer comment l’ambition initiale s’est transformée en succès.

 

Intervenant : Mick LEVY, Directeur de l’Innovation Business

 

16h - 16h30

Salle a

Comment mettre les Big Data au service du Marketing, de la relation client et de l’efficacité commerciale ?

 

Les Big Data ne créent pas de valeur si on ne les met pas au service des métiers. Cette évidence n’est pas toujours suivi de faits, notamment quand il s’agit de mettre le pouvoir de la data au service du marketing, de la relation client et de l’efficacité commerciale. En effet, ces 3 métiers, centrés sur le consommateur, n’ont pas attendu Hadoop et sa cohorte de technologies pour collecter, valoriser et activer les données client.

Néanmoins, toute entreprise se doit aujourd’hui de repenser la gouvernance et la gestion de ses données client afin de bénéficier des promesses du Big Data et pouvoir enfin :

  • casser les silos de données pour offrir une vue client réellement 360° et de plus en plus temps réel
  • doper l’efficacité et la performance des processus commerciaux et marketing grâce à l’algorithmie et notamment l’intelligence artificielle
  • offrir une expérience client individualisée et contextualisée à travers l’ensemble des points de contact tout en respectant la vie privée de chaque consommateur.

Durant notre workshop, nous vous expliquerons pourquoi nos clients ont construit des plateformes client organisées sur un socle Big Data grâce aux Datalakes et Lakeshores, comment ils ont refondu leur RCU au sein de cette plateforme, où l’IA leur a permis de générer d’importants ROIs et de quelle façon ils garantissent leur conformité avec la RGDP.

 

Intervenant : Romain Chaumais, Co-founder & Chief Strategy Officer Ysance

Salle b

 

Fast Data

 

Fondée en 2000, l’équipe ebiznext s'est forgée une solide expérience dans la transformation

digitale et data-driven de ses clients, grâce à la complémentarité de ses data scientists et de ses data

engineers, experts en systèmes orientés événements sur les technologies Kafka, Spark, Mesos...

Jusqu’à très récemment, les systèmes Big Data s’appuyaient sur le modèle batch. Dans ce modèle,

les données sont stockées dans un système de fichiers distribué et ensuite traitées en batch ou en mode interactif. Bien que le modèle batch soit adapté à certains cas d’usages, il présente un inconvénient majeur : le délai de mise à disposition de la connaissance. Les systèmes Big Data ont donc entretemps évolué vers un modèle en streaming, dans lequel la donnée est traitée au fur et à mesure de sonacquisition.

 

C’est la naissance des systèmes « Fast Data ». Elle répond à des cas d’usage comme la recommandation en ligne ou la détection de fraudes. En s'appuyant sur ses 5 années d'expérience dans l'architecture, la mise en oeuvre et l'industrialisation de datalakes, Hayssam Saleh, CTO cofondateur d’ebiznext, animera cet atelier "Fast Data" ayant pour objectifs de recouvrir l'ensemble de la chaine de traitement de la donnée (collecte / agrégation / diffusion), et d'illustrer par des cas d’usages concrets là où la « fast data » a réellement fait ses preuves.

 

Intervenant : Hayssam SALEH, CTO cofondateur d’ebiznext

 

Salle c

La data science au coeur des objets connectés grâce à Project Flogo

 

Par la prolifération des capteurs et la génération croissante d'une multitude de données, l'internet des objets est au coeur des problématiques big data.


Cette session vous propose de découvrir :


- les avantages coûts et opérationnels à distribuer l'intelligence de traitement de ces données au plus près des objets
- une solution open source pour développer et déployer simplement des logiques complexes de machine learning, tout en restant compatible avec les contraintes de taille et de consommation énergétique, liées à l'environnement des objets
- une démonstration ludique et interactive mettant en valeur la pertinence de cette approche d'intelligence déportée vers les objets

Intervenant : Eric Carlier, Senior Consultant, Office of the Chief Technology Officer, TIBCO Software

Salle d

Retour d’expérience avec Localads du Groupe SOLOCAL sur la mise en œuvre d’une solution de monétisation de l’audience auprès des propriétaires de sites web.

 

Solocal Group, N°1 européen de la communication digitale locale, propose des contenus digitaux, des solutions publicitaires et des services transactionnels qui connectent simplement les consommateurs avec les entreprises locales.

A ce titre le groupe propose de nombreux services et plus particulièrement LocalAds qui est une solution de monétisation sous forme de widget à destination des propriétaires de site web. Ce widget propose automatiquement la mise en relation de l’audience du site avec les professionnels les plus adaptés.

Dans ce cadre le but de notre projet est de proposer un widget performant et générant des « bons taux de clics », c’est-à-dire fournissant un service à valeur ajoutée pour l’audience du site. De façons plus concrète cela équivaut à afficher des professionnels :

Du secteur d’activité en rapport avec la page du site consulté,

Dans la/les localité(s) adaptée(s) à l’internaute.

Une des complexités de ce projet résidait dans la capacité à accéder à différentes sources de données hétérogènes & volumineuses afin de proposer une solution « end-to-end ». Complexité ayant pu être appréhendée par le déploiement et l’utilisation de la plateforme Data Science Studio de DATAIKU.

Lors de cet atelier, nous partagerons notre retour d’expérience sur ce projet en présentant plus particulièrement :

Des éléments de contexte sur la volumétrie et la typologie des informations exploitées,

Comment, via un algorithme de textmining, le widget peut réussir à définir lui-même l’activité professionnelle liée à une page web automatiquement,

Le fonctionnement de l’API mis en œuvre et l’évaluation de la pertinence des propositions.

 

Intervenants : Marie-Zoé DUBECQ, Head of Product Local Ads & Partnerships @SOLOCAL

Simon FERRANT, Data Scientist @AVISIA

16h30 - 17h

Salle a

Data science : comment trouver les données externes QUI libéreront le potentiel caché de votre business ?

 

Fini l’époque où nous enfermions nos clients dans des segments statiques. Face à une très forte multitude de choix, le comportement du consommateur s’anarchise et devient opaque. La décision d’achat varie désormais en fonction du contexte dans lequel le client se trouve. Et ce contexte ne se capte qu’à travers une analyse précise des différentes variables d’influence et leur importance.

 

Alors que les données internes ne représenteront demain que 20% du capital informationnel des entreprises, l’accès aux sources de données externes, tierces et publiques, explose. Dans ce magma de données brutes, comment identifier les données qui feront la différence ?

 

A l’occasion de cette conférence, nos experts en Data Science vous présenteront leur méthodologie pour identifier les données externes stratégiques, les pondérer en fonction de leur criticité et les croiser avec vos données internes pour faire naître un modèle prédictif unique, créateur de valeur.

 

Nos propos seront illustrés par des cas concrets : le cas d’un acteur de la restauration en ligne ainsi que celui d’un acteur automobile qui ont su capter les éléments contextuels favorisant la réussite de leur business.

 

Intervenants : Akil Daboul, Practice Leader Big Data, SQLI

Hakim Arezki, Data Scientist, SQLI

 

Salle b

Au delà des brokers : un tour de l’environnement Kafka

 

Apache Kafka ne se résume pas aux brokers, il y a tout un écosystème open-source qui gravite autour. Confluent vous propose ainsi de découvrir les principaux composants comme Kafka Streams et KSQL lors de cet atelier technique.

 

Intervenants : Florent Ramière - Technical Account Manager - Confluent

Aurélien Goujet - Solution Engineer

 

Salle c

Banque, Assurance : profitez des évolutions réglementaires pour bénéficier de nouvelles opportunités grâce à la Data et à l'Analytics

 

Comment adresser les challenges data et analytics face aux nombreux changements réglementaires? Comment faire émerger, à partir de ces nouvelles contraintes, des opportunités de création de valeur?

 

Retrouvez-nous lors de cet atelier pour découvrir comment les équipes PwC permettent aux acteurs Bancassurance de sécuriser et d’optimiser leurs dispositifs de mise en conformité. Vous saurez ainsi comme vous adapter à la mise en place de nouvelles réglementations (BCBS239, Solvabilité 2, Anacrédit, IDD, GDPR, MIFID2 etc.) en résonance directe avec le Data Management, le Big Data, le Data Lake et l’Advanced Analytics.

 

Intervenants : Jean-David Benassouli, Associé Responsable de l'activité Data & Analytics PwC France  (à confirmer) / Jean Barrere,  Directeur Data & Analytics / Stéphane Bocquillon, Directeur Data & Analytics

 

Salle d

Big Data Textuelles : Comment augmenter votre productivité et automatiser vos processus métiers intégrant des données non structurées grâce à QWAM Text Analytics (Sémantique, Intelligence Artificielle, Big Data)

 

Face au volume croissant de données non structurées (Big Data Textuelles), QWAM a développé une solution regroupant des modules de Sémantique, d'Intelligence Artificielle permettant d'améliorer considérablement le temps de traitement et la qualité liés à la valorisation des informations textuelles. Les données non structurées représentent une large partie des données des organisations (verbatims clients, enquêtes collaborateurs et RH, contrats, dossiers qualité ou réglementaires, archives presse, média ou métier, etc.). Les solutions QWAM Text Analytics permettent d'analyser de grandes masses de données afin d'extraire automatiquement des caractéristiques métiers, des critères d'analyse ou de gestion, des insights, des tendances ou autres indicateurs.

 

Intervenants : Christian Langevin - Directeur Général

 

17h00 - 17h30

Salle a

Alteryx, une autre façon de penser l’Analytics

 

Découvrez la plateforme qui  révolutionne les métiers à travers l’Analytics et la Data Science.

Salle b

Comment exploiter et valoriser les données issues de l’IoT ?

 

Les données provenant de l’IoT représentent une nouvelle opportunité pour votre activité, vous permettant de gagner en efficacité et en productivité. Mais la simple collecte des données provenant des objets connectés n’est plus suffisante. Vous avez besoin de combiner ces données avec vos sources existantes et de les partager en temps réel avec vos collaborateurs ou vos clients.

Dans cette session, vous aurez l’occasion de découvrir les solutions Information Builders dédiées à l’IoT, telles que :

  • Les solutions d’intégration des données
  • Les solutions de gestion de la qualité de vos données
  • Les solutions analytiques et de BI, pouvant être intégrées directement dans vos applications métiers pour en favoriser leur usage.

 

Intervenants : M. Tarik Zaaboul, Consultant avant-vente, Information Builders

 

Salle c

Comment Butagaz utilise la data des conversations téléphoniques pour l’acquisition de nouveaux clients

 

Retour d’expérience en compagnie de Damien Duchaussoy, Directeur Marketing Gaz Naturel & Electricité de Butagaz

Comment l’utilisation du Cookie Vocal permet à Butagaz de :

  • Mesurer le taux de conversations et performance des campagnes payantes (mots clés et retargeting 100% digital)
  • Collecter des données de qualification marketing pour enrichir la DMP et les CRM

 

Intervenants : Frédéric Daniel, DGA d’Allo-Media et Damien Duchaussoy, Directeur Marketing Gaz Naturel & Electricité de Butagaz

 

Salle d

Comment concilier Big Data et l’accès en temps réel aux données sécurisées

 

Suadeo propose une plateforme logicielle digitale qui comporte tous les outils de la Business Intelligence Agile ; du tableau de bord de direction aux requêtes des chargés d'étude en passant par le reporting opérationnel, sans oublier les analyses multidimensionnelles ainsi que l’outil d’alimentation des données (Dashboard, Report, Analyses, Query, ETL…).  La plateforme Suadeo Designer® embarque en natif toutes les fonctions de sécurisation qui ont déjà aidé plus de 100 clients en Assurance et Banque à répondre aux obligations réglementaires d’accès à leurs données nominatives ou sensibles (GDPR, Business,…).  Le client MFP Services produit des analyses comparatives et de performance des actions de prévention menées sur son portefeuille de fonctionnaires avec l'ensemble de la population française (Open Data, SNIIRAM, Ersasme…). « L'avenir de l'assurance c'est les services, et l'avenir des  services c'est les données. » : c’est la vision de Jean-François Directeur Général de Carte Blanche Partenaires.  Carte Blanche Partenaires a construit un Décisionnel Santé Big Data, intégrant la protection des données personnelles, notamment celles de santé et  l’accès temps réel aux tableaux de bord et analyses pour l'ensemble des usages métiers.  L'hétérogénéité des données en interne (web, crm, prise en charge, conventionnement,...) et en externe (data transférée par les clients, panel de consommation, opendata,...) ainsi que l’importante volumétrie associée (plus de 2,5 M de flux par an) ont obligé à adopter une solution globale, adaptée et réactive; tout en prenant en compte les contraintes d'un hébergement agréé données de santé. Dans ce contexte, Carte Blanche Partenaires a fait le choix de Suadeo Designer® pour assurer la réussite de son programme.

 

Intervenants : Azzeddine Bendjebbour (Président Suadeo), Jean François Tripodi (Directeur Général Carte Blanche Partenaires), Marina Molin (Directeur du Développement et de l’Innovation Mfps), Mostafa Latifi (DSI Mfps)

 

17h30 - 18h

Salle a

Simplifiez-vous la manière d’interagir avec vos données

 

Durant cet atelier, nous verrons comment Google Cloud Platform peut vous aider :

  • à stocker vos données dans un datalake
  • à préparer/nettoyer ces données
  • à travailler de manière interactive avec vos données
  • à définir et partager des tableaux de bord

 

Tout cela sous forme de services managés donc sans aucune installation de serveurs.

 

Intervenant : Sébastien Cantini, Customer Engineer, Google Cloud

 

Salle b

Révolutionner l’usage de la donnée

 

Intervenant : Carsten Weidmann, Technical Alliance Manager, Exasol

Salle c

 

POINT DE VUE CLIENT

CONCILIER DATA SCIENCE ET CONTRAINTES GDPR AVEC UNE GOUVERNANCE DES DONNES STRUCTURELLE

 

A l’aune de la GDPR, l’approche historique de la Data Science est remise en question. Rassembler les données dans un Data Lake, donner accès aux Data Scientists qui essaient d’extraire de la valeur des sources brutes de données sans se poser la question des usages à priori n’est plus possible. Avec la GDPR, les usages des données à caractère personnel sont strictement encadrés. L’information des personnes concernées et la collecte de leur consentement est une condition préalable à l’utilisation des données par les entreprises. En particulier lorsque les finalités ne sont pas strictement liées à l’exécution du contrat.

 

Retrouver nous dans cet atelier pour comprendre comment la gouvernance des données peut permettre de concilier les besoins d’analyse des données avec la conformité GDPR.

 

Intervenant : Pascal BOURCIER, Data Office Groupe, BPCE

 

Salle d

Intelligence artificielle : pourquoi faut-il repenser la manière dont

 vous gérez vos données ?

 

Lors du déploiement des technologies d’Intelligence Artificielle, il est devenu nécessaire de penser au-delà des GPU et des modèles de Deep Learning pour résoudre le problème de l’accès aux données. En effet, la gestion en silos, imposée par les datalakes traditionnels, ne permet pas une exploitation en temps réel nécessaire au déploiement de l’IA. Pure Storage accompagne depuis plus de trois ans de nombreuses grandes entreprises et organisations à travers le monde sur des projets d’Intelligence Artificielle. Dans cette atelier, nous vous proposons de partager 5 enseignements qui nous ont permis de repenser les infrastructures de données:

  • L’intelligence Artificielle est avant tout un pipeline
  • Datalake: des promesses non tenues !
  • Cloud ou pas cloud?
  • Benchmarks et réalité
  • La plate-forme de données idéale est un Data hub

 

Intervenants : Bertrand Ounanian, Ingénieur - Expert données non structurées, Pure Storage France

18h - 18h30

Salle a

 AIP design studio : bâtir des applications IA@Scale

 

Afin d’assurer le déploiements de l’intelligence artificielle dans l’entreprise, il devient indispensable de s’appuyer sur des outils permettant à la fois d’industrialiser la construction d’applications analytiques et faire vivre les algorithmes sur lesquelles elles reposent. Accenture déploie la solution Accenture Insight Platform (AIP) et son Design Studio chez de nombreux clients afin de répondre à ces enjeux.

 

Intervenants : Dominitz Mickael – Consultant chez Accenture Applied Intelligence

Salle b

RGPD & IT : quelles actions pour assurer la protection des données ?

 

Dans cet atelier, Yves Rocha, IT Quality Manager chez Mailjet, évoquera l’importance des systèmes d’information dans le contexte du RGPD. Les discussions porteront sur les actions à mettre en place pour assurer la gestion des données, améliorer la sécurité des informations, garantir le respect de la vie privée, mais également démontrer votre conformité à la nouvelle réglementation.

 

Intervenants : Yves Rocha, IT Quality Manager chez Mailjet

 

Salle c

Concrètement, comment rendre la DataScience accessible à tous les métiers ?

 

Actuellement les équipes Data représentent un goulot d’étranglement pour les équipes Marketing, Finance, Business Analyse ou encore RH, qui dépendent d’elles pour leurs besoins en Data et en analyses.

De leurs côtés, ces équipes Data passent beaucoup de temps sur ces sujets auprès des équipes métiers et n’ont plus le temps de se consacrer à leur cœur de métier : la recherche de leviers business dans dans les données.

Comment résoudre concrètement cette problématique par l’empowerment des métiers business vis à vis de l’exploitation des données ?

 

 

Intervenant : Shankar ARUL (Founder & CEO, JetPack Data)

 

Salle d

Overcoming the challenge of multiple data frameworks in a multiple cloud environment

 

The race for having data lakes available for big data processing and from multiple digital sources – including mobile, web, IoT, cloud apps, and legacy systems – continues to intensify. And a major hurdle for today’s technology leaders trying to get there is the need to manage several data frameworks that reside in multiple clouds all with varying standards due to multiple vendor solutions. It’s no secret that enterprise executives who glean insights from these data lakes and big data analytics can go to market faster and use real, measurable value with agility toengage customers faster. Teams that can accomplish digital business initiatives more successfully will gain a competitive edge against their competition.

 

Similar to how many enterprises turned to best-of-breed SaaS solutions to advance almost any function in their organization, their leaders will turn to managed services for big data integration.

 

Craig Stewart, VP of Product Management at SnapLogic, will explain how enterprise leaders can ease the pain of big data integration with an approach that leverages the technology of an iPaaS solution.

 

Intervenant : Craig Stewart, Vice President of Product Management, SnapLogic

 

12 & 13 mars 2018 • Palais des Congrès • PARIS

BigData Paris est un congrès réalisé par Corp Agency, l’agence événementielle au service du grand public et des professionnels.

contact

Simon NICOLAS

Inscription Conférences

01 84 83 02 86

snicolas@corp-agency.com

Romain DECHAUDAT

Directeur Commercial

01 58 12 06 94

rdechaudat@corp-agency.com