inscription

12 & 13 mars 2018

Palais des Congrès • PARIS

inscrivez-vous en ligne pour participer à big data paris 2018

réservez votre badge

BigData Paris est un congrès réalisé par Corp Agency, l’agence événementielle au service du grand public et des professionnels.

éditions précédentes

2013

2012

éditions précédentes

2012

2013

9h - 9h30

Salle a

 

Automatiser la création de dashboards Tableau :

c’est révolutionnaire et ça marche !

Découvrez comment créer automatiquement de magnifiques dashboards Tableau en seulement 5 minutes avec LinPack-for-Tableau.com

 

Nicolas Oury, CEO de LinPack-for-Tableau.com, créera en LIVE des dashboards Tableau de la plus grande qualité : SALES, PROCUREMENT, GOOGLE ANALYTICS…

 

Venez assister à cet atelier pour découvrir comment :

Produire des dashboards Tableau de grande qualité et automatiquement

Obtenir des gains de productivité inégalés

Améliorer l’efficacité, l’interactivité et l’esthétique de vos dashboards

Tirer profit de notre galerie de visualisation de données

Augmenter l’adoption de votre plateforme Tableau / BI / Big Data

 

Responsables BI : Découvrez comment rendre les développements de vos équipes beaucoup plus efficaces et homogènes

Analystes : Découvrez comment générer des dashboards automatiquement et passez plus de temps à analyser vos données

Experts Tableau : Découvrez comment un accélérateur de développement comme LinPack va simplifier votre travail

LinPack fonctionne pour tous les métiers et s’adapte à toutes les sources de données (mais aucun accès à vos données n’est nécessaire).

 

Intervenant : Nicolas Oury, CEO de LinPack-for-Tableau.com

Salle b

Salle c

Salle d

9h30 - 10h

Salle a

Visualiser des analyses de cyber-menaces à l'aide de Global Knowledge Graph

 

Des organisations utilisent des solutions faisant appel à l’intelligence open-source (OSINT) comme le Global Knowledge Graph pour effectuer des analyses de cyber-menaces à partir de contenus du Web. Avec plus de 2,5 téraoctets de données, le Global Knowledge Graph (GKG) est le référentiel que nous avons choisi pour le projet d’analyse de cyber-menaces de notre client. Toutes les 15 minutes, Google intègre des nouvelles venant du monde entier au GKG. Ces informations comprennent près de trois quarts de milliard de données à caractère émotionnel capturées en temps voulu et plus de 1,5 milliard de références de géolocalisation.

 

Notre client voulait une infrastructure hautement sécurisée pour intégrer les données du GKG et effectuer une analyse des cyber-menaces. Les utilisateurs finaux, tels que les analystes de la sécurité et du renseignement, souhaitaient avoir un outil de recherche et de filtrage interactif et convivial pour effectuer l’analyse et voir les connexions. Ils avaient besoin de voir les ressentis positifs et négatifs des personnes, les événements et les lieux combinés sous forme de graphes, de cartes, de chronologies, de graphiques et de tableaux.

 

Participez à cet atelier pour découvrir les complexités et les solutions innovantes impliquées dans la création d'un immense data lake pour interroger, visualiser et analyser des données massives, au fil du temps. M. Madden conclura avec une démonstration en direct.

 

Intervenant : M. Brendan Madden, Directeur général, Tom Sawyer Software

 

Salle b

L’OPEN DATA, UN BIG DATA HORIZONTAL

 

Depuis l'engagement de Barack Obama en 2011 dans l’Open Government Partnership, un grand mouvement international d’ouverture des données possédées par les acteurs publics s’est lancé. La France s’est inscrite au coeur de cette dynamique avec la loi pour une république numérique et se retrouve au 4e rang des pays de l’Open Data.

 

Nam.R, en tant que réutilisateur massif des données ouvertes, a créé un système de référencement de l’Open Data : sa “data library” qui lui permet d’exploiter au mieux les données parmi les 200.000 datasets ouverts par l’Etat et les collectivités territoriales.

 

Quel est le paysage actuel de l’Open data en France ? Comment comprendre et référencer ce que contient l’Open data pour le réutiliser au plus efficacement ? Quelle architecture pour gérer la kyrielle de micro datasets que représente l’Open Data ?

 

Intervenants : Nicolas Berthelot, nam.R, lead data strategist

Gaël Grasset, nam.R, data scientist

 

Salle c

  État de l’art sur I ’ingénierie du Text Mining

 

même acquis un niveau de maturité qui le rend très utile dans de multiples tâches qui vont bien au-delà d’une simple veille des médias sociaux ou d’une analyse des sentiments.

Cela dit, il existe plusieurs obstacles qui empêchent l’accessibilité de ces méthodes à un bassin plus large d’utilisateurs.

Le recours à des solutions « open source » nécessite souvent des compétences en programmation, tandis que les solutions commerciales sont souvent fondées sur le principe de «boîte noire», n’offrant que peu de possibilités au data analyste de personnaliser ou d’effectuer un réglage minutieux des paramètres de l’analyse.

De plus, la plupart de ces solutions ne sont disponibles qu’en mode SaaS, nécessitant le téléchargement de données confidentielles vers le «cloud».

Nous présenterons les travaux récents de notre équipe R&D qui contribuent à «démocratiser» les techniques d’analyse de texte en les rendant accessibles non seulement aux analystes et aux chercheurs expérimentés, mais également aux non-experts. L’implantation de multiples interfaces à notre suite logicielle « desktop » permet à celle-ci de s’adapter à différents niveaux d’expertise et de compétences des utilisateurs. Ce qui rend son utilisation très simple et intuitive pour les débutants, mais continue à offrir une grande flexibilité aux utilisateurs plus expérimentés, leur permettant de développer, de valider et d’appliquer leurs propres modèles d’analyse de texte ou de modifier les modèles d’analyse existants.

Nous présenterons également les résultats de nos efforts dans le domaine de l’extraction automatique de thèmes sémantiques, dans le but d’en augmenter sa précision et sa sensibilité.

 

Intervenants : Normand, Péladeau, CEO

 

Salle d

  La Gouvernance de l'Information à l'aune du RGPD et les outils pour être conforme

 

Le volume de l’information a explosé ces dernières décennies et cette tendance ne fait que s’accentuer. En plus des gros volumes d’information à gérer, l’entreprise se retrouve face à d’autres problématiques, l’information est dispersée partout dans l’entreprise et devient de moins en moins accessible, sans parler des problématiques générées par les outils de partage de fichiers (Google Drive, Box, SharePoint...) : un vrai désordre ! Transformation digitale, explosion du volume des données, évolution du cadre normatif et réglementaire notamment avec le Règlement Général sur la Protection des Données (RGPD) qui entrera en vigueur le 25 mai prochain et qui constitue un immense défi pour les entreprises… Il est temps d’agir ! Cette conférence propose des retours d’expérience et des avis d’experts pour mieux comprendre comment mettre en place une gouvernance de l’information dans votre entreprise et apporter des orientations concrètes et pragmatiques.

 

Intervenants : Noureddine Lamriri, VP Product Management chez Everteam et expert en Gouvernance de l’Information

Autre(s) intervenant(s) (confirmation à venir)

10h - 10h30

Salle a

Analytique temps réel et excellence opérationnelle à l'ère de l'industrie 4.0

Témoignage d’Air Liquide

 

Comment Air Liquide optimise l'efficacité économique de ses usines grâce à TIBCO Spotfire, plate-forme temps réel de data visualisation et d'analytique avancée.

 

Intervenants : Olivier Rioux, Large Industries Programme Manager, Air Liquide

Pierre-Jacques Evrard, Senior Solutions Consultant, TIBCO Software

 

Salle b

Global Data Management cross Enterprise Data Lakes

 

Les nouvelles règlementations ainsi que nouveaux usages de la donnée demandent une gestion globale et transverse des différents entrepôts de données au sein de l’entreprise.

Les applications data-centric créent de la valeur en mettant en communs de multiples services, régions ou départements : des approches tels que la datascience, l'analytics des objets connectés ou encore les utilisations des clouds, sont autant d’exemples de la mise en commun de cette problématique qui permettent d'être au plus près de la zone de création de valeur de la donnée.

Découvrez comment offrir une plateforme proposant les services de Sécurité, Protection et Gouvernance globale sur ces éléments distribués avec Hortonworks Data Plane Service.

 

Salle c

 

Utilisation de nouvelles typologies de données, une piste pour enfin sortir
du Last Clic ?

 

Prisma Media, premier groupe bi-média de France en diffusion et en audience print-digital, a choisi de perfectionner son modèle de contribution des ventes web d'abonnements à ses magazines print en mesurant l'effet combiné de tous ses leviers marketing digitaux, et en y intégrant également ses canaux off, la météo ainsi que de nombreux autres effets externes.

Quel impact une belle journée ensoleillée peut-elle avoir sur des souscriptions online d'abonnements? Une vente dans la foulée d'un email n'est-elle due qu'à cette communication ? Un abonnement digital n'est-il vraiment généré que par le dernier point de contact que l'internaute a eu avec la marque ?

Alors, pourquoi ne se contenter qu'une mesure de performance au last clic ?

 

Au programme de cette intervention co animée par Estia et Prisma Média : insights permis par cette nouvelle approche algorithmique : Estimation de la rémanence de chaque levier on et off, refonte des modèles d'attribution, optimisation des budgets marketing …

 

Intervenant : Nicolas CHOISEAU, PRISMA MEDIA, Directeur Data Science

Valérie CANNES, GROUPE ESTIA, Manager Pôle Customer Interactions

Témoignage de la société Prisma Média sur la réflexion co-menée avec Valérie Cannes, Groupe Estia

 

Salle d

 Big Data Analytics avec MicroStrategy

 

Découvrez toutes les fonctionnalités analytiques de MicroStrategy pour les systèmes Big Data lors de ce tour d’horizon interactif en 30 minutes de la plateforme.

 

  1. Choisir sa source Big Data : Plus de 80 sources et connecteurs disponibles, toutes les bases, distributions et fichiers.
  2. Data Wrangling : Préparer et arranger vos données avant l’analyse en utilisant les fonctions et algorythmes de data prep prêts à l’emploi. Corriger, dédoublonner, séparer, renommer, fusionner, organiser vos fichiers pour une meilleure qualité d’information et d’analyse.
  3. Choisir ou créer ses visualisations : De nombreux formats de visualisation des données sont disponibles en standard mais vous pouvez aussi enrichir via des bibliothèques publiques comme D3.js
  4. Data Blending : mélanger plusieurs sources de données dans un même rapport pour des analyses plus riches et une vision à 360° de votre activité.
  5. Ajouter du prédictif : Utiliser les fonctions natives ou profiter de l’intégration native avec le langage R
  6. Collaborer en web ou mobile : Diffusez vos analyses en intégrant vos filtres de manière instantanée avec vos collègues et travaillez en groupe sur vos rapports

 

Intervenants : Thierry Duval, Consultant Avant-Vente Senior, MicroStrategy

10h30 - 11h

Salle a

Valorisez votre capital data pour en faire un moteur de performance

 

La mise en œuvre d’un projet data, quel qu’il soit, passe par des étapes incontournables et des savoir-faire bien précis :  la collecte des données multi-sources, leur structuration, leur enrichissement, leur modélisation et leur restitution pour les rendre explicites.

 

A travers ces étapes, vous aurez sollicité la compétence de data scientists, vous aurez utilisé des outils de Business Intelligence vous permettant de prendre des décisions rapides et précises et vous vous serez familiarisé avec la datavisualisation.

Une fois ces phases atteintes, vos projets data visant à accélérer la performance de votre entreprise pourront être mis en place efficacement.

Venez découvrir notre approche, notre méthodologie, nos outils, nos cas clients et comment transformer votre capital Data en opportunité d’affaires.

 

Intervenant : Diane Quenault de Saint-Sulpice – Alliances Business Manager, Altares

Gilles Lambert – Responsable Trade, Altares

 

Salle b

Comprendre le comportement client avec Spark ML, Cloudera et Qlik Sensee

 

La vision unique à 360° du client est toujours aussi complexe à obtenir, avec l’augmentation du nombre de canaux de communication et les silos de données qui se multiplient.

Les Big Data contiennent pourtant des insights précieux sur les clients, mais pour les obtenir, il faut adopter une approche moderne de la Data & Analytics et associer les meilleures technologies de machine learning et de visualisation des données pour exploiter la réelle valeur de la data. Lors de cet atelier, nous montrerons comment Qlik et Cloudera intègrent la puissance de Spark ML dans l’analyse du panier d’achat, pour révéler des corrélations entre des produits de différentes catégories qui n’auraient pas pu être devinées sans cette exploration. Des informations essentielles pour personnaliser l’approche client et optimiser les campagnes de recrutement et de fidélisation.

 

Intervenant : Lala Ranaivoariseheno (Architecte Avant-Ventes – Qlik ) et Mael Ropars (Ingénieur Commercial - Cloudera)

Salle c

RGPD : démarche et outils pour traiter vos données sensibles dans votre Datalake

 

Les données sensibles sont interdites par la CNIL et le RGPD ne fera qu'amplifier l'obligation de répondre à cette problématique.

 

La nouvelle réglementation impose aux entreprises d’être en mesure de détecter les données sensibles présentes dans les zones de texte libre de leurs applications métier.

Basé sur la solution COHERIS Analytics SPAD, le module Coheris RGPD Text-control permet d'implémenter des procédures de supervision du contenu de ces zones stocké dans un cluster Hadoop.

 

Découvrez comment:

• Cartographier les données sensibles (traitement d’importants volumes d' historiques de données).

• Identifier automatiquement et rapidement les verbatims à risque.

• Contrôler et corriger ces verbatims automatiquement en temps réel pour qu’ils soient conformes en matière de RGPD.

 

Intervenant : GARDEBLED Jean-Baptiste, Datascientist chez Coheris

 

Salle d

Gérez vos Données de Référence Client avec agilité et fiabilité et révélez pleinement le potentiel de vos Big Data

 

Si nul ne doute des nouvelles opportunités représentées par les Big Data, elles posent aux organisations la question fondamentale de la gestion des données Client.

La variété de ces nouvelles données mais aussi leurs vélocités combinées aux nouvelles réglementations GDPR conduisent inévitablement à adapter la gouvernance des données de référence.

Et s’il y a bien une chose que les MDM traditionnels ne supportent pas, c’est le changement provoqué par la prolifération de ces nouvelles sources.

Plus que jamais pourtant les MDM doivent être déployés, maitrisés ou défiés, pour renforcer la fiabilité des analyses effectuées par les data scientists en évitant des croisements erronés de données.

Si les Big Data permettent des recoupements à grande échelle, il est donc essentiel pour l’ensemble de la chaine d’analyse que ces données soient fiables.

S’appuyant sur une base de données orientée graphe, la solution de gestion de données de référence Clients nouvelle génération de Pitney Bowes offre toute l’agilité nécessaire pour supporter ces nouveaux besoins.

A travers les graphes de connaissances vous pourrez ainsi créer, enrichir et administrer en toute simplicité des modèles de données Clients à partir des relations complexes existant entre les processus, interactions, hiérarchies, rôles et domaines de vos Big Data.

 

 

Intervenant : Eric HUBERT, Solution Consultant, Customer Information Management, Pitney Bowes Europe

11h - 11h30

Salle a

Le Machine Learning, facilitateur de la transformation digitale :

son impact sur les processus ‘métier’

 

Le temps est venu de vous réinventer, en plaçant les données au centre de vos décisions.

Cependant, la disponibilité, la transformation et la valorisation de ces données posent de réels défis aux entreprises

Pour vous aider à les relever, venez découvrir les solutions de Machine Learning @SAP qui vous permettent aujourd’hui de :

- Délivrer une expérience client unique et personnalisée

- Réduire les coûts de maintenance sur vos installations

- Créer de nouveaux ‘business models’

Intervenants : Alexis Fournier, Global SAP HANA COI, et Arta Alavi, Sr. Product Expert Strategy, SAP

 

Salle b

Salle c

Du BI au Big Data, comment intégrer les technologies Big Data aux architectures décisionnelles ?

"Les institutions financières utilisent de manière croissante les applications de BI pour exploiter et consolider un volume exponentiel de données hétérogènes, en vue de faciliter la prise de décision des entités métier pour l'amélioration des services.

Les architectures des applications BI évoluent vers des solutions plus agiles offrant de nombreuses fonctionnalités. Ces évolutions sont caractérisées par des architectures hybrides qui ont comme objectif de solutionner les limites des architectures précédentes : phase d'ETL longue et gourmande en ressources, jointures nombreuses pour répondre aux différents modèles de données faisant exploser la volumétrie, infrastructure non scalable et incapacité de la solution à fournir des réponses temps réel.

L’intégration des technologies Big Data et le remplacement de la chaîne décisionnelle par des architectures temps réel (Lambda, Kappa) donne naissance à de nouveaux challenges (formation des équipes internes, haute disponibilité des services...) pour les institutions financières.

Quelles sont les limites du BI ? Quel modèle alternatif proposer,  mettant en oeuvre des technologies adaptées aux acteurs Finance ? Nous répondrons à ces questions lors de notre atelier.

Intervenants : Mohamed Mehdi Ben Aissa, Architecte, Speaker et Formateur Big Data
Tarik Zaakour, Senior Technical Sales Engineer

Salle d

Les Data Lakes : du physique au logique

 

Les objets connectés, les données géospatiales, les traitements transactionnels en ligne (OLTP), les réseaux sociaux et autres sources de mégadonnées continuent d’augmenter le volume et la variété des données hébergées par les Data Lakes Physiques, issus des technologies du Big Data. Face à cette pression, il devient de plus en plus difficile de transformer ces données pour un usage BI temps réel de manière sûre et conforme. Ainsi, grâce aux technologies de virtualisation de données, l’intérêt de nombreuses entreprises se porte sur les Data Lakes logiques. Assistez à cette session pour apprendre comment votre entreprise peut aussi maîtriser la puissance du Big Data avec la virtualisation des données.

 

Intervenants : Olivier Tijou, Country Sales Director, French speaking EMEA

 

11h30 - 12h

Salle a

Gardez une longueur d’avance sur la menace de fraude grâce à la technologie
DSE Graph

 

Les services financiers doivent faire face à des réseaux de fraude très complexes aujourd’hui. Les fraudeurs répartissent leurs activités sur un grand nombre de transactions et de régions géographiques de manière plus coordonnée, rendant les méthodes

traditionnelles d’identification des anomalies presque obsolètes.

La base de données de graphe en temps réel vous permet d’aller au-delà des points de données individuels pour découvrir des modèles subtils dans les comportements et les relations des clients. Ces informations granulaires permettent aux entreprises d’identifier rapidement des modèles atypiques et de réagir immédiatement afin de minimiser de

manière significative l’impact de la fraude sur le client et l’organisation.

 

Intervenant(s) : Julien Michel - Solution Engineer - DataStax

 

Salle b

 

De « Data-Driven » à « Information-Driven » avec le Cognitive Search

 

 Vous êtes-vous déjà demandé ce qui pourrait arriver si vous combiniez intelligemment la puissance de la collecte de données massives et hétérogènes, de l'indexation sémantique, du text-mining, de l'IA et du search en une plateforme unique au profit des collaborateurs d’une entreprise ?

Participez à cet atelier pour découvrir lors d'une démo live comment une plateforme de "Cognitive Search & Analytics" combine ces différentes technologies pour permettre aux entreprises de devenir « Information-Driven » afin qu’elles puissent :

• Prendre des décisions plus avisées

• Optimiser leur productivité et efficacité opérationnelle

• Mieux répondre aux besoins de leurs clients

• Connaître une plus grande satisfaction au travail

 

Intervenant(s) :  Luc Manigot – Directeur des Opérations @ Sinequa

Salle c

Quels usages et quelles applications Big Data pour répondre aux nouveaux enjeux du marketing digital de la SNCF ?

 

Evolution des comportements et des usages digitaux des consommateurs, polarisation croissante des offres et concurrence accrue, tels sont les enjeux auxquels la SNCF doit faire face pour se développer et réinventer sa relation client. C’est dans ce cadre que la SNCF a mis en œuvre son programme de data transformation, Emeraude, pour déployer un parcours client plus fluide et plus cohérent pour ses clients.

 

L’ambition de ce programme est de s’appuyer sur la construction et l’exploitation d’un Data Lake d’entreprise véritable socle décisionnel, exploratoire et opérationnel de la relation client, dont connaissance clients, services personnalisés et expérience client digitale sans couture sont les maîtres mots.

 

Vous découvrirez comment Soft Computing a accompagné la SNCF pour la mise en œuvre de son gisement de données depuis la collecte jusqu’à l’exploitation digitale en passant par la mise en œuvre d’applications métiers sur mesure.

 

Intervenant(s) : Marc PIROELLE – Directeur du pôle Conseil & Intégration – SOFT COMPUTING

Anne Claire BASCHET – Directrice Project Factory – SNCF

 

Salle d

Cloud, Sécurité et Big Data au service du customer 360.

 

La data se place alors au cœur des enjeux business des entreprises. Externaliser les plateformes big data dans le cloud répond aux enjeux techniques de disponibilité, de performance et d’évolutivité des entreprises.

 

Cependant, les problématiques techniques, combinées aux contraintes réglementaires et aux exigences de sécurité, restent cruciales pour la bonne réussite de ces projets. En conséquence, beaucoup de projets Big Data, d’abord lancés « on-premise », sont désormais voués à être externalisés dans le cloud public.

 

Lors de cet atelier, nous vous présenterons:

 

• les bonnes pratiques pour assurer le succès de vos projets,

• la méthodologie pour réussir le déploiement de vos plateformes Big Data dans le Cloud,

• un retour d'expérience avec Publicis ETO, expert en solutions de connaissance client.

Intervenant(s) :  Antonin Bruneau, Sales Engineer, Cloudera

 

12h - 12h30

Salle a

ALIMENTATION DU DATA LAKE : LA CLE DU TIME TO MARKET

 

Vos équipes sont sous tension car il faut :

  • Intégrer plusieurs centaines de sources de données
  • Nettoyer ces données, les agréger et les enrichir avec  des données de référence
  • Projeter les schémas de ces sources sur les modèles pivots du data hub
  • Implémenter des contrôles qualité pour certifier les données par usages
  • Fournir le lignage de la donnée pour satisfaire aux obligations réglementaires
  • Maintenir ces alimentations alors que les schémas de données sont très volatils

Ab Initio met à votre disposition une solution composée de blocs prédéfinis et dirigés par les métadonnées qui permet de réaliser et d’industrialiser ces processus en une fraction du temps qu’une approche traditionnelle imposerait. L’ensemble des opérations sont effectuées  en s’appuyant sur les termes métier du dictionnaire d’entreprise pour s’affranchir de la complexité des schémas physiques.

Nous vous présenterons cette solution qui apporte une très forte réactivité tout en garantissant un haut niveau de performance et de stabilité.

 

Intervenant : Mathias Chaillot, Technical Account Manager - Ab Initio

Salle b

RGPD As A Service : Accélérez votre mise en conformité

 

JEMS Datafactory leader français du Big Data et ASG Technologies, fournisseur leader de solutions permettant l’accès, la gestion et le contrôle des informations, s’associent pour proposer une démarche de mise en œuvre concrète du RGPD, sur la base d’un inventaire automatique de vos données et la création d’une vision à 360° de vos données à caractère personnel.

Au travers d’une interface web conviviale, nous proposons d’outiller le GDPR en vous permettant de visualiser tous les flux de données à travers l’entreprise. Ciblée pour le DPO, les utilisateurs métiers et les responsables de données, nous créons un espace «Data Centric» au sein duquel nous maîtrisons plus facilement les actions opérationnelles de mise en conformité, de l’inventaire au consentement en passant par les droits de la personne.

 

Les consultants métier de JEMS vous accompagnent dans la mise place technique de la solution et votre mise en conformité organisationnelle et opérationnelle.

Conçue pour faire face aux courts délais imposés par la nouvelle réglementation, cette approche «Data Centric» accélère de plus votre transformation numérique.

 

Intervenant : M. David-Stéphane FALA, Chief Data Officer, JEMS datafactory – M. Alain BUENO, Sales Specialist , ASG Technologies

Salle c

Projets Big Data : pourquoi vous ne pouvez plus faire l’impasse sur l’IoT en 2018

 

En entrant dans sa deuxième décennie, le Big Data des traitements par lots et de la business intelligence a fait place au machine learning et à l’IoT. 30 milliards d’objets seront connectés d’ici 2020 : cela représentera plus 40 000 milliards de giga-octets de données à récupérer, à protéger et à traiter, depuis des applications dorénavant déployées dans le mulic-cloud. Cette complexité représente votre plus gros défi : le succès des projets Big Data reposant dorénavant sur la capacité à garantir aux usagers un environnement intégré et simplifié, tant du point de vue des solutions logicielles que de l’infrastructure sous-jacente afin de tenir compte de l’ensemble de ces données distribuées.

 

Dans cet atelier, vous découvrirez comment faire bénéficier à vos données d’un environnement intégré et sécurisé, depuis leur capture jusqu’à leur traitement, sur la base de cas d’usage précis comme le smart building ou la maintenance industrielle prédictive. Accompagnés de TellMePlus, vous découvrirez comment l’intelligence artificielle, automatisée et embarquée, se place dorénavant au plus proche des objets. Avec à la clé, une prise de décision facilitée et en temps réel, un impact réduit du transfert des données sur les réseaux et une meilleure gestion des mises à jour des modèles de prédiction.

 

 

Intervenant : Fabien Medat, Head of IoT expertise, Cisco France

Loïc LINAIS, Chief Product Officer, TellMePlus

Salle d

Quand distinguer un lapin d’un lièvre devient un enjeu business !

 

L’idée de cet atelier n’est pas de comparer des animaux, même si le machine learning est très efficace sur la reconnaissance d’images. Nous chercherons au travers de retours d’expériences clients à analyser la démarche qui nous a permis de prédire plus de deux tiers des « no-shows » pour des rendez-vous commerciaux pris par téléphone. Comment et avec quels outils avons-nous combiné « speech-to-text », analyse syntaxique et analyse sémantique afin d’arriver à un résultat fiable.

 

Intervenant : Lise George, Partner chez Kynapse et Nathan Elbaz, Data Scientist chez Kynapse

 

12h30 - 13h

Salle a

Analytics Model Factory : accélérateur de vos projets Artificial Intelligence & Machine Learning

 

Aujourd’hui, l’usage de techniques d’analytique avancée et l’intelligence artificielle sont au cœur des enjeux de transformation des organisations, avec pour promesse d’apporter plus de justesse et d’efficacité dans l’exécution de leur métier.

L’optimisation des opérations de maintenance, l’amélioration des techniques de détection de fraude ou encore la mise en place d’actions commerciales plus efficaces sont quelques exemples pour lesquels ces nouvelles approches ont démontré toute leur valeur ajoutée.

 

Néanmoins, la construction de ces solutions est un exercice qui nécessite des compétences expertes en programmation de modèle et requiert la mise à disposition d’un univers de données riche et de qualité.

Pour passer à l’ère de la data science à grande échelle et ainsi démocratiser ces techniques dans l’entreprise, il est indispensable de rendre ce processus de développement plus industriel et accessible à des profils non experts.

 

Cette session présente la démarche et les solutions de Think Big Analytics pour aider vos équipes à relever ce challenge et à industrialiser avec succès l’Intelligence Artificielle au cœur de votre métier

 

Intervenant : DEBBAH Michael, Client Services Director France &

                     MOLIN Denis, Senior Data Scientist | Teradata Think Big Analytics

Salle b

La plateforme IBM Cloud : le Cloud et l'IA pour les entreprises

 

Nos clients, et le marché plus généralement, utilisent différentes structures de Cloud en fonction de la sensibilité et de l'origine des données. Dans ce contexte, IBM fournit une plateforme Cloud permettant aux entreprises d’intégrer de façon transparente l’ensemble des données qu’elles résident sur un serveur, dans un Cloud dédié, privé ou public.

 

Au-delà de services d’infrastructure, la plateforme IBM Cloud propose, sur cette même architecture, des sources de données ainsi que des solutions avancées d’analyse et de traitement de données structurées et non structurées pour fournir des solutions d’Intelligence Artificielle, par métier et par industrie. Ainsi, au travers d’API Watson, la plateforme IBM Cloud met à disposition de ses clients l'innovation IBM pour accélérer leur transformation.

 

Lors de cet atelier, nous présenterons comment la plateforme IBM Cloud fournit l’environnement sécurisé, intégré et robuste pour faire de l’IA un réel catalyseur de la transformation en profondeur des entreprises. Trois cas concrets illustreront l'utilisation de cette plateforme Cloud :

1.        Délivrer au client une expérience personnalisée et contextualisée au travers un chatbot qui offre des échanges en langage naturel pour affiner les besoins du client, dans le secteur de la Distribution.

2.        Améliorer l’efficacité opérationnelle avec l’intégration de services cognitifs Watson dans les solutions de streaming vidéo ; l'objectif est d'accélérer la production de sous-titres et la création de résumés d’événements sportifs.

3.        Mettre à disposition des employés de l’information pertinente dans l’entreprise pour faciliter leur travail au quotidien : analyse des boîtes mails dans le but d'en résumer les échanges relatifs à un client et hiérarchisation des actions à prendre pour préparer un rendez-vous commercial.

 

 

Intervenant : Vincent Perrin, IBM Watson Senior Technical Architect, IBM Europe

Erwan Maréchal, IBM devops and Cloud private Leader, IBM France

 

Salle c

Ingérer et traiter des données IoT en temps-réel avec Redis

 

L’utilisation de périphériques IoT connait une croissance exponentielle à mesure que l’on trouve de nouveaux usages pour ceci. Les périphériques IoT modernes disposent d'une connectivité réseau permettant de répondre à de nouveaux besoins et génèrent également une quantité croissante de données qui doivent être gérées et ce de plus en plus souvent en temps réel avec parfois même des mécanismes décisionnels en temps réel.

 

Les informations remontées par ces périphériques peuvent être utilisées pour des traitements temp-réel ou dans un outil de supervision temp-réel. Un mécanisme de notifications en mode push permet à l'émetteur de notifier les systèmes avals en temps réel.

 

Cet atelier illustrera ces fonctionnalités depuis la capture des mesures d’un périphérique IoT jusqu’à la restitution en temps réel dans une interface web. Abordant toutes les caractéristiques nécessaires : protocole simple, performances temps réels, faible latence, forte capacité d'ingestion des données, système de notification par message..

 

 

Intervenant : Georges Carbonnel, Responsable France

Francois Cerbelle : Solutions Architect

 

Salle d

Du Reporting à la data science, comment démystifier pour mieux

en profiter ?

 

Report One est aujourd’hui le leader français de la BI. En tant qu’expert de son marché Report One continue sans cesse d’évoluer pour répondre aux nouvelles attentes du marché.

Ayrald BERTHOD, Directeur Général expliquera comment et pourquoi les besoins du marché ont évolué.

Comment Report One a développé des solutions qui démystifient les grands termes du marché IT pour ouvrir le dialogue et donner/redonner à chaque direction de l’entreprise ( Direction Générale, Financière, RH, Commerciale, Marketing, etc.) l’autonomie et la pleine intelligence de leurs données.

 

Intervenant : Ayrald Berthod, DIrecteur Général Report One

 

13h - 13h30

Salle a

Salle b

Salle c

Comment optimiser la gestion des grands volumes de données
dans une perspective de Business Intelligence et d’IA ?

 

Cette session s’adresse à tous les professionnels techniques ayant pour fonction de gérer les données de l’entreprise Que vous utilisiez une technologie Microsoft ou autre ; que votre environnement de travail soit physique (On premise), dématérialisé (cloud) ou hybride ; que vous travailliez sur de gros clusters de bases de données ou pas ; etc. vous découvrirez comment les différents services de la plateforme Data Microsoft vous permettent entre autres : de gagner en optimisation d’infrastructure et de performance, de sécuriser vos données, de faciliter vos projets de développements applicatifs et d’innover grâce à l’intelligence de vos données. Cette session vous fera découvrir des mises en situation de gestion de grands volumes de données, d’exploiter au mieux l’intelligence de vos données, au service des métiers, via des scénarios allant de la business intelligence (BI) à d’intelligence artificielle. Démonstrations à l’appui : Mise en place d’un data lake pour l’analyse avancée en plus du datawarehouse, du tableau de bord au prédictif.

 

Intervenants :

Hoda El Haddad : Consultant avant-vente Data platform Microsoft

Andrea Garcia Elescano : Technology Solutions Professional Microsoft

 

Salle d

Comment construire la 1ère brique de son datalake en unifiant le CJ ?

 

Unification du CJ et datalake

Vous partez aujourd’hui à la quête d’une croissance data-driven dont le datalake sera le réceptacle de data de l’entreprise. Dans un contexte où chaque utilisateur demande personnalisation les parcours des consommateurs n’ont de cesse de se complexifier, la compréhension de la relation s’opérant entre ces derniers et la marque est ainsi primordiale. Découvrez comment unifier vos parcours clients & alimenter datalake afin des soutenir croissance data-driven.

 

Intervenants : Emmanuel Brunet, CEO

 

13h30 - 14h

Salle a

les do & don’t de la datavisualisation

 

Cet atelier est une compilation des bonnes pratiques de la data visualisation et du reporting en marketing.

 

 L’objectif de cette session est d’apprendre à agréger de gros volumes de données. comment bien consulter, communiquer des chiffres ou des informations brutes en les transformant en objets visuels : points, barres, courbes, cartographies…

de montrer comment transformer des données brutes complexes en des histoires interactives, faciles à comprendre pour l’ensemble des équipes.

 

Cet atelier sera animé par Baptiste Jourdan, co-fondateurde Toucan Toco. Baptiste est un entrepreneur avec plusieurs créations à son actif. Après avoir fait ses armes dans le monde du e-commerce et digital, en 2014 il co-fonde Toucan Toco et prend en charge son développement en tant que directeur associé. Parallèlement, Baptiste est Co-fondateur de plusieurs clubs d’affaire tels que le DFC One et le Go Between Club.

 

Salle b

Engineering analytics for predictive health applications

 

As big data frameworks mature, solutions build around these technologies provide an increased capability to address challenging engineering problems. There is a need for scaling advanced analytics and for streamlined workflows in tackling big data problems. Using the example of an IoT based application that collects data from a fleet of connected cars and provides insight into their performance and health, this talk focuses on streamlined workflows for engineering data analytics. It covers a typical lambda architecture that operationalizes machine learning based algorithms. This real-world example also showcases the value of advanced algorithms and simulation in such applications.

 

Intervenant : Arvind Hosagrahara

Salle c

La solution GDPR Quickstart : comment allier la contrainte réglementaire à l'opportunité de mieux connaître votre client !

 

La solution Uniserv GDPR INFO-HUB est un centre d‘information facilement intégrable, par lequel le client peut recevoir une réponse complète à toutes les demandes de renseignements (information, modification, suppression) liées à la GDPR européenne.

 

Intervenant :Elodie Solirenne, Responsable Avant-Ventes chez Uniserv

Salle d

XComponent : construire et exécuter des scénarii de calculs

complexes et volumineux

 

La pression réglementaire s’accroit constamment, notamment dans le cadre de FRTB pour les banques d’investissement. En même temps, l’information circule de plus en plus vite, demandant une réactivité accrue, et la prise de décisions en temps réel.

 

Face à ces exigences croissantes, s’appuyer sur des outils informatiques performants devient un enjeu vital : ceux qui auront automatisé leurs processus métiers, et qui se seront donné les moyens, par exemple, d’intégrer rapidement des nouveaux scénarii de calcul complexes, sur des volumes de données et de calcul démultipliés, ceux-là pourront valoriser leur data et survivre face à des acteurs comme les GAFA.

 

La plateforme XComponent permet de créer et exécuter des scénarii de calculs métiers complexes, capables d’exploiter la data, de la transformer, de calculer massivement et de la restituer au travers d’appels à des solutions ouvertes ou propriétaires.

 

Au travers d’un scénario de calcul en finance s’appuyant sur Hadoop et Trifacta pour la transformation de données, nous montrerons notamment comment les métiers peuvent élaborer des scénarii de calculs très évolutifs, mais aussi automatiser leurs procédures manuelles.

 

Intervenant : Moreira, Joao, Directeur de Projet

14h - 14h30

Salle a

Mise en place d’une plateforme DATA d’entreprise - Retour d’expérience BRED

 

Retour d’expérience de la BRED (filiale du Groupe BPCE) où les nouvelles obligations de reporting réglementaire ont constitué l’opportunité de rénover en profondeur la gouvernance des données et de définir une nouvelle architecture « Data Centric ». Découvrez comment une nouvelle plate-forme Data, fondée en grande partie sur les technologies Big Data permet d’exploiter les données pour l’ensemble des filiales, métiers et activités de la banque, d’en transformer les capacités de pilotage, améliorer la connaissance client et renforcer l’excellence opérationnelle.

 

Intervenant : Stéphane Darmon, Responsable Data Management de la BRED et Philippe Morin, Managing Director Advanced Schema

 

Salle b

Des nouveaux services et modèles économiques grâce à l’IOT & au Qlik GeoAnalytics® - Présentation d’un cas d’usage réel

 

Grâce à l’association des nouvelles données récupérées au travers des capteurs avec les des données existantes dans l’entreprise, mettez en lumière des informations et relations géospatiales pour prendre de meilleures décisions quant aux emplacements de vos points de vente. Nous vous présenterons un cas d’usage dans une galerie commerciale pour vous montrer comment Qlik GeoAnalytics® permet d’offrir de nouveaux services tant pour les clients que pour les boutiques.

 

Intervenant : Stéphane Briffod (Directeur Avant-Ventes)

 

Salle c

Client 360, maintenance prédictive : comment OVH met le big data au coeur de sa stratégie d’intelligence artificielle.

 

On a longtemps eu du mal à voir autre chose dans le Big Data qu’un amas de données si volumineux qu’il rend, de fait, obsolète les systèmes traditionnels de gestion de base de données. Aujourd’hui, les entreprises ont compris l’intérêt du Big Data : faire converger leurs systèmes de données. Reste à en extraire le sens caché, la valeur. L’intelligence artificielle, qui recouvre notamment les techniques de machine et deep learning, permet maintenant de réaliser les promesses du Big Data. C’est-à-dire de traiter de grands volumes de données rapidement, efficacement, parfois en quasi-temps réel. Cela ouvre la voie à de nouvelles stratégies, pilotées par la connaissance du client et l’analyse de son expérience. Découvrez comment OVH, ses clients et ses partenaires placent aujourd’hui le Big Data au cœur de leur stratégie d’IA et de valorisation de leurs données.

 

 

Intervenant : QUEGUINER  Jean-Louis

Jean-Louis Queguiner est directeur technique Big Data et intelligence artificielle. Il est en charge des produits qui accompagneront l’Homme dans cette nouvelle révolution technologique.

 

Salle d

Présentation Hitachi Vantara: L’analytique IoT – Comment appliquer le « Machine Learning » à travers des cas opérationnels réels ?

 

L’ère de l’IoT ouvre un nouveau domaine prometteur pour l’analyse prédictive. Habituellement utilisé avec des données acquises virtuellement et évaluées sur des mesures abstraites du passé, la connexion directe aux données « machine » met en évidence les avantages que le « Machine Learning » peut apporter au monde opérationnel.

Cependant, la gestion et l’analyse des données IoT apportent de nouveaux défis. L’IoT est un véritable problème de « big data » et nécessite d’ingérer, de mélanger, de stocker et d’analyser des milliards de sources de données en quasi temps réel. Orchestrer toutes ces tâches est la clé pour que l’IoT soit un « game changer » précieux et non pas une autre pile de données non traitées.

Cette présentation montrera certains des défis et des opportunités qui découlent de l’analytique en IoT et démontrera comment la combinaison des données des capteurs et des méthodes « Machine Learning » peut contribuer à créer un impact dans le monde réel.

Cas métiers :

  • Gestion d’une flotte de véhicules en temps réel

Cas d’usages :

  • Caterpillar
  • Hitachi Rail

 

Intervenant : Sebastien Cognet - Team Lead Sales Engineering Southern Europe

Jean-François Monteil - Sales Engineering Southern Europe

 

14h30 - 15h

Salle a

L’impact de la Big Data pour la cybersécurité

 

Pour faire face aux cyberattaques de plus en plus sophistiquées et très ciblées, les entreprises de toutes tailles s’intéressent de plus en plus aux plateformes Big Data.

Des évènements quotidiens comme un login, une connexion à un réseau, ou encore un accès à une ressource sont des faits générateurs de Big Data qu’il faut au titre de la cybersécurité collecter, enrichir, normaliser. Les cyber-menaces sont identifiées en appliquant des règles de détection sur les attributs des évènements et la connaissance de l’infrastructure.

Les difficultés principales :

- La cartographie des systèmes et des applications est rarement exhaustive

- La mise à jour des règles de détection est impérative mais nécessite la prise en compte de données hétérogènes

L’approche de SAP consiste à utiliser une cartographie du réseau et des applications, d’exploiter le Machine Learning, afin de prédire les comportements anormaux et d’identifier les signaux faibles qui peuvent représenter des attaques inédites.

 

Intervenant : Jean-Luc Dene, Expert RGDP et Rémi Astier, Expert Cybersécurité, SAP France

Salle b

Découvrez Hyper, le nouveau moteur de données de la plateforme Tableau conçu pour le Big Data

 

Hyper est la nouvelle technologie de moteur de données en mémoire de Tableau. Elle vise à accélérer l'ingestion des données ainsi que le traitement analytique des requêtes sur des ensembles de données volumineux ou complexes. Inclus dans la version Tableau 10.5, Hyper est capable de décomposer d'énormes volumes de données en quelques secondes à peine. Vous profiterez ainsi de requêtes jusqu'à 5 fois plus rapides et d'une vitesse de création d'extraits jusqu'à 3 fois plus élevée. L'amélioration des performances pour les requêtes et les extraits et la prise en charge d'ensembles de données encore plus grands vous permettent d'extraire vos données en fonction des besoins de votre entreprise.

 

Venez découvrir le fonctionnement d’Hyper, son architecture et ses performances lors de cet atelier.

 

Intervenant : Nicolas Lerose, Sales Consultant

 

Salle c

Cloudera Altus, l’offre PaaS Cloudera pour accélérer et simplifier vos projets Big Data dans le Cloud

 

Le Cloud Public représente une opportunité attractive pour les entreprises qui souhaitent gagner en agilité et bénéficier des technologies de Data Engineering, Machine Learning et Analytics en libre service.

Cloudera complète les offres de stockage des grands fournisseurs de Cloud Public avec Cloudera Altus, l’offre PaaS Cloudera, fondée sur les technologies open source les plus performantes, Spark, Hive, Impala en les proposant «As A Service».

Avec Cloudera Altus, il devient possible de:

- tirer profit de l’élasticité du Cloud pour les opérationnels et développeurs en aidant les équipes à se concentrer sur leurs traitements/Jobs en réduisant drastiquement les besoins de gestion technique et d’opérations.

- de bénéficier d’une solution d’entreprise, multi-cloud, de haut niveau offrant des capacités de sécurité et de gouvernance unifiées, et ce peu importe votre choix d’environnement Cloud Public.

 

Intervenant : Mael Ropars, Senior Sales Engineer, Cloudera, Antonin Bruneau, Sales Engineer, Cloudera

 

Salle d

Accenture: Partenaire de MicroStrategy pour apporter de la valeur au monde industriel

 

Accenture Industry X.0 aide nos clients à tirer parti de ce que le digital peut apporter à l’industrie. Mais pour bénéficier pleinement des nouvelles informations disponibles et les transformer en un avantage concurrentiel réel, les industriels doivent maîtriser l’analytique. Le partenariat d’Accenture avec MicroStrategy nous permet d’aider nos clients dans ce domaine. Cette session mettra un accent particulier sur les applications de ce partenariat dans le domaine industriel. Vous découvrirez notamment le «Manufacturing Studio» d’Accenture et son offre Microstrategy (IoT Analytics, Dataviz, Mobile…).

 

Intervenant : Franck Montastier, Client Services Delivery Manager chez Accenture

 

15h - 15h30

Salle a

Comment l'intelligence artificielle va permettre de faire gagner des milliers d'heures aux juristes

 

L'analyse sémantique est une forme d'intelligence artificielle dédiée à la compréhension de contenus textuels. En quelques années, elle est passée d'applications principalement analytiques à des fonctions d'optimisation et d'automatisation opérationnelle. Ces technologies présentent désormais une maturité suffisante pour accompagner les différents métiers d'une entreprise sous la forme d'assistants ou d'agents conversationnels (chatbots).

 

Dans le domaine juridique, le retour sur investissement de telles technologies est devenu considérable. Pour une grande entreprise, l'examen de documents légaux et contractuels mobilise chaque année plusieurs milliers de jours/hommes sur des profils experts. En aidant ces profils à identifier rapidement les points d'attention dans un document juridique, l'analyse sémantique facilite leur travail, réduit la durée de traitement d'un document et sa pénibilité.

 

En compagnie d'un grand industriel français (to be announced), François-Régis Chaumartin, fondateur de Proxem, présentera les solutions développées par Proxem pour faciliter l'examen de documents légaux et contractuels.

 

Intervenant : François-Régis Chaumartin, PDG Proxem

 

Salle b

La Suite Elastic : Une suite qui répond à des cas d'usage variés

 

Connaissez-vous réellement Elastic, Elasticsearch ou encore X-Pack Machine Learning?

Avez-vous entendu parler de Beats? Participez à l'atelier Elastic pour comprendre ce qu'est vraiment la Suite Elastic (ou Elastic Stack) et de quelle manière elle permet de répondre aux cas d'usage stratégique de Search, Log Analytics, Metrics Analytics, Security Analytics et Business Analytics.

 

Intervenants : Baha Azarmi, Head of Solutions Architecture C/S EMEA

Salle c

 

Préparer vos données Assurance dans Hadoop pour l'analyse de Risque et des Réclamations

 

L'industrie de l'assurance est aux prises avec la forte croissance des sources de données (voitures connectés, réseaux sociaux ...). Les plates-formes Hadoop fournissent un format simple, sécurisé et aujourd'hui mature pour le stockage massif puis la préparation des données, la première étape critique des processus d'analyse et de reporting.

Mais pour la transformation des données, les processus ETL traditionnels sont coûteux, longs et compliqués par la variété des structures et des formats de données. Il faut privilégier une nouvelle approche plus flexible permettant d'impliquer directement les métiers pour une préparation de données rapide, simple et intuitive avec Trifacta.

Qu'il s'agisse par exemple de risque de crédit, opérationnel ou de marché, les données sont au cœur de l'identification préventive des risques. Trifacta permet aux utilisateurs (analystes métiers ou data scientists) d'explorer des sources de données nouvelles et de les croiser avec des données existantes afin d'élargir leur investigations et d'exposer plus rapidement les risques.

Venez découvrir comment reproduire vos processus de transformation de données dans un environnement Hadoop avec la même simplicité qu'Excel. Nous vous présenterons les six étapes de la préparation des données (Découvrir, Structurer, Nettoyer, Enrichir, Valider, Publier) selon Trifacta et leurs applications au monde de l'Assurance.

 

Intervenants : Victor Coustenoble,  Sr. Sales Engineer, Trifacta

Salle d

 

GDPR : l'opportunité d'améliorer vos architectures de données

 

Le GDPR entrera en vigueur le 25 mai 2018. Ce nouveau règlement européen a pour objectif l’harmonisation de la gouvernance des données personnelles au sein de l’UE.

Dans quelques mois seulement tous vos futurs développements devront, dès leur conception, intégrer et garantir le respect de la vie privée. C’est le Privacy By Design.

Selon Gartner, lors de l’entrée en vigueur du GDPR, plus de 50% des entreprises concernées ne seront pas prêtes.

Et vous ?

Notre atelier sera l'occasion, en partant des obligations de protection des données énoncées dans le GDPR, de proposer des solutions pour simplifier votre conformité. 
Vous découvrirez comment MongoDB (Nasdaq MDB) et NOVENCIA (Société de conseil IT et Métiers) peuvent vous fournir le socle technologique indispensable à un traitement conforme de vos données, pour l’ensemble de vos projets.

 

Intervenants: Guillaume Meister, Senior Solutions Architect, MongoDB, Laurent Zeitoun, Directeur BU SMART DATA / GDPR, Novencia Groupe

 

15h30 - 16h

Salle a

Au cœur de l’analyse des données textuelles : catégorisation des documents, analyse contextuelle, analyse des sentiments.

 

Les solutions d’analyse des données textuelles de SAS combinent la puissance du traitement du langage naturel, du Machine Learning et des règles linguistiques pour en révéler des informations pertinentes.

 

Au travers l’illustration de cas, nous appliquerons différentes approches pour répondre à des besoins métiers concrets.

 

Intervenants : Sylvie Jacquet-Faucillon - Consultante Analytique – SAS France

Jonathan Zenouda - Consultant Analytique – SAS France

Salle b

Comment booster l’engagement de vos clients et votre transformation numérique avec Couchbase ?

 

Le comportement et les attentes des consommateurs évoluent rapidement. Recommandations de produits personnalisées, évaluations de produits rédigées par les clients, livraisons sur deux jours, showrooms numériques, paiements mobiles, interactions numériques en matière de soins de santé, etc., sont la manière dont les clients souhaitent interagir aujourd’hui.

 Le résultat d’expériences positives successives - cliquer sur un lien, entrer un terme de recherche, remplir un formulaire, lancer une vidéo, ajouter un article à un panier, etc. c’est ce qu’on entend par l’engagement. Des expériences client positives et soutenues conduisent à l’engagement des clients. Un engagement soutenu de la clientèle mène à la fidélité à la marque. Par exemple, offrir un support omnicanal signifie fournir une expérience client unifiée indépendamment de l’endroit où une interaction a lieu - que ce soit en ligne, en magasin, ou en mobilité, c’est engager vos clients. Cette présentation montrera comment Couchbase offre la première plate-forme d’engagement, et comment Couchbase a accompagné la transformation numérique de Coyote, Leroy Merlin, Carrefour, La Banque Postale, Tommy Hilfiger, Staples, Tesco, Walmart et plus encore.

 

Intervenants : Cécile Le Pape, Solutions Architect and Emmanuel Dieval, Software Engineer

Salle c

HYPERCUBE

 

HyperCube, filiale du cabinet de conseil BearingPoint, édite une plateforme d’intelligence artificielle offrant des capacités uniques d’analyse, de modélisation prédictive et de visualisation de données. Dotée d’une architecture serverless, les solutions développées intègrent l’état de l’art de l’apprentissage automatique ainsi que des librairies propriétaires afin de rendre la DataScience simple, intuitive, performante et surtout opérante. Déployées en Europe, Asie et Amériques du Nord, les applications sont nombreuses et couvrent aussi bien les domaines de la santé ou du marketing, que dans ceux de la finance et de l’industrie.

 

A l’occasion du Salon #BigDataParis2018, nos experts auront le plaisir le mardi 13 mars 2018, de 15h30 à 16h en salle C, de vous faire découvrir HyperCube lors d’une [LIVE DEMO]. Venez découvrir son interface intuitive et ses fonctionnalités clés pour vous convaincre que l’exploration de données, la compréhension ou la prédiction de phénomènes complexes deviennent accessibles à tous… rapidement et simplement !

 

Cet atelier saura aussi l’occasion de vous présenter les verticaux d’HyperCube, conçus et développés pour adresser des besoins spécifiques :

1. Optix dédié au mass pricing B2B

2. OptimProcess pour répondre aux enjeux de l’Industrie 4.0

3. Et enfin Nitro et ses capacités uniques de prévision des ventes

 

D’ici là, n’hésitez pas à vous rendre sur notre site web (https://www.hcube.io) pour découvrir LA solution pointue de la data science, HyperCube !

 

Intervenants : Marc Hispa – Product Owner, Eric Jesover – CTO

 

Salle d

Big Data Management : Comment rendre opérationnel le Big Data à l’échelle de l’Entreprise.

 

Le hype et les incertitudes autour des Big Data ont eu pour conséquence la multiplication des environnements de type Lab et Big Data Factory. Cependant, les organisations les plus en pointe, qui cherchent à tirer tout le potentiel des Big Data, réalisent qu’une véritable stratégie de gestion des Big Data est indispensable pour avoir un véritable impact à l’échelle de l’Entreprise.

 

Participez à cet atelier pour découvrir comment :

  • Les stratégies et technologies de Big Data Management d’Entreprise permettent de supporter les initiatives de type ‘zero foot print’, ‘easy install’, ‘zero régression test’ et d’étendre les capacités de transformation ainsi que la qualité des données et l’anonymisation en exécution ‘push down’ Hadoop ;
  • Cataloguer les Big Data permet d’obtenir une vue à 360° des données ‘in’ et ‘out’ d’un Data Lake, de mettre en place une gouvernance efficace des données et de favoriser la collaboration entre les départements grâce aux métadonnées ;
  • Autonomiser les utilisateurs métier en leur permettant d’accéder, importer, exporter des data sets facilement et de préparer les données sur un échantillon (en mémoire) mais aussi sur l’intégralité (mode push down) depuis une interface web simple.

 

Lors de cette session vous pourrez bénéficier de retours d’expériences concrets et obtenir un aperçu des solutions Informatica pour la gestion des Big Data d’Entreprise.

 

 

Intervenants : Edouard Guérin, Spécialiste Big Data, Informatica

16h - 16h30

Salle a

 

Comment mettre en place une stratégie Data Science performante

 

Dirigeants, décideurs, Chef d’entreprise, la mise en production des projets Data Science n’est pas toujours systématique, comme nous le constatons depuis plusieurs années. Taille de l’entreprise, maturité data, intensité concurrentielle, secteur d’activité… sont des facteurs à intégrer en amont, afin de mettre en place la meilleure approche, la cadence idéale, et la feuille de route Data la plus adaptée à votre entreprise. A l’aide de cas concrets, nous décoderons les étapes-clés d’une stratégie Data Science réussie, en abordant les sujets incontournables que sont organisation RH, architecture IT, gouvernance data, conduite du changement…

 

Intervenants : François Poitrine / Directeur Général et fondateur Ekimetrics, Mathieu Choux / Partner Ekimetrics

 

Salle b

Datalab et projets analytiques avancés chez la DSI GRDF: retour d’expérience et bonnes pratiques

 

« Prévision de la charge d’appel, GDPR, détection d’anomalie: GRDF s’est lancé dans l’aventure analytique pour résoudre de nombreux challenges business. Après quelques années d’expérimentations, quels enseignements en ont-ils dégagé? Quels sont les outils, les compétences et les types de data nécessaires? Découvrez dans cette masterclass un témoignage inédit des responsables big data de GRDF »

 

Intervenants : Paul Fournier, Responsable Datalab de la DSI GRDF

 

Salle c

Le big data au service de l’identification et de la résolution de cas d’usage métiers

 

La croissance exponentielle du volume de données des entreprises rend évidente la nécessité d’en tirer profit afin d’analyser les comportements des utilisateurs, identifier des enjeux opérationnels et optimiser la rentabilité.

 

Mais en l’absence de cas d’usage identifié, quelle méthodologie mettre en œuvre pour sélectionner les domaines susceptibles de bénéficier le plus de la mise en place de ces technologies ?

 

Une fois les cas d’usage identifiés, comment mettre à profit des technologies Big Data pour y apporter de l’intelligence et pour se focaliser sur la résolution d’enjeux métiers plutôt que sur l’accroissement perpétuel du volume des données stockées sans réel objectif business ?

 

Comment ensuite maîtriser la transition d’un POC* vers un projet industrialisé ?

 

Découvrez à travers cet atelier, les bonnes pratiques pour réussir vos déploiements de solutions Big Data au service de la résolution de cas d’usage métiers.

 

Jouve vous propose de partager son expérience et vous présentera, à travers des cas concrets, des solutions pour l’amélioration du service rendu et la création de nouveaux services.

 

Intervenants : Christophe Léon, Business Développement, Jouve Digital et Fondateur de Pure Agency, l’agence mobile first de Jouve

Jérémie Thomas, Responsable Offre Data, Jouve

Benoit Cantagrel, Expert Big Data, Jouve

 

*Proof of concept

 

Salle d

16h30 - 17h

Salle a

 

Zero to AI in 30 minutes

 

A fast paced, interactive and example driven exploration showcasing the AI capabilities of the Wolfram Programming Language. This 30-minute presentation will demonstrate how sophisticated AI tools can be rapidly developed and deployed to extract new insights from your data and improve decision making. After the talk, attendees will come away with enough practical knowledge to immediately use machine learning on their own tasks on text, data or images, including supervised classification and prediction, unsupervised feature identification, sequence prediction and computer vision.

 

Intervenants : Mark Braithwaite – Technical Specialist

Dorian Birraux – Consultant, Advanced Research Group

Salle b

GED Data Centric

 

Abstract de présentation : Avec l’accélération de la dématérialisation des processus, la pression de plus en plus forte du législateur pour assurer la transparence sur les informations connues par l’entreprise de tout un chacun, le devoir de conservation et autre droit à l’oubli,  le volume des documents électroniques à gérer par l’entreprise explose, leur variété croit et corrélativement les besoins d’ingestion, de stockage, de reconnaissance, de contrôle, d’archivage légal à valeur probante, de recherche, d’accès direct par les utilisateurs concernés s’étendent considérablement. Face à cette situation, de nombreuses entreprises nous interrogent sur la pertinence de leur socle GED actuel, généralement construit sur des solutions progicielles au dessus de base de données relationnelles, versus des solutions basées sur des technologies Big Data augmentées d’IA et dopées à la BlockChain, qui viennent les challenger sur les aspects performances, coûts, traçabilité et fonctionnalités (LAD/RAD intelligent, analyse en masse du patrimoine documentaire versus la conformité, resilience, immuabilité...). Lors de cet atelier nous partagerons notre vision d’une GED à la puissance Big Data et nos premiers retours d’expérience.

 

Intervenants : Olivier Armand, Architecte Senior Big Data et Ayoub Bacherki, Consultant

Senior Innovation & Industrialisation

 

Salle c

Salle d

« Big data et machine learning au service d’une hyperpersonnalisation de la relation client »

 

Le temps de l’hyperpersonnalisation est venu. Cela nécessite des données, beaucoup de données, des outils toujours plus performants capables de les gérer et de nouvelles façons de travailler pour les exploiter pleinement.

 

Les Télécoms sont un des premiers secteurs confrontés à la nécessité d’utiliser les techniques du big data et du machine learning pour faire face à la croissance exponentielle d’informations disponibles. Sur un marché ultra concurrentiel, la Data devient l’enjeu majeur de différenciation et le levier ROI.

 

La maîtrise de ces données massives est donc devenue indispensable pour répondre à trois défis majeurs pour les entreprises : améliorer sa performance opérationnelle et commerciale et enrichir la connaissance client.

 

Orange et Inbox partageront les résultats des expériences menées sur l’utilisation de ces nouvelles technologies dans les Télécoms notamment sur le marché africain.

 

Intervenants : Stéphane Amarsy, CEO d’Inbox

Stéphanie Clémente, Head of Customer Value Management at Orange

Yves Kom, Responsable CVM Orange Cameroun

 

17h - 17h30

Salle a

Découvrez comment Watson, l’IA d’IBM révolutionne le quotidien des équipes marketing

 

Aujourd’hui, les équipes marketing dépensent beaucoup de temps, d’énergie et de ressources à de nombreuses tâches à faible valeur ajoutée. Aussi, ces investissements n’ont pas toujours les résultats escomptés.

 

IBM est un pionnier de l’intelligence augmentée. Depuis de très nombreuses, nous travaillons à rendre celle-ci actionnable dans de très nombreux secteurs: la santé, l’éducation, l’IT et bien d’autres dont le marketing.

 

Aujourd’hui, Watson Marketing, la solution d’engagement client d’IBM propose de nombreuses fonctionnalités cognitives qui simplifie et optimise le travail de ces utilisateurs. Venez les découvrir.

 

Intervenants : Guillaume Arthur, Solution Consultants Team Leader, IBM Watson Marketing

 

Salle b

LA GEOLOCALISATION AU COEUR DES SERVICES INNOVANTS

 

Donner de la valeur aux données est au cœur de toutes les préoccupations, d’acteurs privés ou publics. Sans un usage défini, la donnée est une ressource morte. Comment lui donner du sens et l’inscrire directement dans des produits et des services innovants ?

 

Depuis plusieurs années, la géolocalisation s’impose comme un actif sans pareil pour donner du sens aux data. Les potentiels de labellisation d’images offerts par le nombreuses données vecteurs sont immenses. C’est pourquoi les techniques de computer vision sont d’autant plus performantes qu’elles sont associées au traitement de données géolocalisées.

 

L’agrégation, la qualification et la mise en cohérence de données géolocalisées permet de générer un nombre incalculable de services innovants pour de nombreux usages.

 

Intervenants : Louis Petros, nam.R, lead data evangelist

Alexander Usolstev, nam.R, computer vision scientist

 

Salle c

Optimisation du taux de réutilisation de la donnée au sein de la direction de l’ingénierie de SNCF Réseau

 

La direction de l’ingénierie de SNCF Réseau souhaitait réduire de façon conséquente le temps passé à rassembler les données nécessaires pour mener à bien ses projets, ses expertises et ses études (données sur la topologie des voies, sondages géotechniques, relevés de géométrie, diagnostics ...).

 

Une composante importante de ce défi était d’augmenter le taux de partage et de réutilisation des jeux de données déjà en possession de la direction de l’ingénierie de SNCF Réseau.

 

Dans cet atelier, nous verrons comment la technologie de Data Preparation de Tale of Data, en impliquant les métiers dans l’uniformisation des métadonnées, a permis de remplir cet objectif.

 

Salle d

17h30 - 18h

Salle a

Salle b

L’utilisation de l’IA pour définir la politique tarifaire dans la location de voiture

 

L’optimisation des prix est un des leviers les plus efficaces pour augmenter ses revenus dans un environnement à forte intensité concurrentielle. La tarification dynamique, qui consiste à faire varier ses prix en temps réel, est un outil de plus en plus utilisé. En effet, le développement du comportement omnicanal des consommateurs ainsi que l’explosion des données disponibles permettent de pousser la personnalisation de la tarification. Pourtant, faire varier ses prix est rendu complexe par la multiplication des variables influençant le prix ainsi que le traitement de gros volumes de données. L’IA fournit de nouveaux outils pour répondre à ces enjeux.

 

Faire varier ses prix peut être particulièrement bénéfique dans la location de voiture, où la demande est très fluctuante alors que le parc de voitures disponibles est lui fixe. Cela demande de répondre à des problématiques telles que, la cohabitation de tarifs publics et tarifs négociés, la gestion des durées différentes de location, ou le déploiement d’une politique tarifaire cohérente dans une organisation en réseau. Rentacar, leader français de la location de voiture, a déployé l’outil de tarification dynamique Pricemoov, pour optimiser sa politique tarifaire.

 

Intervenants : Pierre Hébrard, CEO co-founder

 

Salle c

Salle d

18h - 18h30

Salle a

Quand la data virtualisation révolutionne vos stratégies d’accès et de gestion de vos données

 

Les données sont plus que jamais disséminées dans votre système d’information, qu’il s’agisse de bases de données traditionnelles, d’entrepôts big data, d’applications on-premise ou SaaS… Le vrai challenge réside en votre capacité à vous affranchir rapidement et simplement de ces silos pour tirer pleinement parti de vos données, sans pour autant rajouter de la complexité dans votre gouvernance.

 

Découvrez comment TIBCO Data Virtualization change le paradigme d’accès à la donnée et sa gestion pour mieux accompagner vos initiatives analytiques (Data as a Service, couche sémantique, data warehouse logique, vision 360°…).

 

Intervenants : Alessandro Ganci, Solutions Consultant, TIBCO Software France

 

Salle b

Le Conseil Départemental de Seine-Saint-Denis tire le meilleur de sa data avec Cap Digital et DreamQuark

 

Le Big Data n'épargne pas les organismes d'état, la donnée est un véritable atout dont les politiques gouvernementales peuvent tirer profit pour aiguiller leur stratégie de développement économique, sécurité, éducation, etc. Nous vous proposons de découvrir à travers cet atelier comment le bon usage de la data peut également contribuer à la construction d'une société meilleure.

 

Le « RSA Data Challenge », organisé par Cap Digital pour le Conseil Départemental de Seine-Saint-Denis, consiste en la réalisation d'outils agiles de visualisation et d'aide à la décision pour mieux comprendre les parcours des bénéficiaires du RSA.

DreamQuark a été sélectionné dans le cadre de ce challenge pour construire une plateforme d'analyse de la donnée afin d'apprécier l'impact des politiques publiques d'accompagnement (retour à l'emploi, logement, formation, etc.) ciblées sur ces populations, en prenant en compte d'autres données contextuelles comme le marché de l'emploi et les indicateurs sociaux économiques locaux.

 

La donnée alors consolidée et lisible servira alors à alimenter des systèmes prédictifs basés sur l'intelligence artificielle. DreamQuark, via sa plateforme automatisée d'entrainement de modèles prédictifs basés sur le Deep Learning, sera alors en mesure de déployer des outils de tests de scénarios de politiques publiques fournissant l'information nécessaire à une meilleure prise de décision.

 

Venez découvrir comment la consolidation et l'analyse des données d'un département devient un véritable enjeu dès lors qu'elles peuvent alimenter une stratégie politique visant à améliorer l'économie d'une région.

 

Intervenants : Ricardo Marino (DreamQuark)

Sophie Gougeon (Conseil Départemental de Seine-Saint-Denis)

Aude Giraudel (Cap Digital)

 

Salle c

  

Salle d

12 & 13 mars 2018 • Palais des Congrès • PARIS

BigData Paris est un congrès réalisé par Corp Agency, l’agence événementielle au service du grand public et des professionnels.

contact

Simon NICOLAS

Inscription Conférences

01 84 83 02 86

snicolas@corp-agency.com

Romain DECHAUDAT

Directeur Commercial

01 58 12 06 94

rdechaudat@corp-agency.com