Réussissez votre transformation Big Data / AI avec la plateforme as a Service HPE Bluedata

Olivier TANT – Sales Category Manager Scale-out Storage & Big Data Infra, HPE France

Alors que les volumes de données continuent de croître de manière exponentielle, les entreprises investissent de plus en plus dans le matériel, les logiciels et les services pour l’analyse et l’intelligence artificielle.

D’ici 2022, dixit IDC, les investissements dans les logiciels Big Data / Analytics atteindront 90 milliards de dollars et les investissements pour les systèmes basés sur l’intelligence cognitive et artificielle atteindront 77,6 milliards de dollars, sur le plan mondial.  Cependant, toutes les entreprises ne disposent pas des compétences requises en matière de Big data et d’intelligence artificielle pour extraire de leurs données des informations exploitables et de la valeur métier. Aussi, la demande en solutions qui permet de déployer plus facilement l’analytique Big Data et l’IA est en augmentation.

Hewlett Packard Enterprise (HPE) est conscient du fait que les entreprises ont besoin de moyens plus simples, plus rapides et plus économiques pour l’analytique Big Data et l’intelligence artificielle. Ces entreprises souhaitent un nouveau type d’expérience : un modèle qui prend en charge le gros du travail de déploiement, qui optimise les compétences des data analysts et data scientists, et qui peut être offert et consommé en tant que service, sur site et dans le cloud. Dans cette optique, HPE a récemment finalisé l’acquisition de BlueData, un éditeur de logiciels américain pour les infrastructures et les applications dédiées au Big Data et à l’intelligence artificielle. Via ce rachat, le but est de renforcer la stratégie HPE visant à libérer l’énorme potentiel des données au moyen de l’intelligence artificielle et de l’analyse des Big Data, et à offrir un modèle « as-a-service » par le biais d’une infrastructure informatique définie par logiciel. En effet, en associant la plateforme logicielle BlueData reposant sur les conteneurs à l’infrastructure définie par logiciel de HPE, l’ambition est d’accélérer les projets Big Data / AI, et par extension la transformation digitale de ces clients.

Revenons sur la situation à laquelle font face les entreprises : la plupart des déploiements Big Data aujourd’hui répondent aux besoins de plusieurs groupes d’utilisateurs, installés sur des clusters dédiés dans l’infrastructure locale. Cette approche peut être complexe, onéreuse et longue à mettre en œuvre. Dans certains cas, les entreprises ont recours à l’utilisation de Cloud public pour accélérer leurs déploiements Big Data. Mais le déploiement dans le Cloud public pour l’analyse Big Data nécessite toujours une configuration complexe ; une équipe DevOps dédiée est souvent nécessaire à la mise en œuvre. De plus, la plupart des services Cloud publics ne répondent au besoin d’adresser avec agilité différents cas d’usage Big Data, via des environnements fournis à plusieurs équipes, sur plusieurs tenants.

La plateforme logicielle HPE BlueData EPIC permet le provisionnement à la demande d’environnements Big Data / AI containerisés, l’automatisation en libre-service, la mutualisation sécurisée et des connecteurs aux systèmes de stockage de données.  Associée aux systèmes Apollo et aux services Pointnext de HPE, le déploiement d’infrastructures et d’applications de Big Data (telles que Hadoop, Spark, Kafka, Cassandra) et d’Intelligence Artificielle évolutive est rendu plus facile, plus rapide et plus économique – dans l’infrastructure locale ou dans le cloud (AWS).

Ainsi, les déploiements Big Data multi-tenants qui auparavant pouvaient prendre quelques mois, peuvent maintenant être réalisés en quelques jours. Les Data Scientists et les Data Analysts peuvent créer leurs propres clusters virtuels Hadoop ou Spark à la demande en quelques minutes, tout en accédant aux données sur stockage local ou sur le Cloud.

Les bénéfices sont nombreux :

  • Agilité de votre entreprise en permettant aux Data Scientists et Data Analysts de créer des clusters Big Data en quelques minutes, en quelques clics de souris, grâce à un modèle Software Defined et une approche container.
  • Simplification des déploiements locaux avec une solution Big Data à la demande, clé en main, comprenant des images de distributions majeures Hadoop et Spark prêtes à l’utilisation.
  • Accélération de l’innovation avec les images pré-intégrées des principales distributions Big Data, outils de BI, analytique, AI
  • Réduction des mouvements de données en séparant les serveurs de calcul du stockage
  • Maintien de la sécurité et du contrôle dans un environnement multi-tenant, intégré avec votre politique de sécurité d’entreprise (par exemple LDAP, Active Directory, SSO, Kerberos).
  • Réduction des coûts jusqu’à 75% en améliorant et en contrôlant l’utilisation des ressources, en éliminant la multiplication de clusters et en réduisant la duplication inutile de données.

 

Venez à la rencontre de HPE sur le salon Big Data Paris 2019 (stand B6) et participez à nos sessions « Déploiement en un clic pour les environnements AI / ML / DL distribués dans l’entreprise » (Salle Ateliers E :  lundi 11 mars 10H-10H30 & mardi 12 mars 11H-11H30)

Leave a Reply