Inscrivez-vous à la Newsletter pour ne rien perdre de l'événement

Un changement de paradigme, ou pourquoi réagir en temps réel n’est plus une option

Un nouveau paradigme est en train d’émerger: la construction d’architectures d’applications centrées sur les données, basées sur des événements et alimentées par Apache Kafka®. L’approche traditionnelle de construction d’applications autour des transactions de données se complète rapidement par des applications centrées sur les événements métier, menant à une architecture réactive et flexible.

Les applications événementielles sont désormais au cœur de la nouvelle génération des architectures dans une multitude de secteurs d’activité. La grande distribution retravaille ses processus commerciaux fondamentaux autour de flux d’événements continus ; l’automobile collecte et traite les flux d’événements en temps réel à partir des voitures connectées; et la banque repense également ses processus et systèmes fondamentaux autour d’Apache Kafka®.

Trois raisons pour cette transformation

D’où vient ce changement de paradigme? Pourquoi maintenant?

Tout d’abord, les entreprises sont beaucoup plus numériques qu’elles ne l’étaient auparavant, dépassant rapidement le domaine des systèmes logiciels traditionnels. L' »Internet des objets » a occasionné de nombreux changements, mais renvoie avant tout au processus d’instrumentation automatique de ce qui se produit dans le monde physique – des processus de fabrication automobiles en passant par la gestion des stocks de la distribution; des aspects de l’entreprise autrefois interdits aux ordinateurs deviennent des sources de flux continus d’événements.

De plus, l’utilisation des données au sein même de l’organisation évolue. Dans un monde où seuls des humains prennent la responsabilité de l’action, le traitement des données par lots peut convenir. Après tout, qui vérifiera un rapport plus d’une fois par jour? Mais dans une entreprise devenue nettement numérique, où non seulement des humains mais aussi des logiciels automatiques agissent, ça n’a plus de sens. La modélisation du traitement des données autour de flux d’événements rend les choses plus simples. Les données de base de la plupart des entreprises étant considérées comme un flux continu d’événements (ventes, expériences clients, etc.), il est naturel que le traitement et l’analyse de ces données soient continus et en temps réel.

Enfin, les technologies supportant le traitement des flux ont beaucoup évolué. Les premiers systèmes étaient limités dans les types de problèmes qu’ils pouvaient traiter, nous avons dû créer des systèmes de traitement de flux de données à même de s’adapter horizontalement à l’utilisation de l’entreprise, mais aussi capables de former un “tout” plutôt qu’un sous-ensemble de ce qui était possible avec le traitement par lots. Certaines entreprises avant-gardistes mettent déjà en œuvre des applications de traitement des flux de production dans des domaines critiques. La montée en puissance d’Apache Kafka® comme plateforme de streaming événementielle le démontre.

Vers une architecture événementielle

Qu’est-ce que le traitement des flux? Et quel rôle joue-t-il dans la mise en place d’une architecture événementielle?

Tout d‘abord, qu’est-ce qu’un événement? Quelque chose qui s’est produit dans l’entreprise: une vente, une facture ou une expérience client. Les événements peuvent aussi capturer des états ou des changements d’état. Ce changement est fondamental, car il transforme un ensemble statique de données en une série d’événements. Le traitement des flux considère les données non plus comme statiques, mais comme mouvantes et traitées en continu. Il se manifeste par des applications événementielles alimentant l’entreprise, et par des analyses en temps réel qui rendent compte de ses performances.

Ceci exige un changement culturel fondamental dans notre façon de penser; qui permet des applications réactives, extensibles, flexibles et en temps réel. La pensée événementielle à une prise de décision et à des opérations en temps réel et sensibles au contexte. En technologie, la pensée événementielle produit des logiciels plus autonomes et découplés et des systèmes évolutifs et extensibles. L’avantage ultime est une plus grande agilité – de l’entreprise comme de la technologie. Appliquer la pensée événementielle à l’ensemble d’une organisation est le fondement de l’architecture événementielle; le traitement des flux étant la technologie qui permet cette transformation.

Apache Kafka® : Les données au cœur de l’activité

Kafka Streams est la bibliothèque de traitement de flux native d’Apache Kafka® pour la création d’applications événementielles. Les applications utilisant cette bibliothèque peuvent effectuer des transformations sophistiquées sur des flux de données distribués de manière transparente et élastique sur les instances de l’application.

Grâce à l’approche d’Apache Kafka®, le traitement des flux devient un moyen naturel de créer des applications qui répondent à des événements, et pas seulement à des outils “Big Data” peu agiles et inadaptés. Apache Kafka® fournit un protocole versionné pour un traitement de flux exact, distribué, tolérant aux pannes pour des processus à états. Ce protocole peut être utilisé à partir de n’importe quel langage de programmation, le contrat résidant dans l’entrée et la sortie du service, et non pas dans le code utilisé au sein de votre application.

L’architecture événementielle deviendra omniprésente dans les années à venir. Des sociétés sophistiquées comme Netflix, Uber, Bloomberg et d’autres ont construit ce type de plateforme de streaming événementiel, dont beaucoup à grande échelle. Nous n’en sommes encore qu’au début de ce processus, de nombreuses entreprises commencent à mettre en œuvre cette architecture, dans le but d’évoluer et d’aller plus loin vers ce nouveau paradigme.

 

 

Leave a Reply