Do more with your data: Better business insights through real-time operational analytics

The amount of data we produce every day (2.5 quintillion bytes of data) is truly staggering. IBM evaluated that 90 percent of the total data in the world was generated only over the last two years. This illustrates the dramatic and exponential growth of largely unstructured data, generated by transactions, logs, records, social media, audio, visual and video consumption. This rapid pace of growth continues to accelerate with the proliferation of the Internet of Things (IoT).

But when it comes to the crucial question of how much value the data generated each day brings to companies, there is still room for improvement. Cisco estimates that, by 2021, useful data will only be around 85 zettabytes – just 10% of the total generated.  The reality is that accumulating vast amounts of data doesn’t generate value unless a business can quickly act on that data with real-time business insights. A study from McKinsey shows that most companies are capturing only a fraction of potential value of data and analytics. The bulk of the challenge then is knowing where data is, aggregating it, shaping it, and running analytics against it – a challenge made exponentially more difficult after data is dumped into data lakes and data warehouses.

The culprit for most enterprises? The ETL (extract, transform, load) process. Only by eliminating ETL can businesses achieve real-time analytics and become truly data-driven.

Quickly emerging as a faster path to ROI than big data analytics, operational analytics focuses on using real-time insights to optimize how businesses work.

“Make decisions with 70% of the information you wish you had. Stop waiting until you have everything you wish you had to make a decision, you’re wasting time”, says Jeff Bezos.

In faster moving industries such as retail, banking and telecommunications, Operational Analytics allows businesses to more quickly respond to customer behaviors and ultimately increase customer retention and loyalty.  The underlying technology powering these insights, hybrid transaction/analytical processing (HTAP) allows businesses to harness a single database for transactions and analytics, eliminating ETL from traditional analytics processes and accelerating time to insights for key applications.

With HTAP, data from multiple sources can be analyzed as they are created. This data is actionable immediately and remains available during a short window of time (a few weeks or months) during which the relevant actions that bring the most value are performed.

HTAP is making an impact across a broad range of industries and use cases:

  • E-Commerce: Online retailers can gather purchase data in real time while simultaneously analyzing inventory levels, weather conditions, website traffic, or buying trends for a given item.
  • Industrial IoT: Incoming sensor data is continually captured and simultaneously used to make real-time decisions. This can result in more timely maintenance, higher asset utilization, and reduced costs, driving significant financial benefits.
  • Healthcare: Providers can continually analyze the data being collected from hundreds or thousands of in-hospital and home-based patients to provide immediate preventive care while also looking at trend data for possible disease outbreaks.
  • Media: Companies that have dramatically expanded their digital OOH strategy to millions of devices can not only be alerted in real-time when a failure occurs on a device but also can easily investigate the root cause.

Operational Analytics and HTAP can provide businesses with a completely new ability to react immediately to a rapidly changing environment. In addition, by eliminating the need for separate databases, HTAP simplifies life for development teams and eliminates duplicative costs by reducing the number of technologies in use. This benefit is all the more important for small and medium companies, which rarely generate the volumes of data necessary to justify the cost of traditional big data solutions.

The truth is that there is no such thing as one-size-fits-all, and not every activity involving the use of data is created equal. In order to choose the right analytics for the job, here are a number of questions to consider:

  • How do delays caused by ETL impact workflows and operations?
  • What would be the risk to postpone a decision when a change occurred in the operational data set?
  • What would be the benefit to react in real time to business data updates?
  • Is architectural complexity restricting the ability to gain timely insights from operational data?
  • Is the ability to adapt to data schema modifications reducing the application agility?
  • Is the cost and complexity of maintaining multiple systems becoming inefficient?

 

==== Traduction de l’article en français

Faites plus avec vos données : une meilleure vision métier grâce à l’analyse opérationnelle en temps réel

La quantité de données que nous produisons (2,5 milliards d’octets de données chaque jour) est vraiment stupéfiante. IBM a évalué qu’au cours des deux dernières années, 90% des données dans le monde avaient été générées. Cela illustre la croissance spectaculaire et exponentielle des données en grande partie non structurées, générées par les transactions, les journaux, les enregistrements, les médias sociaux, la consommation audio-visuelle et vidéo. Ce rythme de croissance rapide continue de s’accélérer avec la prolifération de l’Internet des objets (IoT).

Toutefois, s’agissant de la question cruciale de l’importance que les données générées apportent chaque jour aux entreprises, il reste encore des progrès à faire. Cisco estime qu’en 2021, les données utiles ne seront plus que d’environ 85 zettaoctets, soit à peine 10% du total.

La réalité est que l’accumulation de grandes quantités de données ne génère de la valeur que si une entreprise peut agir rapidement sur ces données avec une vision métier en temps réel.

Une étude de McKinsey montre que la plupart des entreprises ne capturent qu’une fraction de la valeur potentielle des données et des analyses. Le plus gros du défi est de savoir où se trouvent les données, de les agréger, de les façonner et d’exécuter des analyses pour les exploiter – un défi rendu exponentiellement plus difficile une fois les données transférées dans des lacs de données et des entrepôts de données.

La cause principale de cette difficulté pour la plupart des entreprises ? Le processus ETL (extraire, transformer, charger). Ce n’est qu’en éliminant ce processus d’ETL que les entreprises pourront réaliser des analyses en temps réel et devenir véritablement axées sur les données.

C’est la raison principale pour laquelle l’Analyse Opérationnelle est en train d’émerger comme une voie vers un retour sur investissement plus rapide que l’Analyse Big Data car elle permet d’utiliser des informations en temps réel pour optimiser le fonctionnement des entreprises.

“Prenez des décisions avec 70% des informations que vous souhaiteriez avoir. Arrêtez d’attendre jusqu’à ce que vous ayez tout ce que vous souhaitez, vous perdez du temps”, déclare Jeff Bezos.

Dans les industries en évolution rapide telles que la vente au détail, les banques et les télécommunications, l’analyse opérationnelle permet aux entreprises de réagir plus rapidement aux comportements des clients et, à terme, d’accroître leur fidélisation et leur rétention. La technologie sous-jacente à la base de ces informations, le traitement hybride des transactions et des analyses (HTAP), permet aux entreprises d’exploiter une base de données unique pour les transactions et les analyses, éliminant ainsi les processus ETL des processus analytiques traditionnels et accélérant le passage aux informations des applications clés.

Avec HTAP, les données de plusieurs sources peuvent être analysées au fur et à mesure de leur création. Ces données sont immédiatement exploitables et restent disponibles pendant une courte période (quelques semaines ou quelques mois) pendant laquelle les actions pertinentes qui apportent le plus de valeur sont effectuées.

Le HTAP a un impact sur un large éventail d’industries et de cas d’utilisation :

  • E-Commerce : les commerces en ligne peuvent collecter des données d’achat en temps réel tout en analysant simultanément les niveaux de stock, les conditions météorologiques, le trafic du site Web ou la mise à jour des prix pour un article donné.
  • IoT Industriel : les données des capteurs sont continuellement ingérées et utilisées pour prendre simultanément des décisions en temps réel. Cela peut entraîner une maintenance plus rapide, une utilisation accrue des actifs et une réduction des coûts, générant ainsi des avantages financiers importants.
  • Santé : les prestataires de soins de santé peuvent analyser en permanence les données collectées auprès de centaines, voire de milliers de patients hospitalisés ou à domicile, afin de formuler des recommandations individuelles immédiates, tout en examinant les données relatives aux tendances en cas d’épidémie de maladie.
  • Media : les entreprises de médias qui ont considérablement étendu leur stratégie d’affichage numérique à des millions d’appareils peuvent non seulement être alertées en temps réel lorsqu’une panne survient sur un appareil, mais peuvent également rechercher facilement la cause du problème pour réagir rapidement.

L’analyse opérationnelle et le HTAP peuvent offrir aux entreprises une toute nouvelle capacité à réagir immédiatement à un environnement en mutation rapide. En outre, en éliminant le besoin de bases de données séparées, le HTAP simplifie la vie des équipes de développement et élimine les coûts de duplication en réduisant le nombre de technologies utilisées. Ce bénéfice est d’autant plus important pour les TPE, qui ne drainent pas des volumes de données suffisamment importants pour justifier des solutions de type Big Data.

La réalité est qu’il n’existe pas de solution unique pour toutes les activités impliquant l’utilisation de ces données. Afin de choisir les bons outils d’analyse de données en fonction de l’usage, voici un certain nombre de questions à prendre en compte :

  • Comment les retards causés par ETL affectent-ils les flux opérationnels et de maintenance ?
  • Quel risque y a-t-il à différer une décision lorsqu’un changement survient dans l’ensemble de données opérationnelles ?
  • Quel est l’avantage de réagir en temps réel aux mises à jour des données métiers ?
  • La complexité architecturale limite-t-elle la capacité d’obtenir des informations en temps opportun à partir de données opérationnelles ?
  • La capacité d’adaptation aux modifications du schéma de données réduit-elle l’agilité de l’application d’analyse de ces données ?
  • Le coût et la complexité liés à la maintenance de plusieurs systèmes opérationnels et d’analyse deviennent-ils inefficaces ?

Leave a Reply