Protéger, sécuriser et classifier les workloads Big Data avec Veritas

Par Daniel de Prezzo, Directeur Technique Europe du Sud, Veritas

Si le multicloud a libéré les entreprises de l’enfermement constructeur auquel elles étaient tristement habituées, la technologie cloud tend en revanche à diluer et à disperser l’information. Or, l’entreprise reste la seule responsable de la gestion, de l’exploitation et de la conformité de sa data.

Pour en être véritablement maître, la cartographie et la classification de la donnée est un pré-requis désormais indispensable. Cerise sur le gâteau, ces solutions, particulièrement performantes à l’heure du big data et de l’intelligence artificielle, aident également les entreprises à intégrer activement et en conscience le grand mouvement d’intérêt général que représente aujourd’hui l’Open Data.

L’information au sens large est disséminée sur plusieurs systèmes, dont beaucoup appartiennent à des tiers. Elle se montre en outre particulièrement mobile. La complexité est devenue la règle, quand la responsabilité de la gestion et de l’exploitation de ces données produites reste à la charge de l’entreprise.

« Les entreprises devraient avoir une philosophie de la donnée (non personnelle s’entend) comparable à celle du GDPR » rappelle Daniel de Prezzo, Directeur Technologique Veritas South EMEA. « Gouverner sa donnée sans en connaître ni son contenu, ni sa valeur ni sa localisation revient à conduire sa voiture les yeux fermés. ». Outre les risques encourus, on passe surtout à côté du but d’une gestion saine de l’information qui est d’en tirer de la valeur. Il faut évidemment que la donnée travaille pour l’entreprise et certainement pas l’inverse.

Où se trouve mon information ? Quels types de données ai-je à ma disposition ? Qui peut y accéder ? Des questions auxquelles la grande majorité des entreprises ne répond que partiellement, souvent parce qu’elles ne disposent d’aucun outil pour y parvenir. Daniel de Prezzo le confirme : « Oui, la plupart effectuent un travail de cartographie à la main, sans imaginer que des solutions autrement plus adaptées existent. »

Or, si la cartographie de la donnée n’a jamais été facile à mettre en œuvre, elle est d’autant plus complexe aujourd’hui sans solution dédiée que la donnée est disparate et protéiforme. À quoi s’ajoutent des obligations réglementaires plus lourdes encore.

Cartographier et classifier pour retrouver la valeur de sa donnée

Gérer sa donnée, c’est d’abord en comprendre le but. Dès que l’on admet que la donnée doit travailler pour l’entreprise, on comprend rapidement quelles sont les étapes à suivre et le processus à mettre en œuvre.

La cartographie de sa donnée représente la toute première étape. C’est elle qui permet ensuite de stocker intelligemment, ce qui signifie entre autres savoir supprimer les données obsolètes, adapter le stockage en fonction de l’utilité quotidienne ou non de l’information considérée et opter pour un archivage moins coûteux pour des usages secondaires. Ce n’est qu’après que la question de la protection peut être réglée correctement au travers des thématiques de sauvegarde, de restauration et de haute disponibilité pour les applications les plus stratégiques. Reste enfin le monitoring, indispensable pour disposer d’un suivi dynamique des mouvements de données dans le cloud.

Qui dit cartographie dit classification de la donnée à la volée. La classification facilite la découverte, par la métadonnée ou le contenu, des éléments prédéterminés (format bancaire, adresse mail, numéro de passeport, avis consommateurs…) et des solutions intégrées couvrent l’entièreté du champ informationnel avec un focus particulier, évidemment, sur la donnée non structurée.

À première vue complexe, la classification s’organise en réalité de manière automatique, s’adjoint à la cartographie et autorise l’entreprise à créer ses propres règles.

Au-delà, on parle également de stockage objet, un stockage intelligent, embarquant un moteur de classification qui intervient au moment où l’information utile est écrite. L’opération de classification n’est plus décorrélée du stockage, et c’est bien cette association, entre visibilité, classification et stockage adapté, qui redonne toute sa valeur à la donnée.

Serez-vous plutôt traditionnel ou Open Data ?

C’est une toute nouvelle liberté que l’entreprise retrouve sur l’usage qu’elle peut faire de son information (directives, lois et règlements mis à part) et de nouveaux choix se présentent. Car opter pour la suppression de données quand celles-ci ne servent plus le business de l’entreprise n’est pas un acte qui s’impose nécessairement. D’autres pourraient très bien y trouver leur compte. Dans ce domaine, les besoins et les pratiques des entreprises peuvent être très différents et l’on constate l’apparition de deux écoles.

D’un côté se trouve l’école classique, laquelle pose comme principe que chaque donnée créée l’est pour une utilité spécifique, un résultat attendu et des délais de rétention connus à l’avance. Citons par exemple les plans de construction d’un avion, que l’on conservera trente ans. Il n’y a pas de raison particulière de les garder au-delà.

Certes si, diront les tenants de l’école de l’Open Data, qui préfèrent penser qu’une information porte une valeur intrinsèque. Daniel de Prezzo se souvient justement d’une discussion à ce propos lors d’une réunion de travail sous l’égide d’Etalab : « En effet, il faut le reconnaître, il n’est pas exclu qu’on ait besoin de consulter les menus des cantines scolaires au début des années 2000 pour étayer une étude sur nos comportements alimentaires. Allez savoir ! »

Si la question semble intéresser d’abord la sphère publique, le secteur privé peut tout aussi bien choisir de participer à l’élan Open Data. La richesse informationnelle qu’il détient saura trouver preneur. Et quoiqu’il arrive, les deux écoles convergent autour de la question de la rétention informationnelle, qu’elle soit finie ou infinie. Tout commence donc bien par la cartographie et la classification de sa donnée. La suite relève d’un arbitrage qui n’appartient qu’à l’entreprise.

Retrouvez Veritas lors du salon Big Data 2019 au cours de l’atelier « Protéger, sécuriser et classifier vos workloads Big Data » le 12 mars à 9h30 ou sur le stand Veritas (A47)

Leave a Reply