SÉCURITÉ DES DONNÉES, L’HEURE DU DOUTE

SÉCURITÉ DES DONNÉES, L’HEURE DU DOUTE

Il y avait les pare-feux, les proxy, et on pensait le réseau protégé de l’intérieur. Et puis il y eut le Cloud, l’explosion des données et l’ouverture sur Internet et on a découvert que les menaces s’étaient démultipliées… En 2018, 80% des entreprises françaises auraient ainsi subi une cyberattaque avérée, malgré des dispositifs et des solutions de sécurité intégrés. « On est passé d’une sécurité périmétrique à une sécurité applicative, à l’intérieur même de chaque application », explique Laurent Grangeau, Cloud Solutions Architect chez Sogeti.

DevSecOps

Soit l’intégration de process de sécurisation dès la phase amont, au niveau administrateur lors de la création et de la gestion des applications. « Cette approche DevSecOps (comprendre : Développement-Sécurité-Opérations) nous conduit à scanner les applications et leurs potentielles failles de sécurité tout au long du projet ».

Vae Leaktis

Mais alors… les données du Big Data sont-elles effectivement bien protégées ? La prolifération des ransomware (littéralement : « rançongiciel » ou logiciel de rançon) témoigne du nouveau business que se livrent les cyberattaquants : extorquer des données stratégiques à des entreprises pour menacer ensuite de les faire circuler à la concurrence ou sur le Net… à moins de payer une rançon. « Pour se prémunir contre ces fuites de données, tout le travail se situe autour de la gestion des droits et des accès, d’autant plus que, concernant les données personnelles, le RGPD applique maintenant de lourdes sanctions financières (4% du CA) pour toute fuite détectée ».

Kerberos, Knox, Senry

« La difficulté, c’est qu’il peut y avoir plusieurs points d’entrée sur une donnée dans un cluster Hadoop », complète Mohamed Mahdi Benaïssa, Big Data Solutions Architect chez Umanis. « Il faut donc être capable de mettre en place des outils qui gèrent à la fois l’authentification (ex : Knox), puis l’autorisation (ex : Ranger, Senry) et la traçabilité… tout cela sans ralentir le système en termes de performance ou de facilité d’usage ! ». Un sacré challenge qui justifie selon lui la mise en place d’outils de gouvernance globale au niveau d’Hadoop (outils distribués de Kerberos, la solution open source) pour gérer ces différents besoins, y compris dans les applications. « Mais alors, soupire Alain Bouillé, président du CESIN, on accepte de confier toute son architecture de sécurité à des solutions du marché non souveraines, et bien souvent packagées… ».

SIEM

Quelle solution entrevoir alors face au risque grandissant de « data leaks » et l’absence d’alternatives aux logiciels des GAFA ? « L’utilisation des traitements de Machine Learning pour détecter les risques potentiels est pour nous une avancée », poursuit ce dernier (cf interview). La corrélation des données d’événements intervenus sur le réseau, y compris au niveau le plus fin grâce aux logiciels de SIEM (Security Information and Event Management) est d’ailleurs devenue un indispensable du security management. D’autres expérimentations de machine learning « a posteriori » font également florès : en octobre dernier, la start-up CybelAngel annonce ainsi une levée de fonds de 10 millions d’euros pour poursuivre le développement de sa solution, un outil de scan du web à la recherche des données « égarées » par les entreprises…

Rogue AI

Pourtant, l’intelligence artificielle peut, elle aussi, représenter une faille du système, ne serait-ce qu’en introduisant des données litigieuses au cœur du modèle d’apprentissage. En 2016, une équipe américaine découvre ainsi qu’en observant le fonctionnement des réponses d’un algorithme propriétaire, elle était capable de reconstituer celui-ci et de lui soumettre des données frauduleuses… pour le faire dérailler. Machiavélique n’est-ce pas ?

 

Machine learning, gouvernance, DevSecOps, rôle du RSSI, les enjeux sont donc explosifs pour les années qui s’ouvrent… Comme si cette « heure du doute » avait finalement sonné l’An II de la sécurité des Big Data.

Leave a Reply