Comment la donnée et l’Intelligence Artificielle (IA) accompagnent les institutions financières dans leur transformation de la conformité et de la lutte contre le crime financier ?

Dans un contexte de pression réglementaire croissante, d’amendes de plus en plus lourdes et de schémas de criminalité financière plus sophistiqués, les institutions financières doivent optimiser leurs dispositifs de sécurité financière et mènent des projets de transformation digitale majeurs.

Jean Barrère, Associé PwC, expert en Data Intelligence, estime qu’il faut accélérer les initiatives autour de l’exploitation des données et de l’IA.

Quel est le degré de maturité des institutions financières en termes d’utilisation des données ?

L’IA (Incl. Machine Learning) et le Big Data suscitent naturellement un vif intérêt. De nombreuses entreprises s’efforcent d’intégrer les données dans leurs écosystèmes et d’imaginer tout type d’utilisation. Beaucoup souhaitent passer d’une approche « Business Intelligence » à une approche « Artificial Intelligence ».  Mais une large majorité des organisations n’ont pas encore atteint le bon niveau de maturité sur ces sujets1. Des analyses prescriptives opérées de manière industrielle requièrent avant tout une maturité élevée de l’organisation pour adresser ces enjeux : équipe, compétences, gouvernance et qualité des données, robustesse et agilité du socle technologique. Autrement dit, les approches « Data-Driven » sont encore nouvelles et nécessitent d’être préalablement comprises par les différentes parties prenantes, et validées par les autorités de contrôle.

Quels sont les facteurs clés d’une stratégie de transformation numérique réussie dans la lutte contre le crime financier ?

Quatre points me semblent absolument clés pour mener à bien cette transformation : tout d’abord, l’exigence d’efficacité opérationnelle. La complexité des nouvelles techniques de criminalité financière pose la question de l’efficacité des dispositifs de détection : comment réduire le nombre de faux positifs ? Comment identifier les transactions réellement suspicieuses ? L’IA peut apporter des réponses à ces questions. Le corollaire ? Valoriser ses données. Or la donnée est par nature multifactorielle : volumétrie, dispersion, disponibilité, qualité et confidentialité. Atteindre un point d’équilibre qui marie ces dimensions, rendre ses données sécurisées et intelligentes, c’est un défi de taille pour les institutions financières. C’est pourquoi il faut se donner un espace pour favoriser l’expérimentation : mettre en place des approches bimodales, tisser des partenariats avec les Fintechs, les Regtechs, les acteurs institutionnels et académiques. C’est avec des démarches et des acteurs innovants que se construisent les dispositifs de demain. Aussi, l’humain doit être au centre de la stratégie. Un « Anti-Money Laundering (AML) Officer » ne fera pas assez d’efforts pour assurer une bonne qualité de données s’il ne mesure pas l’impact de leur bonne saisie sur les résultats du modèle. De la même manière, un « Financial Crime Officer » ne voudra pas utiliser un modèle sans connaitre ses impacts opérationnels sur ses équipes. Il est important d’accompagner le changement.


Facteurs de réussite d’un dispositif de lutte contre le crime financier

Le secteur financier est soumis à de nombreuses exigences réglementaires, dont l’explicabilité des modèles. Comment arrivez-vous à y répondre ?

L’explicabilité est en effet un enjeu clé pour l’IA. Les algorithmes doivent répondre de leurs décisions, que ce soit pour le régulateur, les collaborateurs de l’entreprise utilisateurs de ces nouveaux outils, ou les clients finaux. Si pour ces deux derniers c’est déjà un facteur clé de succès de transformation digitale, c’est pour le régulateur une exigence à laquelle on ne peut déroger. Par exemple le Model Risk Management (MRM) exige que les modèles d’apprentissage statistique utilisés soient explicables au régulateur, et par conséquent compris, du top management jusqu’aux opérationnels.
Or les modèles d’IA sont issus de dizaines d’années de recherche foisonnante des meilleurs laboratoires mondiaux d’informatique, de mathématiques et de statistiques. Leurs mécanismes peuvent être très complexes et les modèles résultant entraînés sur les données, très opaques (ex : réseau de neurones).
Un nouveau paradigme s’est donc ajouté aux bonnes pratiques de Data Science : le compromis entre performance et explicabilité. Si le phénomène que l’on souhaite prédire est simple, on pourra opter pour des modélisations simples, dont le comportement est explicable. Par ailleurs si ce phénomène est très complexe, le modèle pour bien prédire le sera également. On privilégiera donc opérationnellement un modèle qui réalisera le meilleur compromis entre complexité et performance.
Concrètement, des premières solutions existent. Techniquement, la problématique est double. Pour répondre à un collaborateur ou à un client qui cherche à comprendre une décision, on utilisera des outils d’interprétation dite « locale » : interpréteur d’arbres, modèle générique (de type LIME ou SHAP2).
Pour faire comprendre le comportement général d’un système, on pourra chercher à transmettre une intuition de son fonctionnement : importance globale des variables (ex : le niveau de rémunération ou l’historique des défauts pour un octroi de crédit) et visualisations diverses (PDP3, ICE). Mais pour rassurer sur la stabilité d’un système, cela ne sera pas forcément suffisant. On pourra alors fournir des garanties de fonctionnement (robustesse, monotonie) ou générer un modèle approché explicable (« SKOPE rules », « surrogate models »). C’est là où l’équipe métier experte et les Data Scientists doivent échanger pour définir le meilleur compromis entre compréhension et performance.
Notre conviction est que ce sujet est majeur et nécessite des efforts importants de recherche. C’est pourquoi chez PwC nous y travaillons activement, conjointement avec nos clients et les acteurs universitaires (en Data Science et en Sciences Humaines).


Retrouvez les experts PwC lors de l’atelier : « Confiance et transparence via l’audit des algorithmes : comment expliquer votre IA à un régulateur, à vos collaborateurs, à vos clients finaux ? » au salon Big Data Paris 2019, pour découvrir les principaux cas d’usage à venir en matière de Model Risk Management (MRM) et de Financial Crime, ainsi que les solutions techniques et de gouvernance qui peuvent être apportées. Rendez-vous lundi 11 mars de 17h à 17h30, Salle C.


1. Etude « Du Big Data à l’Intelligence Artificielle : le défi des entreprises françaises », PwC France et l’Usine Digitale (Novembre 2018)

2. LIME – Local Interpretable Model-Agnostic Explanations ou SHAP  – SHapley Additive exPlanations

3. PDP – Partial Dependencies Plot

Leave a Reply