Le risque de crédit pourrait-il être géré par une intelligence artificielle ?

Par Yannick NORMAND, FRM – Manager modélisation risque de crédit

 

.

Origine, opportunités et défis de l’intelligence artificielle

L’intelligence artificielle est un concept qui se développe depuis près de soixante-dix ans. Toutefois, son essor est récent, grâce à la croissance exponentielle des données, le développement de processeurs graphiques et le recours à des serveurs informatiques distants faisant exploser les capacités de calcul.

L’intelligence artificielle offre, entre autres, une meilleure détection des fraudes, une facilité de reporting, une assistance virtuelle et un interfaçage entre l’entreprise et son client. L’enjeu pour l’entreprise est la réactivité, afin de proposer des produits et services sur-mesure avec un délai de décision réduit.

Intelligence artificielle et gestion du risque de crédit

Depuis la crise financière de 2008, les institutions financières se sont efforcées de faire des économies de coûts et maintenir leur compétitivité, notamment face aux FinTechs. Pour y parvenir, elles se sont notamment tournées vers la technologie, avec une exploration accrue de l’intelligence artificielle ces dernières années.

Appliquée à la gestion du risque de crédit, l’intelligence artificielle pourrait-elle permettre de quantifier les paramètres réglementaires relatifs au risque de crédit ?

Les modèles auto-apprenants (machine learning) ou d’apprentissage profond (deep learning) permettent d’améliorer le pouvoir discriminant par rapport aux approches classiques utilisées actuellement (par ex. la régression logistique pour prédire la probabilité de défaut). Toutefois, le coût associé à ce gain de performance englobe, entre entres :

  • un risque de sur-apprentissage avec des modèles décrivant l’erreur aléatoire plutôt que les relations sous-jacentes dans le jeu de données
  • un nombre de règles ingérable à l’échelle humaine, augmentant le risque de modèles en complexifiant l’implantation et augmentant l’instabilité des paramètres de risque et par suite du montant de fonds propres, des provisions, de la tarification etc.
  • un manque de transparence en raison de l’effet « boîte noire » de ces modèles, difficiles à interpréter, tracer et auditer. Il peut être difficile pour les institutions financières de maintenir et de prouver leur niveau de compréhension et de contrôle des décisions prises à partir de l’intelligence artificielle, y compris leur adéquation, équité et alignement avec les valeurs de l’organisation et son appétit au risque
  • un risque de non-conformité réglementaire. L’enjeu du comité de Bale est de s’assurer de la solidité du système financier avec un objectif de prévention mais pas un objectif de précision ou de réactivité
  • un risque de cyber-sécurité avec l’utilisation de nouvelles technologies plus ou moins connues, maîtrisées, comprises, ainsi qu’un accroissement des points de vulnérabilité par ex. lors du recours à des serveurs informatiques distants ou des composants libres de droit
  • un risque juridique, notamment par rapport au Règlement européen Général sur la Protection des Données entré en vigueur le 25 mai 2018. Par ex., les banques doivent pouvoir expliquer à leurs clients les raisons ayant conduit à rejeter une demande de prêt, ce qui est incompatible avec une décision entièrement automatique issue d’une « boite noire »

Une approche hybride pourrait être envisagée afin de limiter les risques associés à une utilisation de modèles auto-apprenants purs. En effet, plusieurs études empiriques montrent que ces derniers améliorent la discrimination des emprunteurs intermédiaires (ni très bons, ni très mauvais). Quelques règles de gestion peuvent en être extraites et couplées au modèle de régression logistique afin de mieux discriminer ces emprunteurs, et ainsi améliorer la performance globale du modèle, tout en gardant un système de notation interprétable et contrôlable.

Quelle est la position du superviseur bancaire?

Comprendre les implications et les risques d’une utilisation accrue des algorithmes d’IA est un défi non seulement pour les institutions financières elles-mêmes, mais aussi pour leurs superviseurs. Du point de vue des institutions financières, l’IA permettrait d’apporter de l’efficience aux marchés financiers et bénéficierait aux consommateurs, sous la forme d’un meilleur service et d’offres sur mesure. Les régulateurs ont eux-mêmes exploré des façons d’utiliser l’IA dans leur propre travail. Toutefois, leur rôle est de prévenir tous les risques potentiels liés à l’utilisation de l’IA dans un secteur très réglementé.

De manière générale, les institutions qui prévoient d’adopter ou qui utilisent déjà l’IA peuvent raisonnablement s’attendre à un niveau d’examen accru. En particulier, elles devront mettre en place une gouvernance précise et robuste, incluant un cadre de gestion des risques (Risk Management Framework), pour identifier, réduire et contrôler tous les risques associés au développement et à l’utilisation de modèles auto-apprenants. Elles devront avoir une vision claire et complète de ces modèles déployés au sein de leur organisation, ainsi que des responsables de la revue et de l’approbation des algorithmes d’IA, des principaux contrôles de conformité et de risque en place.

Perspectives

Le recours à l’intelligence artificielle pour gérer le risque de crédit bancaire devrait rester limité et à coup sûr très encadré. La complexité des modèles auto-apprenants les rend difficile, voire impossible, à interpréter ou à auditer par un être humain, ce qui est incompatible avec les exigences réglementaires du secteur bancaire.

En l’état actuel de la réglementation, il est difficile d’imaginer l’absence totale d’intervention humaine dans le processus de gestion du risque de crédit. D’ailleurs, les initiatives observées dans l’industrie financière en termes d’apprentissage automatique sont complémentaires à la gestion des risques existante. De nombreuses institutions appliquent ou expérimentent l’apprentissage automatique pour challenger les modèles en place, détecter de nouveaux facteurs de risque influents, et identifier de nouvelles corrélations dans les données. Cela permet d’améliorer les performances prédictives des modèles réglementaires traditionnels, tout en conservant une relative transparence et simplicité.

Un partenariat continu et croissant entre les institutions financières et leurs superviseurs, soutenu par des échanges d’informations croissants, est indispensable pour une montée en compétences de part et d’autre et pour apprendre ensemble.

 

Leave a Reply