3 mesures pour une IA plus éthique

Par Romain Fouache, COO, Dataiku

Les risques liés à l’utilisation de l’intelligence artificielle sont longtemps restés limités, tant il est vrai qu’elle était, récemment encore, largement confinée au milieu universitaire ou à celui de la recherche et du développement. Depuis quelques années, sa montée en puissance et ses applications dans les entreprises, mais aussi dans la vie quotidienne des citoyens, se traduit par un impact réel beaucoup plus significatif. Sans surprise, nous voyons émerger sur le devant de la scène des questions éthiques qui ne peuvent désormais être ignorées.

Non sans une certaine ironie, l’IA pose parfois des problèmes éthiques en raison même de son efficacité et de sa précision. C’est le cas avec l’identification d’individus par reconnaissance faciale dans le domaine public, associée à une supposition de leur comportement à venir sur la base de données personnelles. Mais il arrive également que ce soit l’insuffisance de précision qui soit en cause, avec par exemple les prédictions en matière de risques de récidive.

Une IA éthique serait-elle donc un mythe ? Il convient d’admettre que l’éthique revêt elle-même un caractère assez subjectif. Et elle défie toute mesure quantitative, comme l’a rappelé récemment une étude publiée par la revue Nature, qui explique comment les cultures varient dans leur perception d’une décision éthique en rapport avec l’intelligence artificielle.

Pour compliquer un peu plus les choses, l’éthique est aussi un sujet controversé, qui fait débat, d’autant qu’elle transcende toutes les disciplines – philosophie, science, sciences sociales, technologies, législation, etc. De toute évidence, il s’avère impossible d’apporter une réponse qui se limiterait à une formule simple, voire simpliste. Si donc une éthique universelle reste une vue de l’esprit en matière d’IA, comment les entreprises peuvent-elles aborder raisonnablement ce sujet ?

Phase 1 : Définir clairement l’éthique de l’entreprise

La première étape, pour une entreprise déterminée à mettre en œuvre l’intelligence artificielle dans ses opérations, consiste à définir un cadre précis pour ses propres règles éthiques qui devront – ou pas – être respectées. Par exemple, le risque de préjugés sexistes ne sera pas nécessairement un problème avec un moteur de recommandation pour des magasins de vêtements. Mais il en sera peut-être tout autrement dans le cas d’institutions financières.

Définir ces critères en accord avec les fonctions et les valeurs de l’entreprise présente deux avantages :

  1. L’entreprise adopte une position claire sur l’ensemble de ses principes
  2. La communication entre toutes les équipes est facilitée sur ces fondamentaux

Phase 2 : encourager la responsabilité et l’autonomie

S’il y a bien quelque chose susceptible d’augmenter les risques avec l’IA, c’est l’idée que celle-ci serait intrinsèquement objective. Autrement dit, que ses recommandations, ses prévisions, ou tout autre information qui en découle, ne sont nullement soumises aux préjugés des individus. Si tel était le cas, la question de l’éthique serait ici sans objet : un algorithme pourrait fournir une représentation incontestable de la réalité.

Cette conception erronée s’avère extrêmement dangereuse, non seulement parce qu’elle est fausse, mais aussi parce qu’elle tend à créer un insidieux sentiment de confort, en diluant la responsabilité individuelle et collective quand sont abordés des projets intégrant l’intelligence artificielle. De fait, les algorithmes présentent de nombreux risques de préjugés ou de biais, induits par différents facteurs :

  • Le choix des données. L’IA s’appuie sur des données préexistantes, et le choix de celles-ci aura donc un impact fondamental sur le comportement du système. Par exemple, l’algorithme de reconnaissance faciale qu’utilise Amazon avait des difficultés à identifier les femmes et les personnes de couleur parce que les hommes de race blanche étaient surreprésentés dans les données utilisées pour créer le système. Dans la mesure où ce dernier avait « appris » à distinguer uniquement entre des visages d’hommes de type caucasien, il lui était difficile de prendre en compte des typologies autres.
  • Données préexistantes biaisées. Les datasets contiennent fréquemment des informations biaisées. Par exemple, le système qui a automatiquement éliminé les femmes lors d’une procédure d’embauche était en grande partie le résultat des biais appliqués auparavant dans le processus de recrutement en vigueur. De fait, si les données utilisées reflètent les choix et les préjugés préalables des recruteurs, et que ces choix étaient donc biaisés dès le départ, le système basé sur l’IA va nécessairement présenter les mêmes défauts.
  • Choix des techniques de modélisation et de validation. Chacune des étapes intervenant dans la création d’un système basé sur l’IA est susceptible d’induire des biais et des dérives.

La réponse à apporter à ces différents types de risques est à la fois humaine et technique. Humaine, parce qu’il est essentiel de former les gens et de leur conférer le niveau de responsabilité et d’autonomie nécessaire pour développer des systèmes IA. En pratique, les gens qui développent et déploient un modèle doivent être pleinement conscients des lacunes potentielles de ce modèle et assumer la responsabilité des défauts qui peuvent y être associés. Chez Dataiku, par exemple, nous assurons à nos équipes une formation dans ce but.

Il existe également, bien évidemment, des moyens technologiques pour limiter ces risques, en analysant les données afin d’identifier de possibles biais sur différentes sous-populations. Mais il est fondamental de reconnaître que la réussite du processus de responsabilisation des équipes – avec la formation et les outils adéquats, dépend largement de la première mesure évoquée ci-dessus : définir l’éthique de l’entreprise.

Phase 3 : aligner la gouvernance de l’IA sur l’éthique de l’entreprise

La troisième mesure consiste à établir une véritable gouvernance de l’IA au sein de l’entreprise. Actuellement, une grande partie des entreprises ayant commencé à mettre en œuvre la data science, disposent de systèmes de gouvernance qui se sont développés de manière semi-organique. Il n’est pas rare de voir plusieurs, parfois des douzaines, d’équipes au sein d’une grande entreprise, développer divers systèmes IA en utilisant chacune différentes technologies et données. Une fois déployés, les modèles sont suivis individuellement par les personnes qui en ont directement la charge.

La gouvernance à grande échelle signifie toutefois qu’il faut un suivi centralisé de tous les projets, et être capable de voir d’un seul coup d’œil quelles sont les données utilisées, à quel niveau, et comment se comportent les modèles en question. Établir ce niveau de gouvernance, basé sur les principes éthiques définis à la phase 1, et soutenu par des équipes responsables, comme détaillé à la phase 2, est la meilleure façon de garantir le niveau de responsabilité requis avec l’IA.

Enfin, la question de l’éthique doit être traitée par ceux qui, au premier chef, déploient des efforts en matière d’intelligence artificielle. Bien qu’il soit impossible de quantifier ces questions, nous continuons de penser, chez Dataiku, qu’il est vital de s’assurer que les actions entreprises par les systèmes IA sont à même de respecter des règles éthiques cohérentes et en ligne avec l’environnement. En tant que fournisseurs de solutions IA, nous laissons à nos clients le soin de définir et de développer leurs propres cadres en matière d’IA mais, dans le même temps, nous fournissons la technologie et les outils permettant d’assurer la gouvernance et de positionner les bases d’un avenir plus éthique en termes d’intelligence artificielle.

Dataiku au service de la transparence et de l’équité

Avec l’analyse des sous-populations assurée par Dataiku, les utilisateurs peuvent aisément éliminer les biais risquant involontairement d’affecter les modèles, et créer les conditions d’un déploiement plus transparent et plus équitable.

Leave a Reply