Quelle éthique pour l'intelligence artificielle ?
3
 min
Monter en compétences
 Publié le 
27/4/2021

Quelle éthique pour l'intelligence artificielle ?

Un sujet qui fait couler beaucoup d'encre : l'éthique dans l'intelligence artificielle, quels sont les tenants et les aboutissants de tels enjeux ? Parlons ici d'un des pires ennemis des Data Scientists, les biais. Quels sont-ils ? Comment passer outre ces biais ? Réponse dans cet article.

L'intelligence artificielle ou IA tient aujourd'hui un rôle essentiel dans le fonctionnement et le développement des sociétés. Si les opportunités qu'elle offre sont nombreuses, elle implique également une responsabilisation de la société pour réduire les risques dans les logiciels qui l'utilisent. Or, les biais qui peuvent se trouver au sein des données employées vont biaiser le fonctionnement dans l'IA.

Ces dérives dans les systèmes d'IA peuvent causer des impacts négatifs sur les utilisateurs ou consommateurs, les clients et bien entendu les sociétés. Alors, comment surmonter ces biais dans l'IA ?

éthique intelligence artificielle

Quels sont les différents types de biais dans l'IA ?

Dans l'IA, les biais ou dérives sont assez présents et peuvent se manifester de différentes façons. Ils sont essentiellement causés par le modèle au moment de l'apprentissage, par les données d'apprentissage et leur interprétation, et par l'interaction avec les utilisateurs.

Chaque entreprise doit déceler les biais pour les écarter afin de profiter pleinement de tous les points forts de ses logiciels. Heureusement, une fois décelés, les biais peuvent être surmontés efficacement. Bien entendu, l'intervention humaine est incontournable pour surmonter ces dérives. Force est de constater que l'IA n'est rien sans l'Homme qui va régir son fonctionnement.

Les biais peuvent provenir des données utilisées ou être des biais cognitifs humains.

Le surapprentissage

Il y a un dysfonctionnement quand le logiciel est trop dépendant des données introduites initialement. Ainsi, le modèle ne va plus fonctionner correctement quand de nouvelles données seront introduites.

Le biais de représentation

C'est le biais qui renvoie à des résultats discriminatoires ou basés sur des différenciations ethniques. Il provient d'un manque de diversité au sein des données et des échantillons représentatifs.

Le biais d'échantillon et de sélection

Le biais d'échantillon a lieu quand le logiciel part d'un échantillon qui ne correspond pas à la population qu'il devait considérer. Quant au biais de sélection, il a lieu quand le logiciel sélectionne des données ou un échantillon non représentatif pour une analyse.

Le biais de confirmation

Il s'agit d'un parfait exemple de biais cognitif humain. Ces dérives proviennent de l'analyse de données qui reflètent une considération existante (une sorte de préjugés humains).

La variable confondante

Il s'agit d'un biais causé par une erreur de perception causée par la négligence d'un élément qui devait avoir un impact sur le résultat.

Le paradoxe de Simpson

Le biais appelé paradoxe de Simpson correspond à l'écart entre les résultats obtenus quand des groupes ou des données sont étudiés séparément et ceux obtenus quand ils sont étudiés ensemble. Le résultat peut même disparaitre lorsque les groupes sont analysés comme une seule population.

Notez que certains biais peuvent être observés en même temps sur un même logiciel. Bien entendu, il s'agit d'une liste non exhaustive de tous les biais qui peuvent être constatés dans l'IA ou chez ses programmeurs. Ils figurent parmi les plus courants.

Les applications de ces biais ?

Plusieurs exemples peuvent être pris pour illustrer les biais dans l'IA.

Nous pouvons citer comme exemple le cas de la voiture autonome d'Uber qui a tué une piétonne en Arizona en 2018. Pendant l'essai du véhicule autonome, ce dernier a percuté un piéton qui traversait la rue en poussant sa bicyclette. L'accident mortel a eu lieu parce que la voiture n'a pas jugé bon de freiner, ayant considéré la situation comme un faux positif.

Certains algorithmes de détection de visages impliquent également des discriminations basées sur la couleur de peau ou l'appartenance ethnique. Leurs conséquences peuvent être graves. C'est le cas du logiciel Compas aux États-Unis. Ce dernier avait pour vocation d'aider les juges à déterminer si des détenus pouvaient bénéficier d'une liberté conditionnelle. Mais des biais ethniques ont été constatés, car les personnes à la peau noire étaient lésées par le logiciel. Ce dernier leur offrait moins de chances de bénéficier de la liberté conditionnelle.

Un autre exemple très courant est ce biais par lequel un logiciel a déclaré que la population aisée a une santé plus robuste que la population pauvre. Cette considération complètement erronée est issue d'un problème au niveau de l'interprétation des données. En effet, il y avait plus de données disponibles sur les patients aisés qui étaient plus nombreux à acheter un traitement médical que les populations pauvres.

Il y a également le scan automatique de CV d'Uber qui n'a embauché que des hommes, ou encore l'algorithme de Facebook qui discrimine à la couleur certaines personnes… Les exemples ne manquent pas et ont suscité des questionnements éthiques liés à l'IA.

Dans tous les cas, ces problèmes proviennent presque toujours d'un mauvais paramétrage du logiciel. L'Homme doit ainsi intervenir pour y remédier, d'autant plus qu'un système biaisé peut nuire à l'image de l'entreprise, réduire le retour sur investissement et faire reculer les consommateurs.

AI

Comment passer outre ces biais ?

Ce qui est bien avec l'IA, c'est qu'une fois connus, la plupart des biais peuvent être surmontés. Pour ce faire, il est incontournable de renforcer le suivi par un agent humain.

La place de l'homme dans l'IA

L'intelligence humaine tient un rôle essentiel dans le monde de l'IA. La diversification des équipes Data s'avère également efficace pour avoir plus de points de vue et disposer de données qui représentent plus de personnes d'origine sociale, géographique ou ethnique diverses…

Veiller sur l'impartialité des données

L'un des principaux problèmes éthiques liés à l'IA provient des préjugés et de la partialité des données. Il est normal que les logiciels soient discriminatoires quand ils sont basés sur des considérations humaines discriminatoires.

Il faut ainsi observer de près si un résultat privilégie un ou plusieurs sous-ensembles d'une population. Même après la suppression des biais décelés, il faut surveiller en permanence les modèles pour détecter et éliminer à temps toute dérive.

Pourquoi garder l'intégrité humaine dans l'IA est important ?

Il est indispensable de veiller de manière constante sur un modèle afin de déceler ses dérives. En effet, les modèles dévient assez souvent, d'autant plus qu'il est difficile de prédire ses comportements.

Suivre les formations en data est également incontournable pour combattre ces biais. En effet, une formation pour comprendre les biais et les contrecarrer en bootcamp permet de connaitre les points essentiels sur le fonctionnement de l'IA et de profiter du bagage d'expérience des organisateurs. Suivre une telle formation et profiter des échanges entre les formateurs et les participants permet de sensibiliser chacun aux dérives possibles possibles de l'IA et à l'importance de garder l'intégrité humaine dans l'IA.

Rejoignez la communauté sur JULIE !

Python, SQL, gestion de projet Data, toutes les compétences à acquérir pour monter en compétences avec cours en ligne gratuits.

Myriam Emilion
Écrit par
Myriam Emilion
 - 
Directrice Marketing @
Jedha Bootcamp

Python : le language de programmation le plus
populaire parmi les professionnels de la Data !

Obtenez notre livre d'Introduction Pratique à Python !

Programmes, thématiques Data, admissions,
vous avez une question ?

Prenez rendez-vous avec nos équipes