Revenir au site

Vers une intelligence artificielle éthique ? Lutter contre les biais et les discriminations

| Jean-Baptiste Boyssou, Guillaume Tawil, Junior Fellows de l’Institut Open Diplomacy, Isotta Marcelli

16 octobre 2020

Alors que la transition numérique s’impose comme l’un des défis principaux de notre génération, ses outils prennent une place prépondérante au sein du débat public. Termes inconnus du grand public il y a peu, Machine learning ou Big data font désormais partie du vocabulaire usuel. Or celui d’Intelligence artificielle - IA qui rassemble de nombreux concepts, cache l’un des problèmes principaux de ces technologies : elles ne sont pas intelligentes par elle-mêmes, leur efficacité résulte de leur développement par des concepteurs humains. Or ces derniers ne sont pas exempts de biais, sociaux, ethniques ou de genre, qui peuvent générer autant de discriminations. Quel rôle jouent ces biais algorithmiques et quel peut être leur impact sur nos sociétés ? Comment les encadrer pour les limiter, sinon les éliminer ?

Les biais, talon d’achille de l’intelligence artificielle

Divers types de biais affectent le fonctionnement des technologies numériques. Ils peuvent découler des données fournies aux systèmes « intelligents » afin de les entraîner selon diverses méthodes comme l’apprentissage supervisé ou non. Une quantité colossale de données est nécessaire pour élaborer des systèmes de conduite autonome, ou les algorithmes d’optimisation dans la finance ou la logistique. Or elles intègrent dans leur construction même, leur provenance ou leurs occurrences, les biais de nos sociétés. Un système de reconnaissance faciale entraîné sur des personnes de couleur ne saura pas reconnaître un visage blanc. Un jeu de données comportant principalement des visages féminins pourra entraîner une erreur sur le genre d’un homme aux cheveux longs.

Les biais cognitifs résultent de la manière dont le programmeur a écrit le code. Le biais « du mouton de Panurge » consiste à suivre la méthode de codage la plus populaire mais pas nécessairement la plus adaptée, tandis que celui de « corrélation illusoire » repose sur une corrélation entre deux événements introduite par le programmeur alors qu’elle n’existe pas. Le plus connu de ces biais est celui de stéréotype : les algorithmes d’attribution automatique de mots en machine learning ne sont pas rares à associer « chef » ou « pompier » à un métier masculin, « infirmier » et « maître d’école » à un féminin.

Quant à eux, les biais statistiques sont les plus faciles à comprendre mais les plus difficiles à résoudre, car ils découlent du comportement même de la société. Le biais de variable omise ou de sélection résulte d’une population de données orientée, ou pas assez diversifiée.

Un dernier type de biais, moins connu, est le biais économique - désiré ou non. A l’aune de l’optimisation du rapport coût-bénéfice, un algorithme peut favoriser une population, dans le cas de publicités ciblées par exemple.

L’impact de ces biais, quels qu'ils soient, peut être particulièrement important. Un exemple : un logiciel de prévision des crimes et délits couplé à la reconnaissance faciale, utilisé par la police américaine, que celle de Los Angeles a abandonné en avril 2020. Il orientait en priorité les policiers vers des individus ou des quartiers afro-américains. Ces biais sont d’autant plus inquiétants que l’algorithme apprenant ou machine learning est appelé à intégrer de nouveaux domaines, avec une autonomisation croissante.

L’IA au cœur des défis géopolitiques d’un monde en fragmentation

« Celui qui deviendra leader dans ce domaine [de l’IA] sera le maître du monde et il sera fortement indésirable que quelqu’un obtienne un monopole dans ce domaine ». Le président russe Vladimir Poutine soulignait ainsi en 2017 le caractère clé de l’IA en matière géopolitique.

Développées notamment à des fins stratégiques et de défense, ces nouvelles technologies peuvent représenter une menace pour la stabilité et la paix. Le développement de systèmes d’armes létales autonomes - SALA est souvent comparé à la course à l’espace ou à la prolifération nucléaire : une nouvelle course aux armements, autonomes cette fois-ci ? L'usage de telles armes dans un conflit ajouterait un biais d'automatisation fort aux biais algorithmiques existants, représentant une menace majeure pour le respect des conventions de Genève.

Comme en matière de protection des données personnelles, l’Union européenne pourrait se faire le fer de lance de la régulation et de l’encadrement, pour une IA plus éthique.

La volonté européenne de promouvoir une IA éthique

Alors que l’UE développe un vaste système biométrique qui rassemblera à terme des données sur plus de 400 millions de personnes, les biais ethniques d’un tel système, seront l’un des freins les plus probants à son utilisation, alors que les populations concernées intègrent des caractéristiques très différentes.

Inquiète des implications de l’IA dans le secteur public comme privé en matière de respect des droits fondamentaux, la Commission européenne entend mettre à jour, voire renforcer la législation européenne, rendue obsolète par des avancées technologiques très rapides. A cet égard, elle a publié le 19 février 2020 le Livre blanc sur l'Intelligence artificielle pour ouvrir un débat public avec les institutions européennes et la société civile, afin de parvenir à un consensus politique. Selon la Commission européenne, l’IA ne doit pas devenir un outil discriminatoire, et impliquer des biais algorithmiques en matière de genre, d’origine ethnique, de religion ou de convictions, de situation de handicap, d’âge ou d’orientation sexuelle.

La priorité pour encadrer les systèmes d’IA qui reposent sur les algorithmes du machine learning concerne les catégories à haut risque. Ce sont les secteurs sensibles, qui représentent des risques importants pour les personnes tels que la santé ou les transports, ou au sein desquels les conséquences juridiques ou physiques peuvent être majeures pour les utilisateurs.

En premier lieu, la Commission propose d’élargir le champ des données à recueillir pour disposer d’un ensemble de données représentatif, afin de garantir la prise en compte des biais discriminatoires possibles. Ensuite, elle suggère de rendre l’utilisation et le fonctionnement des systèmes d’IA plus transparents. Par exemple, elle envisage de demander à leurs créateurs de documenter leurs méthodes, procédures et techniques de programmation pour s’assurer de leur respect des règles. Elle souhaite également rendre le fonctionnement de ces systèmes plus transparent, en matière d’objectifs, de parties et d’autorités compétentes. L’humain conservera le contrôle des processus à tout moment, et chaque décision devra être contrôlée avant de devenir effective afin de s’assurer de garde-fous. Enfin, la Commission entend rappeler l’interdiction d’utiliser l’IA à des fins d’identification biométrique.

La Commission ne souhaite donc pas limiter l’innovation à travers l’IA, mais bien encadrer le développement de cette dernière afin de limiter les risques de biais discriminatoires et assurer un fonctionnement éthique. Ces avancées sont-elles suffisantes pour promouvoir une IA éthique ?

Vers une régulation mondiale de l’IA ?

Dans un système multilatéral affaibli, il sera sans doute difficile de construire des réponses appropriées aux enjeux de l’IA, au-delà des tentatives de réponses nationales.

Hors UE, certains pays ont d’ores et déjà mis en oeuvre des stratégies nationales de développement et de contrôle de l’IA, notamment la Chine, le Canada, le Japon, Singapour, la Corée du Sud. D’autres tels que les Etats-Unis et le Mexique y travaillent. L’accent est généralement mis sur la nécessité d’encadrer le développement technologique de l’IA, de manière éthique, inclusive et dans le respect de la vie privée et de la propriété. Au-delà des discours, les attitudes des Etats divergent considérablement, entravant les efforts de coopération. Les tensions grandissantes entre les Etats-Unis et la Chine illustrent cette difficulté, quand bien même leur avance technologique rend nécessaire un accord politique entre ces deux puissances pour pouvoir construire une gouvernance mondiale de l’IA.

L’avance américaine se réduit néanmoins face à la Chine, qui investit à la hauteur de son ambition : devenir leader de l’IA à l’horizon 2030. En réponse, Donald Trump revient sur les timides régulations de l’IA par les pouvoirs publics de l’administration de Barack Obama : il ne souhaite pas « résoudre des problèmes qui n’existent pas » et préfère « laisser les scientifiques développer librement leurs prochaines grandes inventions, ici, aux Etats-Unis ». Comme pour d’autres enjeux clés de défense, de non-prolifération, les Etats-Unis entendent réaffirmer leur puissance et remettre en question le multilatéralisme.

De son côté, la Chine a déjà déployé ses systèmes de surveillance et de reconnaissance faciale au service d’un système de crédit social. Le plan « made in China 2025 », pour lequel le gouvernement chinois subventionne massivement ses leaders de l’IA que sont Baidu, Alibaba ou Tencent, souligne son intention de faire de l’IA un vecteur de puissance majeur, bien loin d’une volonté régulatrice.

Des deux côtés du Pacifique, réguler l’IA – si la volonté politique peut exister – nécessiterait de développer un partenariat entre acteurs privés et publics, ainsi qu’avec le monde académique. L'usage autoritaire de l'IA par le gouvernement chinois et son influence auprès des entreprises privées sont tels qu'il est peu probable que les questions éthiques deviennent une priorité pour Pékin. A l’inverse, l’opinion publique et le monde académique américains pourraient jouer un rôle majeur. En 2012, un logiciel de reconnaissance faciale développé par Amazon a été par l’université de Georgetown avec des ONG : 40 % des erreurs sur des photos des membres du Congrès concernaient des personnes de couleur, confondues avec des criminels. A l’heure de #BlackLivesMatter, les biais algorithmiques de l’IA pourraient faire l’objet d’une attention très particulière de l’opinion publique américaine.

Désormais intégrée à notre vie de tous les jours, le développement de l’IA s’annonce exponentiel, source d'espoirs et d'inquiétudes. Ses biais algorithmiques sont désormais clairement identifiés, ainsi que les dérives autoritaires possibles de son usage. En matière d’IA mais comme sur bien d’autres enjeux, les Etats-Unis et la Chine font la course en tête, détenteurs de la clé d'une régulation dans un cadre multilatéral, si elle venait à être à l'ordre du jour. L'UE s'affirme néanmoins comme une puissance normatrice, et entend ouvrir la voix à une régulation éthique et respectueuse des libertés fondamentales, malgré son retard dans la course technologique. Vecteur de progrès ou de puissance, la régulation de l'IA reste un enjeu clé de la scène internationale.