Le blog de la Wild Code School - Wild Code School

Biais algorithmique : quand l’IA est un frein à l’inclusion numérique

Rédigé par Calvin Ropers | 17/07/2023

L’IA n’est pas parfaite. Cela pourra paraître choquant – ou évident, mais son utilisation et sa conception reposent sur des failles importantes. Et pourtant, les phénomènes baptisés biais algorithmiques ne sont pas intentionnels dans la plupart des cas. Ils résultent plutôt d’une combinaison de facteurs complexes liés au traitement des données, à la conception et à l’utilisation des algorithmes.

 

Mais, avant tout, un biais algorithmique, qu’est-ce que c’est ?  “Les algorithmes sont conçus par des humains et à partir de données reflétant des pratiques humaines, détaille un rapport du Défenseur des Droits, en partenariat avec la CNIL. Ce faisant, des biais peuvent être ainsi intégrés à toutes les étapes de l’élaboration et du déploiement des systèmes : dès l’intention qui préside à l’élaboration de l’algorithme en amont, pendant la réalisation du code informatique, celle du code exécutable, celle de l’exécution, celle du contexte d’exécution et celle de la maintenance.”

 

La neutralité est une chimère…

Les IA utilisant le machine learning sont entraînées sur des ensembles de données existants. Si ces données contiennent des biais, des inégalités ou des discriminations présentes dans la société, l'algorithme apprendra alors à reproduire ces biais. Les données reflèteront donc des préjugés sociaux, des déséquilibres de représentation ou des stéréotypes. Même si l'algorithme traite les données de manière objective, il peut reproduire les biais inhérents aux données sur lesquelles il a été formé.

Les concepteurs et les utilisateurs d'un algorithme peuvent introduire des biais à différents niveaux, comme le montre l’expérience ratée de Microsoft avec son agent conversationnel Tay, qui a dû être débranchée de Twitter en seulement 24 heures. Mais Amazon en a aussi fait les frais avec son algorithme de pré-tri des candidatures, entre 2014 et 2018. La machine, qui devait faciliter le travail du département des ressources humaines, s’est mise à écarter automatiquement les profils féminins. Après quatre ans de développement et de correction, le modèle algorithmique a été abandonné.

 

… Vers laquelle il faut tendre

Contrairement aux biais cognitifs, qui n’affectent que les individus, les biais algorithmiques sont intégrés à des processus d’automatisation. S’ils ne sont pas détectés, ils peuvent ainsi se retrouver dans des boucles et systématiser les discriminations. Le Conseil de l’Europe alerte justement sur ces systèmes qui peuvent “renforcer les discriminations en leur donnant une apparence d’objectivité.

Pour éviter la reproduction invisible et automatique des discriminations, des mesures déjà détaillées par la CNIL et le Défenseur des Droits peuvent être mises en place. 

  1. La première est de sensibiliser et former les professionnels de la Tech aux enjeux de l’inclusion numérique

  2. Il faut ensuite soutenir la recherche de nouvelles solutions pour mesurer l’impact des biais algorithmiques, autant pour les développeurs que les économistes et les juristes.

  3. Enfin, il est essentiel d’approfondir le cadre légal du RGPD en obligeant les développeurs à fournir les clefs de compréhension de leurs algorithmes. Car l’opacité des processus empêche la transparence des résultats. 

Si, comme l’humain qui l’a créé, l’algorithme ne sera jamais neutre, de nombreuses mesures peuvent être mises en place pour aider les professionnels autant que les utilisateurs à adopter un regard avisé à l’égard des intelligences artificielles.

 

L’IA génératrice de discriminations ?

Le développement des IA génératives illustre bien malgré lui l’enjeu des biais algorithmiques. En effet, de nombreux exemples émergent sur internet. À l'occasion de la journée internationale des droits des femmes du 8 mars 2023, le mouvement #JamaisSansElles a lancé la campagne « L'intelligence artificielle entretient des stéréotypes bien réels » réalisée par l'agence Havas Paris.

© Havas Paris / Presse

Cette image réalisée par Midjourney avec un prompt simple montre bien l’étendue des clichés véhiculés par les IA. D’autant plus que les mots anglais “CEO” et “secretary” sont non genrés. Et pourtant, le panel des représentations est très limité, puisqu’il n’y a ni parité ni diversité. En attendant le développement de nouvelles solutions, la vigilance est donc de mise.

 

 

À la Wild Code School, nous sensibilisons aussi nos étudiants aux nouveaux enjeux de la tech. Que ce soit avec nos formations de Développeurs Web, Product Designers ou encore nos carrières dans la Data, nous œuvrons au développement d’un numérique plus juste et équitable. Alors, si vous souhaitez en savoir plus, n’hésitez pas à candidater ou vous inscrire à l'une de nos infos sessions.