Le média des entreprises qui construisent la société de demain

J’ai testé pour vous : se former aux biais de genre dans l’IA

Se former aux biais de genre dans l'IA ? C'est possible
© Thapana Onphalai via iStock

Des intelligences artificielles conçues par et pour les femmes, aussi bien que par et pour les hommes ? C'est possible, pour peu que l'on prenne la peine de former leurs concepteurs aux biais de genre. On a suivi une formation pour cela. Débrief.

« Sensibiliser les futures équipes de conception et management de systèmes d’intelligence artificielle (IA) pour favoriser l’adoption d’IA responsables. » Voilà l’objectif ambitieux de la formation aux biais de genre dans l’IA mise en ligne par les associations Impact AI et le Cercle InterL. Il y a urgence : les IA se développent à vitesse grand V dans les entreprises. Souvent truffées de biais aux conséquences parfois désastreuses, comme dans le cas de l’IA de recrutement mise au point par Amazon qui écartait systématiquement les candidatures féminines. Voire mortelles, comme dans le secteur de la santé où les IA, entraînées à diagnostiquer des crises cardiaques à partir d’échantillons quasi-exclusivement masculins, passent à côté des signes avant-coureurs caractéristiques chez les femmes.

La formation d’Impact AI et InterL s’adresse aussi bien au grand public qu’aux professionnels de l’informatique. En 3 heures, elle doit permettre aux participants de « comprendre et déceler un biais de genre », « limiter son impact » et « mettre en place une méthode et des outils pertinents ». Chiche. Nous avons téléchargé et consulté les supports fournis. Cela ne remplace pas une formation en bonne et due forme – sous la houlette d’un formateur qui peut être accompagné par les 2 associations. Mais cette « auto-formation » constitue un bon aperçu des notions abordées.

Interroger ses propres biais

Première bonne surprise : la formation ne s’apparente pas à un cours. Si elle comporte des phases théoriques, elle fait la part belle à la pratique, avec force quiz et exercices. Après un petit test de connaissances sur les biais de genre dans l’IA, c’est un autre exercice qui permet de s’interroger sur la notion même de biais. Qu’est-ce que l’on comprend et retient d’une courte histoire de quelques phrases ? Entre les faits clairement établis et les présupposés que notre cerveau tire de certaines situations, à nous de faire la part des choses.

La formation met un point d’honneur à amener les participants à questionner leurs biais sans les culpabiliser pour autant. Un autre exercice s’avère ainsi instructif. Il s’agit d’associer instinctivement certains termes (des prénoms, des membres de la famille ou des mots plus génériques comme « scolarité ») à des concepts : femme ou homme, entreprise ou famille. Puis à des associations de concepts : femme/famille ou homme/entreprise et enfin l’inverse femme/entreprise ou homme/famille. De quoi interroger nos constructions personnelles. Le terme de « bébé » fait-il pour nous référence à la structure familiale ? Ou plutôt à la maternité ?

Trouver les ressources pour corriger ses biais

Mais alors, quand est-ce qu’on parle d’intelligence artificielle ? Une fois les notions de base acquises vient le moment de les appliquer à l’IA. La formation évoque de manière très pédagogique les enjeux liés à la lutte contre les biais de genre dans la construction des algorithmes. À la fois d’un point de vue éthique et pratique pour les entreprises – qui cherchent à éviter un bad buzz. Les participants sont mis à contribution pour imaginer des solutions.

Finalement, que retient-on de la formation ? D’abord que chacun peut être acteur d’un système plus vertueux. Et qu’il n’existe pas (encore) de recette miracle. Une méthodologie et une boîte à outils sont fournies, qui doivent aider à guider les concepteurs d’IA. Mais c’est bien à l’humain que revient le rôle majeur de superviser les IA et veiller à corriger leurs biais. L’étape majeure pour cela ? Produire et constituer des jeux de données suffisamment variées. Point de salut pour les IA sans données pertinentes et en nombre suffisant sur les femmes.

Rejoignez la discussion !

Votre adresse e-mail ne sera pas publiée.