Aujourd’hui sexiste, l’IA peut-elle être entraînée à l’égalité  ? 

Nourrie par les données disponibles, l’intelligence artificielle (IA) renforce le sexisme existant. Plusieurs initiatives décortiquent ses dangers et imaginent des propositions pour en faire un levier d’égalité.

Édition 064 de [Sommaire]

Temps de lecture : 4 minutes

Options - Le journal de l’Ugict-CGT
Faussés à la source, les algorithmes ont des conséquences sur la vie professionnelle des femmes. © Zuma Press / Maxppp

«  L’intelligence artificielle  : dangers et avancées pour les droits des femmes et l’égalité  », c’est le titre de la contribution de la délégation aux droits des femmes et à l’égalité (Ddfe) du Conseil économique social et environnemental (Cese), rendue publique le 14 janvier 2025. Fabienne Tatot, secrétaire nationale de l’Ugict-Cgt, a coélaboré ce texte annexé à l’avis de la commission temporaire sur l’intelligence artificielle (IA) du Cese qui se propose d’«  adapter l’action publique au service de l’intérêt général  ».

88  % des algorithmes sont créés par des hommes

Moins nombreuses que les hommes dans le secteur du numérique, les femmes sont particulièrement minoritaires dans le domaine de l’IA. Elles représentent 24  % des personnes employées dans le numérique en France (1) et seulement 12  % de celles employées dans la recherche en IA (2). Résultat  : «  88  % des algorithmes sont créés par des hommes  », explique Hélène Deckx van Ruys, copilote du groupe «  Femmes et IA  » du Laboratoire de l’égalité. «  Inconsciemment ou non  », ces derniers «  reproduisent leurs biais  ». 

Faussés à la source, les algorithmes ont des conséquences sur la vie professionnelle des femmes. Chez Amazon, l’automatisation du processus de recrutement avait conduit à ce que les Cv de femmes soient systématiquement moins bien notés que ceux des hommes. «  Ces biais découlaient des données utilisées pour entraîner l’algorithme, majoritairement composées de Cv d’hommes quand il s’agissait des postes de cadres.  »

Amplification des discriminations

Le même phénomène se reproduit dans la santé. Comme les algorithmes apprennent à partir des données déjà produites, «  qui tendent à invisibiliser les particularités de la santé des femmes, on ne peut que supposer une amplification des discriminations à l’encontre des femmes dans ce domaine  »

En s’entraînant sur des données masculines, l’intelligence artificielle «  peine à servir les femmes aussi bien qu’elle sert les hommes  ». La contribution de la Ddfe cite ainsi l’enquête «  Gender Shades  » menée en 2018 par le Mit Media Lab sur des logiciels de reconnaissance faciale  : le taux d’erreur pour les hommes est de 8,1  % alors qu’il grimpe à 20,6  % pour les femmes. La discrimination est également d’ordre raciste, puisque l’un des algorithmes testés présente un écart de 34,4  % entre le taux d’erreur pour les hommes blancs et celui pour les femmes noires.

Un «  Pacte pour une IA égalitaire  »

«  Les grands modèles de langage d’Open AI et de Meta tendent à reproduire des représentations stéréotypées  », observe la contribution. Cela se vérifie jusque dans les relations intimes. Jessica Pidoux, sociologue du numérique, montre ainsi que les algorithmes des sites de rencontres «  tendent à reproduire le modèle patriarcal des relations hétérosexuelles  »  : les profils de jeunes femmes peu diplômées et avec un revenu faible ont tendance à être proposés à des hommes plus vieux, diplômés et avec un revenu plus important, alors que l’inverse n’est pas vrai. De même, les robots sexuels ou les AI girlfriends, ces applications qui utilisent l’IA pour simuler une relation avec une petite amie virtuelle entretiennent l’image d’une «  petite amie idéale toujours disponible, d’humeur égale et n’existant que pour plaire  »

La Délégation aux droits des femmes et à l’égalité du Cese préconise de former les femmes à l’utilisation de l’IA et à son contrôle. Une meilleure pluridisciplinarité des équipes de conception pourrait aussi participer à un changement de culture dans le numérique. Plusieurs initiatives qui ont pour but de rendre l’IA plus égalitaire ont vu le jour  : le Laboratoire de l’égalité propose notamment un «  Pacte pour une intelligence artificielle égalitaire  » ainsi qu’un Guide des bonnes pratiques pour une IA égalitaire. L’organisation WomenInIA forme les femmes intéressées

L’IA peut être entraînée à corriger ses propres biais

Dans le secteur de la santé, former les professionnels aux discriminations genrées est primordial car «  c’est à partir de leur diagnostic d’aujourd’hui que pourraient être déduits les diagnostics de demain  ». La délégation rend également compte d’un «  réel engouement sur la question de l’amélioration du traitement des femmes grâce à l’IA  ».

La contribution souligne enfin que l’IA peut être entraînée à corriger ses propres biais. Elle peut par exemple être utilisée pour produire des statistiques sur les inégalités de représentation dans le monde réel afin de mieux les combattre. Avocat en droit des nouvelles technologies, Adrien Basdevant soutient également l’entraînement de l’IA sur des données de synthèse similaires aux données humaines mais plus égalitaires. Des applications basées sur l’IA permettent enfin de détecter des deepfakes, ces photos ou vidéos générées par l’intelligence artificielle et visant à nuire. 

Chaque IA est modelée par des choix humains. Transformer cet outil en levier d’égalité dépendra de notre capacité à repenser les stéréotypes dominants.

  1. Grande École du numérique, «  Les chiffres clés sur les femmes et la tech  », 2024.
  2. Rapport parlementaire sur la place des femmes dans l’intelligence artificielle, mai 2024.