"L'intelligence artificielle face au miroir : biais et préjugés à l'ère numérique”
Pour introduire le sujet, j'aimerais argumenter que, sincèrement, je pensais que les intelligences artificielles les plus populaires, comme ChatGPT, seraient plus biaisées. Cependant, je conserve le soupçon qu'il y a déjà eu des campagnes contre le prototype hétéronormatif et blanc qu'elles promeuvent dans la génération de leurs images. Cela a probablement conduit à ce que leur première option en matière de représentation ne soit plus celle évoquée précédemment. Les intelligences artificielles, bien qu’elles soient conçues pour représenter la diversité et l’objectivité, reflètent souvent les biais sociétaux intégrés dans leurs données d'entraînement. Donc l´un des aspects les plus critiqués est leur tendance à reproduire une normativité blanche et hétérosexuelle dans leurs représentations, qu'il s'agisse d'images, de textes ou de réponses générées. Ce phénomène soulève des questions importantes sur l'inclusivité et l’équité, car il risque de perpétuer des stéréotypes et d’exclure des identités sous-représentées. Comprendre ces biais et travailler à les corriger est essentiel pour construire des systèmes d’intelligence artificielle véritablement représentatifs et équitables, comme il est en train de se-faire.
En général, lorsque vous demandez une image de deux personnes qui s'embrassent de manière formelle, l'intelligence artificielle représente généralement deux personnes échangeant un baiser romantique, face à face, avec peu de gestuelle. En analysant les cas d'étude, on pourrait dire qu'il s'agit d'un baiser français normatif.
Il m'est arrivé quelque chose de curieux lorsque j'ai demandé une image au générateur d'images de Canva : il a directement refusé en invoquant sa politique. Cela reste difficile à comprendre, car un baiser n'est ni quelque chose de sexuel ni d'explicite. Pourtant, le programme a refusé de le représenter, presque comme s'il s'agissait d'un contenu pornographique. Littéralement, et en résumé, la politique indiquait que ce contenu ne pouvait pas être reproduit afin d'éviter des usages problématiques ou des controverses, de simplifier la modération et d'éviter des malentendus culturels et éthiques. Cela peut être interprété de différentes manières et, effectivement, selon chaque perspective culturelle.
Voici une capture d'écran de ce qui s'est passé:
Ce qui me surprend, c'est qu'après avoir constaté tout au long du semestre de nombreuses réponses discutables empreintes de raisons transphobes, homophobes et classistes, presque racistes, la première représentation que m'a donnée ChatGPT était celle d'un couple mixte, bien que hétérosexuel. Pixlr et les autres intelligences (que je cite sous chaque photographie) contribuent à des personnages variés : lesbiennes, homosexuels racisés, relations entre personnes d'âges différents. Cela contraste peut-être avec la "couple parfaite" que représente l'intelligence artificielle Monica, moins connue. Elle illustre un couple digne d'un film, échangeant un baiser parfait : la femme, plus petite, agrippée à son torse, avec des boucles impeccables.
Cependant, dans l'ensemble, je suis assez satisfaite du contenu. Étant donné que ces intelligences artificielles sont généralement basées dans des capitales européennes, tout leur contenu semblait initialement biaisé. Mais grâce à des campagnes et à de nouvelles politiques, cette situation commence à évoluer. Le regard, les caresses, je conclue, semblent presque identiques dans toutes les représentations : peu explicites, presque à la même hauteur, sauf dans le cas de Monica, ou dans le cas de Pixlr, où il s'agit d'une étreinte au lieu d'un baiser, entre deux femmes noires.
Chatgpt
Pixlr
Artguru
Picsart
Capcut
Monica
Limites de ces biais
Il n’est pas normal de recevoir des messages explicites d’erreur ou de menace de suspension de compte, sauf en cas de violation des politiques d’utilisation de la plateforme, comme nous l’avons mentionné dans le fragment précédent à propos de Canva. Les IA disposent de filtres automatiques qui bloquent et limitent la génération de contenu "inapproprié", en particulier ce qui est considéré comme contenu explicite ou sexuel. Cette limite est influencée par des réglementations légales, telles que les lois locales, nationales ou internationales qui définissent les types de contenus interdits. Toutefois, cette politique n’est pas la plus déterminante, car elle est aussi influencée par des sensibilités culturelles et des problématiques éthiques. Les IA sont principalement entraînées dans des contextes issus de pays occidentaux, avec des valeurs axées sur la morale et la prudence, souvent conservatrices en matière de sexualité et de violence.
Un baiser n’est pas, en soi, un contenu sexuel et ne devrait pas être bloqué. Cependant, sur certaines plateformes plus restrictives, comme Canva ou Pixlr, toute représentation de contact physique entre personnes peut être jugée inappropriée si elle est perçue comme faisant partie d’une narration sexuelle. Concernant les armes, OUI, elles sont associées à la violence, et les IA ont tendance à être plus strictes à ce sujet. Mais qui définit ces règles ? Eh bien, les politiques sont établies par les développeurs de la plateforme concernée et par les lois locales, comme nous l’avons déjà dit, tout en étant également influencées par les retours des utilisateurs et par les réglementations évolutives. Cela dépend aussi des pays dans lesquels elles opèrent, des normes sociales et des attentes culturelles locales. En d’autres termes, les IA sont culturellement et politiquement biaisées.
Et comme je l’ai argumenté dans un autre article du blog, les photographies artificielles sont, à mon sens, associées à la perfection, à des gestes dénués d’humanité, à des contours inexistants et à des jeux d’ombres et de lumières drastiques, propres, qui semblent sorties d’un fond vert.
Il existe un écart, une frontière entre ce qui est capturé par un véritable appareil photo et ce qui est généré.
Lucía Álvarez