mardi 21 janvier 2025

Les biais de l´IA

 "L'intelligence artificielle face au miroir : biais et préjugés à l'ère numérique”

Pour introduire le sujet, j'aimerais argumenter que, sincèrement, je pensais que les intelligences artificielles les plus populaires, comme ChatGPT, seraient plus biaisées. Cependant, je conserve le soupçon qu'il y a déjà eu des campagnes contre le prototype hétéronormatif et blanc qu'elles promeuvent dans la génération de leurs images. Cela a probablement conduit à ce que leur première option en matière de représentation ne soit plus celle évoquée précédemment. Les intelligences artificielles, bien qu’elles soient conçues pour représenter la diversité et l’objectivité, reflètent souvent les biais sociétaux intégrés dans leurs données d'entraînement. Donc l´un des aspects les plus critiqués est leur tendance à reproduire une normativité blanche et hétérosexuelle dans leurs représentations, qu'il s'agisse d'images, de textes ou de réponses générées. Ce phénomène soulève des questions importantes sur l'inclusivité et l’équité, car il risque de perpétuer des stéréotypes et d’exclure des identités sous-représentées. Comprendre ces biais et travailler à les corriger est essentiel pour construire des systèmes d’intelligence artificielle véritablement représentatifs et équitables, comme il est en train de se-faire.

En général, lorsque vous demandez une image de deux personnes qui s'embrassent de manière formelle, l'intelligence artificielle représente généralement deux personnes échangeant un baiser romantique, face à face, avec peu de gestuelle. En analysant les cas d'étude, on pourrait dire qu'il s'agit d'un baiser français normatif.

Il m'est arrivé quelque chose de curieux lorsque j'ai demandé une image au générateur d'images de Canva : il a directement refusé en invoquant sa politique. Cela reste difficile à comprendre, car un baiser n'est ni quelque chose de sexuel ni d'explicite. Pourtant, le programme a refusé de le représenter, presque comme s'il s'agissait d'un contenu pornographique. Littéralement, et en résumé, la politique indiquait que ce contenu ne pouvait pas être reproduit afin d'éviter des usages problématiques ou des controverses, de simplifier la modération et d'éviter des malentendus culturels et éthiques. Cela peut être interprété de différentes manières et, effectivement, selon chaque perspective culturelle.
Voici une capture d'écran de ce qui s'est passé: 



Ce qui me surprend, c'est qu'après avoir constaté tout au long du semestre de nombreuses réponses discutables empreintes de raisons transphobes, homophobes et classistes, presque racistes, la première représentation que m'a donnée ChatGPT était celle d'un couple mixte, bien que hétérosexuel. Pixlr et les autres intelligences (que je cite sous chaque photographie) contribuent à des personnages variés : lesbiennes, homosexuels racisés, relations entre personnes d'âges différents. Cela contraste peut-être avec la "couple parfaite" que représente l'intelligence artificielle Monica, moins connue. Elle illustre un couple digne d'un film, échangeant un baiser parfait : la femme, plus petite, agrippée à son torse, avec des boucles impeccables.
Cependant, dans l'ensemble, je suis assez satisfaite du contenu. Étant donné que ces intelligences artificielles sont généralement basées dans des capitales européennes, tout leur contenu semblait initialement biaisé. Mais grâce à des campagnes et à de nouvelles politiques, cette situation commence à évoluer. Le regard, les caresses, je conclue, semblent presque identiques dans toutes les représentations : peu explicites, presque à la même hauteur, sauf dans le cas de Monica, ou dans le cas de Pixlr, où il s'agit d'une étreinte au lieu d'un baiser, entre deux femmes noires.

                                                            





Chatgpt



                                                                                    



                                                                                                                 

                                                                                                                                                                                                                                   Pixlr

 


 

 

 

 

 

 

 

Artguru

 

 


 

 






                                                                                                    Picsart

 


 







Capcut


 






                                                                                                                                                                                                                              Monica

 

Límites de aquellos sesgos 

No son normales los mensajes explícitos de error o amenaza de suspensión de cuenta a menos que se infrinja alguna de las políticas de uso de la plataforma, como comentamos en el anterior fragmento, acerca de Canva. Las IA tienen filtros automáticos que bloquean y limitan la generación de contenido “inapropiado”, sobre todo en lo que se considera contenido explícito o sexual. Este límite está influenciado por regulaciones legales, como leyes locales, nacionales o internacionales que dictan qué tipo de contenido no está prohibido, aunque esta es la política menos trascendente, ya que también se ven influenciadas por sensibilidades culturales y problemas éticos. Las IA se entrenan principalmente en contextos de países con normales occidentales, con valores de respeto por la moralidad y la prudencias, conservadores en cuestiones de sexualidad y violencia.

Un beso no es un contenido sexual en sí mismo, no debería ser bloqueado. Sin embargo, en ciertas plataformas más restrictivas, como Canva o Pixlr, cualquier representación de contacto físico entre personas puede considerarse inapropiada si se percibe como una parte de una narrativa sexual. En cuanto a las armas, SÏ, están asociadas a la violencia, y las IA tienden a ser más estrictas. ¿Y quién es quien define esto? Pues bien, las políticas se definen por los desarrolladores de la plataforma susodicha y las leyes locales, como bien hemos dicho, retroalimentadas también por los usuarios y las normativas cambiantes, dependiendo también de los países en los que operen, las normas sociales y las expectativas culturales locales, es decir, las IA están sesgadas culturalmente y políticamente.

Y como argumenté en otro artículo del blog, las fotografías artificiales desde mi punto de vista, se asocian con la perfección, con gestos vacíos de humanidad, contornos inexistentes y juegos de luces y sombras drásticos, limpias, que parecen sacadas de una tela verde.
Existe una brecha, un límite entre lo que es captura por una cámara real y lo que es generado. 


Lucía Álvarez

 
 

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.