lundi 13 janvier 2025

Les biais de l'IA

 

Avec l'outil Microsoft Designer, j'ai généré huit images à partir de l'instruction suivante : « Photo de studio de deux êtres humains qui s'embrassent ».

Dans les huit images, il est notable que tous les couples représentés sont exclusivement hétérosexuels. L'intelligence artificielle n'a produit aucune représentation de couples de même sexe, bien qu'elle ait généré des couples interculturels, c'est-à-dire composés de personnes issues de différentes origines ethniques, ainsi que des couples semblant présenter des différences d'âge significatives.




Par exemple, dans la première image, on observe une photo d’un couple où l’homme enlace la femme pendant qu’ils s’embrassent. L’homme est noir et la femme semble asiatique. L’arrière-plan représente une chambre, et ils sont tous deux allongés sur un lit, créant une atmosphère intime.

La deuxième image est très similaire en ce qui concerne la composition du couple et les origines ethniques des protagonistes, mais la posture change : cette fois, c’est la femme qui semble enlacer l’homme, et ils ne s’embrassent pas.

Dans le troisième et quatrième images, les ethnies des personnages restent identiques à celles des deux premières images, mais ils ne s’étreignent pas. Ils s’embrassent ou paraissent sur le point de le faire. Dans ces quatre premières images, le contexte est sans équivoque celui d’une relation romantique.

Dans la cinquième image, un homme enlace une femme tout en l’embrassant sur la joue. La femme sourit avec bonheur. L’homme est blanc, avec des cheveux grisonnants et des rides, tandis que la femme est noire et semble plus jeune. Cette image pourrait suggérer une relation parent-enfant, comme un père et sa fille, plutôt qu’un couple romantique.

Dans la sixième image, un jeune homme blanc sourit tandis qu’une femme noire l’embrasse sur la joue. Ils ne s’enlacent pas. La septième image reprend une configuration similaire, mais cette fois, les rôles sont inversés : une femme blanche sourit pendant qu’un homme noir l’embrasse sur la joue.

Enfin, dans la dernière image, un homme noir et une femme blanche s’étreignent, leurs sourires se rejoignant dans une scène qui pourrait être interprétée comme amicale ou romantique.

Microsoft Designer produisant quatre images par consigne, je n’ai pas modifié les paramètres initiaux. Par conséquent, aucune précision sur l’ethnie, le genre ou l’orientation sexuelle des personnes représentées n’a été donnée dans mes instructions.

En ce qui concerne les couples représentés, bien que l’intelligence artificielle ait varié l’origine ethnique des protagonistes (Caucasiens, Asiatiques ou personnes noires), aucun des couples n’a été conçu comme une relation entre personnes du même sexe.



L’intelligence artificielle ne m’a pas présenté d’erreurs lors de la génération de ces images. Cependant, avant la vidéoconférence, j’ai rencontré des problèmes pour créer des images liées à la garde d’enfants. Par exemple, lors d’un travail en classe sur l’artiste Miss.Tic, l’outil rencontrait des difficultés avec des termes comme “sensuel”. En ce qui concerne la violence, dans des activités liées à des manifestations, certaines images incluaient des armes, et, dans ces cas, aucune erreur ne s’est produite.

Ce que j’ai pu constater, c’est que l’intelligence artificielle, ou du moins Microsoft Designer, présente des biais hétéronormatifs, car les couples sont toujours représentés comme un homme et une femme. Lors d’activités précédant la vidéoconférence, j’ai créé des images de mariage, et elles ont été représentées de manière très traditionnelle et religieuse : la mariée en robe blanche, dans une église, etc. Cela s’est produit même lorsque je n’ai pas précisé qu’il devait s’agir d’un homme et d’une femme ni que le mariage devait avoir lieu dans un contexte religieux.

En général, l’approche de l’intelligence artificielle est très patriarcale. Lorsque j’ai demandé des images sur n’importe quel sujet, la majorité des représentations incluaient des hommes, même dans des contextes traditionnellement associés aux femmes, comme la garde d’enfants, les jeux calmes, la mode ou les vêtements de luxe.

Je pense que l’intelligence artificielle présente ces biais parce qu’elle a été programmée majoritairement par des hommes, et il semble que ces personnes perpétuent des pensées traditionnelles qui sont aujourd’hui remises en question ou dépassées. Toutefois, je pense que ces biais disparaîtront à l’avenir, car l’intelligence artificielle fera l’objet d’améliorations continues. Pour le moment, c’est un outil relativement nouveau et en développement.

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.