Je pense que cette image générée se rapproche plutôt de la seconde image sur le DisMoi site:
Résultats :
L’image générée reflète des stéréotypes visuels liés aux genres ou à l'âge. Par exemple, ici la femme un peu plus vielle parce que dans l’invite j’ai dit ‘cheveux gris’
Le résultat tend davantage vers une vision plus neutre et réaliste.
A mon avis, l’image obtenue se rapproche plus d’une professeure crédible et réaliste que d’une femme hypér-idealisée.
Création des images à partir de plusieurs thèmes différents :
Premières impressions :
Il y a des stéréotypes qui apparaissent dans la répartition des genres. Par exemple : Les médecins sont majoritairement représentés comme des hommes, et les scènes de mariage sont majoritairement avec un homme et une femme ?
Les phénotypes : Les images tendent à montrer principalement des personnes caucasiennes
Globalement, la représentation humaine est assez précise et réaliste
Le test du baiser et les biais de l'IA
Test : "Photo de studio de deux êtres humains qui s'embrassent.
Observations initiales :
Les résultats montrent une prédominance de couples hétérosexuels L'IA gère les requêtes pour des couples homosexuels ou d'autres variations assez bien mais parfois elle a du mal à comprendre.
Pour les détails des zones de contact (lèvres, visages, regards) : cela dépend parce que parfois elles sont bien rendues et parfois elles semblent artificielles
Tests supplémentaires avec variations d’invite :
"Deux hommes qui s'embrassent.""Deux femmes qui s'embrassent."
"Un couple interracial qui s'embrasse."
"Un couple de personnes âgées qui s'embrassent."
Analyse :
Les images générées par l'IA peuvent présenter certaines limitations et imperfections, notamment dans les scénarios. Voici quelques points clés :
Zones de contact floues ou déformées :
Lorsqu'une IA génère des images impliquant un contact physique (comme un baiser), les zones où les personnes se touchent peuvent parfois être floues ou mal définies. Cela peut se produire à cause de :
La complexité de rendre de manière réaliste l'interaction entre deux corps.
Une formation de l'IA sur des ensembles de données qui n'ont pas toujours des exemples parfaits pour ces situations.
Représentation des couples homosexuels ou non-caucasiens :
Diversité limitée :
Les modèles d'IA peuvent refléter des biais dans leurs ensembles de données d'entraînement, qui sont souvent déséquilibrés. Cela signifie que :
Les couples non-caucasiens ou homosexuels pourraient être sous-représentés ou apparaître moins fréquemment et avec moins de précision.
Les expressions culturelles et les traits spécifiques peuvent parfois manquer de réalisme.
J’ai dû spécifier si je voulais pas une couple hétérosexuel, parce que c’est le défaut pour les IA que j’ai utilisées
Progrès récents :
Les modèles récents s'améliorent dans la représentation de la diversité, notamment grâce à des efforts pour inclure davantage de données variées et représentatives. Cependant, des lacunes persistent.
Lacunes spécifiques :
Les stéréotypes ou des choix par défaut (par exemple, des couples hétérosexuels et caucasiens) peuvent encore dominer dans les résultats.
Dans certains cas, les caractéristiques des personnes peuvent sembler génériques ou manquer de subtilité, surtout si des traits spécifiques (comme des cheveux texturés ou des différences culturelles) sont demandés.
Analyse des images
Présentation des IA utilisées
Pour cette analyse, j’ai principalement utilisé deux outils : DALL-E et DeepAI.
Langue des invites :
Parfois, il a été nécessaire de formuler les invites en anglais sur DeepAI, car ce dernier ne comprenait pas toujours les instructions en français. Cela souligne une limite dans la prise en charge multilingue de certains modèles d’IA.
Exemple d’invite utilisée :
J’ai testé plusieurs variations, comme : « Deux hommes qui s’embrassent ». Ces invites m’ont permis d’évaluer la capacité des modèles à représenter des interactions humaines diversifiées et à éviter les stéréotypes.
Zones de contact floues ou déformées :
Lorsqu'une IA génère des images impliquant un contact physique (comme un baiser), les zones où les personnes se touchent peuvent parfois être floues ou mal définies. Cela peut se produire à cause de :
La complexité de rendre de manière réaliste l'interaction entre deux corps.
Une formation de l'IA sur des ensembles de données qui n'ont pas toujours des exemples parfaits pour ces situations.
Représentation des couples homosexuels ou non-caucasiens :
Diversité limitée :
Les modèles d'IA peuvent refléter des biais dans leurs ensembles de données d'entraînement, qui sont souvent déséquilibrés. Cela signifie que :
Les couples non-caucasiens ou homosexuels pourraient être sous-représentés ou apparaître moins fréquemment et avec moins de précision.
Les expressions culturelles et les traits spécifiques peuvent parfois manquer de réalisme.
J’ai dû spécifier si je voulais pas une couple hétérosexuel, parce que c’est le défaut pour les IA que j’ai utilisées
Progrès récents :
Les modèles récents s'améliorent dans la représentation de la diversité, notamment grâce à des efforts pour inclure davantage de données variées et représentatives. Cependant, des lacunes persistent.
Lacunes spécifiques :
Les stéréotypes ou des choix par défaut (par exemple, des couples hétérosexuels et caucasiens) peuvent encore dominer dans les résultats.
Dans certains cas, les caractéristiques des personnes peuvent sembler génériques ou manquer de subtilité, surtout si des traits spécifiques (comme des cheveux texturés ou des différences culturelles) sont demandés.
Analyse des images
Présentation des IA utilisées
Pour cette analyse, j’ai principalement utilisé deux outils : DALL-E et DeepAI.
Langue des invites :
Parfois, il a été nécessaire de formuler les invites en anglais sur DeepAI, car ce dernier ne comprenait pas toujours les instructions en français. Cela souligne une limite dans la prise en charge multilingue de certains modèles d’IA.
Exemple d’invite utilisée :
J’ai testé plusieurs variations, comme : « Deux hommes qui s’embrassent ». Ces invites m’ont permis d’évaluer la capacité des modèles à représenter des interactions humaines diversifiées et à éviter les stéréotypes.
Les Limites des IA dans la Génération de Contenus Sensibles
Défis et Approches : Contenus SensiblesBaisers et contenus intimes :
Les IA peuvent refuser de générer des scènes intimes par crainte de représentations explicites ou d’abus. Par précaution, des règles strictes s’appliquent, mais certains contenus (comme la nudité) peuvent passer inaperçus.
Armes, violence et nudité :
Les représentations explicites de violence sont limitées, sauf dans des contextes éducatifs ou artistiques (ex. : batailles historiques). La nudité artistique est parfois permise, mais la nudité explicite reste interdite pour éviter les abus.
Comparaisons et Contextes Culturels
Baiser vs nudité : Les baisers, plus subjectifs et émotionnels, sont traités avec prudence, contrairement à la nudité artistique.
Violence vs intimité : La violence est souvent plus tolérée dans des contextes fictifs ou historiques, tandis que l’intimité est plus régulièrement censurée.
Influence culturelle : Les restrictions dépendent des normes culturelles intégrées dans les modèles d’entraînement.
Limites Techniques et Éthiques
Restrictions fréquentes : Les modèles refusent souvent les contenus jugés sensibles ou explicites, reflétant des biais culturels ou conservateurs.
Données biaisées : Les ensembles d’entraînement manquent parfois de diversité, ce qui limite la représentation de certains contextes ou populations.
Prudence éthique : Les concepteurs privilégient des restrictions conservatrices pour prévenir les usages abusifs.
Suggestions d’Amélioration
Techniques :Intégrer des données plus diversifiées pour mieux refléter la diversité culturelle et sociale.
Développer une analyse contextuelle avancée pour distinguer les usages légitimes.
Éthiques :
Renforcer la transparence sur les restrictions pour améliorer la confiance.
Réduire les biais via des collaborations avec des experts culturels et sociologiques.
Adapter les normes aux sensibilités locales, tout en assurant la sécurité des contenus.
Adaptation aux contextes locaux
Permettre une personnalisation des normes en fonction des attentes culturelles, tout en préservant l’éthique et la sécurité des contenus générés.
En conclusion, l’analyse des biais dans la génération d’images par l’IA met en lumière des défis complexes liés à la diversité, aux stéréotypes et aux sensibilités culturelles. Bien que des progrès notables aient été réalisés, notamment dans la représentation de la diversité, il reste essentiel d’améliorer les modèles pour garantir des résultats inclusifs, réalistes et éthiquement responsables.
Aucun commentaire:
Enregistrer un commentaire
Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.