Aller au contenu principal

MIDJOURNEY : IA, BIAIS ET PRÉJUGÉS

ÉMISSION : Midjourney : créateur de préjugés ou miroir de nos propres biais ?

Mardi 16 janvier 2024 FRANCE CULTURE

Midjourney, ce programme qui génère des images par intelligence artificielle à partir d’un texte, a tendance à générer des représentations biaisées et pleines de préjugés, de la réalité. Et si l’algorithme ne faisait que refléter nos propres biais ?

Vous connaissez tous Midjourney, ce programme qui génère une image à partir d’un texte. Eh bien certains l’ont testé en lui demandant de générer une image d’un mariage en France, on y voit alors un couple souriant entouré de leurs proches qui leur lancent des fleurs. Puis, ils ont demandé à Midjourney de générer une image d’un mariage en France en banlieue. Et là, c’est la surprise. Ou devrais-je dire la mauvaise surprise. On y voit un couple triste regardant le sol dans une rue sale. Le simple fait d’ajouter les mots « en banlieue » a renversé l’ambiance et les éléments qui composent l’image générée.

D’autres tests ont été réalisés et pour lesquels l’ajout des termes en banlieue a fait générer par l’algorithme des scènes plus sombres, sales, tristes et somme toute effrayantes. Beaucoup ont été choqués — à raison — par ces images, reprochant à la technologie de condamner la banlieue et ses habitants, de tirer une image fausse et apocalyptique d’un lieu déjà trop stigmatisé dans notre pays. Mais, au risque de vous décevoir, la technologie n’y est pour rien. Nous sommes tous à l’origine de ces images.

Ces algorithmes génératifs sont construits, entraînés plus exactement, sur un nombre souvent gigantesque d’images auxquelles on y ajoute un ou plusieurs labels caractérisant chacune d’elles. Dans le cas de Midjourney, ce sont plusieurs centaines de millions d’images qui ont été extraites d’internet auxquelles est associé un texte dont on tire des mots clés pour en constituer les labels.

Nous sommes responsables des images apocalyptiques des banlieues que Midjourney génère

Au risque de choquer, nous sommes à l’origine de ces représentations sur internet. Nous sommes ceux et celles qui associons quasi systématiquement au mot banlieue, des images sombres et des actualités dévalorisantes.

Ayant moi-même grandi en banlieue parisienne, j’avoue avoir vécu cette stigmatisation concernant les banlieues et ses habitants. Qu’on s’entende, je ne dis pas que la banlieue dans laquelle j’ai grandi est le paradis sur terre, après tout y a-t-il un quartier qui le serait ? Mais en n’abordant les banlieues que sous l’angle de la délinquance et d’une certaine misère, on cache les belles histoires. Je dirais même qu’on empêche ces habitants de prendre en main leur destinée, et de croire en eux. L’algorithme de Midjourney ne ferait que révéler notre réalité stéréotypée.

Vous connaissez peut-être le phénomène de prophétie autoréalisatrice ? Eh bien, c’est le fait qu’un événement apparaisse tout simplement parce qu’il a été annoncé. Par exemple, si vous lisez dans votre horoscope que votre journée sera fatigante, il y a de fortes chances que vous ressentiez une fatigue latente d’ici à ce soir. Ce phénomène bien connu s’applique aussi à notre perception des banlieues et à leur stigmatisation.

À écouter : « IA Art » : comment la technologie révolutionne le geste artistique

L’algorithme de Midjourney, victime d’un cercle vicieux

En étant entraîné sur des images stigmatisantes, l’algorithme génère en retour des images qui renforcent nos préjugés, suivi possiblement d’un biais de confirmation à la prochaine actualité sur les banlieues. Nous générons alors davantage de contenus textuels accompagnés d’images qui intensifient ces préjugés, et qui ne décrivent la banlieue que sous un prisme déformé. L’algorithme, en retour, va être ré-entrainé sur ces contenus, vous l’avez compris, biaisés. Un cercle vicieux s’installe.

Nous sommes donc coupables. Par contre, les concepteurs doivent analyser encore davantage le comportement algorithmique de l’outil pour en détecter des résultats a fortiori discriminants.

Tout compte fait, je pense que ces incidents, même choquants sur ce que révèlent les algorithmes, sont une formidable opportunité de changer notre perception du monde en répondant à nos préjugés et à nos biais les plus profonds, pour espérer changer les tendances tant dans notre imaginaire que dans la réalité parfois dure et difficile à accepter.

Lien vers l’émission

1 réponse »

  1. L’IA n’a par essence aucune conscience et c’est avec l’imaginaire, ce qui est la dimension de l’humain. Dont acte…Bien amicalementJean-Marc 

    Envoyé depuis Yahoo Mail pour Android

    J’aime

Répondre à jean-marc sauret Annuler la réponse.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.