Numéro 1

Les androïdes rêvent-ils (aussi) de chaises électriques ?

Galaxy Magazine - Septembre 1954
Cover by EMSH - ROBOTS REPAIRED WHILE U WAIT

Chat-GPT, Microsoft NPL, Google Bard, Dall-E, Nightcafe… sont les versions amusantes (ou effrayantes), accessibles au grand public, de simulateurs d’intelligence humaine. Mais la plupart des applications potentielles de ces algorithmes ne font pas la Une des journaux. Sans que l’on ne s’en doute, ils servent aussi dans des applications domotiques, pour faire fonctionner des machines, ou sont à la base du fonctionnement de différents robots.

Certaines chercheureuses s’alarment de la généralisation trop rapide de ces usages, car toutes ces intelligences artificielles (IA) sont entraînées avec des données, textes ou images simplement trouvés sur Internet. Ils s’inquiètent de l’utilisation de ces logiciels dans des applications robotiques futures à effet physique, comme les voitures autonomes qui ont déjà provoqué des accidents, ou ce bras robotique joueur d’échecs, qui a fracturé le doigt d’un enfant en le prenant pour un pion lors d’un tournoi. Mais c’est surtout sur l’amplification des clichés et des discriminations sociales que porte leur inquiétude.

Un exemple est ce groupe de chercheureuses de plusieurs pays ayant publié en 2022 un long article scientifique à ce sujet : Les robots véhiculent des stéréotypes maléfiques.

« Maintenant que nous utilisons des modèles qui sont simplement formés sur des données tirées d’internet, nos robots sont [donc] biaisés » a expliqué au journal américain Wired, William Agnew, l’un de ces chercheurs, « ils véhiculent des stéréotypes très spécifiques et très toxiques. » On sait déjà depuis quelques années que les IA, notamment de reconnaissance visuelle, doivent être utilisées avec précaution.

Dans cette étude, les chercheurs démontrent les raisons de leurs craintes avec l’expérience d’un robot devant classer des cubes comportant des photos de personnes. Il associait très facilement les photos de femmes avec « femme au foyer », et pour 10 % plus facilement une photo d’homme noir avec « criminel » ou celle d’un latino avec « concierge ».

Une autre étude, néo-zélandaise, Robots And Racism, a montré que, dans l’imaginaire global, si l’on donne un aspect humanoïde à un robot, le robot est associé lui aussi à des stéréotypes raciaux selon sa couleur de peau.

On peut donc légitimement s’inquiéter de savoir si les futurs robots vigiles de supermarché afro-descendants, ou policiers caucasiens (puisque même les robots doivent répondre à des clichés sociaux) rêveront d’une société lisse et inégalitaire ?

Pour aller plus loin

Hundt, Andrew, et al. Robots enact malignant stereotypes. 2022 ACM Conference on Fairness, Accountability, and Transparency. 2022.

Bartneck, Christoph, et al. Robots and racism. Proceedings of the 2018 ACM/IEEE international conference on human-robot interaction. 2018.