On croit souvent qu’un algorithme est impartial, mais en fait…
Les Intelligences Artificielles peuvent-elles être racistes ?
Le mois dernier, les résultats d'un concours de beauté jugé par une intelligence artificielle ont été rendus publics. Plus de 6000 personnes originaires de plus de 100 pays différents ont participé. Mais les résultats n'ont pas été à la hauteur des attentes suscitées...
Pour participer au concours, il suffisait d'envoyer un selfie avec son visage en gros plan sans lunette, sans maquillage, sans barbe...On attendait beaucoup de Beauty A.I 2.0, le jury du premier concours de beauté jugé par ordinateur.
Mais vu les résultats, il semblerait que Madame de Fontenay ait encore de beaux jours devant elle.
L'article en vidéo :
Comment fonctionne Beauty A.I 2.0 ?
Comme toute intelligence artificielle, Beauty fonctionne grâce à différents algorithmes destinés à juger qui sont les candidats les plus beaux selon des critères prédéfinis. Voici quelques-uns de ces algos :
- RYNKL évalue le nombre de rides des candidats
- IMPL évalue le teint des candidats.
- Symmetry Master évalue leur symétrie faciale.
- AntiAgeist compare l’âge supposé des candidats sur leur photo avec leur véritable âge.
- etc.
Grâce à ces critères, la start-up Youth Laboratories était sûre d'obtenir des résultats inédits et totalement objectifs, puisqu'on a tendance à penser que l'homme est plein d'imperfections tandis que les IA sont parfaitement impartiales. Mais ça n'a pas du tout marché !
Des résultats racistes ?
Les résultats sont sortis il y a quelques semaines et vous allez le voir, il y a une certaine unité dans le physique des personnes retenues comme étant les plus "belles" :
Les gagnantes de 18 à 29 ans
Source photo : Youth Laboratories
Les gagnants de 30 à 39 ans
Source photo : Youth Laboratories
Les gagnantes de 40 à 49 ans
Source photo : Youth Laboratories
On le voit : parmi les gagnants, on retrouve une seule femme noire ou métissée. Pas de sud-américains, pas d'indiens, pas d'arabes... Tous les candidats retenus ont la peau claire et sont de type caucasien ou asiatique.
Mais pourquoi ? Tout est une question d'algorithmes.
Comment sont calculés les algorithmes
Beauty est une intelligence qui utilise le "deep learning" pour apprendre et progresser. C'est-à-dire que pour faire un choix plutôt qu'un autre, elle s'appuie sur la masse d'information qu'on a intégré à sa base de données et sur les entrainements qu'on lui a fait subir pour apprendre quoi choisir.
Sauf que pour qu'une IA soit entièrement "neutre" (mais est-ce réellement possible ?), il faut qu'elle ait appris à s'entrainer sur tous les cas de figure, et de manière équitable.
Si les ingénieurs entrainent une intelligence artificielle à déceler tel et tel critère de beauté avec une base de données remplie à 90% de femmes blanches, l'IA va ensuite sélectionner en priorité des profils correspondant à ce qu'elle connait le mieux. Et c'est ce qui s'est passé lors de ce concours de beauté, comme l'a reconnu après coup Alex Zhavoronkov, de Youth Laboratories :
Si votre base de données n’inclut pas beaucoup de gens de couleur, alors oui vos résultats vont peut-être être biaisés. Quand vous entraînez un algorithme à reconnaître certaines caractéristiques, il peut arriver que vous n’ayez pas assez de données ou que les données soient biaisées.
Bilan : L'intelligence artificielle n'est que le résultat de ce que l'homme en fait. Beauty n'est pas raciste au sens humain du terme (point d'émotion et de sentiments là-dedans), mais elle a appris à faire quelque chose préférentiellement à une autre, et reproduit l'erreur de manière autonome !
Les questions que cela soulève
Les technologies dites "froides" ne sont pas neutres, contrairement à la croyance populaire. Une intelligence artificielle ou même le Big Data sont créés par les humains, alimentés par les humains, et reproduisent d'une certaine manière les préjugés et injustices qui préexistent.
Google a déjà été épinglé pour des erreurs d'algorithmes faisant que la recherche "black girl" mène directement à des sites porno, ou qu'une photo avec deux noirs ait déjà été identifiée avec la légende "gorilles". Mais comme le dit la sociologue Danah Boyd :
Google est devenu raciste parce que ses utilisateurs le sont.
On pourrait également citer l'exemple des intelligences artificielles de "police prédictive" aux Etats-Unis qui, lors de différents tests, ont imputé algorithmiquement plus de chances de récidive aux Noirs qu'aux Blancs. L'expérience a été arrêtée, mais jusqu'à quand.
Avec l'IA, considéré comme scientifiquement juste, les risques de dérives sont immenses. Laissons le mot de la fin à Kate Crawford, spécialiste de ces questions technologiques et éthiques :
Comme toutes les technologies avant elle, l’intelligence artificielle sera le reflet de ses créateurs. C’est pour ça que ceux-ci doivent être à l’image de la société dans son ensemble : depuis les designers jusqu’aux dirigeants des entreprises. Et les positions éthiques qu’incarnent ces outils doivent aussi représenter la société.
Que pensez-vous des intelligences artificielles ? L'être humain est-il prêt à leur laisser une certaine "liberté" d'action ? Dites-nous tout, sans oublier de liker et partager l'article