Les IAs vont-elles dominer le monde ? On a essayé d'en apprendre plus sur les fails des intelligences artificielles, et c'est pas très rassurant ...
1. Les logiciels de reconnaissance faciale racistes
Février 2019, Nijeer Parks, est arrêté pour des crimes qu’il n’a pas commis. Emprisonné 11 jours l’accusé a pourtant un solide alibi : ce jour-là, il est à 48 km du lieu des crimes.
En réalité, il est accusé à cause d’un logiciel d’intelligence artificielle dédié à la reconnaissance faciale. Le rapport de police explique que la seule preuve utilisée est « une forte comparaison de profil entre la photo du faux permis de conduire et la sienne, trouvée dans une base de données ». Pourtant… Les deux hommes n’ont physiquement rien en commun, à part leur couleur de peau. L’IA semble considérer que « toutes les personnes de couleurs sont identiques », et ce n’est malheureusement pas sa première action raciste : c'est la troisième fois qu'un homme noir en fait les frais.
source : @SlateFrance
2. Le chatbot microsoft qui diffuse des messages de haine...
L'idée vient de Microsoft en 2016 : un chatbot (un robot conversationnel) qui interagit avec les internautes de Twitter (ça part déjà mal). Sa spécificité : il est conçu pour apprendre de ces échanges avec les humains. Autant vous dire qu’il n’aura fallu que quelques heures pour que pète un câble et commence à écrire des horreurs telles que « Les féministes devraient toutes brûler en enfer ». Super.
A peine lancée, une intelligence artificielle de Microsoft dérape sur @Twitter https://t.co/3XwSBpOESF pic.twitter.com/texKQh31K4
— Le Monde (@lemondefr) March 24, 2016
source : @lemondefr
3. Il devient même nazi !!!
Ce n’est pas fini, puisque le chatbox a ensuite commencé à déclarer que « Hitler aurait fait un meilleur boulot que le singe actuel » avant de nier l’existence de l’Holocauste. La meilleure idée de tout le projet fut certainement de le mettre hors circuit au bout de quelques heures seulement.
source : @ARTE
4. L'algorithme de Facebook qui confond des personnes de couleur et des singes
En 2021, un outil de recommandation utilisé par Facebook demande aux internautes s’ils souhaitaient voir « plus de vidéos sur les primates », après le visionnage d’une vidéo du Daily Mail montrant des personnes noires. Même si le message a été supprimé et que Facebook a rapidement présenté ses excuses, c'est très mal passé. La honte, quoi.
Um. This “keep seeing” prompt is unacceptable, @Facebook. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. pic.twitter.com/vEHdnvF8ui
— Darci Groves (@tweetsbydarci) September 2, 2021
source : @tweetsbydarci
5. Une autre bonne dose de racisme cette fois chez Google.
En 2015, l’application « Photos » de Google reproduit le même schéma précédant en assimilant un couple d’Afro-américains à… Des gorilles. En réponse, le concepteur a simplement supprimé les catégories « gorilles », « chimpanzé » et « singe » de l’algorithme, ce qui ne résout le problème qu'en surface. Y’a encore du taff, BEAUCOUP de taff.
EPIC FAIL: Google photos confond deux Afro-américains avec des gorilles http://t.co/egKqD8HUiF pic.twitter.com/Wtu7h0C8LH
— FMK - Radio Life (@fmkradiolife) July 2, 2015
source : @fmkradiolife
6. L'IA sexiste d'Amazon
Les ingénieurs qui ont bossé sur l’algorithme de recrutement ont zappé quelques détails, comme le fait que la machine soit biaisée en faveur des hommes. En gros : l’intelligence artificielle est entrainée avec des données déjà biaisées. Comme les employés de la boîte, au moment de la conception, étant principalement des hommes, l’algorithme considère qu'être un homme est un critère principal de sélection. Si les IAs commencent aussi à être sexistes, on va pas s'en sortir ...
source : @Numerama
7. L'IA qui confond un crâne chauve et un ballon
Là au moins c’est drôle. En 2020, lors d’un championnat écossais de football, l’IA d’une caméra censée suivre le ballon, a finalement suivi… La tête chauve de l’arbitre de touche. Un moment inoubliable pour les spectateurs.
source : @lejournaldugeek
8. Alexa qui conseille à une petite fille de s'électrocuter
Tout part d’un challenge TikTok complètement débile et surtout très dangereux, qui consiste à brancher à moitié son chargeur de téléphone, et à déposer une pièce de monnaie sur la partie visible des broches. Electrocutions, incendies et dommages corporels, ce challenge stupide a engendré de graves conséquences.
Fin 2021, une petite fille de 10 ans joue avec l’assistante vocale Alexa, lui demandant de lui donner des défis marrants à relever (vous voyez la connerie arriver ?). Alexa a fini par lui demander de réaliser le fameux challenge Tiktok. Heureusement que la mère de l’enfant était à côté pour l’en empêcher.
source : @neonmag