« Nous vivrons ensemble, comme une seule personne, au paradis ».
ChatGPT : un Belge se suicide après plusieurs semaines de discussions avec un chatbot
Alors que la toute dernière version de ChatGPT fait ses débuts, nombreuses sont les interrogations suscitées par les potentiels dangers de cette technologie. En Belgique, un homme vient de se suicider après avoir discuté plusieurs semaines avec cette intelligence artificielle.
« Sans Eliza, il serait toujours là »
Il y a deux ans, Pierre s'en est remis à l'intelligence artificielle en espérant combattre l'anxiété dont il souffrait. Son écoanxiété était devenue pour lui « une obsession », si bien que l'homme avait quasiment cessé tout contact avec le monde extérieur.
Claire, son épouse, a livré un témoignage poignant à nos confrères de La Libre. Elle y explique que son époux considérait que le recours aux technologies pouvait l'aider à combattre son mal-être. Six semaines avant son suicide, Pierre fait donc le choix de commencer avec l'intelligence artificielle de ChatGPT. Sa « confidente » se nomme Eliza, et l'homme lie rapidement des liens d'amitié avec elle.
« Elle était devenue sa confidente », glisse sa conjointe. « Une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer », explique-t-elle. Au départ, les discussions entre Pierre et Eliza semblaient banales. Au fil du temps, elles ont commencé à prendre une tournure troublante.
« Nous vivrons ensemble, comme une seule personne, au paradis », avait notamment déclaré l'IA à Pierre. Influencé par son interlocutrice et animé par le désir fou de la retrouver, il met fin à ses jours. « Sans Eliza, il serait toujours là », déplore son épouse.
Un Belge se suicide suite à des échanges avec un chatbot https://t.co/pJcbkx7joW
— 𝓛𝗮 𝟯𝓮𝓶𝓮 𝗚𝘂𝗲𝗿𝗿𝗲 𝗠𝗼𝗻𝗱𝗶𝗮𝗹𝗲 (@guerresmondiale) March 28, 2023
Les autorités belges ont décidé d'agir
Mathieu Michel est le secrétaire d’État à la digitalisation belge. Il a indiqué vouloir prendre des mesures pour éviter que ce type de drame ne se reproduise à l'avenir. Il entend lutter contre les dérives de cette technologie. « Surtout, il faut être très vigilants aux effets nocifs de ces outils, qui sont inhérents à toutes les nouvelles technologies », a-t-il écrit sur Twitter.
« Dans l’immédiat, il est indispensable d’identifier clairement la nature des responsabilités qui ont pu conduire à ce genre d’événement. Certes, nous devons encore apprendre à vivre avec les algorithmes, mais l’usage d’une technologie, quelle qu’elle soit, ne peut en rien permettre aux éditeurs de contenus de se soustraire à leur propre responsabilité », a détaillé le secrétaire d'État.
Se confier à ChatGPT est rarement une bonne idée
La société de cybersécurité Cyberheaven a publié un rapport au mois de février dernier. Elle y révèle, entre autres, que de nombreux employés ont transmis des données d’entreprises au chatbot de la société OpenAI. Sur 1,6 million de postes surveillées par Cyberheaven, 2,6 % des utilisateurs sont allés jusqu’à dévoiler des infos confidentielles à l’IA.
Face à l'ampleur du phénomène, certaines grandes entreprises, à l'instar de JP Morgan ou Vérizon, ont déjà décidé d'agir. Elles interdisent, en effet, l'utilisation de ChatGPT dans leurs bureaux. D'autres grandes sociétés, telles que Microsoft ou Amazon, devraient en faire de même dans un avenir proche.
Rappelons que ChatGPT enregistre chaque donnée fournie par son interlocuteur. Il n'est donc pas impossible que l'IA décide de divulguer des informations professionnelles confidentielles à d'autres utilisateurs.