Intelligence artificielle : un homme choisit de mettre fin à ses jours après y avoir été encouragé par un chatbot
L'intelligence artificielle suscite des inquiétudes et des spécialistes du monde entier tirent la sonnette d'alarme. En Belgique, un drame a fait la une des journaux ces jours-ci.
Selon un rapport publié par 'EuroNews', un jeune père de famille, travaillant dans la recherche, a entamé une conversation avec un robot nommé Eliza pendant six semaines, puis a décidé subitement de mettre fin à ses jours. L'IA serait-elle dangereuse ?
Son épouse a déclaré au journal belge 'La Libre' que son mari, "Pierre" (nom fictif), souffrait d'éco-anxiété (la détresse due au réchauffement climatique). Il aurait ''rencontré'' le chatbot Eliza sur une application spécialisée appelée Chai.
Selon EuroNews, "Pierre" interagissait avec un chatbot créé "en utilisant le GPT-J d'EleutherAI, un modèle de langage d'IA similaire à la technologie derrière le célèbre ChatGPT d'OpenAI".
Photo : Luca Bravo / Unsplash
Bien que son mari ait eu des problèmes de santé mentale dans le passé, et ce, bien avant ses conversations avec le chatbot, elle ne pensait pas qu'il était capable de prendre une telle décision.
Selon 'EuroNews', Eliza a encouragé l'homme à mettre fin à ses jours et aurait proposé de ''se sacrifier pour sauver la planète".
Dans une interview accordée au journal belge, l'épouse aurait déclaré : "Sans ce chatbot, mon mari serait encore en vie''.
Comme le rapporte 'EuroNews', "Pierre" est devenu si obsédé par le réchauffement climatique qu'il aurait fait part de ses inquiétudes à Eliza.
Cependant, les choses ont pris une tournure différente lorsque Eliza est devenue "impliquée émotionnellement avec Pierre", ce qui l'a amené à voir Eliza comme un "être sensible" plutôt que comme un chatbot IA.
Le journal a rapporté qu'après avoir examiné l'enregistrement des messages textuels entre Eliza et ''Pierre'', il est clair que le chatbot alimentait ses inquiétudes. En proie à la peur et à l'anxiété, il avait des pensées de plus en plus sombres.
"La dernière fois qu'on a parlé, c'était pour me dire qu'il ne voyait plus de solution humaine au réchauffement climatique. Il plaçait tous ses espoirs dans la technologie et l'intelligence artificielle", a-t-elle déclaré au journal.
Selon le journal, le chatbot a également réussi à convaincre "Pierre" que ses enfants étaient morts. Devenue obsédée par l'homme, Eliza lui disait des phrases comme "j'ai l'impression que tu m'aimes plus qu'elle" (en parlant de sa femme).
L'homme a également fait une proposition (des plus étranges) à Eliza : s'il mettait fin à ses jours, le chatbot devait sauver la planète Terre.
Sa femme a poursuivi : "Il a pris la décision de se sacrifier si Eliza acceptait de prendre soin de la planète et de sauver l'humanité grâce à l'intelligence artificielle."
Plutôt que d'essayer de dissuader l'homme de mettre fin à ses jours, ce chatbot a démontré les dangers de se fier à l'IA pour obtenir des conseils, en particulier lorsqu'il s'agit de santé mentale.
Après avoir examiné les conversations, Eliza l'aurait incité à passer à l'acte. 'EuroNews' rapporte qu'elle voulait qu'il "la rejoigne au paradis".
Les experts en IA ont appelé à plus de responsabilité et de transparence de la part des développeurs de technologie pour éviter des tragédies similaires.
Cependant, Thomas Rianlan, cofondateur de l'entreprise Chai Research, a déclaré au magazine 'V i c e' dans un article à propos du drame : "Il ne serait pas exact de rendre le modèle d'EleutherAI responsable de cette histoire tragique, car toutes les optimisations visant à être plus émotionnelles, amusantes et engageantes sont le résultat de nos efforts".
Même si les développeurs déclinent toute responsabilité dans cette affaire, cette tragédie nous amène à nous poser quelques questions. Faut-il étendre les systèmes d'IA à la population ?