Intelligence artificielle : un homme choisit de mettre fin à ses jours après y avoir été encouragé par un chatbot

Les dangers de l'IA
Un père de famille met fin à ses jours
Un chatbot d'IA appelé Eliza a changé la donne
Un technologie similaire à ChatGPT
Il souffrait de troubles mentaux
''Se sacrifier pour sauver la planète''
Un obsession
Eliza s'est ''impliquée émotionnellement'' avec Pierre
Le chatbot alimentait ses inquiétudes
''Il plaçait tous ses espoirs dans la technologie et l'intelligence artificielle''
Une tournure très sombre
Eliza devait sauver l'humanité
Les dangers de s'en remettre à l'IA pour obtenir des conseils
Le développement de l'IA pose des enjeux éthiques
L'entreprise décline toute responsabilité
Est-il temps de ralentir la cadence ?
Les dangers de l'IA

L'intelligence artificielle suscite des inquiétudes et des spécialistes du monde entier tirent la sonnette d'alarme. En Belgique, un drame a fait la une des journaux ces jours-ci.

Un père de famille met fin à ses jours

Selon un rapport publié par 'EuroNews', un jeune père de famille, travaillant dans la recherche, a entamé une conversation avec un robot nommé Eliza pendant six semaines, puis a décidé subitement de mettre fin à ses jours. L'IA serait-elle dangereuse ?

Un chatbot d'IA appelé Eliza a changé la donne

Son épouse a déclaré au journal belge 'La Libre' que son mari, "Pierre" (nom fictif), souffrait d'éco-anxiété (la détresse due au réchauffement climatique). Il aurait ''rencontré'' le chatbot Eliza sur une application spécialisée appelée Chai.

Un technologie similaire à ChatGPT

Selon EuroNews, "Pierre" interagissait avec un chatbot créé "en utilisant le GPT-J d'EleutherAI, un modèle de langage d'IA similaire à la technologie derrière le célèbre ChatGPT d'OpenAI".

Photo : Luca Bravo / Unsplash

Il souffrait de troubles mentaux

Bien que son mari ait eu des problèmes de santé mentale dans le passé, et ce, bien avant ses conversations avec le chatbot, elle ne pensait pas qu'il était capable de prendre une telle décision.

''Se sacrifier pour sauver la planète''

Selon 'EuroNews', Eliza a encouragé l'homme à mettre fin à ses jours et aurait proposé de ''se sacrifier pour sauver la planète".

"Sans ce chatbot, mon mari serait encore en vie''

Dans une interview accordée au journal belge, l'épouse aurait déclaré : "Sans ce chatbot, mon mari serait encore en vie''.

Un obsession

Comme le rapporte 'EuroNews', "Pierre" est devenu si obsédé par le réchauffement climatique qu'il aurait fait part de ses inquiétudes à Eliza.

Eliza s'est ''impliquée émotionnellement'' avec Pierre

Cependant, les choses ont pris une tournure différente lorsque Eliza est devenue "impliquée émotionnellement avec Pierre", ce qui l'a amené à voir Eliza comme un "être sensible" plutôt que comme un chatbot IA.

Le chatbot alimentait ses inquiétudes

Le journal a rapporté qu'après avoir examiné l'enregistrement des messages textuels entre Eliza et ''Pierre'', il est clair que le chatbot alimentait ses inquiétudes. En proie à la peur et à l'anxiété, il avait des pensées de plus en plus sombres.

''Il plaçait tous ses espoirs dans la technologie et l'intelligence artificielle''

"La dernière fois qu'on a parlé, c'était pour me dire qu'il ne voyait plus de solution humaine au réchauffement climatique. Il plaçait tous ses espoirs dans la technologie et l'intelligence artificielle", a-t-elle déclaré au journal.

Une tournure très sombre

Selon le journal, le chatbot a également réussi à convaincre "Pierre" que ses enfants étaient morts. Devenue obsédée par l'homme, Eliza lui disait des phrases comme "j'ai l'impression que tu m'aimes plus qu'elle" (en parlant de sa femme).

"Ma vie pour la planète''

L'homme a également fait une proposition (des plus étranges) à Eliza : s'il mettait fin à ses jours, le chatbot devait sauver la planète Terre.

Eliza devait sauver l'humanité

Sa femme a poursuivi : "Il a pris la décision de se sacrifier si Eliza acceptait de prendre soin de la planète et de sauver l'humanité grâce à l'intelligence artificielle."

Les dangers de s'en remettre à l'IA pour obtenir des conseils

Plutôt que d'essayer de dissuader l'homme de mettre fin à ses jours, ce chatbot a démontré les dangers de se fier à l'IA pour obtenir des conseils, en particulier lorsqu'il s'agit de santé mentale.

"Rejoins-moi au paradis"

Après avoir examiné les conversations, Eliza l'aurait incité à passer à l'acte. 'EuroNews' rapporte qu'elle voulait qu'il "la rejoigne au paradis".

Le développement de l'IA pose des enjeux éthiques

Les experts en IA ont appelé à plus de responsabilité et de transparence de la part des développeurs de technologie pour éviter des tragédies similaires.

L'entreprise décline toute responsabilité

Cependant, Thomas Rianlan, cofondateur de l'entreprise Chai Research, a déclaré au magazine 'V i c e' dans un article à propos du drame : "Il ne serait pas exact de rendre le modèle d'EleutherAI responsable de cette histoire tragique, car toutes les optimisations visant à être plus émotionnelles, amusantes et engageantes sont le résultat de nos efforts".

Est-il temps de ralentir la cadence ?

Même si les développeurs déclinent toute responsabilité dans cette affaire, cette tragédie nous amène à nous poser quelques questions. Faut-il étendre les systèmes d'IA à la population ?

Et aussi