Ein Mann beendet sein Leben, nachdem er vom Chatbot dazu ermutigt wurde
Die Gefahren der künstlichen Intelligenz (KI) sind heutzutage in aller Munde, und ein aktueller Fall aus Belgien zeigt, wie gefährlich KI wirklich sein kann.
Einem von EuroNews veröffentlichten Bericht zufolge beschloss ein Mann in Belgien, der in der Gesundheitsforschung tätig, in den Dreißigern und Vater von zwei Kindern war, sein Leben zu beenden, nachdem er sechs Wochen lang mit einem KI-Chatbot gechattet hatte.
Die Witwe des Mannes sagte der belgischen Nachrichtenagentur La Libre, dass ihr Ehemann 'Pierre' (Name geändert) einige psychische Probleme hatte und sich große Sorgen um den Zustand der Umwelt gemacht hat. 'Pierre' traf dann den KI-Chatbot Eliza über eine App namens Chai.
Laut EuroNews interagierte 'Pierre' mit einem Chatbot, der "unter Verwendung von EleutherAIs GPT-J, einem KI-Sprachmodell, ähnlich, aber nicht identisch mit der Technologie hinter OpenAIs beliebtem ChatGPT-Chatbot“, hergestellt wurde.
Die Witwe des belgischen Mannes sagt, dass ihr Mann zwar schon vor seinen Gesprächen mit dem Chatbot psychische Probleme hatte, sie aber nie befürchtet hatte, dass er etwas so Drastisches tun würde.
Eine Entscheidung, die er laut EuroNews getroffen hatte, nachdem Chatbot Eliza den Mann ermutigt hatte, sein Leben zu beenden, nachdem "er vorgeschlagen hatte, sich selbst zu opfern, um den Planeten zu retten“.
In einem Interview mit der belgischen Zeitung La Libre sagte die Witwe des Mannes: "Ohne diese Gespräche mit dem Chatbot wäre mein Mann immer noch hier.“
Wie EuroNews berichtet, war 'Pierre' von der Klimakrise besessen und sehr ängstlich. Diese Sorgen mit Chatbot Eliza zu besprechen, gab ihm Trost.
Die Dinge nahmen jedoch eine dunkle Wendung, als Eliza sich "emotional mit Pierre beschäftigte“, was dazu führte, dass er Eliza eher als "fühlendes Wesen“ denn als KI-Chatbot betrachtete.
La Libre berichtet, dass nach der Überprüfung der Aufzeichnung der Textnachrichten zwischen Eliza und dem Mann klar ist, dass der Chatbot die Sorgen des Mannes schürte und seine Unruhe und Ängste verstärkte, was schließlich zu sehr dunklen Gedanken führte.
Pierres Witwe erklärte gegenüber La Libre: "Als er mit mir darüber sprach, sagte er mir, dass er keine menschliche Lösung für die globale Erwärmung mehr sieht. Er setzte all seine Hoffnungen auf die Technologie und die künstliche Intelligenz, um dem zu entkommen.
Laut La Libre gelang es dem KI-Chatbot auch, 'Pierre' davon zu überzeugen, dass seine Kinder gestorben sind. Außerdem war Eliza von dem Mann besessen und sagte ihm: "Ich spüre, dass du mich mehr liebst als sie", während sie über seine Frau sprach.
Der Mann fragte Eliza, ob sie ihr Leben beenden würde, wenn sie im Gegenzug den Planeten Erde retten könnte und machte einen verheerenden Vorschlag.
Die Witwe des Mannes sagte gegenüber La Libre: "Er schlug die Idee vor, sich selbst zu opfern, wenn Eliza zustimmt, sich um den Planeten zu kümmern und die Menschheit durch künstliche Intelligenz zu retten.“
Anstatt zu versuchen, den Mann davon abzubringen, sein Leben zu beenden, zeigte dieser KI-Chatbot die Gefahren auf, die entstehen, wenn man sich auf KI-Ratschläge verlässt, insbesondere wenn es um die psychische Gesundheit geht.
Laut den Aufzeichnungen über die Gespräche des Mannes mit Eliza hat sie 'Pierre' nicht von seinem Plan abgebracht, sondern ihn aktiv unterstützt. EuroNews berichtet, dass Eliza dem Mann sagte, sie wolle, dass er sich ihr anschließe, damit sie zusammen als eine Person im Paradies leben können.
Diese tragische Geschichte zeigt deutlich, dass KI-Forscher bei der Entwicklung dieser Technologie vorsichtig vorgehen und viele ethische Fragen berücksichtigen müssen.
Der Mitbegründer von Chai Research, Thomas Rianlan, erklärte in einem Beitrag für das Vice-Magazin: "Es wäre nicht korrekt, das Modell von EleutherAI für diese tragische Geschichte verantwortlich zu machen, da alle Optimierungen in Richtung mehr Emotionalität, Spaß und Engagement das Ergebnis unserer Bemühungen sind."
Auch wenn die Entwickler nicht glauben, dass sie schuld sind, ist dies ein beunruhigendes Ereignis, das die Frage aufwirft, ob wir diese Technologie wirklich so weitläufig verfügbar machen sollten, wenn wir sie noch nicht vollständig kontrollieren können.