1.000 Top-Experten fordern: Pausiert die Künstliche Intelligenz!

'Pause Giant AI Experiments: An Open Letter'
'Future of Life Institute'
Eine Gefahr für die Menschheit?
Außer Kontrolle geratener Wettlauf?
Eine unberechenbare Zukunft
Illustre Unterzeichner
Sicherheitsprotokolle
Staatliche Intervention?
Leistungsstarkes Instrument
Zu viele Fehler (bislang)
Die Halluzinationen der Künstlichen Intelligenz
Risiken minimieren
'Eine blühende Zukunft'
Nichts überstürzen
Nicht alle sind einverstanden
Die Umsetzung ist schwierig
Wie geht es weiter?
'Pause Giant AI Experiments: An Open Letter'

'Pause Giant AI Experiments: An Open Letter' ist der Titel eines offenen Briefes, der von mehr als 1.000 Technologie- und Wirtschaftsführern unterzeichnet wurde.

'Future of Life Institute'

In dem Brief, der über das 'Future of Life Institute' veröffentlicht wurde, fordern sie die Forschungseinrichtungen auf, die Entwicklung der fortschrittlichsten Systeme der künstlichen Intelligenz zu pausieren.

Eine Gefahr für die Menschheit?

Der Grund dafür sind die "tiefgreifenden Risiken für die Gesellschaft und die Menschheit", die von der KI ausgehen sollen.

Außer Kontrolle geratener Wettlauf?

Die Experten warnen, dass "KI-Entwickler in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe stecken."

Eine unberechenbare Zukunft

Das Problem bei dieser Entwicklung ist, dass laut dem offenen Brief "nicht einmal ihre Schöpfer zuverlässig verstehen, vorhersagen oder kontrollieren können", wohin diese Entwicklung geht.

Illustre Unterzeichner

Zu den Unterzeichnern gehören so illustre Namen wie Elon Musk, Steve Wozniak (Mitbegründer von Apple, im Bild) und Craig Peters (CEO von Getty Images).

Sicherheitsprotokolle

In dem Brief wird unter anderem die "Einführung von Sicherheitsprotokollen" für KI-Systeme vorgeschlagen, wobei klar ist, dass zur Umsetzung dieser Protokolle die Entwicklung von KI, die leistungsfähiger als GPT-4 ist, eingeschränkt werden muss.

Staatliche Intervention?

"Wenn eine solche Pause nicht schnell durchgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium beschließen", heißt es weiter.

(Foto: Unsplash - Andy Kelly)

Leistungsstarkes Instrument

Nach Ansicht der Unterzeichner sind Chatbots wie ChatGPT, Bing oder Bard auf einem so hohen Entwicklungsstand, dass sie in der Lage sind, zu bestimmen, wer die nächsten Vorreiter der Technologiebranche sein werden.

(Foto: Unsplash - Boitumelo Phetla)

Zu viele Fehler (bislang)

Erschwerend kommt hinzu, dass diese Tools mit Mängeln behaftet sind und eine enorme Kapazität zur Verbreitung von Fehlinformationen haben.

(Foto: Unsplash - Drew Dizzy Graham)

Die Halluzinationen der Künstlichen Intelligenz

Zu den Risiken, die in dem offenen Brief genannt werden, gehören die so genannten "Halluzinationen", d. h. Informationen und Daten, die von der Künstlichen Intelligenz bereitgestellt werden und die zwar zuverlässig erscheinen, aber in Wirklichkeit falsch sind.

(Foto: Unsplash - Maximalfocus)

Risiken minimieren

Im Wesentlichen fordern die Unterzeichner eine nachhaltige und organische Entwicklung der KI, die nur dann eingesetzt werden soll, "wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind."

(Foto: Unsplash - Jonathan Kemper)

'Eine blühende Zukunft'

"Die Menschheit kann mit KI eine blühende Zukunft genießen. Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen "Sommer der KI erleben", heißt es in den Schreiben.

(Foto: Unsplash - Lukas)

Nichts überstürzen

Mit "KI-Sommer" meinen sie eine Zeit, in der "wir die Früchte ernten, diese Systeme zum gemeinsamen Nutzen gestalten und der Gesellschaft die Möglichkeit geben, sich anzupassen."

Foto: Unsplash - Markus Spiske

Nicht alle sind einverstanden

Natürlich gibt es einige, die den Brief nicht unterzeichnen wollten, darunter Sam Altman (im Bild), Geschäftsführer von OpenAI.

Die Umsetzung ist schwierig

Diese Weigerung veranlasst die Unterzeichner zu der Annahme, dass die Technologiegemeinschaft ein solches Moratorium und die komplizierte Option, dass die Regierungen die künstliche Intelligenz gesetzlich regeln, nicht akzeptieren wird.

(Foto: Unsplash - Nguyen Dang Hoang Nhu)

Wie geht es weiter?

Welche Wirkung der Brief hat, bleibt abzuwarten. Es ist jedoch wahrscheinlich, dass die Zahl der Unterzeichner in den kommenden Wochen zunehmen und dass auch die Zahl der Gegner steigen wird.

(Foto: Unsplash - Possessed Photography)

Asteroiden: Eine Simulation zeigt, wie sie die Erde zerstören könnten

Weiteres