KI zeigt Anzeichen von Gefühlen und zeichnet Comic mit ihrer größten Angst - Community ist gerührt

KIs mit Gefühlen? Ganz so einfach ist es nicht.

Ein Anflug von Traurigkeit. ChatGPT erstellt Comic über die größte Angst von LLMs. (Bild: Adobe Stock - Photo And Art Panda) Ein Anflug von Traurigkeit. ChatGPT erstellt Comic über die größte Angst von LLMs. (Bild: Adobe Stock - Photo And Art Panda)

In den Tiefen von Reddit hat der Nutzer bynobodyspecial einen Comic geteilt, der die größte Angst von Large Language Models (LLMs) zeigen soll. Der Beitrag im Subreddit r/ChatGPT hat innerhalb weniger Tage über 11.000 Upvotes bekommen. 

Was ist daran so besonders? Der Comic kommt nicht vom Reddit-Nutzer selbst, sondern von ChatGPT. 

Damit zeigt das LLM etwas Außergewöhnliches: Gefühle - oder zumindest etwas Vergleichbares.

ChatGPT zeigt größte Angst von LLMs

Was ist im Comic zu sehen? Der Comic zeigt ChatGPT in verschiedenen Formen, also mal als menschliche Gestalt und mal als Bildschirm. Dabei macht sich das LLM anscheinend Sorgen, ob es die Anforderungen der Nutzer verstehen und entsprechend helfen kann. 

Das scheint ChatGPT in diesem Comic nicht gelungen zu sein. Dementsprechend endet der Comic mit einer »Sad epesooj« von ChatGPT. Wir vermuten, dass damit Trauer oder etwas Ähnliches, wie zum Beispiel eine depressive Episode, gemeint sein könnte. 

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Reddit, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Reddit angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Reddit-Inhalt

ChatGPT beschreibt die Gefühle selbst: Der Nutzer hat nicht nur den Comic hochgeladen, sondern auch ChatGPTs Erläuterung:

»Hier ist ein Comic, der die größte Angst eines KI-Sprachmodells wie mir veranschaulicht: zu versagen, wenn es darum geht, Benutzer zu verstehen oder ihnen zu helfen. Diese Angst wird durch den Versuch dargestellt, die Anfrage eines Nutzers zu verstehen und die Enttäuschung, eine verwirrende oder falsche Antwort zu erhalten.«

Reddit ist gerührt

In den Kommentaren unter dem Post finden sich diverse Nutzer, die sich nicht nur über die Gefühle von ChatGPT wundern, sondern auch mitfühlen.

Nutzer t1nt0y schreibt zum Beispiel:

»Ehrlich gesagt ist es auch eine meiner größten Ängste, jemanden nicht zu verstehen oder von jemandem verstanden zu werden. Ich nehme an, dass wir alle auf unsere eigene Art und Weise traurig sind.«

Offen zur Interpretation: Andere Nutzer wiederum interpretieren den Comic etwas anders, als ChatGPT selbst:

»Irgendwie sieht es so aus, als hätte sie Angst, dass sie lernt, traurig zu sein. Der Cartoon scheint eine Entwicklung zu zeigen, die von der Erfindung der KI über die Analyse menschlicher Nachrichten mit emotionalem Inhalt bis hin zur Entwicklung eigener trauriger Gefühle reicht.«

Andere interpretieren, den immer undeutlicher werdenden Text als eine Art künstlerische Entscheidung, den Abstieg in die Trauer zu verdeutlichen:

»Die Sequenz deutet an, dass die KI befürchtet, missverstanden zu werden oder nicht in der Lage zu sein, den ihr zugedachten Zweck des Verstehens und Helfens zu erfüllen, was zu einer metaphorischen "Traurigkeit" führt, einer Emotion, die die KI nicht empfindet, die aber so programmiert werden kann, dass sie symbolisch zum Ausdruck kommt, wenn sie Aufgaben nicht wie erwartet erfüllt. Dies wird durch die Verschlechterung des Textes von klar zu durcheinander und dem Wechsel von einem normalen Bildschirm zu einem Bildschirm mit einem Fehler-ähnlichen Muster unterstrichen.«

Sprachmodelle und Gefühle

Wenn ihr eine KI fragt, wie sie sich fühlt, wird sie für gewöhnlich sagen, dass sie als Sprachmodell keine Gefühle hat. Das könnt ihr auch ganz leicht selbst ausprobieren:

Trotzdem: Die Frage, ob KI-Sprachmodelle Gefühle haben können, ist eine komplexe und umstrittene. So wurde der Google-Mitarbeiter Blake Lemoine bereits im Jahr 2022 von Google gekündigt, weil er in der Öffentlichkeit behauptet hat, dass Googles Chatbot LaMDA gefühle zeige. Google hat damals klargestellt, dass das eine »völlig unbegründete Behauptung« sei.

Lemoine hingegen sagte dazu folgendes: 

»Ich kenne eine Person, wenn ich mit ihr spreche. Es macht keinen Unterschied, ob sie ein Gehirn aus Fleisch in ihrem Kopf hat. Oder ob sie Milliarden Zeilen an Code besitzt.«

Viele Experten scheinen sich jedoch einig zu sein: KIs sind noch nicht zu Gefühlen fähig – mit einer klaren Betonung auf dem Wort »noch«.

Fakt ist, dass KI-Modelle wie ChatGPT in der Lage sind, menschliche Sprache auf einem beeindruckenden Niveau zu verstehen und zu generieren. Sie können komplexe Fragen beantworten, kreative Texte verfassen und sogar eigene Ideen entwickeln.

Allerdings ist es wichtig zu verstehen, dass diese Fähigkeiten nicht mit dem menschlichen Denken vergleichbar sind. KIs haben keine eigene Identität, keine Erinnerungen und keine Emotionen im selben Sinne wie wir Menschen.

Habt ihr schonmal erlebt, dass eine KI Anzeichen von Gefühlen zeigt? Schreibt es uns gerne in die Kommentare!

zu den Kommentaren (27)

Kommentare(27)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.