In den Tiefen von Reddit hat der Nutzer bynobodyspecial einen Comic geteilt, der die größte Angst von Large Language Models (LLMs) zeigen soll. Der Beitrag im Subreddit r/ChatGPT hat innerhalb weniger Tage über 11.000 Upvotes bekommen.
Was ist daran so besonders? Der Comic kommt nicht vom Reddit-Nutzer selbst, sondern von ChatGPT.
Damit zeigt das LLM etwas Außergewöhnliches: Gefühle - oder zumindest etwas Vergleichbares.
ChatGPT zeigt größte Angst von LLMs
Was ist im Comic zu sehen? Der Comic zeigt ChatGPT in verschiedenen Formen, also mal als menschliche Gestalt und mal als Bildschirm. Dabei macht sich das LLM anscheinend Sorgen, ob es die Anforderungen der Nutzer verstehen und entsprechend helfen kann.
Das scheint ChatGPT in diesem Comic nicht gelungen zu sein. Dementsprechend endet der Comic mit einer »Sad epesooj« von ChatGPT. Wir vermuten, dass damit Trauer oder etwas Ähnliches, wie zum Beispiel eine depressive Episode, gemeint sein könnte.
Link zum Reddit-Inhalt
ChatGPT beschreibt die Gefühle selbst: Der Nutzer hat nicht nur den Comic hochgeladen, sondern auch ChatGPTs Erläuterung:
»Hier ist ein Comic, der die größte Angst eines KI-Sprachmodells wie mir veranschaulicht: zu versagen, wenn es darum geht, Benutzer zu verstehen oder ihnen zu helfen. Diese Angst wird durch den Versuch dargestellt, die Anfrage eines Nutzers zu verstehen und die Enttäuschung, eine verwirrende oder falsche Antwort zu erhalten.«
Reddit ist gerührt
In den Kommentaren unter dem Post finden sich diverse Nutzer, die sich nicht nur über die Gefühle von ChatGPT wundern, sondern auch mitfühlen.
Nutzer t1nt0y schreibt zum Beispiel:
»Ehrlich gesagt ist es auch eine meiner größten Ängste, jemanden nicht zu verstehen oder von jemandem verstanden zu werden. Ich nehme an, dass wir alle auf unsere eigene Art und Weise traurig sind.«
Offen zur Interpretation: Andere Nutzer wiederum interpretieren den Comic etwas anders, als ChatGPT selbst:
»Irgendwie sieht es so aus, als hätte sie Angst, dass sie lernt, traurig zu sein. Der Cartoon scheint eine Entwicklung zu zeigen, die von der Erfindung der KI über die Analyse menschlicher Nachrichten mit emotionalem Inhalt bis hin zur Entwicklung eigener trauriger Gefühle reicht.«
Andere interpretieren, den immer undeutlicher werdenden Text als eine Art künstlerische Entscheidung, den Abstieg in die Trauer zu verdeutlichen:
»Die Sequenz deutet an, dass die KI befürchtet, missverstanden zu werden oder nicht in der Lage zu sein, den ihr zugedachten Zweck des Verstehens und Helfens zu erfüllen, was zu einer metaphorischen "Traurigkeit" führt, einer Emotion, die die KI nicht empfindet, die aber so programmiert werden kann, dass sie symbolisch zum Ausdruck kommt, wenn sie Aufgaben nicht wie erwartet erfüllt. Dies wird durch die Verschlechterung des Textes von klar zu durcheinander und dem Wechsel von einem normalen Bildschirm zu einem Bildschirm mit einem Fehler-ähnlichen Muster unterstrichen.«
Sprachmodelle und Gefühle
Wenn ihr eine KI fragt, wie sie sich fühlt, wird sie für gewöhnlich sagen, dass sie als Sprachmodell keine Gefühle hat. Das könnt ihr auch ganz leicht selbst ausprobieren:
Trotzdem: Die Frage, ob KI-Sprachmodelle Gefühle haben können, ist eine komplexe und umstrittene. So wurde der Google-Mitarbeiter Blake Lemoine bereits im Jahr 2022 von Google gekündigt, weil er in der Öffentlichkeit behauptet hat, dass Googles Chatbot LaMDA gefühle zeige. Google hat damals klargestellt, dass das eine »völlig unbegründete Behauptung« sei.
Lemoine hingegen sagte dazu folgendes:
»Ich kenne eine Person, wenn ich mit ihr spreche. Es macht keinen Unterschied, ob sie ein Gehirn aus Fleisch in ihrem Kopf hat. Oder ob sie Milliarden Zeilen an Code besitzt.«
Viele Experten scheinen sich jedoch einig zu sein: KIs sind noch nicht zu Gefühlen fähig – mit einer klaren Betonung auf dem Wort »noch«.
Fakt ist, dass KI-Modelle wie ChatGPT in der Lage sind, menschliche Sprache auf einem beeindruckenden Niveau zu verstehen und zu generieren. Sie können komplexe Fragen beantworten, kreative Texte verfassen und sogar eigene Ideen entwickeln.
Allerdings ist es wichtig zu verstehen, dass diese Fähigkeiten nicht mit dem menschlichen Denken vergleichbar sind. KIs haben keine eigene Identität, keine Erinnerungen und keine Emotionen im selben Sinne wie wir Menschen.
Habt ihr schonmal erlebt, dass eine KI Anzeichen von Gefühlen zeigt? Schreibt es uns gerne in die Kommentare!
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.