Google Bildersuche nicht mehr zuverlässig? Warum ein KI-generiertes Bild eines berühmten Musikers kein gutes Zeichen ist

Diesen Musiker kennt ihr anders.

Google zeigt KI-generiertes Bild eines berühmten Musikers als Hauptergebnis auf Google. Wieso das kein Zeichen ist. (Bild: Google) Google zeigt KI-generiertes Bild eines berühmten Musikers als Hauptergebnis auf Google. Wieso das kein Zeichen ist. (Bild: Google)

Wenn ihr euch mal eben den Spaß macht und »Israel Kamakawiwo´ole« in die Google-Suche eingebt, werdet ihr als erstes Ergebnis kein Bild des berühmten Sängers sehen. Auch kein Album-Cover oder ein Bild eines Live-Auftritts. 

Was ihr allerdings sehen werdet, ist ein Mann, der lachend am Strand sitzt und Gitarre spielt. Wenn ihr nur flüchtig hinschaut, wird euch wahrscheinlich kein Fehler auffallen. 

Doch bei genauerer Betrachtung fällt auf: Das ist nicht der Musiker, der »Somewhere over the rainbow« geschrieben hat. Es ist ein Bild, das von einer KI generiert wurde.

Links und oben rechts sind zwei KI-generierte Bilder. Unten rechts ein echtes Foto von Israel Kamakawiwo´ole. Links und oben rechts sind zwei KI-generierte Bilder. Unten rechts ein echtes Foto von Israel Kamakawiwo´ole.

Das Problem mit KI-generierten Bildern auf Google

Ursprünglich kommt das Bild aus einem Beitrag im Midjourney Subreddit, doch Ethan Mollick, Professor an der Wharton Universität Pennsylvania, ist aufgefallen, dass es nun auch als Google-Ergebnis angezeigt wird.

Empfohlener redaktioneller Inhalt

An dieser Stelle findest du einen externen Inhalt von Twitter, der den Artikel ergänzt.
Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Personenbezogene Daten können an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Link zum Twitter-Inhalt

Woran erkenne ich ein KI-generiertes Bild? Im Falle von Herrn ´Ole könnt ihr sehen, dass der Tiefenunschärfe-Effekt ungleichmäßig verteilt ist, die Textur seines Hemds fehlerhaft ist und dass ihm ein Finger an der linken Hand fehlt. 

Davon abgesehen sieht der KI-generierte Mann dem echten Israel Kamakawiwo´ole nicht sonderlich ähnlich.

Im Allgemeinen kann man sagen, dass generative KI noch einige Probleme hat, Menschen realistisch darzustellen. Oftmals sind Gesichter und Hände fehlerhaft dargestellt. Manchmal so, dass manche Bildabschnitte für das menschliche Auge keinen Sinn ergeben.

Man kann den Unterschied meistens also noch gut erkennen.

Meinung der Redaktion

Jan Stahnke

Wo liegt das Problem? Das Problem ist, dass das Bild nicht als KI-Werk gekennzeichnet ist und somit Verwirrung stiften könnte. Immerhin ist Israel Kamakawiwo´ole schon 1997 gestorben. Es gibt also keine aktuellen Bilder von ihm. Die Wahrscheinlichkeit ist also hoch, dass in den kommenden Jahren immer mehr Bilder von ihm (oder anderen Künstlern) erstellt werden.

Wenn Google jetzt schon, nur wegen eines Reddit-Beitrages, das »gefälschte« Bild als Top-Ergebnis anzeigt, könnt ihr euch sicher ausmalen, wie Google in einigen Jahren aussehen wird, wenn es so bleibt wie es ist.

Doch dafür gibt es eine einfache Lösung, die Google umsetzen könnte.

Was kann Google tun? Die Lösung ist einfach: Google sollte KI-generierte Inhalte kennzeichnen. Am besten wäre es, wenn obendrein eine Methode entwickelt würde, die KI-generierte Inhalte automatisch erkennt. 

Das könnte durch eigens dafür trainierte KIs geschehen, oder durch Vorgänge, die wenigstens Bildunterschriften und Ähnliches nach Hinweisen auf KI-generierte Inhalte durchsuchen und das Bild auf Google entsprechend markieren.

Wieso ist das nötig? Momentan stehen wir noch am Anfang des KI-Booms und jetzt wissen wir noch, wie man generierte Bilder von echten unterscheidet. Doch je weiter die Jahre voranschreiten werden, desto wahrscheinlicher ist es, dass generative Technik immer besser und somit weniger gut zu erkennen sein wird.

Das Bild von berühmten Personen in den Köpfen der Menschen könnte sich mit der Zeit also so ändern, dass einige nur noch KI-generierte Bilder von echten Menschen kennen.

Wäre das so schlimm? Das muss wohl jeder für sich entscheiden. Ich persönlich halte nichts von dem Gedanken, in Zukunft dreimal hinsehen zu müssen, wenn ich wissen will, wie jemand aussieht oder mal ausgesehen hat.

Wie seht ihr das? Schreibt uns eure Meinung gerne unten in die Kommentare!

zu den Kommentaren (7)

Kommentare(7)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.