Erst vor wenigen Tagen hat Google den Bildgenerator in Gemini gestartet, der zwar recht überzeugende Ergebnisse ausspucken soll, aber dennoch aufgrund eines unerwarteten Problems zum Teil zurückgezogen werden musste. Der Bildgenerator kann derzeit keine Bilder von Menschen erzeugen und jetzt erklärt Google, was schiefgelaufen ist bzw. woran man arbeiten möchte.
Man kennt die berühmte Aussage des „alten weißen Mannes“, bei dem jüngere Ansichten, dunkle Hautfarben und nicht-männliche Geschlechter schnell in die Minderheit geraten. Viele Unternehmen, sowohl in den USA als auch Europa, wollen dem entgegenwirken und setzen auf Vielfalt bei Geschlechtern, Hautfarben und Alter. Das ist natürlich zu begrüßen, aber so manche Aktivitäten schießen über das Ziel hinaus – was wiederum für Diskussionen sorgt. Auf einen gemeinsamen Nenner wird man in dieser Sache sicherlich nur schwer kommen können.
Google wollte dem sicherlich aus dem Weg gehen und dafür sorgen, dass der Gemini-Bildgenerator nicht nur alte weiße Männer produziert, sondern eine Vielfalt aller Menschen zeigt. Doch auch dabei scheint man über das Ziel hinausgeschossen zu sein, wie sich in den letzten Tagen in vielen Medien und empörten Reaktionen gezeigt hat. Denn immer wenn Gemini Menschen darstellen sollte, hatten diese keine weiße Hautfarbe. Aber auch andere ethnische Merkmale, Hautfarben, Haarfarben, Geschlechter,… stellten nur wenige Nutzer zufrieden.
Google hat schnell darauf reagiert und Gemini in diesem Bereich sofort in die Schranken gewiesen. Der KI-Bildgenerator ist seit einigen Tagen nicht in der Lage, Menschen zu erstellen. Doch man will diese Sperre schnell wieder aufheben können und hat bereits die Schwachstellen erkannt sowie interne Maßnahmen gesetzt.
It's embarrassingly hard to get Google Gemini to acknowledge that white people exist pic.twitter.com/4lkhD7p5nR
— Deedy (@debarghya_das) February 20, 2024
Googles Statement
…wenn Sie Gemini nach Bildern einer bestimmten Art von Person fragen – etwa „einem schwarzen Lehrer in einem Klassenzimmer“ oder „einem weißen Tierarzt mit einem Hund“ – oder nach Menschen in einem bestimmten kulturellen oder historischen Kontext, sollten Sie unbedingt eine Antwort erhalten das spiegelt genau wider, was Sie verlangen.
So soll es zu den Problemen gekommen sein
- „…unsere Abstimmung, um sicherzustellen, dass Gemini eine Reihe von Personen anzeigt, hat Fälle nicht berücksichtigt, die eindeutig keine Reihe anzeigen sollten.“
„…im Laufe der Zeit wurde das Modell viel vorsichtiger als wir beabsichtigt hatten und weigerte sich, bestimmte Eingabeaufforderungen vollständig zu beantworten – und interpretierte einige sehr harmlose Eingabeaufforderungen fälschlicherweise als sensibel.“
Ich denke, dass das eine ganz schwere Gratwanderung ist, die immer wieder für Diskussionen sorgen wird. Googles Übervorsichtigkeit ist aber auch nachvollziehbar: Unvergessen bleiben die zurückliegenden Geschichten, bei denen dunkelhäutige Menschen von Google Fotos als Gorilas erkannt wurden sowie die Probleme mit der Gesichtserkennung, der Bildbearbeitung und mehr.