Das KI-Tool von Meta erstellt fälschlicherweise Bilder von Paaren gemischter Abstammung

Oscar

Der KI-Bildgenerator von Meta ist nicht in der Lage, genaue Bilder für relativ einfache Eingabeaufforderungen zu generieren. In einem neuen Bericht erwähnte The Verge, dass der KI-Bildgenerator von Meta Bilder eines asiatischen Mannes mit einer weißen Frau ungenau generierte, selbst wenn die Eingabeaufforderungen mehrmals angepasst wurden.

Der KI-Generator von Meta schafft es immer wieder nicht, genaue Bilder eines asiatischen Mannes und einer asiatischen Frau zu erstellen

Den Ergebnissen des Berichts zufolge war die KI von Meta durchweg nicht in der Lage, genaue Bilder zu erstellen, was auf eine Voreingenommenheit gegenüber Menschen einiger Rassen hindeutet. Das KI-Bildgenerator-Tool in Instagram hat für einfache Eingabeaufforderungen wie z. B. ungenaue Bilder erstellt Asiatischer Mann und kaukasischer Freund oder Asiatischer Mann und weiße Frau. Dies geschah mehrmals, obwohl in der Eingabeaufforderung ausdrücklich erwähnt wurde, dass ein bestimmtes Bild erstellt werden soll.

Darüber hinaus erwähnt The Verge, dass der Meta AI-Bildgenerator von allen Versuchen mit der Eingabeaufforderung nur ein Bild erfolgreich erstellen konnte „Asiatische Frau mit kaukasischem Ehemann.“ Allerdings war das Bild nicht so genau, da das von der KI generierte Bild einen älteren Mann und eine junge Frau mit heller Hautfarbe zeigte, was auf eine Voreingenommenheit hindeutet.

Nur eines von zehn KI-generierten Bildern war korrekt

Auch Engadget berichtete über Ähnliches und stellte fest, dass nur eines von zehn Bildern die Aufforderung widerspiegelte. Die anderen neun KI-generierten Bilder zeigten neun weiße Gesichter. Bemerkenswert ist, dass der KI-Bildgenerator von Meta häufig kulturspezifische Kleider hinzufügte, obwohl dies in der schriftlichen Aufforderung nicht erwähnt wurde.

Es ist immer noch nicht klar, warum das KI-Image von Meta diese Art von Eingabeaufforderungen nicht reproduzieren kann. Dies ist jedoch nicht das erste Mal, dass der KI-Bildgenerator von Meta kontrovers diskutiert wird. Letztes Jahr stieß das KI-Tool zur Erstellung von Aufklebern auf Gegenreaktionen, nachdem Leute NSFW-Bilder und Nintendo-Charaktere mit Schusswaffen erstellt hatten.

Dies ist jedoch nicht das erste Mal, dass ein KI-Tool es nicht schafft, Bilder basierend auf Rasse und Geschlecht zu erstellen. Im Februar pausierte Google das Bildgenerator-Tool von Gemini AI, nachdem es zu heftigen Reaktionen wegen ungenau erstellter Bilder in derselben Angelegenheit gekommen war.

Meta hat vorerst keine Erklärung zu ungenau generierten KI-Bildern abgegeben. In der Vergangenheit wurde jedoch darauf bestanden, dass sich die KI-Tools im Beta-Stadium befänden und Fehler machen könnten.