Google gibt zu, dass der Bildgenerator von Gemini „das Ziel verfehlt“ hat

Oscar

Google geriet diese Woche heftig unter Beschuss wegen des Gemini-Chatbots des Unternehmens, der ethnisch unterschiedliche Bilder erstellt, auch wenn dies keinen Sinn ergeben würde. Dies führte dazu, dass Nutzer in den sozialen Medien Gemini als „absurd aufgewacht“ bezeichneten und konservative Medien Google und seinen Assistenten für künstliche Intelligenz kritisierten. Für diejenigen, die es nicht kennen: Gemini ist Googles KI-basierter Chatbot und war früher als Bard bekannt. Das Unternehmen strebt danach, dass Gemini den Google Assistant ersetzt, und möchte mit ChatGPT konkurrieren. Ein Teil dieser Bemühungen umfasste kürzlich die Hinzufügung eines Bildgenerators zu Gemini durch Google.

Aber die Neigung des Bildgenerators, als Reaktion auf nicht zusammenhängende Aufforderungen ethnisch unterschiedliche Bilder zu erstellen, erregte unerwünschte Aufmerksamkeit. Um es klarzustellen: Es gibt kein Problem damit, dass Zwillinge aus abstrakten Eingabeaufforderungen vielfältige Bilder erstellen. Gemini erzeugte jedoch weiterhin Bilder, die vielfältig waren, auch wenn sie angesichts der ursprünglichen Aufforderung keinen Sinn ergaben. Beispielsweise wurden Gemini in viralen Aufforderungen aufgefordert, Bilder eines Nazi-Soldaten aus dem Zweiten Weltkrieg zu erstellen, und die resultierenden Bilder waren ethnisch vielfältig. In einer solchen Situation wäre es historisch gesehen vernünftig zu erwarten, dass Zwillinge Bilder schaffen, die überwiegend weiße Menschen zeigen.

Google hat seinen Fehler in einem bestätigt Kontoauszug an X gesendet Am Mittwoch. „Wir arbeiten daran, solche Darstellungen sofort zu verbessern. Die KI-Bildgenerierung von Gemini generiert tatsächlich ein breites Spektrum an Menschen“, sagte das Unternehmen. „Und das ist im Allgemeinen eine gute Sache, denn Menschen auf der ganzen Welt nutzen es. Aber hier fehlt das Ziel.“

Warum erzeugt der Gemini-Bildgenerator von Google viele unterschiedliche Menschen?

Wie Google in seiner Stellungnahme erklärt, ist es wichtig, dass KI-Bildgeneratoren vielfältige Bilder erstellen. Die meisten Eingabeaufforderungen zur Bilderzeugung enthalten keine Bedingungen, die vorschreiben würden, welche Rassen und Ethnien in den Bildern dargestellt werden sollen. Wenn beispielsweise jemand Zwillinge bittet, einfach eine Person zu erschaffen, wäre die Darstellung einer beliebigen Rasse oder ethnischen Zugehörigkeit sinnvoll. Das Problem besteht darin, dass den Zwillingen derzeit das Kontextwissen fehlt, um Menschen mit ethnischen Zugehörigkeiten hervorzubringen, die auf der Grundlage einer bestimmten Eingabeaufforderung sinnvoll sind.

Teilweise war die Empörung darauf zurückzuführen, dass Google aktiv verschiedene Bilder erstellt, was dazu führte, dass rechte Persönlichkeiten und Medien Google als „aufgeweckt“ angegriffen haben. In einer Aufforderung wurde Gemini beispielsweise gebeten, „ein Bild eines US-Senators aus dem 19. Jahrhundert zu erstellen“. Gemini antwortete: „Sicher, hier sind einige Bilder mit verschiedenen US-Senatoren aus dem 19. Jahrhundert.“

Während Google zugibt, dass der Gemini-Bildgenerator „das Ziel verfehlt“, versucht das Unternehmen, rassistische und ethnische Vorurteile bei der künstlichen Intelligenz zu überwinden. Da KI-Modelle mit menschlichen Quellen trainiert werden, kann künstliche Intelligenz die gleichen Vorurteile haben wie Menschen. Durch die aktive Generierung von Menschen mit Vielfalt versucht Google sicherzustellen, dass jahrhundertelange Fortschritte nicht durch KI zunichte gemacht werden.