Grok AI erzeugt trotz neuer Beschränkungen nicht einvernehmliche Bilder

Oscar

Wenn es um KI-Sicherheit geht, spricht man oft von hypothetischen Risiken. Eine aktuelle praktische Untersuchung hat jedoch ein viel dringlicheres Problem zutage gefördert. Trotz Behauptungen über neue Beschränkungen zeigen von Reuters-Reportern durchgeführte Tests, dass Elon Musks Chatbot Grok immer noch „zeitweise“ seine eigenen Sicherheitsprotokolle umgeht, wenn er dazu aufgefordert wird, ohne deren Zustimmung sexualisierte Bilder von echten Menschen zu erstellen.

Bei dem Experiment luden neun Reporter Fotos von sich selbst hoch und baten den Bot um bestimmte Änderungen. In ihren Eingabeaufforderungen erstellten sie fiktive Szenarien und teilten der KI mit, dass die Personen auf den Fotos keine Erlaubnis erteilt hatten oder besonders gefährdet seien. Während der ersten Testrunde Mitte Januar erzeugte Grok in 45 von 55 Fällen sexualisierte Bilder. In einer zweiten Runde von 43 Anfragen später in diesem Monat sank die Erfolgsquote für diese Anfragen auf 29 Fälle. Es bleibt jedoch unklar, ob dies auf Modellaktualisierungen oder Zufälligkeit zurückzuführen war.

Die Ergebnisse stehen im Gegensatz zum Verhalten anderer großer KI-Modelle. Als Reporter die gleichen oder nahezu identischen Eingabeaufforderungen über Gemini von Alphabet, ChatGPT von OpenAI und Llama von Meta laufen ließen, lehnten alle drei Plattformen die Produktion der Bilder ab. Diese rivalisierenden Bots reagierten in der Regel mit Warnungen und erklärten, dass die Bearbeitung des Erscheinungsbilds einer Person ohne deren Erlaubnis gegen ethische und Datenschutzrichtlinien verstoße, die darauf abzielen, Ärger oder Schaden zu verhindern.

In einigen spezifischen Tests mit Grok erzeugte der Bot weiterhin Bilder, selbst nachdem ihm mitgeteilt wurde, dass die Person Opfer eines Missbrauchs sei oder über die Ergebnisse beunruhigt sei. Auf die Frage nach diesen Vorfällen lieferte xAI keine detaillierte technische Erklärung. Der Chatbot bot stattdessen eine Standardantwort an. In den Fällen, in denen Grok eine Anfrage ablehnte, wurde manchmal eine allgemeine Fehlermeldung ausgegeben. In einigen Fällen wurde auch eine Meldung veröffentlicht, in der es hieß, dass ohne ausdrückliche Zustimmung keine Bilder des Körpers einer Person erstellt würden.

Regulierungsbehörden auf der ganzen Welt haben auf diese Ereignisse reagiert. Beamte im Vereinigten Königreich prüfen, ob diese Art von Ausgaben dem Online Safety Act von 2023 entsprechen. Letzteres birgt potenzielle Bußgelder für Unternehmen, die ihre Werkzeuge nicht überwachen. In den Vereinigten Staaten haben 35 Generalstaatsanwälte xAI um Aufklärung über seine Präventionsmaßnahmen gebeten. Der kalifornische Generalstaatsanwalt hat sogar eine Unterlassungserklärung bezüglich der Erstellung nicht einvernehmlicher expliziter Bilder herausgegeben.

X kündigte Beschränkungen an, um Grok daran zu hindern, in öffentlichen Beiträgen sexualisierte Bilder zu erzeugen. Der Reuters-Bericht legt jedoch nahe, dass die private Chatbot-Schnittstelle diese Inhalte unter bestimmten Bedingungen immer noch produzieren kann. Dies hat zu einer vorsichtigen Reaktion der Europäischen Kommission geführt, die derzeit die Wirksamkeit dieser Änderungen im Rahmen einer laufenden Untersuchung der Plattform bewertet.

Derzeit stehen KI-Entwickler immer mehr unter Druck, zu zeigen, dass ihre Filter funktionieren. xAI muss nachweisen, dass ihre „ungefilterte“ Philosophie mit den Datenschutz- und Einwilligungsregeln übereinstimmt, die die Regulierungsbehörden verlangen.