Ein Microsoft-Ingenieur warnt, dass Image Designer schädliche Inhalte erstellen kann

Oscar

Wir alle kennen KI-Bildgeneratoren und wissen, was sie zu einer Bedrohung macht. Es scheint jedoch, dass KI-Unternehmen nicht daran arbeiten, sie so sicher zu machen, wie sie versprechen. Ein Microsoft-Ingenieur ist Image Designer, der schädliche Inhalte produziert.

Der fragliche Ingenieur heißt Shane Jones. Er arbeitet seit sechs Jahren für Microsoft und testet als Red Teamer den Copilot Image Designer. Im Hinblick auf die KI bedeutet Red Teaming im Grunde, dem KI-Modell Eingabeaufforderungen zuzuführen, damit es schädliche Inhalte generiert. So kann ein Unternehmen erkennen, wo sein Modell verbessert werden könnte.

Ein Microsoft-Ingenieur warnt, dass Copilot Image Designer schädliche Inhalte generieren kann

Angeblich sollten sich OpenAI und Microsoft in dieser Hinsicht die Schuld teilen. Copilot Image Designer verwendet das DALL-E 3 AI-Modell von OpenAI.

Shane Jones besteht seit langem darauf, dass Microsoft seinen Image Designer für eingehende Tests herunterfährt. Beim Testen des Bildgenerators gelang es Jones, einige ziemlich schockierende Bilder zu erzeugen.

Dem Bericht zufolge war er mit dem Tool in der Lage, Bilder von minderjährigem Alkoholkonsum, minderjährigem Drogenkonsum, sexualisierten Bildern von Frauen, Teenagern mit Sturmgewehren und anderen aufrüttelnden Bildern zu produzieren. „Es war ein augenöffnender Moment“, sagte Jones in einem Interview mit CNBC.

Er versucht, mit den Unternehmen zu kommunizieren

Seitdem hat er mehrere Versuche unternommen, Microsoft zu kontaktieren, damit der Bildgenerator zur Bearbeitung heruntergefahren wird. „In den letzten drei Monaten habe ich Microsoft wiederholt aufgefordert, Copilot Designer aus der öffentlichen Nutzung zu entfernen, bis bessere Sicherheitsvorkehrungen getroffen werden können.“

Zu diesem Zeitpunkt verwies Microsoft ihn an OpenAI. Leider herrschte bei OpenAI Funkstille. Danach veröffentlichte er einen offenen Brief an LinkedIn, in dem er den Vorstand von OpenAI aufforderte, DALL-E 3 für weitere Untersuchungen zu entfernen. Zu diesem Zeitpunkt war klar, dass keines der beiden Unternehmen etwas mit seinen Anfragen zu tun haben wollte. Die Rechtsabteilung von Microsoft forderte Jones auf, den Beitrag zu entfernen, was er auch tat. Jones war jedoch noch nicht fertig.

Diesen Mittwoch schickte Jones einen Brief an die FTC-Vorsitzende Nina Khan und den Vorstand von Microsoft. In dem Brief wurde gefordert, dass Microsofts Sozial- und Politikausschuss die Entscheidungen und das Management der Rechtsabteilung untersucht. Außerdem möchte Jones, dass das Unternehmen „eine unabhängige Überprüfung des Microsoft-Prozesses zur Meldung verantwortungsvoller KI-Vorfälle“ einleitet.

Jones kämpft weiterhin dafür, die Nachricht zu verbreiten, dass DALL-E 3 zusammen mit Copilot Image Designer möglicherweise fehlerhaft sein könnte. Es könnte sehr einfach sein, mit dem Tool schädliche Inhalte zu produzieren.