Google DeepMind führt Tool zur Erkennung von KI-generiertem Text ein

Oscar

Im KI-Zeitalter haben die Themen Urheberrecht und Inhaltslegitimität große Aufmerksamkeit erhalten. Ob es darum geht, festzustellen, ob ein Inhalt mit Genehmigung für KI-Schulungen verwendet wurde oder ob ein realistisches Bild/Video durch künstliche Intelligenz generiert wurde, Tools zur Erkennung der Legitimität von Inhalten sind in der Branche von entscheidender Bedeutung. Google DeepMind hat jetzt ein textfokussiertes KI-Wasserzeichen-Tool eingeführt.

SynthID, das Wasserzeichen-Tool von Google DeepMind, das sich auf die Erkennung von KI-generiertem Text konzentriert

Das neue Tool namens SynthID wurde entwickelt, um von Googles Gemini-Modellen generierten Text zu erkennen. DeepMind, die Unternehmensabteilung, die sich ausschließlich auf KI-basierte Entwicklungen konzentriert, hat sie jedoch für Drittentwickler geöffnet. Dies bedeutet, dass jedes auf KI fokussierte externe Unternehmen die Ressourcen und APIs von SynthID nutzen kann, um die Texterkennung durch eigene Entwicklungen zu ermöglichen.

SynthID ergänzt ähnliche DeepMind-Tools, die zur Identifizierung von KI-generierten Bildern, Musik und Videos entwickelt wurden. Dabei werden geringfügige Änderungen am analysierten Text vorgenommen, um die probabilistische Ausgabe des Modells zu ändern. Anschließend wird der Originaltext direkt mit der geänderten Version verglichen, um eine Ausgabe zu erhalten. Im Grunde bestimmt es, wie wahrscheinlich es ist, dass ein bestimmtes KI-Modell (wie Gemini) bestimmte im Text vorhandene Zeichenfolgen aus Wörtern, Sätzen und Absätzen generiert.

Google DeepMind behauptet, dass sein KI-Wasserzeichen-Tool darauf achtet, nicht zu viele Änderungen am Originaltext vorzunehmen. Ein deutlich vom Original abweichender Eintrag kann die Vergleichsergebnisse möglicherweise verfälschen. Das Überschreiten dieser schmalen Grenze könnte möglicherweise die Gültigkeit der Ausgabe beeinträchtigen. Googles KI-Abteilung behauptet jedoch, es unter Kontrolle zu haben.

DeepMind-Tests stellen die Authentizität der Ergebnisse sicher

Um sicherzustellen, dass SynthID bei der Änderung des ursprünglichen Textinhalts nicht zu weit ging, führte DeepMind Tests mit menschlichem Input durch. Die KI-Abteilung von Google schickte rund 20 Millionen von Gemini generierte Textpassagen an Menschen. Einige Personen erhielten den generierten Textinhalt in seiner ursprünglichen Form, während andere denselben Inhalt erhielten, der von SynthID für die Erkennungstests modifiziert wurde. Die Ergebnisse zeigten, dass alle Textpassagen, ob original oder modifiziert, praktisch nicht unterscheidbar waren.

Die Tatsache, dass SynthID Open Source ist, ist großartig, aber es gibt auch einige Nachteile, die man berücksichtigen muss. Beispielsweise könnten Kriminelle damit lernen, wie sie KI-generierte Tools zur Inhaltserkennung umgehen können. Sie könnten dieses Wissen nutzen, um KI-Tools zu entwickeln, die Text generieren, der für Wasserzeichen-Tools nicht erkennbar ist. Wir gehen jedoch davon aus, dass auch DeepMind sich dessen bewusst ist und vorbereitet ist.