Das Anti-Deepfake-Tool von YouTube schürt Datenschutzbedenken hinsichtlich der biometrischen Nachverfolgung

Oscar

YouTube erweitert sein Tracking-Tool, das YouTubern dabei helfen soll, KI-Deepfake-Videos zu identifizieren und zu entfernen, die ihr Abbild missbrauchen. Die Funktion hat jedoch auch Bedenken hinsichtlich des Datenschutzes und der umfassenderen Ambitionen von Google im Bereich der künstlichen Intelligenz geweckt. Das System nutzt biometrisches Tracking, um manipulierte Videos zu identifizieren und zu kennzeichnen. Experten warnen vor einem Zusammenhang mit der unklaren Datenschutzrichtlinie von Google.

Experten warnen vor biometrischer Offenlegung im KI-Deepfake-Tracking-Tool von YouTube

Das Ähnlichkeitserkennungstool von YouTube scannt hochgeladene Videos, um festzustellen, ob das Gesicht eines Erstellers verändert oder synthetisch erzeugt wurde, und ermöglicht ihm so die Entfernung von Videos. Ersteller müssen ihren verifizierten amtlichen Ausweis und ein biometrisches Video einreichen, um die Funktion zu aktivieren. Diese besondere Anforderung hat Experten für geistiges Eigentum beunruhigt. Sie warnen davor, dass Googles umfassendere Datenschutzrichtlinie technisch gesehen öffentliche biometrische Informationen zur Unterstützung des Modelltrainings zulässt.

YouTube hingegen besteht darauf, dass Google diese Daten nie zum Trainieren von KI-Modellen verwendet hat. Kritiker argumentieren, dass die Verknüpfung biometrischer Uploads mit einer allgemeinen Datenschutzrichtlinie Spielraum für künftigen Missbrauch lasse. Firmen wie Vermillio und Loti, die zum Schutz der Ähnlichkeitsrechte beitragen, geben an, dass die Risiken erheblich sind, und raten Urhebern derzeit davon ab, sich für das Ähnlichkeitserkennungssystem anzumelden. Interessanterweise warnen die Unternehmen auch davor, dass die Verknüpfung des Namens eines Urhebers mit hochwertigen biometrischen Proben überzeugendere synthetische Inhalte ermöglichen könnte, was durchaus besorgniserregend ist.

YouTube macht deutlich, dass die Funktion optional sei

YouTube betont, dass die Nutzung dieser Funktion optional ist. Ersteller haben die Möglichkeit, sich nicht anzumelden, wenn sie möchten, und alle Daten sind strikt auf die Identitätsüberprüfung beschränkt. Der Technologieriese fügt außerdem hinzu, dass der Rollout notwendig sei, um der zunehmenden Verbreitung von Deepfake-Videos und deren Missbrauch entgegenzuwirken. Der beliebte YouTuber und Arzt Mikhail Varshavski, bekannt als Doctor Mike, sagt, dass er jede Woche Dutzende von KI-generierten Videos rezensiert, von denen einige unter Verwendung seines Bildes falsche medizinische Behauptungen verbreiten.

KI-Tools wie Veo 3 und Gemini werden immer weiter entwickelt. Die neueste Version dieser Tools ist so leistungsstark, dass es fast unmöglich ist, das von der KI generierte Ergebnis auf den ersten Blick zu erkennen. Wie auch immer, die aktuelle Anmelderate für das Ähnlichkeitserkennungssystem von YouTube ist niedrig. Dies zeigt, dass die Ersteller noch nicht sicher sind, ob sie die Funktion nutzen können. Befürworter sagen, dass Urheber die Vorteile des Schutzes gegen die langfristigen Risiken der Weitergabe biometrischer Daten abwägen müssen.