YouTube wird bald gegen KI-generierte Deepfakes mit Gewalt vorgehen

Oscar

YouTube führt neue Maßnahmen ein, um der Zunahme von KI-generierten Deepfakes entgegenzuwirken, die verstorbene Minderjährige oder Opfer gewaltsamer Ereignisse „realistisch simulieren“ und ihren Tod beschreiben. Die Richtlinienänderung, die am 16. Januar in Kraft treten soll, zielt darauf ab, Fälle anzugehen, in denen KI verwendet wird, um das Abbild verstorbener oder vermisster Kinder wiederherzustellen.

Ersteller von Inhalten über wahre Kriminalität nutzen KI-Technologien, um minderjährigen Opfern aufsehenerregender Fälle eine synthetische „Stimme“ zu geben, mit der sie die Umstände ihres Todes erzählen können. Der Schritt erfolgt als Reaktion auf beunruhigende KI-Erzählungen über Fälle wie die Entführung und den Tod von James Bulger, das Verschwinden von Madeleine McCann und den Foltermord an Gabriel Fernández.

Werbung

Werbung

YouTube wird Inhalte mit KI-generierten Deepfakes entfernen, die gegen die neuen Richtlinien verstoßen, und Nutzer, die eine Verwarnung erhalten, werden mit einer einwöchigen Einschränkung beim Hochladen von Videos, Live-Streaming oder Geschichten konfrontiert. Bei hartnäckigen Verstößen mit drei Verwarnungen werden die Kanäle dauerhaft von der Plattform entfernt. Diese Initiative ist Teil der umfassenderen Bemühungen von YouTube, Inhalte einzudämmen, die gegen die Belästigungs- und Cybermobbing-Richtlinien der Plattform verstoßen.

Urheber müssen offenlegen, wenn sie veränderte oder synthetische Inhalte verwenden, die realistisch erscheinen

Die Plattform führte einige Monate zuvor aktualisierte Richtlinien zur verantwortungsvollen Offenlegung von KI-Inhalten sowie Tools ein, mit denen die Entfernung von Deepfakes beantragt werden kann. Benutzer müssen offenlegen, wenn sie geänderte Inhalte erstellen, die realistisch erscheinen. Bei Nichteinhaltung drohen Strafen wie die Entfernung von Inhalten, die Sperrung vom YouTube-Partnerprogramm oder andere Disziplinarmaßnahmen. In der Änderung wurde auch erwähnt, dass die Plattform bestimmte KI-generierte Inhalte entfernen wird, wenn sie „realistische Gewalt“ darstellen, selbst wenn sie entsprechend gekennzeichnet sind.

Der Schritt steht im Einklang mit breiteren Branchentrends, die sich mit der verantwortungsvollen Nutzung von KI-generierten Inhalten befassen. Im September 2023 führte TikTok ein Tool ein, mit dem YouTuber ihre KI-generierten Inhalte kennzeichnen können, nachdem seine Richtlinien aktualisiert wurden, die die Offenlegung synthetischer oder manipulierter Medien mit realistischen Szenen vorschreiben.

TikTok behält sich die Befugnis vor, von der KI generierte Bilder zu entfernen, die nicht ordnungsgemäß offengelegt werden. Die Maßnahmen von YouTube und TikTok spiegeln das wachsende Bewusstsein und die Besorgnis über den potenziellen Missbrauch von KI-Technologien wider, insbesondere in sensiblen und potenziell schädlichen Kontexten wie der realistischen Darstellung von Gewalt oder der Ausnutzung tragischer Ereignisse. Gegen Ende letzten Jahres hat Meta außerdem seine Richtlinien aktualisiert, um Deepfake-Werbung während der Wahlen 2024 zu bekämpfen.