Meta möchte, dass Sie offenlegen, wann Sie KI-Inhalte veröffentlichen, andernfalls werden diese möglicherweise entfernt

Oscar

Es lässt sich nicht vermeiden; KI-generierte Inhalte überschwemmen das Internet nahezu. Unternehmen wie Google und Adobe möchten es einfacher machen, zu erkennen, wann Inhalte mit KI generiert werden. Laut einem neuen Bericht möchte Meta, dass Benutzer offenlegen, wann sie KI-Inhalte veröffentlichen. Wenn nicht, besteht die Gefahr, dass es entfernt wird.

Es ist schwer, irgendwo im Internet zu surfen, ohne KI-Inhalte zu sehen. Instagram ist voll von KI-generierten Bildern, YouTube ist voll von KI-generierten Videos usw. Aus diesem Grund suchen Unternehmen nach Tools, um besser zu erkennen, ob Inhalte synthetisch sind.

Google verfügt über ein Wasserzeichensystem namens SynthID, um zu erkennen, wenn Personen mithilfe des Bildgenerators Inhalte erstellen. Das Unternehmen weitete dies auch auf Audiodateien aus. Meta verfügt außerdem über ein Wasserzeichensystem, das auf Bilder angewendet wird, die mit dem Imagine AI-Generator erstellt wurden. Einige KI-generierte Medien sind offensichtlich KI-generiert, aber viele der heutzutage veröffentlichten Inhalte können die Massen täuschen.

Das ist schon ein Problem. Allerdings ist 2024 ein Wahljahr, und das macht KI zu einem fruchtbaren Nährboden für Fehlinformationen und irreführende Bilder. Aus diesem Grund ist es wichtig, dass diese Unternehmen die Identifizierung von KI-Inhalten erleichtern.

Meta möchte, dass Benutzer offenlegen, ob sie KI-Inhalte veröffentlichen

Meta besitzt Facebook, Instagram und Threads. Dies sind drei Anwendungen, die eine Menge KI-generierter Inhalte gesehen haben. Es geht so weit, dass die Leute befürchten, dass es diese Plattformen überschwemmen wird. Meta arbeitet an Tools, mit denen Menschen erkennen können, wann KI zur Erstellung von Inhalten verwendet wurde. Es wird auf Inhalte angewendet, die mit Google, Adobe, MidJourney usw. erstellt wurden. Die Entwicklung von Tools, die künstlich erstellte Inhalte erkennen, ist eine große Herausforderung.

Nun, das Unternehmen bittet die Verfasser der Beiträge um Hilfe, um KI-Inhalte zu identifizieren. Das Unternehmen wird damit beginnen, von den Leuten eine Offenlegung zu verlangen, wenn der Inhalt mit KI erstellt wurde. Wenn sie dies nicht tun und Meta erkennt, dass es KI-generiert ist, könnte der Ersteller mit Konsequenzen rechnen. Nick Clegg, Metas Präsident für globale Angelegenheiten, sagte, dass, wenn ein Benutzer seine KI-Inhalte nicht offenlegt, „die Palette der anzuwendenden Strafen die gesamte Bandbreite von Warnungen bis hin zur Entfernung umfasst“.

Das ist ein Schritt in die richtige Richtung

Die Unternehmen, die uns die Tools zur Erstellung von KI-generierten Inhalten liefern, stellen uns nun Tools zur Verfügung, die uns bei der Identifizierung der Inhalte helfen. Dies ist definitiv ein Schritt in die richtige Richtung, da nicht abzusehen ist, welche Auswirkungen generischer KI-Kontakt auf die Tech-Community haben wird. Klar, harmlose Social-Media-Beiträge und AI-Filter-Selfies sind nicht schädlich. Es könnte jedoch schwerwiegende Folgen haben, wenn KI-generierte Inhalte zu real werden.

Wir haben bereits gesehen, dass KI dazu verwendet wird, Persönlichkeiten des öffentlichen Lebens nachzuahmen und sie dazu zu bringen, unappetitliche Dinge zu tun oder zu sagen. Ein Beispiel ist die aktuelle Kontroverse um die KI-Generator-Pornografie von Taylor Swift.

Diese Inhalte ordnungsgemäß überwachen zu können, ist eines der wichtigsten Dinge, die Technologieunternehmen tun können. Wenn sie dabei den Ball fallen lassen, müssen wir einfach abwarten und die Konsequenzen auf die harte Tour herausfinden