Hin und wieder hinterlässt uns die Technologiebranche lustige Nachrichten, weil sie so surreal sind. Derzeit sind auf künstlicher Intelligenz basierende Entwicklungen in unserem täglichen Leben weit verbreitet. Es war also nur eine Frage der Zeit, bis etwas Ähnliches auftauchte. Ein Gesetz in Minnesota, das KI-generierte realistische Inhalte – auch bekannt als „Deepfakes“ – angreift, könnte von einer KI verfasst worden sein.
Eine KI hätte Minnesotas „Anti-Deepfake-Gesetz“ schreiben können
Das betreffende Gesetz trägt den Titel „Einsatz von Deep-Fake-Technologie zur Beeinflussung einer Wahl.“ Ironischerweise wird es kritisiert, weil es in seinen Inhalten Spuren generativer KI aufweist. In der Berufung wird das Verfassen von Absätzen mit AI nicht erwähnt. Allerdings gibt es Zitate auf Studien, die es tatsächlich nicht gibt.
Möglicherweise sind die genannten Studien das Ergebnis der Halluzinationen der KI-Plattform. In der künstlichen Intelligenz sind „Halluzinationen“ Teile falscher Informationen oder direkt vom Dienst „erfundene“ Informationen. KI-Chatbot-Entwickler arbeiten hart daran, diese auf ein Minimum zu reduzieren, um eine möglichst genaue Ausgabe zu liefern. Allerdings kommt es immer noch zu einem kleinen Prozentsatz ungenauer Antworten aufgrund von Halluzinationen.
Zitate auf nicht existierende Quellen könnten das Ergebnis von KI-Halluzinationen sein
Wie The Minnesota Reformer berichtete, forderte der Richter in diesem Fall, General Keith Ellison, Jeff Hancock, Gründungsdirektor des Stanford Social Media Lab, auf, sich dem Gesetz zu unterwerfen. Es stellte sich jedoch bald heraus, dass sich unter den Zitaten nicht vorhandene Studien befanden. Das Dokument zitierte Studien wie „Der Einfluss von Deepfake-Videos auf politische Einstellungen und Verhalten”aus dem Journal of Information Technology & Politics. Es gibt keine Aufzeichnungen über eine solche Studie.
Ein weiteres Zitat: „Deepfakes und die Illusion der Authentizität: Kognitive Prozesse hinter der Akzeptanz von Fehlinformationen“ existiert ebenfalls nicht. „Das Zitat weist die Merkmale einer „Halluzination“ künstlicher Intelligenz (KI) auf, was darauf hindeutet, dass zumindest das Zitat von einem großen Sprachmodell wie ChatGPT generiert wurde„, argumentieren die Anwälte von Mary Franson – Vertreterin des Bundesstaates Minnesota – und Mr. Reagan, einem konservativen YouTuber.
„Die Kläger wissen nicht, wie diese Halluzination in Hancocks Erklärung mündete, aber sie stellt das gesamte Dokument in Frage, insbesondere wenn ein Großteil des Kommentars keinerlei Methodik oder analytische Logik enthält“, heißt es in der Berufung auf das Gesetz.