Vor ein paar Tagen veröffentlichte das Segment der künstlichen Intelligenz eine der kuriosesten Geschichten, die in letzter Zeit aufgetaucht sind. Offenbar wiesen die Argumente für ein „Anti-KI“-Gesetz Anzeichen dafür auf, dass sie von KI generiert wurden. Nun gab der Hauptverteidiger des Gesetzes zu, ChatGPT in seinen Gerichtsakten verwendet zu haben.
Der Hintergrund der Anfechtung des „Anti-KI“-Gesetzes von Minnesota
Das Gesetz, genannt „Einsatz von Deep-Fake-Technologie zur Beeinflussung einer Wahl“ und in Minnesota präsentiert wird, steht vor einer Herausforderung. Jeff Hancock, Gründungsdirektor des Stanford Social Media Lab und Desinformationsexperte, brachte eine Reihe von Argumenten für die Gesetzgebung vor. Um fair zu sein, zielt das Gesetz nur auf Deepfake-fokussierte Plattformen ab, nicht auf künstliche Intelligenz als Ganzes. Es zielt auf Dienste der künstlichen Intelligenz ab, die in der Lage sind, realistische Inhalte zu produzieren, die Verwirrung stiften können.
Christopher Khols, ein konservativer YouTuber, und Mary Franson, eine Vertreterin des Bundesstaates Minnesota, treiben die Anfechtung des Gesetzes voran. Sie entdeckten bestimmte Muster der KI-Nutzung im Zitatteil von Hancocks Akte. Genauer gesagt enthält der Zitierabschnitt von Hancocks Unterlagen Verweise auf Quellen und Studien, die nicht existieren. Alle Beweise deuten darauf hin, dass diese fiktiven Zitate das Ergebnis von Halluzinationen künstlicher Intelligenz waren. Daher beantragte der Kläger den Ausschluss des Dokuments aus dem Verfahren wegen Unzuverlässigkeit.
Der Gerichtsantrag zugunsten des Gesetzes enthält Abschnitte, die von ChatGPT erstellt wurden
Als Reaktion darauf hat Jeff Hancock zugegeben, dass er in seinen Gerichtsakten tatsächlich ChatGPT verwendet hat. Allerdings beteuert er, dass er für die Ausarbeitung seiner Argumente nicht den Dienst von OpenAI in Anspruch genommen habe. „Ich habe den Inhalt der Erklärung verfasst und überprüft, und ich stehe fest hinter jeder der darin gemachten Behauptungen, die alle durch die neueste wissenschaftliche Forschung auf diesem Gebiet gestützt werden und meine Meinung als Experte hinsichtlich der Auswirkungen der KI-Technologie widerspiegeln zu Fehlinformationen und ihren gesellschaftlichen Auswirkungen,“, erklärte er.
Warum hat Hancock dann ChatGPT verwendet? Laut seiner neuesten Einreichung nutzte er ChatGPT, um den Zitierabschnitt des Dokuments zu verbessern. Er behauptet, er habe den KI-Dienst genutzt „um Artikel zu identifizieren, die wahrscheinlich für die Erklärung relevant wären, damit ich das, was ich bereits wusste, mit neuen wissenschaftlichen Erkenntnissen zusammenführen konnte.“
Hancock sagte, er habe nicht die Absicht gehabt, das Gericht in irgendeiner Weise in die Irre zu führen und entschuldigte sich:für etwaige Verwirrung (der Einsatz von KI)..“ Er stehe jedoch zum gesamten Inhalt des Dokuments. Allerdings hat Hancock ein Problem, da die Erkennung von KI in einem der Abschnitte der Akte den restlichen Inhalt zweifelhaft machen könnte. Alles wird davon abhängen, wie der Richter die Erklärungen des Desinformationsexperten aufnimmt.