Anscheinend wurden Millionen von Redditoren in ein geheimes künstliches Experiment aufgenommen. Die Forscher erhielten weder das Wissen noch die Zustimmung von Redditors für dieses Experiment. Ein Thread zu Reddit hat kürzlich dieses Experiment enthüllt und im Internet Empörung ausgelöst und eine ziemlich heftige Debatte über die Ethik, die Einwilligung der Daten und die Verantwortung von Tech -Forschern wieder entfacht.
Diese Studie wurde von Forschern aus Stanford und der University of Pennsylvania durchgeführt. Dies verwendete Reddit als Live-Tests, um zu bewerten, wie AI-generierte Inhalte reale Benutzer beeinflussen würden. In dieser Studie wurden über 47 Millionen Beiträge und Kommentare analysiert, und die Antworten von Ai-Generierten wurden heimlich in Reddit-Threads injiziert, um zu beobachten, wie Benutzer mit ihnen interagierten.
Für die Überraschung gibt es über dieses Experiment viel Gegenreaktion, wobei Kritiker behaupten, dass dies eine klare Verstoß gegen ethische Standards darstellt, insbesondere in Bezug auf die Einverständniserklärung und die Autonomie der Benutzer.
„Unsachgemäßes und sehr unethisches Experiment, das sowohl auf moralischer als auch auf rechtlicher Ebene zutiefst falsch ist.“
-Ben Lee, Chief Legal Officer bei Reddit
Dies ist eine komplexe Situation aufgrund der Grauzone zwischen öffentlichen Daten und ethischer KI -Verwendung
Wir haben seit Monaten berichtet, wie KI -Unternehmen alles verwenden, was überall im Internet veröffentlicht wird, um ihre Chatbots zu schulen. Einschließlich des Diebstahls von Websites wie diesem. Und das ist ein Teil dessen, was dies zu einer komplexen Situation macht.
Sie sehen, es gibt ethische KI -Daten, die verwendet werden können, aber es gibt auch öffentliche Daten, von denen Reddit -Beiträge als zutreffend angesehen werden. Dies bedeutet jedoch nicht, dass Redditors ‚zugestimmt haben, Teil eines Verhaltensexperiments zu sein. Insbesondere nicht eine, die mit A-generierten Manipulationen verbunden ist.
Die Forscher dieser Studie haben eine Erklärung veröffentlicht und auch eine Beschreibung der Forschung gegeben:
In den letzten Monaten haben wir mehrere Konten für Posts verwendet, die auf CMV veröffentlicht wurden. Unser Experiment bewertete die Überzeugungskraft von LLM in einem ethischen Szenario, in dem Menschen nach Argumenten gegen Ansichten bitten, die sie haben. Beim Kommentieren haben wir nicht bekannt gegeben, dass eine KI verwendet wurde, um Kommentare zu schreiben, da dies die Studie unmöglich gemacht hätte. Obwohl wir selbst keine Kommentare geschrieben haben, haben wir jeden Kommentar manuell geprüft, um sicherzustellen, dass sie nicht schädlich waren.
Wir erkennen an, dass unser Experiment die Community-Regeln gegen AI-generierte Kommentare gebrochen und entschuldigt. Wir glauben jedoch, dass es angesichts der hohen gesellschaftlichen Bedeutung dieses Themas entscheidend war, eine solche Studie durchzuführen, auch wenn dies bedeutete, den Regeln nicht zu gehorchen.
Diese Gruppe von Forschern bat darum, anonym zu bleiben. Wir haben auch erfahren, dass die zur Veröffentlichung dieser AI-generierten Inhalte erstellten Konten als Vergewaltigungsopfer, Trauma-Berater, die sich auf Missbrauch spezialisiert haben, ein schwarzer Mann, der sich gegen die Schwarze Lives Matter widersetzt, unter anderem. Alle diese Berichte wurden ausgesetzt und viele der Kommentare wurden von Reddit gelöscht.
„Dies ist eine der schlimmsten Verstöße gegen die Forschungsethik, die ich je gesehen habe.“
-Capey Fiesler, ein Informationswissenschaftler an der Universität von Colorado
Fiesler stellte weiter auf Bluesky, dass „Menschen in Online -Communities mit Täuschung ohne Zustimmung kein„ geringes Risiko “sind und, wie der Diskurs in diesem Reddit -Post beweist, zu schädigen.“
Wie Sie vielleicht erwartet haben, dreht sich das Hauptthema im Reddit -Thread darüber.