Die Welt der künstlichen Intelligenz ist selten langweilig. Eine kürzlich durchgeführte Entwicklung mit OpenAI und der New York Times beweist genau das. OpenAI, der Schöpfer von ChatGPT, ist derzeit in einem rechtlichen Kampf eingesperrt, der erhebliche Auswirkungen auf die Privatsphäre der Benutzer und die Umgang mit unseren Daten haben könnte. Im Zentrum von allem steht eine Gerichtsverordnung, in der das Unternehmen auf unbestimmte Zeit Protokolle jedes einzelnen Chatgpt -Gesprächs speichert.
OpenAI Appeals Court Order, das das Unternehmen dazu zwingt, Chatgpt -Chat -Protokolle zu speichern
Die Hintergrundgeschichte beginnt im Dezember 2023. In diesem Jahr reichte die New York Times eine Urheberrechtsverletzungsklage gegen Openai und Microsoft ein. Die Zeitung behauptet, Openai habe illegal Millionen ihrer urheberrechtlich geschützten Artikel verwendet, um seine KI -Modelle auszubilden. Entscheidend ist, dass die Times behauptet, dass der KI -Chatbot manchmal wörtliche Teile ihres Inhalts oder sogar „Halluzinaten“ -Anleitungen erfasst, die ihnen zugeschrieben werden. Diese Praxis hätte das Geschäft des Outlets gemäß der Klage untergraben.
Um diese mutmaßlichen Verstöße zu verfolgen, erteilte das Gericht eine umfassende Anordnung: OpenAI muss alle Chatgpt -Benutzer -Chat -Protokolle und API -Client -Inhalte auf unbestimmte Zeit speichern. Die Argumentation des Richters? Potenzielle Beweise zu verhindern.
Gründe von OpenAI
Diese Entscheidung ist mit OpenAI nicht gut gefallen, was nun gegen die Entscheidung Berufung einleitet. Ihre Argumente gegen die unbestimmte Datenbindung sind stark und facettenreich.
Erstens behauptet OpenAI, dass diese Bestellung ein wesentlicher Verstoß gegen die Privatsphäre des Benutzers sei. Sie argumentieren, dass sie dazu zwingen, unbegrenzt große Mengen persönlicher und potenziell sensibler Chat -Daten zu speichern. OpenAI -CEO hat öffentlich erklärt, dass diese Entscheidung “Kompromisiert die Privatsphäre der Benutzer und legt einen schlechten Präzedenzfall fest„Für die Branche. Sam Altman betont, dass die Reihenfolge ist“übermäßig breit”Und es fehlen ausreichende Schutzmaßnahmen, um Benutzerinformationen vor potenziellem Missbrauch zu schützen.
Zweitens unterstreicht das Unternehmen die unverhältnismäßige technische und logistische Belastung, die diese Reihenfolge auferlegen würde. Stellen Sie sich das schiere Datenvolumen vor, das weltweit in jedem Chatgpt -Gespräch verbunden ist und für immer gespeichert wird. OpenAI behauptet, dass das Management und Speichern solcher massiven Datensätze eine bedeutende Herausforderung darstellen würde. Die Titanic -Aufgabe könnte entscheidende Ressourcen von ihren Kernforschungs- und Entwicklungsbemühungen entfernen. Sie schlugen sogar einen zufälligen Ansatz zur Datenerhaltung vor, aber die New York Times hielt ihn für unpraktisch.
Eine „grundlose“ Klage, behauptet Unternehmen, behauptet
Darüber hinaus betrachtet Openai die Klage selbst als „unbegründet“. Das Unternehmen betrachtet die Nachfrage nach Datenerhaltung als „umfassend und unnötig“, basierend auf Spekulationen. Sie argumentieren, dass die unbestimmte Datenbindung gegen Standardnormen der Branche widerspricht. Die potenzielle Maßnahme verstößt auch gegen OpenAIs eigene Richtlinien, die in der Regel innerhalb eines bestimmten Zeitraums eine automatische Löschung von Chat -Daten umfassen (z. B. 30 Tage für gelöschte Chats). Es ist erwähnenswert, dass diese Bestellung für Verbraucher -ChatGPT (kostenlos, professionell, Team) und API -Benutzer (ohne spezifische „Datenbindung“ -Ver Vereinbarungen) gilt. Das Urteil schließt Chatgpt Enterprise- und EDU -Kunden aus.
Dieser Fall wirkt sich auf die sich entwickelnden Komplexität von KI, Urheberrecht und Privatsphäre im digitalen Zeitalter aus. OpenAIs Berufung unterstreicht ihr Engagement für die Herausforderung, was sie als Übersteuerung ansehen, die sich auf die grundlegenden Erwartungen der Datenschutzscheiben von KI -Nutzern überall auswirken könnten. Wir werden unsere Augen für neue relevante Entwicklungen offen halten, die in dieser Angelegenheit entstehen.