Die Claude AI von Anthropic verhindert Urheberrechtsverletzungen im Musikbereich

Oscar

Das Urheberrecht bleibt ein heikles Thema in der KI-Branche. Bisher gibt es noch kein „globales“ Gesetz, das eine einheitliche Regelung für den Umgang mit Fällen des Trainings von KI-Modellen vorsieht. Aus diesem Grund haben verschiedene Medienplattformen eigene KI-Entwickler wegen der Nutzung ihrer Inhalte verklagt. Anthropic war in urheberrechtliche Streitigkeiten mit Musikverlagen verwickelt.

Claude, das Hauptprodukt von Anthropic, ist ein KI-gestützter Chatbot, ähnlich wie ChatGPT oder Gemini. Das Coole daran ist, dass Sie dank der 100.000-Token-Eingabebeschränkung wirklich detaillierte Eingabeaufforderungen verwenden können. Bis vor Kurzem prahlte die kostenlose Version von Claude damit, leistungsfähiger zu sein als die von ChatGPT, was sie zu einer soliden Option macht, egal ob Sie experimentieren oder sie sogar professionell nutzen möchten.

Anthropic wird Maßnahmen ergreifen, um Musik-Urheberrechtsverletzungen an den Ausgaben von Claude AI zu verhindern

Allerdings sind die Musikverlage mit der Art und Weise, wie Anthropic Claude ausgebildet hat, nicht zufrieden. Seit Ende 2023 sieht sich das Unternehmen unter anderem mit Klagen von Firmen wie Universal Music und ABKCO konfrontiert. Sie behaupten, dass das KI-Unternehmen urheberrechtlich geschützte Musik verwendet habe, um den Chatbot zu trainieren. Titel wie „Halo“ von Beyoncé und „Moves Like Jagger“ von Maroon 5 stehen auf der Liste, wie Engadget berichtet.

Am Donnerstag hatte der Rechtsstreit ein neues Ergebnis, das die Kläger besänftigen könnte. Anthropic verpflichtete sich, Claude daran zu hindern, von Musikverlagen lizenzierte Musik zu reproduzieren oder zu vertreiben. Sie werden eine solche Maßnahme auch beim Training zukünftiger KI-Modelle umsetzen. Außerdem wird Anthropic antworten: „zügig” auf die Urheberrechtsbedenken der Verlage eingehen und erläutern, wie sie mit der Angelegenheit umgehen werden. Wenn Anthropic in jedem Fall der Ansicht ist, dass es nicht handeln sollte, muss das Unternehmen den Grund dafür darlegen.

Claude ist nicht dafür konzipiert, für Urheberrechtsverletzungen verwendet zu werden, und wir verfügen über zahlreiche Prozesse, um solche Verletzungen zu verhindern“, sagte ein Anthropic-Sprecher. „Unsere Entscheidung, dieser Vereinbarung zuzustimmen, steht im Einklang mit diesen Prioritäten. Wir freuen uns weiterhin darauf, zu zeigen, dass die Verwendung potenziell urheberrechtlich geschützten Materials beim Training generativer KI-Modelle im Einklang mit dem bestehenden Urheberrecht eine grundsätzlich faire Nutzung darstellt“, fügte er hinzu.

Verlage wollen die Verwendung urheberrechtlich geschützter Inhalte für KI-Schulungen verhindern

Der Gerichtsstreit ist jedoch noch lange nicht vorbei. Die Musikverlage, die Anthropic verklagen, wollen sicherstellen, dass das Unternehmen ihre Musik in keiner Weise für KI-Schulungen verwenden kann. Andererseits sagt das auf KI fokussierte Unternehmen, dass es „Der Inbegriff einer fairen Nutzung” urheberrechtlich geschützte Inhalte zum Trainieren von KI-Modellen zu verwenden. Da es zu diesem Thema keine festen Gesetze gibt, haben KI-Entwickler die „Grauzone“ ausgenutzt.

Die Gesetzgebung zu künstlicher Intelligenz ist ebenso schwierig wie heikel. KI-gestützte Technologien entwickeln sich in einem solchen Tempo weiter, dass sie Regulierungsprojekte überflüssig machen, bevor sie überhaupt Gesetz werden. In der Zwischenzeit könnte eine Regulierung ohne gründliche Analyse der Auswirkungen auf die Branche möglicherweise die Entwicklung des Segments behindern.

Letztlich werden Einzelprozesse Präzedenzfälle für künftige Fälle schaffen. Daher könnte der Ausgang von Klagen wie Musikverleger vs. Anthropic von entscheidender Bedeutung sein.