Pentagon und Anthropic 200-Millionen-Dollar-KI-Deal in Gefahr, hier ist der Grund

Oscar

Die Beziehung zwischen KI-Unternehmen und dem US-Militär tritt in eine angespannte neue Phase ein. Im Zentrum des Sturms steht Anthropic, das in San Francisco ansässige Startup, das für seinen Fokus auf „KI-Sicherheit“ bekannt ist. Laut einem aktuellen Bericht von Axios droht das Pentagon derzeit mit dem Abbruch seiner 200-Millionen-Dollar-Partnerschaft mit Anthropic wegen einer wichtigen Meinungsverschiedenheit: Wie viel Kontrolle ein privates Unternehmen darüber haben sollte, wie das Militär seine Software nutzt – wie die KI-Modelle von Claude.

Das 200-Millionen-Dollar-Ultimatum: Warum das Pentagon damit droht, den Anthropic-KI-Deal aufzugeben

Seit Monaten drängt das Verteidigungsministerium (DoD) vier große KI-Akteure – Anthropic, OpenAI, Google und xAI –, dem Militär die Nutzung ihrer Modelle für „alle rechtmäßigen Zwecke“ zu gestatten. Dies bedeutet im Wesentlichen, dass die Standardleitplanken aufgehoben werden, die normale Benutzer daran hindern, KI in sensiblen Bereichen wie der Waffenentwicklung, dem Sammeln von Informationen oder bei Einsätzen auf dem Schlachtfeld einzusetzen.

Berichten zufolge haben OpenAI, Google und xAI ein gewisses Maß an Flexibilität gezeigt. Anthropic hingegen ist Berichten zufolge am resistentesten. Das Unternehmen hat an zwei konkreten Grenzen eine harte Linie gezogen: der Nutzung seines Claude-Modells zur Massenüberwachung von Amerikanern und der Entwicklung völlig autonomer Waffensysteme – Systeme, die ohne einen Menschen im Geschehen schießen können.

Spannungen nach dem Maduro-Überfall

Nach der US-Militäroperation zur Gefangennahme des ehemaligen venezolanischen Präsidenten Nicolás Maduro erreichten die Spannungen ihren Höhepunkt. Das Wall Street Journal berichtete, dass das Pentagon Claude während der Mission über eine Partnerschaft mit dem Datenunternehmen Palantir eingesetzt habe. Dieser Vorfall warf interne Fragen bei Anthropic auf.

Verteidigungsbeamte äußerten sich frustriert, als Anthropic angeblich nachfragte, ob ihre Technologie an dem Überfall beteiligt war, bei dem es zu „kinetischem Feuer“ (Kampf) kam. Das Pentagon hält diese Art der Aufsicht für undurchführbar. Das Unternehmen argumentiert, dass Kriegskämpfer während des aktiven Einsatzes nicht innehalten können, um einzelne Anwendungsfälle mit einem Softwareanbieter auszuhandeln.

Ein Kulturkampf

Der Streit verdeutlicht einen bedeutenden Kulturkonflikt. Von Axios zitierte Beamte haben Anthropic als das „ideologischste“ KI-Labor beschrieben. Berichten zufolge unterliegt das Unternehmen einer strengen internen Nutzungsrichtlinie, die sogar bei den eigenen Ingenieuren „interne Unruhe“ hinsichtlich der militärischen Arbeit hervorruft. Allerdings steht das Pentagon vor einem Dilemma: Trotz der Spannungen geben Beamte zu, dass Claude derzeit seinen Konkurrenten bei spezialisierten Regierungs- und Geheimanwendungen voraus ist.

Wenn die beiden Parteien keine Einigung erzielen können, hat das Pentagon vorgeschlagen, Anthropic möglicherweise als „Lieferkettenrisiko“ einzustufen. Es könnte sich auch um einen ordnungsgemäßen Ersatz bemühen. Anthropic seinerseits behauptet, dass es der nationalen Sicherheit verpflichtet sei. Das KI-Unternehmen weist darauf hin, dass es das erste Unternehmen war, das Modelle in geheime Netzwerke stellte. Im Moment reden beide Seiten noch.