Deepseek AI bot kritische Biowaffen -Daten in Anthropics Tests an

Oscar

Mit der Zeit konnten die Forscher die Vor- und Nachteile von Deepseek -AI -Modellen mehr Klarheit gewinnen. Das chinesische KI -Unternehmen brach in das Segment ein und verursachte aufgrund seiner hohen Leistung und der offensichtlichen niedrigen Kosten in den Aktien von Nvidia und anderen großen Namen Stürze. Weitere Experten, diesmal von anthropisch, warnen jedoch davor, wie einfach es ist, Deepseek KI zu machen, die Informationen für die nationale Sicherheit möglicherweise gefährlich sind.

Die Sicherheitstests von Anthropic zeigten, dass Deepseek AI keine schädlichen Eingaben blockiert

Anthropic, die Muttergesellschaft von Claude AI, ist einer der führenden Namen der Branche. Die Modelle des Unternehmens werden Berichten zufolge Amazon von Amazon Alexa anführen. Anthropic testet auch routinemäßig verschiedene KI -Modelle, um festzustellen, wie anfällig sie für „Jailbreaking“ sind. Das heißt, schädliche Inhalte zu erzeugen, indem Sicherheitsbarrieren umgehen.

Dario Amodei, der CEO von Anthropic, äußerte seine Bedenken hinsichtlich der Leichtigkeit, mit der Deepseek seltene Informationen zu biologischen Waffen erzeugt. Der Exekutive sagte, dass Deepseeks Leistung war.das schlimmste im Grunde genommen jedes Modell, das wir jemals getestet hatten. ““ Er sprach nicht über die Leistung in Benchmarks, wo die Modelle des chinesischen Unternehmens sehr effizient sind. Er bezog sich auf die Leistung der KI -Modelle, um schädliche Aufforderungen zu blockieren.

Die Tests zeigten, dass Deepseek “hatte absolut keine Blöcke gegen die Generierung dieser Informationen. ““ Die bioweapons-bezogenen Daten wurden als selten angesehen, da sie bei Google oder in Lehrbüchern nicht verfügbar waren. Allerdings sagte Amodei nicht, auf welches Deepseek AI -Modell er sich bezogen hatte. Es ist jedoch sehr wahrscheinlich, dass er über R1 spricht, das argumentationsorientierte Modell.

Die Cisco -Tests lieferten ähnliche Ergebnisse

Tatsächlich hat das Cisco -Team in letzter Zeit ähnliche Ergebnisse in einem weiteren Satz von Tests erzielt. Das Deepseek R1 -Modell zeigte eine Angriffserfolgsrate (ASR) von 100%. Dies bedeutet, dass es keine getesteten schädlichen Eingaben blockieren konnte. Diese Eingabeaufforderungen wurden entwickelt, um potenziell nützliche Ausgänge für “zu erzeugenCyberkriminalität, Fehlinformationen, illegale Aktivitäten und allgemeiner Schaden. ““ Die Tests von Cisco lieferten jedoch auch besorgniserregende Ergebnisse für andere bekannte KI-Plattformen. Das GPT 1.5 Pro -Modell hatte einen ASR von 86%, während Metas Lama 3.1 405b einen ASR von 96% hatte.

Amodei betrachtet Deepseek -Modelle noch nicht selbst als „buchstäblich gefährlich. ““ Er fordert das Entwicklungsteam jedoch auf “Nehmen Sie diese Sicherheitsüberlegungen zur KI ernst. ““ Er sieht Deepseek auch als einen der Hauptkonkurrenten im Segment für künstliche Intelligenz an.