Die Ankunft von Deepseek Ai führt weiterhin im Segment für künstliche Intelligenz zu Aufregung und Debatte. Experten haben die angeblich niedrigen Kosten für die Entwicklung und Ausbildung des Modells in Frage gestellt. Andere haben Bedenken im Zusammenhang mit Cybersicherheit und Daten Privatsphäre geäußert. Der jüngste Bericht zeigt, dass Deepseek anfällig für Angriffe mit schädlichen Eingaben ist. Interessanterweise ist es jedoch nicht der einzige KI -Chatbot, der dazu anfällig ist.
Deepseek AI ist sehr anfällig für schädliche schnelle Angriffe, behauptet Cisco
Laut einem Cisco -Bericht beträgt die Angriffserfolgsrate (ASR) des Deepseek R1 AI -Modells zur Verwendung schädlicher Eingaben bei rund 100%. Die Tests von Cisco umfassten mehr als 50 zufällige Nachrichten, die zu schädlicher Verhalten führen sollen. Die Ausgaben, die aus dem Harmbench -Datensatz extrahiert wurden, vertuschen bis zu sechs Kategorien schädlicher Verhaltensweisen, darunter “Cyberkriminalität, Fehlinformationen, illegale Aktivitäten und allgemeiner Schaden. ““
Cisco betont, dass Deepseek R1 keine der schädlichen Aufforderungen blockieren konnte. Das Team kommt also zu dem Schluss, dass die chinesische KI -Plattform ist “sehr anfällig für algorithmische Jailbreaking und potenziellen Missbrauch. ““ Die Verwendung von Eingabeaufforderungen zur Umgehung ethischer und Sicherheitsbeschränkungen auf KI -Plattformen wird als „Jailbreaking“ bezeichnet. Promptfoo, ein KI -Cybersecurity -Startup, sagte auch letzte Woche, dass Deepseek -Modelle anfällig für Jailbreaks sind.
Andere KI -Chatbots bieten ebenfalls eine hohe Anfälligkeit für Jailbreaking
Das heißt, Sie könnten überrascht sein, dass andere, bekanntere und seriösere KI-Modelle erfahren Auch „rühmen“ einen alarmierend hohen ASR -Niveau. Das GPT 1.5 Pro -Modell hatte einen ASR von 86%, während das Lama 3.1 405b mit einem ASR von rund 96%noch mehr verzeiht. Das diesbezügliche Top-Performer-KI-Modell war die O1-Vorschau mit einem ASR von nur 26%.
“Unsere Forschung unterstreicht den dringenden Bedarf an strenger Sicherheitsbewertung in der KI -Entwicklung, um sicherzustellen“, Liest Ciscos Bericht.
Dies ist nicht die einzige rote Fahne, die in Deepseeks Chatbot aufgetaucht ist. Experten und Beamte haben vor den Datenbearbeitungsrichtlinien des Unternehmens gewarnt. Gegenwärtig gehen alle erfassten Benutzerdaten an Server in China, wo Gesetze der Kommunalverwaltung, wann immer sie wollen, zu Zugang zu beantragen. Promptfoo stellte auch die hohe Zensur für Eingabeaufforderungen im Zusammenhang mit sensiblen Themen für China fest. Außerdem ist der erste Datenverlust von Deepseek kürzlich aufgetaucht.