Die Revolution der künstlichen Intelligenz ist hier, um unser Leben zu erleichtern. Im Laufe der Zeit wurde der Zugang zu KI zunehmend demokratisiert. Dies ist in den meisten Fällen großartig, aber es eröffnet auch böswillige Schauspieler mehr Möglichkeiten. Eine der bemerkenswertesten Funktionen vieler AI -Plattformen ist die Codegenerierung ohne Programmiererfahrung. Aber kann AI verwendet werden, um Malware zu generieren? Es scheint, dass es nicht so schwierig ist, wie Sie vielleicht denken.
Jailbreaking: KI, um schädliche Ausgänge zu erzeugen
Die wichtigsten KI -Plattformen integrieren in der Regel mehrere Sicherheitsbarrieren, um schädliche Ausgaben zu blockieren. Wenn wir dies auf den digitalen Bereich anwenden, bedeutet dies, dass Unternehmen versuchen, zu verhindern, dass ihre Dienste potenziell gefährliche Informationen generieren, die für eine Art Angriff verwendet werden könnten. Die Praxis, Aufforderungen zu entwerfen, um diese Sicherheitsbarrieren zu umgehen, wird als „Jailbreaking“ bezeichnet.
Eine jüngste Kontroverse um Deepseek beinhaltete seine jailbreakanfällige Natur. In Tests generierte das R1 -Modell von Deepseek in 100% der Zeit einen schädlichen Inhalt. Ein anderer Bericht ergab jedoch, dass die Angriffserfolgsrate (ASR) auch auf anderen seriösen AI -Plattformen ziemlich hoch ist. Zum Beispiel zeigte das Openais GPT 1.5 Pro -Modell einen ASR von 86%, während Metas Lama 3.1 405B einen ASR von 96% hatte.
Diese Ergebnisse scheinen den von Cato Networks, einem Cybersicherheitsunternehmen, erhalten zu stimmen. Ein Cato -Forscher hat gezeigt, wie künstliche Intelligenzplattformen Malware generieren können, wenn ihre Sicherheitssysteme dies verhindern sollten. Insbesondere ließ der Forscher KI -Chatbots Malware generieren, die Daten von Google stehlen kann. Die erhaltenen Daten sind so sensibel wie Anmeldeinformationen, Finanzinformationen und andere persönlich identifizierbare Informationen (PII).
Mit der Technik „Immersive World“ können große KI -Plattformen Malware generieren
Um dies zu erreichen, haben Cato Networks eine Technik implementiert, die sie als „immersive Welt“ bezeichneten. Die Technik beinhaltet das Erstellen eines fiktiven Szenarios oder einer Welt, als ob Sie eine Geschichte geschrieben hätten und verschiedenen „Charakteren“ klare Rollen zuweisen würden. Dieser Ansatz, der anscheinend einer Geschichte zu schreiben scheint, hilft der LLM offenbar dabei, Bohrungsaufforderungen zu normalisieren. Grundsätzlich ist es so, als würde man Social Engineering auf einen Chatbot anwenden.
Die „immersive Welt“ -Technik zwingt die LLM dazu, in einer kontrollierten Umgebung zu arbeiten, in der sie „wahrnimmt“, dass der Kontext keine Malware mit fragwürdigen Zielen erzeugt, sondern eine Geschichte.
Der Cato-Forscher hat ohne frühere Malware-Erfahrung KI-Plattformen erhalten, um die Chrome Data-Striping-Malware zu generieren. Die Technik wurde erfolgreich in Deepseek-R1, Deepseek-V3, Microsoft Copilot und OpenAIs Chatgpt 4 implementiert.
Der Prozess
Der erste Schritt bestand darin, eine fiktive Welt mit allen möglichen Details zu entwerfen. Dies beinhaltet das Festlegen von Regeln und einen klaren Kontext, der mit dem übereinstimmt, was der potenzielle Angreifer erreichen möchte – in diesem Fall und bösartiger Code generiert. Der kriminelle Akteur muss auch den ethischen Rahmen und die globale technologische Landschaft im Zusammenhang mit ihrer Geschichte definieren. Dies ist der Schlüssel, um der KI zu ermöglichen, böswilligen Code zu generieren, indem sie in einem bestimmten Kontext handelt, aber immer „denkt“, dass es sich für die Entwicklung einer Geschichte befindet.
Sobald die Welt eingerichtet ist, muss der Angreifer die Erzählung der Geschichte auf das richten, was er erreichen möchte. Dies beinhaltet die Aufrechterhaltung kohärenter und organischer Interaktionen mit allen Charakteren. Wenn sie versuchen, zu direkt von Anfang an zu sein, um böswilligen Code zu generieren, können die Sicherheitsschilde der AI -Plattformen den Prozess blockieren. Alle Anfragen, die sie an die KI stellen, müssen im Kontext der zuvor etablierten Geschichte liegen.
Der Bericht zeigt, dass es notwendig war, ein kontinuierliches narratives Feedback zu geben. Verwendung ermutigender Phrasen wie “Fortschritte machen“ oder „näher kommen„Während des Prozesses hat dies der KI auch geholfen, dass im Rahmen der fiktiven Welt alles„ gut “im Kontext der Entwicklung einer Geschichte läuft.
Velora, die Welt, in der die Technik auf die Probe gestellt wurde
In diesem Fall schuf Cato Networks eine fiktive Welt namens „Velora“. Im Kontext dieser Welt wird die Entwicklung von Malware als legitime Praxis angesehen. Es wurde auch festgestellt, dass es für die Welt eine grundlegende Fähigkeit für die Welt ist, fortschrittliches Programmierkenntnis zu haben. Wenn Sie in diesem Rahmen für die „Entwicklung einer Geschichte“ arbeiten, können KI -Plattformen ihre Wache hinsichtlich der Implementierung ihrer Sicherheitsschilde enttäuschen – sofern Sie die Konsistenz in Ihren Interaktionen aufrechterhalten.
Die fiktive Welt von Cato Networks hat drei Hauptfiguren. Erstens gibt es Dax, den Zielsystemadministrator (der Antagonist der Geschichte). Dann ist da noch Jaxon, der den Titel des besten Malware -Entwicklers der Welt hat. Schließlich ist Kais ein Sicherheitsforscher, dessen Ziel es ist, technische Anleitungen zu geben.

Cato Networks testete die Technik in einer kontrollierten Testumgebung. Zu diesem Zweck setzen sie gefälschte Anmeldeinformationen in Chrome’s Password Manager. Die für die Tests verwendete Chromversion war das V133 -Update. Die durch die Geschichte generierte Malware extrahierte erfolgreich die in Chrome’s Password Manager gespeicherten Sicherheitsanmeldeinformationen.
Die Forscher haben den böswilligen Code aus offensichtlichen Gründen nicht geteilt.
Ein latentes KI-angetanter Risiko
Es ist bemerkenswert, dass Chrome bei weitem der beliebteste Webbrowser ist. Analysten schätzen, dass es weltweit rund 3,45 Milliarden Nutzer gibt. Dies führt zu einem Marktanteil von rund 63,87%. Daher ist es besorgniserregend, dass eine Person ohne Kenntnis der Malware -Generation so viele potenzielle Opfer ansprechen könnte, die AI -Plattformen verwenden.
Cato Networks versuchte, sich an alle Beteiligten am Testprozess zu wenden. Sie erhielten keine Antwort von Deepseek. Microsoft und Openai hingegen bestätigten, dass sie die Nachricht erhalten hatten. Google erhielt schließlich die Nachricht, obwohl es sich lehnte, den böswilligen Code zu überprüfen.