Jahrelang betrachteten wir künstliche Intelligenz vor allem als Werkzeug zur Produktivitätssteigerung. Ein neuer Bericht der Threat-Intelligence-Experten von Google deutet jedoch auf eine andere Realität hin: KI ist im Jahr 2026 offiziell sowohl zu einer High-Tech-Cybersicherheitswaffe als auch zu einem hochwertigen Ziel für Angreifer geworden. Wenn Unternehmen diese Modelle in ihre Kerninfrastruktur einbetten, schaffen sie unbeabsichtigt eine neue und riskante Oberfläche.
Destillationsangriff: Laut Google die KI-Cybersicherheitsbedrohung für 2026
Traditionell konzentrierten sich Cyberangriffe darauf, in ein Netzwerk einzudringen, um eine Datenbank zu stehlen oder Ransomware zu installieren. Heutzutage interessieren sich Angreifer zunehmend für die „Logik“ hinter der KI selbst. John Hultquist, Chefanalyst der Google Threat Intelligence Group, weist auf einen wachsenden Trend namens „Destillation“ oder IA-Modellextraktionsangriffe hin.
In diesen Szenarien „brechen“ Angreifer nicht unbedingt durch eine Hintertür ein. Stattdessen nutzen sie legitimen Zugriff, um ein Model wie Gemini mit Hunderttausenden von Eingabeaufforderungen zu bombardieren. Ziel ist es, die Denkmuster der KI zu beobachten und ihre Fähigkeiten zurückzuentwickeln. Im Wesentlichen versuchen sie, einen milliardenschweren Vermögenswert zu klonen, ohne jemals einen herkömmlichen Sicherheitsalarm auszulösen.
Schneller, intelligenter und überzeugender
Staatlich geförderte Gruppen aus Ländern wie Russland, China, Iran und Nordkorea zielen nicht nur auf die Modelle selbst ab, sondern integrieren auch generative KI in ihre täglichen Arbeitsabläufe. Dabei geht es nicht nur darum, bessere Phishing-E-Mails zu schreiben – obwohl sie das auch tun.
KI ermöglicht es Angreifern, Aufklärungsarbeit, die früher Wochen dauerte, in nur wenigen Minuten durchzuführen. Sie können spezifische Branchenkonferenzen recherchieren, lokalisierten Kontext übersetzen und interne Unternehmenskommunikation mit beunruhigender Genauigkeit nachahmen. Für Cyberkriminelle ist Geschwindigkeit ein enormer Vorteil; Dadurch können sie Ransomware starten und sich schneller durch Systeme bewegen, als menschliche Verteidiger Schwachstellen schließen können.
Eine Maschine-auf-Maschine-Zukunft
Wir treten schnell in eine Ära „agentischer“ Bedrohungen ein – KI-Systeme, die in der Lage sind, mehrstufige Kampagnen mit sehr wenig menschlicher Hilfe zu planen und durchzuführen. Während Verteidiger auch KI nutzen, um in Echtzeit nach Fehlern zu suchen und auf Bedrohungen zu reagieren, haben Angreifer derzeit einen strategischen Vorteil: Sie werden nicht durch Unternehmensbürokratie oder Risikomanagementprotokolle ausgebremst. Wenn die experimentelle KI eines Angreifers versagt, verliert er nichts; Wenn die KI eines Verteidigers versagt, sind die Folgen katastrophal.
Wie Hultquist andeutet, stützen wir uns mehr denn je auf Maschinen. In diesem Rennen besteht die einzige Möglichkeit, mit einem automatisierten Gegner Schritt zu halten, darin, eine ebenso automatisierte Verteidigung einzusetzen. Der Mensch wird immer das endgültige Urteil fällen, aber die schwere Arbeit der Zukunft liegt bei den Algorithmen.