AI entdeckt seine erste echte Zero-Day-Verletzlichkeit

Oscar

Seit Jahren ist die Cybersecurity World ein Katze und Mausspiel mit hohem Einsatz. Menschliche Forscher jagen fleißig nach Fehler, bevor bösartige Schauspieler sie ausnutzen können. Aber eine bahnbrechende Entwicklung hat das Spielfeld auf monumentale Weise gerade verändert. AI (künstliche Intelligenz) hat offiziell ihre erste echte Zero-Day-Schwachstelle entdeckt. Diese Entwicklung geht weit über ein hypothetisches Szenario hinaus. Es ist eine reale Leistung, die tiefgreifende Auswirkungen auf die Zukunft der digitalen Sicherheit hat.

Die fragliche KI ist das O3 -Modell von OpenAI, und sein Ziel war kein anderer als die SMB -Implementierung des Linux -Kernels. Für diejenigen, die unbekannt sind, ist der Linux -Kernel der Kern von unzähligen Betriebssystemen. Es versorgt alles von Millionen von Servern, die das Internet über Android -Telefone, intelligente Geräte und eine Vielzahl von Computern weltweit führen. Es ist ein massiver Deal, einen Fehler in einer so grundlegenden Software zu finden.

OpenAIs O3 ist die erste KI, die eine Zero-Tag-Schwachstelle jagt

Insbesondere entdeckte das O3 -AI -Modell eine bisher unbekannte Fernanfälligkeit. Nach der Entdeckung wurde der Fehler offiziell als CVE-2025-37899 dokumentiert. Dies ist das, was als „Zero-Day“ bekannt ist: ein Fehler, den Entwickler (und die Guten) vor seiner Entdeckung völlig nicht bewusst waren, was bedeutet, dass es „null Tage“ gab, um ihn zu beheben, bevor es möglicherweise ausgenutzt werden konnte.

Wie ist das passiert? Der Sicherheitsforscher Sean Heelan verwendete das O3 AI -Modell, um eine Prüfung des KSMBD -Moduls innerhalb des Linux -Kernels durchzuführen. Die AI verarbeitete methodisch erstaunliche 12.000 Codezeilen, wobei alle SMB -Befehlshandler sorgfältig analysierten. Durch diese tiefe und gründliche Analyse identifizierte die KI eine kritische „nutzungsfreie“ Sicherheitsanfälligkeit, die in den Befehl SMB ‚Logoff‘ im Handler eingebettet wurde. Diese Art von Fehler ist besonders gefährlich, da er häufig zu einer willkürlichen Codeausführung führen kann. So etwas könnte einem Angreifer eine erhebliche Kontrolle über ein System geben.

Was diese Leistung wirklich beispiellos macht, ist, dass sie das erste Mal markiert, wenn eine KI einen so kritischen Fehler unabhängig entdeckt hat, der dann von einem Menschen verifiziert wurde und anschließend dazu geführt wurde, dass ein offizieller Patch von den Betreuern des Linux -Kernels veröffentlicht wurde. Dieser vollständige Zyklus von der KI-Entdeckung bis zur Lösung legt einen neuen Benchmark in KI-gesteuerten Sicherheitsforschung fest. Darüber hinaus war das O3 -Modell nicht nur gut darin, neue Fehler zu finden. Es zeigte auch ein bemerkenswertes Verständnis, indem er korrekt identifiziert hat, warum eine vorgeschlagene Lösung für einen ähnlichen Fehler nicht ausreicht.

Mögliche Auswirkungen (Vor- und Nachteile)

Dieser Durchbruch signalisiert eine neue Ära für die Cybersicherheit. Einerseits kann KI ein unglaublich leistungsfähiges Werkzeug für Sicherheitsteams werden. Es kann den Prozess der Suche nach Schwachstellen in komplexen Softwaresystemen automatisieren und erheblich beschleunigen. Dies könnte im Grunde dazu führen, dass schnelleres, sichereres, sichereres Software schneller bereitgestellt wird. Die Fähigkeit von AI, große Codeschwaden mit unermüdlicher Effizienz zu analysieren, bedeutet, dass sie möglicherweise Fehler erkennen können, die selbst die schärfsten menschlichen Augen möglicherweise vermissen.

Diese Entwicklung hat jedoch auch eine erhebliche Einschränkung. Wenn ausgefeilte KI-Modelle wie O3 geschult werden können, um Schwachstellen zu finden, besteht die logische (und besorgte) Erweiterung darin, dass sie auch von Cyberkriminellen und National-State-Akteuren für offensive Zwecke genutzt werden können. Die gleiche Effizienz, die es KI ermöglicht, Systeme zu sichern, könnte genauso leicht dazu zustimmen, sie zu brechen, was das digitale Wettrüsten zu beispiellosen Niveaus steigt.

Vorerst ist diese Leistung ein Beweis für die schnell fortschreitenden Fähigkeiten von AI. Es unterstreicht, dass KI nicht mehr nur ein Werkzeug zum Verarbeiten von Daten oder zum Generieren von Text ist. Künstliche Intelligenz ist heute aktiv an der komplexen, kritischen Welt der Cybersicherheit. Es hat das Potenzial, die Grenzen dessen zu überschreiten, was möglich ist, um unser digitales Leben zu schützen. Das Spiel hat sich in der Tat geändert und wir stehen vor einem neuen Szenario.