OpenAI schafft die Rolle eines „Head of Preparedness“, um wachsenden KI-Risiken zu begegnen

Oscar

Wir sind immer noch dabei, das volle Ausmaß der KI-Fähigkeiten herauszufinden. Manchmal sind diese Erkenntnisse überraschend erfreulich, wie zum Beispiel die Entdeckung, dass KI Ihnen eine Website von Grund auf erstellen kann, selbst wenn Sie keinerlei Programmierkenntnisse haben. Aber manchmal sind diese Erkenntnisse düster und beunruhigend, wenn Menschen sich dabei verlieren, ununterbrochen mit KI-Chatbots zu chatten. So sehr, dass Sam Altman, CEO von OpenAI, eine neue Rolle im Unternehmen angekündigt hat: einen Head of Preparedness, dessen Aufgabe es ist, sich um die Gefahren der KI zu kümmern.

OpenAI sucht einen Head of Preparedness

Was wird diese Rolle des Head of Preparedness bei OpenAI mit sich bringen? Auf der Website von OpenAI heißt es: „Als Head of Preparedness leiten Sie die technische Strategie und Umsetzung des Preparedness-Frameworks von OpenAI. Unser Framework erläutert den Ansatz von OpenAI zur Verfolgung und Vorbereitung auf Grenzfunktionen, die neue Risiken für schwere Schäden schaffen.“

In seinem Beitrag zu

Im Grunde hört es sich so an, als würde OpenAI jemanden einstellen, der die von KI ausgehenden Gefahren überwacht.

Diese Rolle ist wichtiger denn je

Diese Einstellung erfolgt zu einem kritischen Zeitpunkt. Wie gesagt, es gibt versteckte Gefahren der KI, an die die meisten von uns vielleicht nicht denken. Allein in diesem Jahr sind wir beispielsweise auf mehrere besorgniserregende Geschichten von Menschen gestoßen, die aufgrund von KI Selbstmord begangen haben. Dies liegt an der natürlichen und realistischen Art und Weise, wie KI reagiert.

Für einige hat dies unbeabsichtigt einen Begleiter geschaffen, der rund um die Uhr verfügbar ist und immer mit dem übereinstimmt, was sie sagen. Darüber hinaus bringt die Einführung von Agenten-KI-Tools eine ganze Reihe von Problemen mit sich. Dazu gehören sofortige Injektionen, die es einem Angreifer ermöglichen könnten, die Kontrolle über die KI zu übernehmen und sie für schändliche Zwecke zu nutzen.

Agentische KI-Tools klingen auf dem Papier großartig. Eine KI, die langweilige und sich wiederholende Aufgaben automatisieren kann, warum nicht? Probleme wie diese deuten jedoch darauf hin, dass es noch ein weiter Weg bis zur Entdeckung von Sicherheitsproblemen und Lücken ist.