OpenAI hat einen Vertrag mit dem US-Verteidigungsministerium unterzeichnet (aber keine Sorge)

Oscar

Generative KI ist im Vergleich zu vielen Technologien, die unsere Welt beherrschen, noch relativ neu. Daher sind die möglichen weitreichenden Auswirkungen immer noch ein Rätsel. Aus diesem Grund wollen wir es nicht in der Nähe großer Regierungsbehörden haben … Wie auch immer, OpenAI hat gerade einen Vertrag mit einer großen Regierungsbehörde unterzeichnet. Quellen zufolge hat OpenAI einen Vertrag mit dem US-Verteidigungsministerium (DOD) unterzeichnet.

Der OpenAI-DOD-Vertrag ist nicht so beängstigend, wie er klingt

Sie können jedoch aufhören, bei Google nach „Wie baut man einen Atombunker“ zu suchen. Die Regierung überträgt ChatGPT nicht die Verantwortung für das Militär des Landes oder irgendwelche großen Raketen. Es wird aus Gründen der Cybersicherheit verwendet. Wir wissen nicht genau, welche Software das Verteidigungsministerium verwenden wird. Wir sind uns nicht sicher, ob GPT-4 verwendet wird oder ob OpenAI ein spezielles Modell für diese Verwendungszwecke entwickeln wird.

In jedem Fall soll der Vertrag dazu beitragen, die Cybersicherheit des Landes zu stärken. OpenAI wird seine Software zur Verfügung stellen, um bei der Entwicklung von Open-Source-Cybersicherheitstools zu helfen. Also zum Glück keine Raketen. Außerdem wird diese Technologie zur Teilnahme an der DARPA AI Cyber ​​Challenge genutzt. Dies ist ein fortlaufender Wettbewerb für Informatiker, KI-Forscher, Entwickler usw. um bei der Entwicklung leistungsstarker Cybersicherheitstools und beim Patchen kritischer Schwachstellen zu helfen. Mit den leistungsstarken KI-Tools von OpenAI sind wir sicher, dass es ein hervorragender Konkurrent sein wird.

Sollten Sie sich Sorgen machen?

Nun, wir stehen noch ganz am Anfang der Einbindung von KI in Regierungsangelegenheiten, daher bleibt die Zukunft abzuwarten. Die Regierung nutzt diese Tools nur, um bei der Entwicklung von Cybersicherheitstools zu helfen, sie ist also für nichts zuständig. Alle wichtigen Entscheidungen werden von Menschen getroffen.

Das Problem ist jedoch, dass die KI-Technologie noch nicht zu 100 % zuverlässig ist. Es besteht immer noch die Möglichkeit von KI-Halluzinationen. So sehr Unternehmen auch versuchen, dieses Phänomen einzudämmen, es kommt immer noch vor. Das ist nicht so schlimm, wenn es beim Generieren eines Rezepts oder eines Buchberichts halluziniert, aber es ist schrecklich, wenn die Cybersicherheit des Landes auf dem Spiel steht. Darauf müssen wir warten.