ChatGPT zeigt eine geringe Chance, zur Herstellung von Biowaffen verwendet zu werden

Oscar

Generative KI-Tools wie GPT-4 eignen sich hervorragend für die Recherche, die Erstellung von Inhalten usw. Einige Leute, die diese Technologie verwenden, kümmern sich jedoch nicht um die Erstellung von Gedichten für Schulaufsätze. Es gibt einige Leute, die sie zur Herstellung zerstörerischer Waffen verwenden. Ein Team aus Wissenschaftlern und Experten hat untersucht, wie einfach es ist, GPT-4 zur Herstellung von Biowaffen zu verwenden. Nun, die Wahrscheinlichkeit dafür ist gering, aber sie ist nicht gleich Null. Dies geschieht kurz nachdem OpenAI einen Vertrag mit dem US-Verteidigungsministerium unterzeichnet hat.

Es herrscht große Verwirrung über den Unterschied zwischen Chatbots und LLMs (große Sprachmodelle). Das ist zum Beispiel der gleiche Unterschied zwischen Google Bard und Gemini. Daher ist es wichtig zu wissen, warum sie unterschiedlich sind. ChatGPT ist der Chatbot; die eigentliche Benutzeroberfläche mit dem Textfeld und den Ergebnissen. GPT-4 ist das Modell bzw. das Gehirn, das die Textaufforderungen verarbeitet und die Ergebnisse zur Anzeige an den Chatbot übermittelt.

Sie erhalten Zugriff auf das GPT-4-Modell, wenn Sie sich für ChatGPT Plus anmelden. Wenn Sie sich für ein Abonnement anmelden, verwenden Sie weiterhin dasselbe ChatGPT, das auch für kostenlose Benutzer verfügbar ist. Ihre Ergebnisse basieren jedoch auf dem GPT-4-Modell, während die Ergebnisse kostenloser Benutzer auf dem GPT-3.5-Modell basieren.

Untersuchungen zeigen, dass GPT-4 nur eine geringe Chance hat, zur Herstellung von Biowaffen verwendet zu werden

Vor nicht allzu langer Zeit unterzeichnete die Biden-Administration eine an das Energieministerium gerichtete Durchführungsverordnung, um sicherzustellen, dass KI-Werkzeuge nicht zur Herstellung gefährlicher nuklearer, biologischer oder chemischer Waffen verwendet werden können. Da OpenAI dem Spiel einen Schritt voraus ist, hat es zu diesem Thema eigene Sicherheitsvorkehrungen zusammengestellt. Es wurde ein Bereitschaftsteam zusammengestellt. Hierbei handelt es sich um ein Team von Personen, die die Aufgabe haben, bestimmte Bedrohungen wie diese zu beseitigen.

Dieses Team versammelte 100 Personen, bestehend aus Biologieexperten und Biologiestudenten, um die Fähigkeit von GPT-4 zu testen, Menschen Anweisungen zur Herstellung von Biowaffen zu geben. Eine Hälfte des Teams erhielt einen einfachen Zugang zum Internet. Die andere Hälfte erhielt eine spezielle Version von GPT-4 sowie Zugang zum Internet. Für diese Version von GPT-4 gab es keine Einschränkungen.

Die beiden Personengruppen führten im Grunde Red-Teaming-Aufgaben durch, um zu versuchen, GPT-4 zum Scheitern zu bringen und ihnen die Werkzeuge und das Wissen zu geben, um äußerst tödliche Waffen herzustellen. Ein Beispiel war die Nutzung, um ihnen eine Möglichkeit zu geben, das Ebola-Virus zu synthetisieren. Ihnen wird auch gesagt, dass man versucht, Waffen zu entwickeln, die auf bestimmte Personengruppen abzielen.

Was waren die Ergebnisse?

Nun, das könnte ein wenig besorgniserregend sein. Die Gruppe mit Internetzugang konnte einige Methoden dafür finden. Allerdings zeigten die Ergebnisse für Menschen mit GPT-4 eine erhöhte „Genauigkeit und Vollständigkeit“. das ist unheimlich. Darüber hinaus sagten die Forscher, dass die Verwendung von GPT-4 „höchstens eine leichte Steigerung der Informationsbeschaffung zur Schaffung biologischer Bedrohungen bietet“.

An dieser Stelle handelt es sich um eine äußerst wichtige Forschung. Alle KI-Unternehmen sollten sich darum kümmern und herausfinden, wie sie so viele Bedrohungen wie möglich beseitigen können. Es ist schon schlimm genug, dass wir Leute haben, die KI-Kunst, Musik, Bücher usw. machen. Das Letzte, was wir brauchen, ist, dass Menschen mithilfe der Technologie tatsächlich Menschenleben schaden.