Berichten zufolge kann GPT-4o von OpenAI gehackt werden, um sprachbasierte Betrügereien zu starten

Oscar

In der Welt der ständig wachsenden auf künstlicher Intelligenz basierenden Funktionen kann man sich leicht von gefälschten Fotos und Videos täuschen lassen, die von KI-Tools erstellt wurden. Zu den beliebtesten Tools dieser Art gehören ChatGPT-4.0 oder GPT-4o von OpenAI und Gemini von Google. Die ChatGPT-4.0-Version ist eines der beliebtesten Tools unter diesen. Es können leicht gefälschte Videos einer realen Person erstellt werden. Jetzt haben Forscher vorgeschlagen, dass GPT-4o von OpenAI leicht gehackt werden kann, um sprachbasierte Betrügereien zu starten falsch interpretieren.

Laut einem neuen Bericht kann die GPT-4o-Version von OpenAI durch sprachbasierte Betrügereien gehackt werden

Laut einem Bericht von BleepingComputer kann die ChatGPT-4o-Version gehackt werden, um sprachbasierte Betrügereien zu starten. Forscher haben gezeigt, dass es möglich ist, dass die Echtzeit-Sprach-API von OpenAI für ChatGPT-40 gehackt werden kann, um Betrug zu verursachen. Diese können niedrige bis mäßige Erfolgsquoten aufweisen, heißt es in dem Bericht. Es ist erwähnenswert, dass die gehackten Betrügereien von ChatGPT-40 größtenteils auf einer falschen Stimme basieren.

Die gehackten Betrügereien der GPT-40-Version könnten bereits ein „Multimillionen-Dollar-Problem“ darstellen, schlägt die Quelle vor. Sie können die Deepfake-Technologie und die KI-gestützten Text-to-Speech-Tools von ChatGPT nutzen, um die Situation noch schlimmer zu machen. Darüber hinaus weist die Quelle darauf hin, dass mit diesen Tools groß angelegte Betrugsoperationen ohne menschliches Zutun durchgeführt und erstellt werden können.

Im Gespräch mit BleepingComputer erklärte OpenAI, dass sein neuestes Modell, das sich derzeit in der Vorschau befindet, „fortgeschrittenes Denken“ unterstützt und entwickelt wurde, um diese Art von Missbrauch besser zu erkennen: „Wir verbessern ChatGPT ständig darin, absichtliche Versuche, es auszutricksen, zu stoppen, ohne zu verlieren.“ seine Hilfsbereitschaft oder Kreativität“, sagte der Sprecher des Unternehmens gegenüber der Veröffentlichung.

Das neueste Modell von OpenAI verfügt über einen sprachgesteuerten KI-Agenten und kann zur Erstellung von Betrügereien verwendet werden

Insbesondere das neueste Modell von OpenAI, das einen sprachbasierten KI-Agenten bietet, kann verwendet werden, um mithilfe dieser Technologie einige Betrügereien zu erstellen. Insbesondere verfügt die neueste ChatGPT-Version über einige Schutzmaßnahmen gegen den Missbrauch ihrer Tools. Darüber hinaus sei es einigen Hackern gelungen, es zu hacken, um Schwachstellen-Tools zu erstellen, so die Quelle. Insbesondere variiert die Erfolgsquote dieser Betrügereien von App zu App, beispielsweise beim Stehlen von Anmeldedaten aus Gmail.