ChatGPT hatte eine Fehlfunktion und fing an, Unsinn von sich zu geben

Oscar

Bei ChatGPT kam es kürzlich zu einer schwerwiegenden Fehlfunktion, als das KI-Modell anfing, mit mehreren Benutzern völliges Kauderwelsch zu sprechen. Insbesondere auf Reddit tauchten verschiedene Berichte darüber auf, dass ChatGPT völlig unsinniges Geschwafel verbreitete. Es gab auch Berichte darüber, dass die KI in Schleifen stecken blieb oder Sprachen zu seltsamen Hybriden zusammenfügte. OpenAI wurde darauf aufmerksam, identifizierte das Problem später und ließ es einige Stunden später beheben.

ChatGPT funktioniert nicht richtig, bleibt in Schleifen hängen und gibt Unsinn von sich

Ein Bericht auf Reddit zeigte, dass ChatGPT plötzlich anfing, zusammenhangslos zu sprechen. Zufällige Wörter, Auszüge aus bestimmten Trainingsdaten und sogar verschiedene Sprachen wurden von der KI herausgeplatzt. Bei einem weiteren Störungsbericht teilte ein Benutzer mehrere Screenshots von ChatGPT, die zwischen Halluzination und Klarsicht schwankten. Nachdem es Unsinn geredet hatte, blieb es in einer Schleife stecken, bevor es seine Antwort beendete. Nachdem der Benutzer ihn darauf hingewiesen hatte, entschuldigte er sich, bevor er noch einmal Unsinn redete. Dies wiederholte sich ein weiteres Mal, woraufhin die Screenshots aufgenommen wurden.

Ein weiterer sehr interessanter Beitrag zeigte, dass ChatGPT wieder in einer Schleife feststeckt. Diesmal war die Schleife jedoch eine selbstkorrigierende Schleife. Als ChatGPT gebeten wurde, die größte Stadt der Welt zu benennen, die mit dem Buchstaben „A“ beginnt, ging es auf eine sehr seltsame Weise vor. Es würde eine Stadt benennen, dann sagen, dass es nicht die richtige Antwort sei, und es erneut versuchen, bis ins Unendliche. Die Leute in den Kommentaren haben dies in ihren eigenen Chats versucht und ähnliche Ergebnisse geteilt. Ein weiterer Reddit-Beitrag über GPT-4, das abonnementbasierte Premium-Modell von OpenAI, zeigte, dass ChatGPT halluziniert. Wieder einmal teilten mehrere Benutzer in den Kommentaren ähnliche Ergebnisse.

OpenAI erklärt, warum dies passiert ist

OpenAI nahm die sich entwickelnde Fehlfunktion zur Kenntnis und identifizierte das Problem schnell. Innerhalb weniger Stunden meldete das Unternehmen auf seiner Statusseite, dass ChatGPT normal funktioniere. Am nächsten Tag veröffentlichte das Unternehmen eine Erklärung für den Fehler.

Offenbar hat eine kürzlich eingeführte Optimierung die Sache durcheinander gebracht. OpenAI erklärte in sehr einfachen Worten, wie ChatGPT funktioniert und was schief gelaufen ist.

„LLMs (Large Language Models) generieren Antworten durch zufällige Auswahl von Wörtern, teilweise basierend auf Wahrscheinlichkeiten. Ihre „Sprache“ besteht aus Zahlen, die Token zugeordnet sind. In diesem Fall lag der Fehler in dem Schritt, in dem das Modell diese Zahlen auswählt. Als wäre das Modell in der Übersetzung verloren gegangen, wählte es leicht falsche Zahlen, was zu Wortfolgen führte, die keinen Sinn ergaben.“

Kurz gesagt: ChatGPT hat die falschen Wörter verwendet und erbärmliches Geschwätz wiedergegeben. Stellen Sie sich das so vor, als würden Sie Pfeile auf ein großes Wörterbuch werfen und aus den Wörtern, auf denen die Pfeile gelandet sind, einen Satz bilden.