AI halluzinierend – aber hey, es klingt wirklich sicher darüber

Oscar

Wie viel können Sie KI vertrauen? Wenn Sie ihm eine Frage stellen, spuckt es die Antworten auf so selbstbewusst zurück, dass es schwierig ist, sie nicht beim Wort zu nehmen. Tatsächlich werden AI -Modelle mit jedem Update schlauer. Leider scheint es auch zunehmend Berichte über AI -Halluzinationen zu geben.

KI -Halluzinationen nehmen zu

Eine kürzlich durchgeführte Untersuchung der New York Times ergab, dass die AI -Halluzinationen zunehmen. Dies trotz der Tatsache, dass viele AI -Modelle schlauer werden. Viele sind viel besser darin, mathematische Probleme zu lösen als zuvor. Einige sind in der Lage, tiefe Forschung durchzuführen, aber sie können ihre Fakten immer noch nicht klarstellen.

Der Bericht zitiert eine Instanz, in der ein AI -Bot, der den technischen Support für ein Unternehmen namens Cursor übernimmt, den Kunden mitgeteilt hat, dass sie keinen Cursor mehr auf mehreren Computern verwenden durften. Richtlinienänderungen sind normal. Aber in diesem Fall lagen sie falsch. Der Cursor kontaktierte die Kunden und informierte sie darüber, dass keine solche Richtlinienänderungen vorliegen.

Tatsächlich haben OpenAIs ChatGPT -Tests festgestellt, dass die neueren Modelle, die besser sind, mit einer höheren Geschwindigkeit halluzinieren sollen als die älteren Modelle. Zum Beispiel halluzinierte OpenAIs O3 -Modell in 33% der Zeit beim Ausführen des Persönlichkeits -Benchmark -Tests. Das ist doppelt so viel wie das O1 -Modell. Und O4-Mini? Das ist noch schlimmer – es halluziniert mit einer Geschwindigkeit von 48%.

Die Frage ist also, können Halluzinationen repariert werden? Laut Amr Awadallah, dem Geschäftsführer von Vectara und ehemaliger Google -Manager Nr. Awadallah sagt, „Trotz unserer Bemühungen werden sie immer halluzinieren. Das wird niemals verschwinden.“

Was sind Halluzinationen?

Für diejenigen, die mit dem Konzept der AI -Halluzinationen nicht vertraut sind, ist es ein Beispiel, in dem ein KI -Modell Fakten an Ort und Stelle ausmacht, scheinbar aus dem Nichts. Einige haben theoretisiert, dass einige KI -Modelle wegen der Menge an Argumentation, die sie zu tun haben, halluzinieren.

Einfachere KI-Modelle stützen sich auf Vorhersagen mit hohen Vertrauenswürdigkeiten, was bedeutet, dass sie weniger Risiken eingehen. Einige KI -Modelle, die Argumentationsfunktionen enthalten, müssen jedoch unterschiedliche Möglichkeiten bewerten. In einigen Fällen müssen sie möglicherweise sogar improvisieren, was dazu führen kann, dass sie Dinge erfinden.

Aus diesem Grund ist es wahrscheinlich eine gute Idee, bestimmte Fakten zu überprüfen, wenn Sie KI für Forschungszwecke verwenden. Dies scheint kontraintuitiv zu sein, aber wenn Sie KI verwenden, um nach Arbeit oder Schule zu recherchieren, nimmt sich vielleicht ein bisschen mehr Zeit, um sie richtig zu machen.

Die Post AI halluziniert – aber hey, es klingt wirklich sicher, dass es zuerst auf Android -Schlagzeilen erschien.