Es scheint, dass die ChatGPT-Suche Nachrichten nicht richtig verarbeiten kann

Oscar

OpenAI hat gerade seine eigene Suchmaschine namens ChatGPT Search vorgestellt. Dies bestätigt im Grunde, dass das Zeitalter der KI-gestützten Suchmaschine offiziell angebrochen ist. Nun ja, vielleicht nicht ganz. Laut einem neuen Bericht hat ChatGPT Search Probleme mit Nachrichteninhalten.

Genau wie Perplexity und Google AI Overviews ist ChatGPT Search ein Tool, das eine KI-generierte Übersicht über Ihre Suchanfragen erstellt. Was diese Tools zu Suchmaschinen macht, ist die Tatsache, dass sie die Links von den Quellen anzeigen, aus denen sie ihre Informationen erhalten haben. Derzeit gibt es nur eine Handvoll großer KI-Suchmaschinen auf dem Markt, aber wir gehen davon aus, dass die Zahl mit der Zeit steigen wird.

Die ChatGPT-Suche hat Probleme mit Nachrichteninhalten

Da die ChatGPT-Suche so neu ist, schauen sich die Leute an, wie sie im Vergleich zur Konkurrenz abschneidet. Laut einer neuen Studie sieht es für das neue Tool nicht besonders gut aus.

Das Tow Center for Digital Journalism in Columbia führte eine Studie zur ChatGPT-Suche durch und kam zu besorgniserregenden Ergebnissen. Um den Test durchzuführen, baten sie ChatGPT, die Quelle von 200 Zitaten aus 20 verschiedenen Nachrichtenartikeln zu identifizieren. Da das Internet zur Hand ist, kann man davon ausgehen, dass ChatGPT diese Aufgabe gut bewältigen kann. Darüber hinaus hat OpenAI über Lizenzverträge Zugriff auf den Inhalt Dutzender Nachrichten-Websites.

Dem Bericht zufolge jedoch. Die überwiegende Mehrheit der Antworten, die die ChatGPT-Suche gab, war ungenau oder unvollständig. Von den 200 Antworten gab es nur bei 47 genaue Angaben. 57 waren teilweise richtig und ganze 89 waren völlig falsch. Schließlich gab es nur sieben Mal zu, dass es die Antwort nicht wusste. Bedenken Sie, dass dies ein ziemlicher Nischentest war.

Das Tow Center gab einige Beispiele für einige Fehler bei der ChatGPT-Suche. Als das Tool zunächst nach einem Zitat aus einem Artikel der New York Times fragte, zeigte es einen Link zu einer Website an, die den Artikel vollständig plagiierte. In einem anderen Beispiel wurde Time ein Zitat aus einer Orlando Sentinel-Geschichte fälschlicherweise zugeschrieben.

OpenAI kommentierte diese Studie, nannte sie einen „atypischen Test unseres Produkts“ und sagte, dass „eine Fehlzuordnung ohne die Daten und Methoden, die das Tow Center zurückgehalten hat, schwer zu beheben ist.“ Daher ist OpenAI mit diesem Test nicht zufrieden. Natürlich hat es den Massen beruhigt, dass es an der Verbesserung der Suchergebnisse arbeitet. Wir sind uns nicht sicher, ob das Unternehmen damit im Grunde zugibt, dass es bei der ChatGPT-Suche Fehler gemacht hat. Auf jeden Fall sind wir sicher, dass Probleme wie diese mit der Zeit seltener auftreten werden.