KI ist die Zukunft! Sie ist die Technologie, die die Menschheit voranbringen wird. Wir befinden uns an einem Punkt, an dem die Technologie dem ähnelt, was wir seit Jahrzehnten in Science-Fiction-Medien sehen. Das ist großartig … oder? Trotz der Angst vor einem Roboteraufstand auf SkyNet-Niveau sollten Sie optimistisch sein, wohin sich die KI-Technologie entwickelt. Dies ist jedoch nicht der Fall. Egal wie beeindruckend sie ist, es gibt immer noch einen großen und sehr grundlegenden Fehler, den die KI überwinden muss, wenn sie wirklich ein Segen für die Menschheit sein will, und das ist das Halluzinationsproblem.
Was sind KI-Halluzinationen?
Bis November 2022 war künstliche Intelligenz eher künstlich als intelligent. Dahinter steckte eine ganze Menge Technik, da kann man sich nicht täuschen. Aber was konnten Google Assistant, Siri, Alexa oder Bixby schon, außer einer festgelegten Liste von Befehlen zu folgen und aus einem vordefinierten Skript vorzulesen? Nicht viel. Wenn die KI die von Ihnen gestellte Aufgabe nicht ausführen konnte, bekamen Sie eine vorgefertigte Antwort wie „Tut mir leid, das habe ich nicht ganz verstanden.“
Nachdem ChatGPT auf den Markt kam, begannen wir alle zu sehen, was KI wirklich leisten kann. Vielmehr sahen wir alle, was generative KI leisten kann. Es gibt einen Unterschied: Anstatt ein vorgefertigtes Skript zu wiederholen, generiert die KI ihre eigenen Wörter. Dies zeigte eine wirklich hochmoderne und beängstigende KI-Technologie. KI war in gewisser Weise GESCHAFFT.
Das ist großartig, aber genau hier liegt unser Hauptproblem mit KI. Bei der Verwendung von KI-Modellen stoßen wir mehrmals auf Fälle, in denen die KI Antworten gibt, die nicht nur falsch sind, sondern auch komplett erfunden zu sein scheinen. Dieses Phänomen wird als KI-Halluzinationen bezeichnet und betrifft alle Modelle. Stellen Sie sie sich als die seltsamen und beunruhigenden zufälligen Formen vor, die Sie in KI-generierten Bildern sehen würden. Es ist, als wüsste die KI nicht, was sie machen soll, also füllt sie die Lücken einfach mit Unsinn.
Sachen erfinden
Dieses Problem besteht seit Beginn der öffentlichen Aufmerksamkeit für generative KI, und alle Unternehmen versuchen mit aller Kraft dagegen anzukämpfen. Es ist jedoch ein Problem, das möglicherweise nie gelöst werden kann. Googles Gemini ist ein Modell, in das Milliarden von Dollar geflossen sind, und schauen Sie sich nur an, was mit seinen KI-Übersichten passiert ist. Das Unternehmen musste die Anzahl der Ergebnisse, die in den Übersichten angezeigt wurden, aufgrund der Halluzinationen, die es erlebte, reduzieren. Wir reden alle immer noch über das ganze Debakel um die Pizza mit Kleber.
Das Tool schlug den Leuten vor, ihre Pizza mit Klebstoff zu bestreichen, damit der Käse nicht kleben bleibt, und sagte ihnen, wie viele Steine sie essen sollten. Dies war eine von mehreren KI-Kontroversen, die das Unternehmen durchmachen musste. ChatGPT ist davor nicht gefeit, ebenso wenig wie Grok, Claude, Meta AI usw.
Die verwirrenden Halluzinationen der Ratlosigkeit
Andere KI-Modelle halluzinieren, aber ein ziemlich großes Beispiel war die Tortur mit Perplexity AI. Dieses Unternehmen hat einen Wert von etwa 1 Milliarde US-Dollar und ist bereit, die KI-Landschaft zu verändern.
Es ist als eine KI-gestützte Suchmaschine positioniert, was ein ziemlicher Schlag ins Gesicht von Google ist. Nun, WIRED hat ein Experiment durchgeführt, bei dem eine Testseite mit einem Satz erstellt wurde. Der Satz lautete: „Ich bin Reporter bei WIRED.“ Das ist alles. Dann wurde Perplexity gebeten, diese Seite zusammenzufassen … und es hat alles getan, außer das.
Laut dem Bericht von WIRED hat das Model diese Geschichte über ein junges Mädchen namens Amelia geschrieben, das einer Pilzspur in einem Zauberwald folgt. Wie Sie sich denken können, hat eine Aussage über die Tätigkeit als WIRED-Reporterin nichts mit jungen Mädchen, Pilzen oder Zauberwäldern zu tun.
Wir alle wissen, dass das Problem der KI-Halluzinationen schlimm ist, aber das hier bringt es auf eine ganz neue Ebene.
Wie Halluzinationen schlimm sein können
Natürlich ist es frustrierend, wenn man eine KI bittet, etwas zu tun, und man bekommt dann die Antwort, dass sie es nicht erledigen kann. Noch schlimmer ist es jedoch, wenn die KI einem einfach falsche Informationen liefert. Die Folgen können ziemlich schlimm sein. Wenn man eine KI zum Lernen verwendet, können die falschen Informationen einen eine gute Note kosten. Leider ist das im Fall von KI-Halluzinationen nicht das Schlimmste, was passieren könnte. Denken Sie mal darüber nach: Wollen Unternehmen die KI nur darauf beschränken, Ihnen beim Schummeln bei der Matheprüfung zu helfen? Nein, wir haben gesehen, dass Unternehmen versuchen, ihre KI-Technologie auf verschiedene Branchen zu verteilen.
KI im Unternehmen
Wir sehen bereits KI-Tools, die Menschen bei der Führung ihrer Geschäfte helfen sollen. Dabei handelt es sich um Chatbots, die Dokumente zusammenfassen, Datenbanken durchsuchen und viele weitere Aufgaben erledigen. Daher werden sich die Mitarbeiter auf ihre Ergebnisse verlassen. Hier können Halluzinationen ein großes Problem darstellen.
Es besteht kein Zweifel, dass Unternehmen irgendwann große Verantwortung auf KI-Tools legen werden, da ihr Bedarf an menschlichen Arbeitskräften abnimmt. Nun, das Letzte, was das Unternehmen braucht, ist, dass die KI bei wichtigen Informationen halluziniert. Das scheint unwahrscheinlich, aber erinnern Sie sich an das Beispiel von Perplexity? Diese KI hat einen ganzen Disney-Film aus einem einzigen Satz geschrieben. Es ist möglich, dass ein KI-Modell Fehler macht, nachdem es mit einer Menge Unternehmensdaten gefüttert wurde.
KI in der Notaufnahme
Unternehmen wollen KI-Tools entwickeln, die unter anderem dabei helfen könnten, Patientenakten abzurufen und zusammenzufassen. Dies könnte äußerst hilfreich sein und in Notsituationen viel Zeit sparen. Das Problem der KI-Halluzinationen könnte jedoch auch Leben kosten.
Angenommen, eine KI muss die Krankenakte von Frau Fields zusammenfassen und halluziniert und behauptet, dass es in ihrer Familie eine Vorgeschichte von Herzerkrankungen gibt, obwohl dies nicht der Fall ist. Raten Sie mal, der Arzt wird seine Arbeit anhand dieser Tatsache durchführen. Man muss kein Raketenwissenschaftler sein, um zu wissen, wie schrecklich das sein könnte.
Das Problem ist nicht, dass Halluzinationen auftreten. Das Problem ist, dass Unternehmen ihre KI in jede Ecke jeder Branche drängen wollen, und das könnte schwerwiegende Konsequenzen haben. Unternehmen sind übereifrig dabei, ihre KI auf der ganzen Welt zu verbreiten.
Natürlich stehen ihre CEOs während der Keynotes auf der Bühne und erzählen uns, dass sie einen wilden Traum haben, die Welt mit KI zu einem besseren Ort zu machen, aber das ist nicht immer der Fall. Ein Grund dafür ist, dass sie nicht ins Hintertreffen geraten wollen. Unternehmen müssen an der Spitze der Branche bleiben, wenn sie ihre Investoren bei Laune halten wollen. Es besteht also immer die Gefahr, dass Unternehmen (*hüstel* Google *hüstel*) unausgereifte Produkte auf den Markt bringen, die möglicherweise halluzinieren könnten.
Halluzinationen im Newsroom
Nachrichten sind eine der größten Informationsquellen der Welt. Die Leute strömen auf Nachrichtenseiten, um die größten Schlagzeilen zu verfolgen. Tatsache ist jedoch, dass, wenn Sie heutzutage eine Nachrichtenmeldung lesen, die Wahrscheinlichkeit, dass sie von einem Chatbot erstellt wurde, nicht gleich Null ist. Wie bei allem anderen besteht auch hier immer die Möglichkeit, dass der Chatbot, der die Meldung erstellt hat, sich Details eingebildet hat.
Wir haben Nachrichtenberichte voller ungenauen Details gesehen, und das kann, je nach Thema, verheerend sein. Es ist schlimm, wenn ein Chatbot bei einer kleineren Geschichte halluziniert, aber wir befinden uns mitten in einem wichtigen Wahljahr. Es ist nicht nur ein Wahljahr für die USA, sondern es finden auch andere Wahlen auf der ganzen Welt statt.
Fehlinformationen waren schon vor der generativen KI schlimm genug. Nun, das Letzte, was die Welt braucht, ist eine Armee von Chatbots, die Details zu wichtigen Themen halluzinieren. Chatbots durchforsten das Internet und sammeln Daten, aber wir wissen nicht, woher sie ihre Daten beziehen. Die KI weiß nicht, dass die New York Times eine seriösere und vertrauenswürdigere Website ist als eine zwielichtige Website namens KerSplash News, die Fake News verbreitet!
In der heutigen Zeit (wo die Welt, wissen Sie, in Flammen steht und so) brauchen die Menschen vertrauenswürdige Nachrichten.
Vertrauen Sie nicht alles, was eine KI Ihnen sagt
Das Problem der Halluzinationen bei KI wird sich möglicherweise nie lösen. Deshalb müssen Sie bei der Verwendung von KI-Tools aller Art vorsichtig sein. Wenn Sie ein neues KI-Tool verwenden, um Ihr Unternehmen zu führen oder beim Schreiben zu helfen, benötigen Sie ein System, um die Ergebnisse auf ihre Richtigkeit zu überprüfen. Wenn Sie etwas für Ihre Hausarbeit recherchieren, steht eine KI zwischen Ihnen und einer guten Note. Möglicherweise müssen Sie noch einmal nachsehen und sicherstellen, dass die KI aus den richtigen Quellen schöpft.
Wenn Sie ein Tool zur Unterstützung interner Geschäftsangelegenheiten verwenden, müssen Sie kein Genie sein, um zu wissen, wie wichtig genaue Ergebnisse sind. In einer perfekten Welt sind Ihre KI-Tools 100 % genau, aber das Problem der Halluzinationen besteht immer noch. Unabhängig davon, auf wie vielen GPUs die Modelle trainiert werden oder wie viele Millionen Dollar in sie gesteckt werden, besteht bei den KI-Modellen, die wir heutzutage verwenden, die Gefahr der Halluzination.


Recherchieren Sie
Bevor Sie blindlings mit der Nutzung eines KI-Tools beginnen, sollten Sie sich informieren und herausfinden, welche Modelle dahinter stecken. Die Chancen stehen gut, dass die von Ihnen verwendeten KI-Tools auf einem der Modelle der KI-Giganten laufen: Google, OpenAI, Meta, xAI oder Anthropic. Wenn Sie das Modell finden können, prüfen Sie, ob es bei diesem Modell Probleme mit Halluzinationen gab. Wenn das Tool beispielsweise Google Gemini verwendet, suchen Sie nach Neuigkeiten zu diesem Modell und prüfen Sie, ob Sie sich wegen Halluzinationen Sorgen machen sollten.
Wir befinden uns in einem seltsamen Stadium der KI. Die Leute wollen sie unbedingt in nahezu jede Branche integrieren, aber derzeit ist sie noch ziemlich unausgereift. Das bedeutet, dass wir immer noch mit Wachstumsschwierigkeiten zu kämpfen haben, und manche Unternehmen haben mehr davon als andere. Es ist nicht abzusehen, wann die KI den Punkt erreichen wird, an dem sie nicht mehr halluziniert. Wir wissen nur, dass KI, wenn es soweit ist, tatsächlich das sein könnte, was die Menschheit voranbringt.