KI ist ein wundersames Stück Technologie, aber sie ist alles andere als perfekt. Manchmal wird veraltetes Wissen zitiert, manchmal wird es einfach erfunden. Dies wird als Halluzination bezeichnet und während es für einige eine leichte Unannehmlichkeit darstellt, kann es für andere möglicherweise schädlich sein. So sehr, dass Google nun mit einer Verleumdungsklage wegen seiner KI konfrontiert ist.
Google steht vor einer Klage wegen KI-Verleumdung
Google sieht sich derzeit mit einer Klage wegen KI-Verleumdung konfrontiert, die von Robby Starbuck eingereicht wurde. Starbuck behauptete, dass Googles KI ihn fälschlicherweise mit Vorwürfen wegen sexueller Übergriffe und als weißer Nationalist in Verbindung gebracht habe. Starbuck hatte Meta zuvor in einem ähnlichen Rechtsstreit verklagt, obwohl sich das Unternehmen im Fall von Meta für einen Vergleich entschied.
Allerdings scheint Google nicht so eifrig zu sein. Tatsächlich hat Google einen Antrag auf Abweisung der Klage eingereicht. Nach eigenen Angaben behauptet das Unternehmen, Starbuck habe Entwicklertools „missbraucht“, um „Halluzinationen hervorzurufen“. Starbuck hat noch nicht herausgefunden, welche Impulse er verwendet hat, um die Ergebnisse zu generieren, die zu der Klage führten. Es ist auch unklar, ob es tatsächlich Personen gab, die durch diese Halluzinationen in die Irre geführt worden sein könnten.
Starbuck verlangt von Google Schadensersatz in Höhe von 15 Millionen US-Dollar, aber wenn Google mit seinem Klageabweisungsantrag Erfolg hat, würde er mit nichts davonkommen. Google könnte dies leicht wie Meta regeln, aber wie gesagt, das Unternehmen scheint derzeit nicht daran interessiert zu sein.
Das Problem mit Halluzinationen
Obwohl unklar ist, was Googles KI dazu veranlasst hat, diese Halluzinationen hervorzurufen, unterstreicht es doch, wie wichtig es ist, zu akzeptieren, dass KI nicht immer Recht hat. Sicher, es hat möglicherweise Zugriff auf eine Fülle von Wissen, aber es macht es nicht immer richtig.
Manchmal wird KI anhand eines Datensatzes mit einem Stichtag trainiert. Das heißt, wenn Sie nach diesem Datum neue Informationen anfordern, kann es zu Fehlern kommen. Außerdem gibt die KI fast nie zu, dass etwas falsch ist. Wenn Sie sich die KI-Subreddits ansehen, werden Sie tatsächlich viele Beispiele von KI-Modellen finden, die Benutzer unter Druck setzen.
Wir können nur hoffen, dass die KI mit der Zeit und der Verbesserung der Technologie intelligenter wird. Aber nehmen Sie bis dahin niemals das Wort einer KI als Evangelium. Überprüfen Sie einfach alles noch einmal.