OpenAI hat immer noch damit zu kämpfen, dass Chats durchgesickert sind

Oscar

Große Sprachmodelle (LLMs), auf denen KI-Chatbots laufen, gehören wahrscheinlich zu den größten Informationsspeichern aus dem Internet. Diese Informationen können harmlos oder sehr sensibel sein. OpenAI, das Unternehmen hinter ChatGPT, muss sich nun mit dem zusätzlichen Drama auseinandersetzen, dass durchgesickerte Gespräche vertrauliche Informationen preisgeben.

Es ist wichtig zu wissen, dass sich die Geschichte noch in der Entwicklung befindet. Es ist also durchaus möglich, dass neue Details auftauchen und den Verlauf dieses jüngsten Dramas völlig verändern. Die Geschichte besteht vorerst aus zwei Teilen.

OpenAI befasst sich immer noch mit durchgesickerten Gesprächen über ChatGPT

Im ersten Teil der Geschichte zeigt ein ArsTechnica-Leser einige ziemlich beunruhigende Screenshots. Der Veröffentlichung zufolge nutzt der betreffende Leser ChatGPT ausgiebig. Nun, nachdem der Leser sich eines Tages beim Dienst angemeldet hatte, bemerkte er dort mehrere Gespräche, die scheinbar aus dem Nichts zustande kamen. Sie führten diese Gespräche nicht mit ChatGPT.

Das ist schon seltsam genug, aber die Sache wird noch schlimmer, wenn wir den Inhalt der Gespräche erkennen. Eines der Gespräche betraf einen Mitarbeiter einer Apotheke, der ChatGPT zur Fehlerbehebung bei einem Arzneimittelportal nutzte. Wenn man sich das redigierte Gespräch ansieht, wird deutlich, dass der Mitarbeiter sehr frustriert war.

Was jedoch noch schockierender an dem Gespräch ist, ist, dass die Mitarbeiter im Gespräch offenbar eine Menge sensibler Informationen preisgegeben haben. Dazu gehören mehrere Benutzernamen und Passwörter sowie der Name des Portals, das sie verwendet haben. In den falschen Händen könnte sich dies für die betreffende Apotheke und alle Menschen, die auf ihre Medikamente angewiesen sind, als verheerend erweisen.

Dies ist nur eine der Konversationen, die über ChatGPT durchgesickert sind, und wir sind uns nicht ganz sicher, wie weit verbreitet diese sind. Auf jeden Fall möchte das niemand sehen. Auch wenn dies nicht der Fall sein sollte, neigen Menschen manchmal dazu, vertrauliche Informationen in ihre Chatbot-Gespräche einzubringen.

OpenAI hat geantwortet

Nun zum zweiten Teil der Geschichte. Auf den ersten Blick scheint dies eine sehr verheerende Wendung der Ereignisse zu sein. Es scheint jedoch, dass die ArsTechnica-Veröffentlichung etwas zu früh kam. Android Authority wandte sich bezüglich der Situation an OpenAI, und das Unternehmen reagierte.

„ArsTechnica hat veröffentlicht, bevor unsere Betrugs- und Sicherheitsteams ihre Untersuchung abschließen konnten, und ihre Berichterstattung ist leider ungenau. Basierend auf unseren Erkenntnissen wurden die Anmeldedaten des Benutzerkontos kompromittiert und ein böswilliger Akteur nutzte dann das Konto. Der Chat-Verlauf und die angezeigten Dateien sind Konversationen, die auf einen Missbrauch dieses Kontos zurückzuführen sind, und es handelte sich nicht um einen Fall, in dem ChatGPT den Verlauf eines anderen Benutzers angezeigt hat.“

Es scheint also, dass ChatGPT Gespräche nicht willkürlich an andere Benutzer weiterleitet, so wie es beim Austeilen von Pokerkarten der Fall wäre. Der betreffende Benutzer wurde offenbar von einem Kriminellen gehackt. Dieser unbekannte Hacker ließ die Gespräche dann durchsickern.

Obwohl wir keine Beweise haben, die OpenAI bestreiten könnten, klingt die Erklärung etwas seltsam, eher scheint sie unvollständig zu sein. Der schlechte Schauspieler hat beschlossen, die Gespräche an zufällige Personen weiterzugeben – das erscheint seltsam. Auf jeden Fall scheint es, dass ChatGPT Gespräche nicht willkürlich an andere ChatGPT-Benutzer weitergibt. Offensichtlich steckt hinter dieser schlechten Schauspielergeschichte noch mehr, aber die Benutzer sollten hoffentlich beruhigt sein.

Es ist wichtig nicht um persönliche Informationen mit jedem KI-Chatbot zu teilen. Man weiß nie, wo diese Daten landen. Unglücklicherweise für den Apothekenmitarbeiter liegen die Anmeldedaten jetzt auf OpenAI-Servern.

Ich werde Sie über diese Geschichte auf dem Laufenden halten, sobald weitere Details bekannt werden.