Die ChatGPT macOS-App war ein Albtraum für die Privatsphäre

Oscar

Es gibt Dinge, die sich einfach nicht vertragen, wie Öl und Wasser. KI und Datenschutz sind zwei davon. Es gibt mehrere KI-Tools und -Funktionen, die geradezu nach einem Albtraum für Datenschutz schreien. Das gilt auch für eine beliebte Anwendung, die gerade auf den Markt gekommen ist. Die ChatGPT macOS-App speichert Konversationen im Klartext.

Wenn Ihnen das bekannt vorkommt: Microsoft wurde gerade wegen etwas Ähnlichem durch den Holzhäcksler geworfen. Es wurde festgestellt, dass die beeindruckende und ziemlich gruselige Recall-Funktion Informationen auf den Computern der Benutzer in einem leicht lesbaren Textdokument speichert. Das bedeutet, dass jemand, der Zugriff auf den Computer dieses Benutzers erhält, dieses Dokument extrahieren und im Grunde eine Nachbesprechung von ALLEM erhalten kann, was dieser getan hat. Microsoft hat die Funktion zurückgenommen und sie seitdem auf unbestimmte Zeit ausgesetzt.

Die ChatGPT macOS-App speicherte Konversationen im Klartext

Verbraucherorientierte KI verlagert sich langsam von Rechenzentren auf Geräte. Es ist unbestreitbar praktisch, leistungsstarke KI auf dem Telefon oder Computer zu haben, ohne eine Verbindung zum Internet herstellen zu müssen. Aus diesem Grund gibt es einen so großen Vorstoß für geräteinterne KI.

Allerdings sind die Unternehmen, die diese Technologien vorantreiben, nicht offen und ehrlich darüber, was sie tun müssen, um die Daten auf dem Gerät zu behalten. Microsofts Vorgehen war rücksichtslos, und es scheint, dass OpenAI nicht aus dem Fehler seines Wohltäters gelernt hat. Pedro José Pereira Vieito hat auf Threads einen Beitrag veröffentlicht, in dem er zeigt, wie die ChatGPT macOS-App Konversationen im Klartext auf dem Computer speichert.

Pereira entwickelte eine App, die auf diese Gespräche zugreifen und sie an die Oberfläche bringen konnte. Jay Peters von The Verge konnte dies demonstrieren und bestätigen, dass es wahr ist. Nachdem The Verge OpenAI kontaktiert hatte, konnte das Unternehmen einige Änderungen vornehmen und die App blockieren.

Also, Problem gelöst … oder?

Okay, OpenAI hat das Problem behoben und die Situation gerettet. Das ist großartig, aber das grundlegende Problem ist nicht behoben. Sowohl Microsoft als auch OpenAI wurden dabei erwischt, wie sie mit den Daten ihrer Benutzer völlig rücksichtslos umgingen, und wir erfahren davon erst, wenn Dritte ihre Systeme untersuchen und sie melden. Diese Unternehmen waren also völlig damit zufrieden, diese Sicherheitsprobleme auf unseren Geräten bestehen zu lassen.

Wir können nur sagen, dass wir Glück haben, dass die Leute, die diese Schwachstellen entdecken, barmherzige Samariter und keine Hacker sind. Noch einmal: Pereira hat eine App entwickelt, die diese Daten extrahieren konnte. Was hindert jemanden daran, eine App zu entwickeln, die diese Daten extrahieren und heimlich direkt an ihn senden kann? So etwas passiert.

Das Hauptproblem besteht darin, dass Großkonzerne weiterhin Produkte mit offensichtlichen Sicherheitsproblemen auf den Markt bringen und nichts unternehmen, bis diese entdeckt werden. Sind das nicht die Unternehmen, die in Keynotes mit erstklassiger Sicherheit prahlen? Wir vertrauen ihnen blind, weil es Microsoft oder Google oder Apple ist. Diese Unternehmen sind Multi-Billionen-Dollar-Unternehmen, also wissen sie angeblich ein oder zwei Dinge darüber, wie man unsere Daten sicher verwahrt. Sie beweisen jedoch immer wieder, dass sie es nicht wissen.

Normale Benutzer sollten diese Sicherheitslücken nicht entdecken; sie sollten keine im Klartext gespeicherten Gesprächsprotokolle finden. Solange Großkonzerne nicht aufhören, mit unseren Daten so rücksichtslos umzugehen und diese auffälligen und schicken KI-Tools zu nutzen, wird das Problem nie wirklich gelöst werden.