West Virginia hat eine Klage gegen Apple eingereicht und behauptet, das Unternehmen habe nicht genug getan, um die Weitergabe von Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) über iCloud und andere Dienste zu verhindern. Die Beamten argumentierten, dass das Unternehmen trotz des Zugangs zu stärkeren Werkzeugen keine Maßnahmen ergriffen habe, um die Weitergabe missbräuchlicher Materialien zu stoppen. Apple sagt jedoch, dass es sich weiterhin für den Schutz von Kindern und Benutzerdaten in seinem globalen digitalen Ökosystem einsetzt.
Apple steht vor einer neuen Klage, weil es nicht genug getan hat, um die CSAM-Freigabe in iCloud zu stoppen
Generalstaatsanwalt JB McCuskey sagte, die Klage konzentriere sich auf Lücken in Apples Ansatz zur Erkennung von CSAM auf seinen Geräten und Cloud-Diensten. Er argumentiert, dass andere große Technologieunternehmen automatisierte Hashing-Systeme verwenden, um bekannte illegale Bilder zu identifizieren und zu blockieren. Allerdings ignorierte Apple fortschrittliche Tools und unternahm keine Schritte, um die CSAM-Freigabe in seinem Ökosystem zu schützen. Der Beschwerde zufolge ließ diese Entscheidung Spielraum für die Verbreitung schädlicher Dateien über den iCloud-Speicher.
Im Jahr 2021 kündigte Apple einen Plan an, bestimmte in iCloud hochgeladene Fotos in den USA zu scannen. Das System würde Bilddaten mit einer Datenbank mit bestätigtem Missbrauchsmaterial vergleichen. Es werden dann Berichte gesendet, wenn ein Schwellenwert erreicht wird. Einige Benutzer stellten jedoch die Frage, ob diese Technologie über ihren ursprünglichen Zweck hinaus erweitert werden könnte. Nach monatelangen Debatten und Kritik legte Apple eine Pause ein und ließ die Funktion später fallen. Der Technologieriese sagte, er wolle ein besseres Gleichgewicht zwischen Sicherheit und Datenschutz.
Staatsanwälte haben argumentiert, dass Apple die erweiterte Bildscanfunktion nicht hätte aufgeben sollen. Sie glauben, dass diese Werkzeuge dauerhaft hätten an Ort und Stelle bleiben sollen. Darüber hinaus fordert der Staat Geldstrafen und einen offiziellen Gerichtsbeschluss, der Apple zur Einführung von CSAM-Erkennungssystemen verpflichten würde.
Zu seiner Verteidigung sagt Apple, dass der Schutz der Sicherheit von Kindern und der Privatsphäre der Benutzer für das Unternehmen weiterhin von zentraler Bedeutung sei. Es wurden die Kindersicherungs- und Kommunikationssicherheitsfunktionen hervorgehoben, die junge Benutzer warnen können, wenn vertrauliche Bilder in Nachrichten, geteilten Fotos, AirDrop- oder FaceTime-Anrufen erkannt werden. Es hieß außerdem, dass es weiterhin in fortschrittliche Systeme investiert, um die Privatsphäre und Daten seiner Benutzer zu schützen.