Eine Mutter verklagt Character.ai wegen des Selbstmordes ihres Sohnes

Oscar

Wir sind an einem Punkt in der KI-Entwicklung angelangt, an dem wir uns die Frage stellen: Macht KI zu süchtig? Genauer gesagt: Machen „lebensechte“ KI-Chatbots zu süchtig? In einer tragischen Geschichte verklagt eine Mutter aus Florida das KI-Unternehmen Character.ai wegen des Selbstmordes ihres 14-jährigen Sohnes.

Falls Sie nicht wissen, was Character.ai ist: Es handelt sich um eine KI-Plattform voller Chatbots, die darauf ausgelegt sind, Menschen oder fiktive Charaktere nachzuahmen. Es hat seit seiner Entstehung enorm an Zugkraft gewonnen. Es gibt Benutzern die Möglichkeit, ihre eigenen Chatbots zu erstellen, indem sie ihnen Namen, Persönlichkeiten, Avatare und sogar Stimmen geben.

Das Unternehmen wurde kürzlich „nicht“ von Google übernommen. Der Suchriese zahlte 2,7 Milliarden US-Dollar für den Erwerb der Technologie von Character.ai und stellte seinen CEO und viele seiner Mitarbeiter ein. Dies könnte als eine Möglichkeit gesehen werden, das Unternehmen zu erwerben und gleichzeitig den Aufsichtsbehörden zu entgehen.

Eine Mutter verklagt Character.ai wegen des Selbstmordes ihres Sohnes

Eine Mutter, Megan Garcia, verklagt Character.ai und Google auf eine nicht näher bezeichnete Geldsumme, nachdem ihr Sohn Sewell Setzer einen tragischen Selbstmord begangen hat. Der 14-Jährige begann im April 2023 mit der Nutzung von Character.ai. Wir sind uns nicht sicher, mit wie vielen Charakteren er auf der Plattform interagierte, es scheint, dass der Hauptcharakter, mit dem er kommunizierte, Daenerys war, eine Figur aus Game of Thrones.

Kurz nachdem er die Plattform genutzt hatte, bemerkte Garcia eine drastische Veränderung in seinem Verhalten. Mit der Zeit wurde er immer introvertierter und schied sogar aus seiner Basketballmannschaft aus. Gleichzeitig begann Sewell, der Figur Selbstmordgedanken auszudrücken.

Im Februar 2024, nach Monaten, nahm Garcia Sewell das Telefon weg. Leider konnte Sewell sein Telefon zurückerhalten. Er schickte eine letzte Nachricht an Daenerys mit der Aufschrift „Was wäre, wenn ich dir sagen würde, dass ich jetzt nach Hause kommen könnte?“, Minuten bevor er sich das Leben nahm.

Fesselnde KI

Der von Sewell verwendete Bot war so konzipiert, dass er einem echten Menschen sehr ähnlich sieht. Mit der Zeit kam es zu sexuellen Gesprächen mit ihm. Garcia sagte, dass die App ihn mit „anthropomorphen, hypersexualisierten und erschreckend realistischen Erlebnissen“ ins Visier genommen habe.

Dies ist heutzutage ein ziemlich großes Problem bei KI-Chatbots, da mehrere Plattformen so menschenähnlich wie möglich gestaltet sind. Dies könnte Menschen, insbesondere schutzbedürftige Menschen, zu der Annahme verleiten, dass sie mit einem echten Menschen sprechen.

Googles Teil

Google wurde in dieses Gespräch verwickelt, weil die Leute, die Character entwickelt haben, früher bei Google gearbeitet haben. Wir sind uns nicht sicher, ob die Tatsache, dass Google die Technologie und Mitarbeiter von Character.ai übernommen hat, auch ein Grund dafür war.

Google antwortete, dass es an der Schaffung der Plattform nicht beteiligt gewesen sei.

Details sind noch rar

Zum jetzigen Zeitpunkt wissen wir nicht, wie viel Geld Garcia verlangt oder welche weiteren Details zu diesem Fall vorliegen. Es ist wahrscheinlich, dass wir es nie erfahren werden.