Character.AI fügt neue Sicherheitsfunktionen für Jugendliche hinzu

Oscar

Character.AI nimmt große Änderungen vor, um die Sicherheit jugendlicher Benutzer weiterhin zu gewährleisten. Laut einem Blogbeitrag des Unternehmens hat Character.AI mehrere neue Funktionen hinzugefügt, um die Sicherheit von Teenagern auf der Plattform zu gewährleisten, und wird bald eine Kindersicherung einführen, die Eltern viel mehr Kontrolle geben wird. Das Unternehmen gibt an, dass diese Maßnahmen unangemessene Inhalte blockieren und das Gesamterlebnis sicherer machen.

Eine Mutter hat kürzlich Character.AI verklagt und ihm die Schuld am Selbstmord ihres 14-jährigen Sohnes gegeben.

Character.AI verfügt über ein separates LLM für Benutzer unter 18 Jahren

Character.AI hat sein LLM für jugendliche Benutzer aktualisiert. Es wurde ein separates großes Sprachmodell (LLM) für Benutzer unter 18 Jahren erstellt. Dieses LLM erkennt unangemessene Reaktionen, insbesondere bei sensiblen Themen wie Romantik oder Selbstverletzung, und blockiert sie.

Die Plattform zeigt außerdem ein spezielles Popup an, das Benutzer zur National Suicide Prevention Lifeline weiterleitet, wenn das LLM eine Sprache erkennt, die auf Selbstverletzung oder Selbstmord hindeutet. Die neuen Änderungen werden es zu einem freundlicheren und sichereren Ort für Teenager machen.

Außerdem wurde dadurch verhindert, dass minderjährige Benutzer die Antworten auf die Chatbots bearbeiten konnten. Früher konnten Benutzer bearbeiten, was die Bots sagten, Jugendliche können die Gespräche jedoch nicht mehr ändern. Dies ist Teil der Bemühungen des Unternehmens, das Hinzufügen unangemessener Inhalte zu Chats zu verhindern.

Warum sind diese neuen Änderungen für Character.AI notwendig?

Diese Änderungen sind notwendig, um Jugendliche vor schädlichen Gesprächen zu schützen. Dies wird dazu beitragen, einen sicheren Bereich für eine kleinere Altersgruppe zu schaffen. Die Änderungen werden gemeinsam mit „mehreren jugendlichen Online-Sicherheitsexperten“ vorgenommen, darunter der Organisation ConnectSafely.

Das Unternehmen fügt außerdem neue Kindersicherungen hinzu, mit denen Eltern sehen können, wie viel Zeit ihr Kind mit Character.AI verbringt und mit welchen KI-Chatbots es am meisten interagiert. Die neue Kindersicherung wird im ersten Quartal 2025 verfügbar sein.

Das Unternehmen wird auch eine Zeitlimitfunktion einführen: Es benachrichtigt Benutzer, nachdem sie eine Stunde lang mit einem Bot gechattet haben, eine Pause einzulegen. Diese Funktion verhindert eine Abhängigkeit von der Plattform und sorgt für gesunde Nutzungsgewohnheiten.

„Wir sind bestrebt, eine sichere Umgebung für alle unsere Benutzer zu schaffen. Um dieser Verpflichtung nachzukommen, sind wir uns darüber im Klaren, dass sich unser Sicherheitsansatz zusammen mit der Technologie, die unser Produkt antreibt, weiterentwickeln muss – und so eine Plattform schaffen, auf der Kreativität und Forschung gedeihen können, ohne die Sicherheit zu beeinträchtigen.“ Character.AI sagte in einem Blogbeitrag.