Künstliche Intelligenz (KI) hat begonnen, unser Leben auf die eine oder andere Weise zu übernehmen. Da Technologieunternehmen stark in KI investieren, sind sie auch für den Schutz ihrer Plattformen verantwortlich, insbesondere für Kinder. In Anbetracht der Bedenken haben große Unternehmen wie Google, Openai, Discord und Roblox gemeinsam eine neue Kindersicherheitsgruppe gebildet und die ROOST -Initiative (Robust Open Online Safety Tools) auf dem AI Action Summit in Paris gestartet.
Google, OpenAI, Discord & Roblox gründeten eine neue Kindersicherheitsgruppe, um Online -Schaden anzugehen
Roost ist eine neue gemeinnützige Organisation, die darauf abzielt, die Kindersicherheit online zu verbessern. Unternehmen, die sich der Child Safety Group zusammenschließen, haben Zugang zu kostenlosen Open-Source-KI-Tools. Sie können solche Tools verwenden, um sexuelle Missbrauch von Kindern (CSAM) zu erkennen, zu überprüfen und zu melden.
Laut der gemeinsamen Pressemitteilung zielt diese Initiative ab, zusammenzubringen “Fachwissen, Ressourcen und Investitionen”Um eine zugängliche und transparentere Sicherheitsinfrastruktur zu schaffen, um Online -Schaden mit KI zu bekämpfen. Mehrere philanthropische Organisationen wie die Knight Foundation, die Patrick J. McGovern Foundation und die KI -Kollaborative haben ebenfalls die Initiative unterstützt.
Bluesky, Microsoft, Mozilla und Github sind auch einige der wichtigsten Partner dieser Initiative. Zweifellos ist die unter der Child Safety Group eingeführte Initiative großartig und für alle. Es bleibt jedoch abzuwarten, ob es einige seiner großen Ziele erreichen kann.
Die Gründungspartner haben eine fleckige Geschichte, wenn es darum geht, ihre Plattform zu regulieren
Nehmen wir Roblox als Beispiel; Das Unternehmen hat eine schlechte Erfolgsbilanz bei der Regulierung seiner Plattform. Tatsächlich hat Hindenburg letztes Jahr Roblox in einen seiner Berichte verprügelt.
Während Google großartige Arbeit leistet, um die Sicherheit von Kindern online zu gewährleisten, kämpft es immer noch darum, die Verteilung expliziter Inhalte von AI-generiertem AI-generierten zu bekämpfen. Daher können wir nur warten und hoffen, dass die Kindersicherheitsgruppe das ganze Lob dafür bekommt, dass sie ihre Arbeit in der ganzen Linie erledigt.