Spotify ist der „Tech Coalition“ beigetreten, deren Ziel es ist, Online-Sicherheit zu fördern und zu bewahren. Das Audio-Streaming-Unternehmen hat versichert, dass die Schaffung einer sichereren Online-Umgebung für junge Menschen oberste Priorität hat.
Spotify hilft gefährdeten Nutzern, Zugang zu Ressourcen für die psychische Gesundheit zu erhalten
Marcelina Slota, Leiterin von Spotifys Plattformintegrität, hat erklärt, dass das Unternehmen weiterhin bestrebt sei, eine sichere Online-Umgebung für seine Hörer zu schaffen. Der beliebte Streaming-Dienst fügte hinzu, dass er es seinem jungen Publikum und seinen Eltern erleichtern wolle, die digitale Welt besser zu verstehen.
Spotify erwähnte, dass es relevante Prozesse einführen wird, um den Benutzern zu helfen, sicher durch die digitale Welt zu navigieren. Im Rahmen seines Engagements für eine sicherere Online-Präsenz ist Spotify der Tech Coalition beigetreten.
mit meinen letzten Suchanfragen löste ich in der Spotify-Zentrale einen umfassenden Alarm wegen psychischer Probleme aus pic.twitter.com/KtGv1qRamA
— ap (@a_phill21) 22. Juli 2024
Neben der Zusammenarbeit mit der Tech Coalition hat Spotify angekündigt, dass es die Konsummuster seiner Plattform überwachen wird, um potenzielle Probleme zu erkennen. Das Unternehmen wird gefährdeten Nutzern dabei helfen, geeignete Ressourcen für die psychische Gesundheit zu finden.
Konkret wird Spotify nach Nutzern Ausschau halten, die regelmäßig nach Inhalten suchen, die mit Selbstmord, Selbstverletzung und Essstörungen in Zusammenhang stehen. Wenn ein Muster erkannt wird, schlägt die Plattform den Nutzern vor, sich an Plattformen für psychische Gesundheit zu wenden. Dazu gehören die US National Suicide Prevention Lifeline, das TREVOR Project, National Eating Disorders Services und andere.
Spotify stellt Personal ein und setzt maschinelles Lernen für Online-Sicherheit ein
Spotify hat bereits zuvor klargestellt, dass es eine Null-Toleranz-Politik gegenüber ausbeuterischen Inhalten verfolgt. Das Unternehmen verbietet bereits illegales oder missbräuchliches Verhalten, das sich insbesondere an junge Menschen richtet.
Spotify hat angekündigt, dass es künftig eigene Teams einsetzen wird, die potenziell verletzende oder explizite Inhalte prüfen und umgehend entfernen sollen. Darüber hinaus setzt das Unternehmen maschinelles Lernen (ML) ein, um Anzeichen potenzieller Probleme schnell zu erkennen.
Warum verfügt Spotify über Ressourcen für die psychische Gesundheit? pic.twitter.com/WiEEcrwqlW
— Delta (@Dobs407) 23. Juli 2024
Das Unternehmen verfügt möglicherweise über ML-Algorithmen, die in Benutzerberichten nach Mustern suchen, um Richtlinienverstöße und Inhalte mit fragwürdiger Rechtmäßigkeit zu erkennen. Normalerweise überwachen, erkennen und kennzeichnen automatisierte Systeme einen Benutzer oder Inhalt. Anschließend überprüfen menschliche Prüfer den Inhalt und ergreifen die erforderlichen Maßnahmen, z. B. Zensur des Inhalts, Ausgabe von Warnungen oder Sperrung eines Benutzers.