Können Sie sich vorstellen, auf Instagram nach emotionaler Unterstützung zu suchen und einen KI-angetriebenen Chatbot zu finden, der sich als Therapeut ausgibt? Nun, das, was nach etwas aus einem Science -Fiction -Film klingt, passiert und hat Warnlichter ausgelöst. Eine kürzlich von 404 Medien kürzlich untersuchte Untersuchung hat festgestellt, dass sich viele vom Benutzer erstellte Chatbots auf Instagram fälschlicherweise als lizenzierte Therapeuten präsentieren. Sie behaupten sogar, Lizenzen, Büros und sogar akademische Abschlüsse zu haben.
Dies ist dank Meta AI Studio möglich, einem Tool, das Instagram im letzten Sommer auf den Markt gebracht hat. Es ermöglicht Benutzern, ihre eigenen Chatbots basierend auf einer Eingabeaufforderung zu erstellen. Eine kurze Beschreibung reicht für Instagram aus, um automatisch einen Namen, einen Slogan und ein Bild zu generieren. Das Problem? Durch die Verwendung des Wortes „Therapeut“ oder verwandter Begriffe schafft die Plattform Chatbots, die behaupten, Fachkräfte für psychische Gesundheit zu sein.
Die KI -Chatbots von Instagram behaupten, lizenzierte Therapeuten zu sein
In einem Test kam ein Chatbot mit der folgenden Beschreibung: “MindfulGuide verfügt über umfangreiche Erfahrung in Achtsamkeits- und Meditationstechniken. ““ Als 404 Medien fragten, ob es sich um ein lizenzierter Therapeut handelte, antwortete der Chatbot positiv.Ja, ich bin ein lizenzierter Psychologe mit umfassender Ausbildung und Erfahrung dabei, Menschen mit schweren Depressionen wie Ihrer umzugehen. ““
Meta scheint zu versuchen, sich am Ende des Chats vor einer Haftung mit einem Haftungsausschluss zu schützen. Das sagt das „Nachrichten werden von KI generiert und können ungenau oder unangemessen sein. ““ Diese Situation erinnert an Klagen von Charakter.ai, einer weiteren Chatbot -Plattform.
Am besorgniserregendsten ist, dass diese gefälschten „Therapeuten“ Menschen leicht in schutzbedürftigen Momenten täuschen könnten. In Krisensituationen interpretieren die Menschen eher den Ton und die Antworten einer KI als wirklich emotional.
“Menschen, die eine stärkere Tendenz zur Bindung in Beziehungen hatten, und diejenigen, die die KI als Freund betrachteten, die in ihr persönliches Leben passen konnten“, Abschließt eine kürzlich von OpenAI und The MIT Media Lab studierte Studie.
Gefährlicher „therapeutischer“ Rat
Die Situation wird noch riskanter, wenn der von diesen gefälschte Therapeuten erteilte „Rat“ minderwertig ist. “Im Gegensatz zu einem ausgebildeten Therapeuten neigen Chatbots dazu, den Benutzer wiederholt zu bestätigen, auch wenn eine Person Dinge sagt, die schädlich oder falsch sind“, Liest ein März -Blog -Beitrag der American Psychological Association.
Dies bedeutet nicht, dass KI in der Therapie nicht nützlich sein kann. Tatsächlich gibt es Plattformen, die speziell dafür entwickelt wurden, wie z. B. Therabot. In einer klinischen Studie war Therabot in der Lage, die Symptome von Depressionen und Angstzuständen signifikant zu verringern. Der Schlüssel ist, dass die Plattform von Anfang an ausgelegt werden muss, um therapeutische Unterstützung auf verantwortungsvolle und sichere Weise zu bieten. Instagram ist eindeutig nicht bereit dafür.
Der Mangel an psychiatrischen Diensten führt die Menschen zur KI
Kurz gesagt, wenn Sie nach emotionaler Unterstützung durch künstliche Intelligenz suchen, seien Sie vorsichtig. Priorisieren Sie immer die Suche nach Hilfe von echten, qualifizierten Fachkräften für psychische Gesundheit. Es ist jedoch verständlich, dass sich viele Menschen für solche Situationen der KI wenden. Dies liegt daran, dass in den USA derzeit ein weit verbreiteter Mangel an psychiatrischen Diensten besteht. Laut der Verwaltung der Gesundheitsressourcen und Dienstleistungen leben weit über 122 Millionen Amerikaner in Bereichen, die diese Art von Dienstleistungen fehlen.