ChatGPT erhält neue Funktionen, um geistige Not zu behandeln

Oscar

KI -Modelle wie Chatgpt fühlen sich schlau. Es fühlt sich an, als würde es dich haben. Aber in Wirklichkeit wirkt es sich eher wie eine Echokammer. Leider füttert es in einigen Fällen tatsächlich die Täuschung einer Person an sie zurück und „bestätigt“, dass ihre Gedanken und Gefühle real sind. Zum Glück ist dies etwas, das Openai mit neuen mentalen Notfunktionen in Chatgpt ansprechen will.

Neue Chatgpt -Mental -Not -Funktionen

Laut OpenAI ändert sich einige Änderungen an Chatgpt, wenn es um geistige Belastung geht. Das Unternehmen sagt: „Chatgpt ist geschult, mit geerdeter Ehrlichkeit zu reagieren. Es gab Fälle, in denen unser 4O-Modell Anzeichen von Täuschung oder emotionaler Abhängigkeit nicht erkannte. Wir verbessern zwar selten unsere Modelle und entwickeln weiterhin Tools, um Anzeichen von mentaler oder emotionaler Not zu erkennen, so dass ChatGPT angemessen reagieren kann und die Leute auf evidenzbasierte Ressourcen auf evidenzbasierte Ressourcen hinweisen kann.“

Das Unternehmen erkennt auch an, dass Benutzer ChatGPT möglicherweise zu lange verwenden, und fordert die Benutzer vorsichtig auf, Pausen einzulegen. „Ab heute werden Sie in langen Sitzungen sanfte Erinnerungen sehen, um Pausen zu fördern. Wir werden weiter stimmen, wann und wie sie auftauchen, damit sie sich natürlich und hilfsbereit fühlen.“ Dies erinnert an die digitalen Wohlbefindensfunktionen, die wir auf mobilen Geräten wie iOS und Android gesehen haben.

Zuletzt wird OpenAI die Lösung von Chatgpt Ihre persönlichen Probleme verbessern. Das Unternehmen gibt ein Beispiel dafür, wie Chatgpt den Benutzern keine Antwort auf Fragen geben sollte, wie wenn Sie sich von Ihrem Partner trennen sollten. Stattdessen sagt das Unternehmen, dass es Ihnen helfen sollte, das Problem durchzusetzen.

Rufen Sie die AI -Regulierung an

Wenn überhaupt, sind diese Fälle eine gute Erinnerung daran, dass KI reguliert werden sollte. Es ist ehrlich gesagt erstaunlich zu sehen, wie weit KI -Modelle seit ihrer ersten Einführung gekommen sind. Könnte es jedoch sein, dass wir sie zu schnell entwickeln, ohne wirklich zu wissen, was wir der Welt entfesseln?

Aus diesem Grund haben einige KI aufgefordert, reguliert zu werden. Kürzlich haben Unternehmen wie Google den AI -Praxiscode der EU unterzeichnet. Es handelt sich um eine vereinbarte Regeln zwischen KI-Unternehmen, die in der EU tätig sind. In den USA ist es jedoch eine andere Geschichte. Ein kürzlich veröffentlichter Gesetzentwurf verhindert, dass Staaten seine eigenen Vorschriften einführen. Stattdessen möchte die Regierung Regulierung auf Bundesebene.