Jeder weiß, dass ein Chatbot völlig künstlich ist und einen Menschen nicht ersetzen kann … oder? Da KI immer überzeugender wird, stellen wir uns diese Frage immer häufiger. OpenAI hat kürzlich einen Blogbeitrag veröffentlicht, in dem es seine Besorgnis darüber zum Ausdruck brachte, dass Menschen Beziehungen zu GPT-4o eingehen.
Dies ist das neueste und beste KI-Modell des Unternehmens. OpenAI hat es im Mai vorgestellt und es seitdem sowohl für zahlende als auch für nicht zahlende Benutzer freigegeben. Wir haben es bei der Ankündigung in Aktion gesehen und es ist klar, dass das Unternehmen große Pläne für dieses Modell hat. Dieses neue Modell verfügt über leistungsfähigere Argumente und humanistischere Antworten.
OpenAI befürchtet, dass Menschen Beziehungen zu GPT-4o eingehen könnten
So abwegig es auch klingen mag, die Gefahr, dass Menschen echte Beziehungen zu KI aufbauen, ist sehr real. Wir haben diese peinlichen Replika-Werbungen gesehen und gespottet und uns gefragt, wie ein solches Unternehmen über Wasser bleiben kann. Nun, Tatsache ist, dass es über Wasser geblieben ist. Es gibt einen Markt von Menschen, die Beziehungen zu ihren neuen digitalen imaginären Freunden aufbauen.
Nun, die Leute, die das fortschrittlichste KI-Modell entwickeln, sind besorgt, dass GPT-4o vielleicht ein wenig zu überzeugend sein könnte.
„Während der ersten Tests, darunter Red Teaming und interne Benutzertests, haben wir beobachtet, dass Benutzer eine Sprache verwendeten, die auf eine Verbindung zum Modell hindeuten könnte. Dazu gehören beispielsweise Formulierungen, die gemeinsame Bindungen ausdrücken, wie „Dies ist unser letzter gemeinsamer Tag“. Obwohl diese Fälle harmlos erscheinen, weisen sie darauf hin, dass weitere Untersuchungen erforderlich sind, um herauszufinden, wie sich diese Effekte über längere Zeiträume manifestieren könnten..”
Wir vertrauen auf KI
In dem Beitrag hat OpenAI einige Gründe genannt, warum es schlecht sein könnte, eine Verbindung mit einer KI aufzubauen. Zunächst einmal sollten Sie nie zu sehr darauf vertrauen, was eine KI sagt. Es ist leicht zu erkennen, warum das ein Problem sein könnte.
Wenn man einer KI beim Wort nimmt, vergisst man, dass das, was sie sagt, nicht unbedingt 100 %ig zutrifft. KI-Modelle halluzinieren immer noch, egal, wie viele Parameter sie haben. Wenn man einem KI-Modell blind vertraut, besteht das Risiko, dass man falsche Informationen aufnimmt und glaubt.
Wer braucht schon Leute?
Als nächstes sprach der Beitrag über etwas, das Sie an Newtons 3. Gesetz erinnern würde. Die gleiche und entgegengesetzte Reaktion auf das Eingehen von Beziehungen mit KI kann sein, dass Sie anfangen, das Bedürfnis nach menschlicher Interaktion zu verlieren. Wir neigen dazu, uns über die Person lustig zu machen, die eine KI-Freundin oder einen KI-Freund hat. Dies deutet jedoch auf ein potenziell destruktives Muster hin.
Menschen laufen Gefahr, entweder auf den Aufbau menschlicher Beziehungen zu verzichten oder bestehende Beziehungen zerbrechen zu lassen.
Wir befinden uns noch nicht in einer dystopischen Zeit
Das heißt nicht, dass dies tatsächlich passiert (zumindest nicht in großem Maßstab). Das Unternehmen drückt lediglich seine Besorgnis darüber aus, dass dies zu einem Problem werden könnte. Das Unternehmen wird seine Untersuchungen zu diesem Thema fortsetzen.