Wir sind an einem Punkt angelangt, an dem wir KI-Unternehmen nicht mehr wirklich vertrauen können, aber wir müssen den Unternehmen Anerkennung zollen, die sich Mühe geben. Obwohl OpenAI definitiv seine Geheimnisse hat, unternimmt das KI-Startup zumindest Schritte, um das Vertrauen der Öffentlichkeit zu gewinnen. Einem neuen Bericht zufolge hat OpenAI versprochen, dem AI Safety Institute frühzeitigen Zugriff auf sein neuestes Modell zu gewähren.
In verschiedenen Ländern werden Abteilungen eingerichtet, die sich der Analyse von KI und der Eindämmung potenzieller Gefahren widmen. In den USA gibt es eine solche Abteilung, das AI Safety Institute. Diese Abteilung ist dafür zuständig, sicherzustellen, dass KI den Menschen in keiner Weise schadet. Es ist eine relativ neue Abteilung, die in Zukunft eine zentrale Rolle in der KI-Branche spielen wird.
OpenAI gewährt dem US AI Safety Institute frühzeitigen Zugriff auf sein neuestes Modell
OpenAI wird dem AI Safety Institute frühzeitigen Zugriff auf sein neuestes Basismodell gewähren. Das ist ein ziemlich großer Schritt. Eines der wichtigsten Dinge, die alle Regierungsbehörden wollen, ist, dass KI-Unternehmen ihnen gegenüber transparent sind und sie darüber informieren, woran sie arbeiten. Es ist durchaus möglich, dass ein Unternehmen ein Produkt herausbringt, das tatsächlich Schaden anrichtet. Manchmal kann es schwierig oder unmöglich sein, den Schaden rückgängig zu machen.
In einem Beitrag von OpenAI-CEO Sam Altman erfahren wir, dass das Unternehmen ihm Zugriff auf sein neuestes Basismodell gewährt. Der Beitrag erwähnte jedoch nicht, um welches Modell es sich handelt. Daher wissen wir nicht, ob es sich um einen frühen Zugriff auf ein bahnbrechendes Modell oder eines für kleinere Anwendungen handelt.
Außerdem wird in dem Beitrag erwähnt, dass es sich nur um das nächste Modell handelt. Wir wissen nicht, ob das Unternehmen frühzeitigen Zugriff auf zukünftige Modelle gewähren wird. Auf jeden Fall ist dies immer noch ein großartiger Schritt.
Das Unternehmen unternimmt weitere Schritte
In dem Beitrag erklärte Altman auch, dass das Unternehmen 20 % seiner Computerressourcen für seine Sicherheitsbemühungen im gesamten Unternehmen einsetzen werde. Das ist gut zu hören, denn in letzter Zeit gab es einiges Drama um die Sicherheitsbemühungen des Unternehmens. Es gab Berichte, dass das Unternehmen Ressourcen von seinem Sicherheitsteam abgezogen habe. OpenAI hat jedoch anschließend intern ein neues Team zusammengestellt.