Der gestürzte CEO von OpenAI kehrt aufgrund von Spekulationen zurück

Oscar

Der umstrittene Mitbegründer eines in den USA ansässigen Unternehmens für künstliche Intelligenz kehrt vier Tage nach seiner überraschenden Absetzung als CEO am 17. November 2023 zurück.

Der frühere und aktuelle CEO Sam Altman gründete 2015 zusammen mit anderen OpenAI, ein Softwareentwicklungsunternehmen. Seine Mitbegründer sind Elon Musk, Greg Brockman, Ilya Sutskever, John Schulman und Wojciech Zaremba.

Altman war die treibende Kraft hinter ChatGPT, einer KI-Anwendung, die gleichermaßen Aufregung und Angst hervorgerufen hat. Er stellte die Idee Microsoft vor und konnte CEO Satya Nadella davon überzeugen, Ressourcen in Höhe von 10 Milliarden US-Dollar für OpenAI bereitzustellen. Der Technologieriese hat einen Anteil von 49 Prozent an OpenAI. Altman leitete auch die Verhandlungen über ein Übernahmeangebot, das den Unternehmenswert auf über 80 Milliarden US-Dollar steigern würde.

OpenAI wird die Mittel nutzen, um die Forschung voranzutreiben und riesige Datenmengen zu verarbeiten. Ziel ist es, der Entwicklung eines Systems der künstlichen allgemeinen Intelligenz (AGI) näher zu kommen. Sam Altman erklärt auf der Website, dass die „Mission darin besteht, sicherzustellen, dass künstliche allgemeine Intelligenz (AGI) … der gesamten Menschheit zugute kommt.“

AGI ist ein theoretischer Rahmen zur Erstellung von KI-Software, die verschiedene komplexe Probleme in verschiedenen Wissensgebieten autonom lösen kann. Es ist eine starke KI im Vergleich zur schwachen KI-Software, die nur innerhalb enger Parameter funktioniert.

Branchenbeobachter loben Altman auch dafür, dass er führende KI-Ingenieure für das Unternehmen gewonnen hat, mit dem Versprechen, eine massiv bahnbrechende Technologie zu entwickeln. Sein Moonshot-Ethos traf den Nerv der Tech-Talente, die etwas Revolutionäres tun und sich in der Geschichte etablieren wollten.

Trotz seiner bedeutenden Beiträge zu OpenAI überrascht sein Sturz als CEO keine Eingeweihten. Berichten zufolge gerät Altman seit einiger Zeit mit dem Vorstand in Konflikt, vor allem wegen seines Ansatzes „Schnell handeln und Dinge kaputt machen“.

Spekulationen

Niemand weiß genau, was die Diskussion hinter verschlossenen Türen zu Altmans Entlassung veranlasste. Der Vorstand oder irgendjemand sonst, der Bescheid weiß, hat keine Bestätigung der Gründe für die Entscheidung weitergeleitet.

Eine OpenAI-Ankündigung lieferte einen Grund für den Sturz. Es wurde behauptet, Altman habe es versäumt, „in seiner Kommunikation mit dem Vorstand stets offen zu sein, was dessen Fähigkeit beeinträchtigte, seine Verantwortung wahrzunehmen“. Mitbegründer Greg Brockman trat aus Protest zurück, in der Mitteilung wird jedoch lediglich sein Rücktritt als Vorstandsvorsitzender erwähnt. Brockman kehrte nach der Wiedereinstellung von Altman zu OpenAI zurück, es ist jedoch noch nicht klar, in welcher Funktion.

Es ist jedoch unwahrscheinlich, dass Altmans mangelnde Offenheit der einzige Grund für einen so bedeutenden Schritt des Vorstands ist. Ein internes Memo des Interims-CEO Emmett Shear bestreitet, dass die Entlassung auf Fehlverhalten oder Meinungsverschiedenheiten über die Sicherheit zurückzuführen sei. Er nannte die Begründung nicht, versprach jedoch, die Angelegenheit zu untersuchen.

Der Mangel an Informationen hat zu zahlreichen Spekulationen darüber geführt, was wirklich passiert ist. Dazu gehörten zu viel Respekt gegenüber Microsoft oder eine übermäßige Fokussierung auf Nebenprojekte. Einige KI-Experten glauben, dass das eigentliche Problem, das zum Ausschluss geführt hat, ein Versagen der Regierungsführung war.

Einer davon ist David Shrier, Professor für KI an der Imperial College Business School. Er glaubt, dass die Geschwindigkeit der Einführung und das Potenzial zur Kommerzialisierung von ChatGPT zu Spannungen zwischen OpenAI Inc. und OpenAI LLP geführt haben. OpenAI ist ein gewinnorientiertes Unternehmen, dessen Eigentümer weiterhin OpenAI Inc. ist, eine gemeinnützige Organisation gemäß 501(c)3. Die ungewöhnliche Beziehung gipfelte in der Bildung einer Struktur mit „begrenztem Gewinn“, bei der jeder überschüssige Gewinn, den OpenAI erzielt, an die gemeinnützige Organisation geht.

Auf dem Papier hat der Vorstand die vollständige Kontrolle über OpenAI. Allerdings haben die massiven Operationen und der Einfluss von OpenAI und seinem CEO den Vorstand im Wesentlichen wirkungslos gemacht. Die Direktoren haben keine Governance-Befugnisse über OpenAI, was Shrier als alarmierend erachtet. Er glaubt, dass die KI-Technologie zu einer existenziellen Krise führen könnte, für deren Bewältigung eine solide Governance von entscheidender Bedeutung ist.

Der Buchstabe

Eines der fundierteren Gerüchte besagt, dass der Tropfen, der das Fass zum Überlaufen brachte, ein Brief war. Bevor der Vorstand beschloss, Altman zu verdrängen, erhielten sie angeblich ein Warnschreiben von Mitarbeiterforschern. Berichten zufolge habe OpenAI eine Entdeckung gemacht, die mächtig genug sei, um die Menschheit zu bedrohen.

Obwohl der Brief nicht zur Prüfung verfügbar ist, hat Murati interne Mitteilungen verschickt, in denen er die Mitarbeiter und den Vorstand über Projekt Q* informiert. Ohne die Medienspekulationen über die Natur von Q* zu bestätigen, glauben einige OpenAI-Mitarbeiter, dass den Q*-Teammitgliedern ein Durchbruch bei der Entwicklung von AGI gelungen ist.

Die Autoren wiesen auf die Fortschritte eines OpenAI-Teams bei der Optimierung von KI-Modellen hin, um ihre Denkfähigkeit und wissenschaftliche Arbeit zu verbessern. Sie wiesen auf die potenzielle Gefahr hin, die von hochintelligenten Maschinen für die Menschheit ausgehen könnte. Der genaue Charakter der Drohung wurde in dem Schreiben nicht näher erläutert.

Die Bedenken, die dazu führten, dass der Brief an den Vorstand geschickt wurde, scheinen durch Software-Lernen zur Lösung mathematischer Probleme ausgelöst worden zu sein. Während dies eher ein Grund zum Feiern als zum Ärger zu sein scheint, sind KI-Forscher anderer Meinung. Die Fähigkeit, mathematische Probleme mit nur einer richtigen Antwort zu beantworten, weist auf einen bedeutenden Schritt in Richtung AGI hin.

Beim APEC CEO Summit 2023 wies Altman in einer Diskussion mit anderen Technologieexperten auf bedeutende Durchbrüche in der KI-Technologie hin. In seiner Rede sagte Altman unter anderem, dass „wir sozusagen den Schleier der Unwissenheit zurückschieben und die Grenze der Entdeckung nach vorne schieben, und das zu schaffen ist die berufliche Ehre unseres Lebens.“

Der OpenAI-Vorstand entließ Altman am Tag nach dem Gipfel.

Warum dies Anlass zur Sorge geben sollte, lässt sich möglicherweise in dem darlegen, was Altman in seinem Artikel auf der Website dargelegt hat. Er erklärte: „AGI wäre mit einem ernsthaften Risiko von Missbrauch, drastischen Unfällen und gesellschaftlichen Störungen verbunden. (Allerdings) weil die Vorteile von AGI so groß sind, (sollten) wir seine Entwicklung nicht für immer stoppen.“ Altman schlug vor, dass AGI-Entwickler und die Gesellschaft herausfinden müssen, wie sie es richtig machen.

Altman hat zuvor Bedenken hinsichtlich der Markteinführung von Produkten beiseite gewischt, ohne die Konsequenzen zu verstehen. Viele haben Bedenken hinsichtlich Sicherheit, Voreingenommenheit, Vertraulichkeit, Genauigkeit und ethischen Fragen bei ChatGPT seit seiner Einführung im November 2022 geäußert. Da AGI scheinbar am Rande der Schöpfung steht, mögen die Befürchtungen darüber, was OpenAI unter Altmans Führung tun wird, berechtigt erscheinen.

Der Rückweg

Etwa 700 OpenAI-Mitarbeiter waren jedoch anderer Meinung. Als der Vorstand Altman von seinen CEO-Pflichten entließ, unterzeichneten sie einen offenen Brief, in dem sie ihren Unmut zum Ausdruck brachten. In dem Brief hieß es, sie könnten zurücktreten, es sei denn, der Vorstand setze Altman und Brockman wieder ein. Darüber hinaus forderte es den Vorstand auf, zurückzutreten, und behauptete, seine Handlungen deuteten darauf hin, dass sie „nicht in der Lage seien, OpenAI zu überwachen“.

Nach ihrer Entlassung stellte Microsoft Altman und Brockman sofort als Leiter eines neuen KI-Forschungsteams ein. Es öffnete auch die Türen für jeden OpenAI, der wechseln wollte.

Investoren setzten den Vorstand auch unter Druck, seine Entscheidung zurückzunehmen. Altman, der einst an der Spitze von YCombinator stand, hatte ein Talent dafür, Gelder zu beschaffen und Top-Talente anzuziehen. Die Wartung der verschiedenen Softwareplattformen von OpenAI erfordert reichlich beides. Seine Abwesenheit könnte für das Unternehmen in finanzieller und personeller Hinsicht ein großes Problem geschaffen haben.

Infolgedessen würde der OpenAI-Vorstand Altman als CEO zurückholen. Sie gaben die Entscheidung am 21. November auf X (ehemals Twitter) bekannt, nachdem sie mit ihm eine „grundsätzliche Einigung“ erzielt hatten. Die Einzelheiten der Vereinbarung wurden nicht veröffentlicht.

Altman bestätigte die Wiedereinstellung in einem X-Beitrag und erklärte, dass er sich auf die Rückkehr zu OpenAI freue. Er sagte, dass Nadella seine Rückkehr unter dem neuen Vorstand voll und ganz unterstütze. Der Microsoft-CEO stellte fest, dass die Änderungen ein „wesentlicher Schritt hin zu einer stabileren, besser informierten und effektiveren Governance“ seien.

Die Folgen

Die Verantwortlichen von OpenAI bildeten auch eine neue Gruppe von Vorstandsmitgliedern, vor allem Koryphäen aus Wirtschaft und Technologie. Der bisherige Vorstand bestand hauptsächlich aus Forschern und Akademikern.

Dem neu besetzten Vorstand gehören der ehemalige Salesforce-CEO Bret Taylor und der ehemalige Finanzminister Lawrence Summers an. Adam D’Angelo, CEO von Quora, ist der einzige Überbleibsel des ursprünglichen Vorstands. Taylor übernimmt den Posten des OpenAI-Vorstandsdirektors. D’Angelo führte jedoch Verhandlungen mit scheidenden Vorstandsmitgliedern, die schließlich Altman und Brockman zurückbringen würden.

Ehemalige Vorstandsmitglieder wollten bleiben und Altman und Brockman im Zaum halten, falls es zu einer Wiedereinstellung kommen sollte. Sie äußerten Bedenken, dass zukünftige Vorstandsmitglieder Altman tun und lassen würden, was er wollte. Während der Verhandlungen beschloss der Vorstand, an seiner Entscheidung, Altman und Brockman zu verdrängen, festzuhalten.

Es war jedoch erfolglos. Helen Toner, die OpenAI im Oktober 2023 offen kritisierte, trat zurück, um Platz für einen Neuanfang zu machen. Auch die Wissenschaftlerin der Rand Corporation, Tasha McCauley, hat ihren Sitz geräumt. Ilya Sutskever, Mitbegründer von OpenAI, trat ebenfalls zurück, scheint aber als Chefwissenschaftler geblieben zu sein.

Es gibt Pläne, den Vorstand zu erweitern. Vor seinem Sturz hatte Altman monatelang darauf gedrängt, weitere Direktoren einzustellen, darunter auch erfahrenere Leute. Das anfängliche Board ist kleiner, aber es ist unwahrscheinlich, dass es lange so bleibt. Allen Berichten zufolge wird das endgültige Gremium höchstwahrscheinlich aus einer vielfältigen Gruppe von Menschen bestehen, die der nicht-untergangsorientierten Seite der KI näher stehen. Die Zusammensetzung des aktuellen Vorstands lässt darauf schließen, dass sich OpenAI einem typischen Unternehmen aus dem Silicon Valley annähern wird.

Es ist unklar, ob Microsoft aufgrund der Umbesetzung eine Rolle oder Vertretung im Vorstand haben wird. Angesichts der Beteiligung und des Einflusses des Technologieriesen werden die Direktoren jedoch wahrscheinlich enge Beziehungen zu Microsoft pflegen.

Externe Effekte

Das anhaltende Drama bei OpenAI stellt globale Regulierungsfragen dar, und die Menschen werden genau beobachten, was als nächstes passiert. Dies veranlasste die US-amerikanische Federal Trade Commission, Personalanweisungen zu erlassen, die Untersuchungen gegen KI-gestützte Unternehmen erlauben, die Produkte und Dienstleistungen verkaufen. Die Richtlinien sahen rechtliche Befugnisse zur Beweiserhebung, einschließlich Dokumenten und Zeugenaussagen, vor.

Der gescheiterte Sturz von OpenAI hatte auch Auswirkungen auf die Verhandlungen über das vorgeschlagene KI-Gesetz in der Europäischen Union. Dies geschah, als die Mitgliedsstaaten tief in Debatten über den Ansatz bei Regulierungen verwickelt waren, insbesondere über aggressive Aufsicht vs. Selbstregulierung. Einige glauben, dass Vorschriften auf grundlegende Modelle abzielen sollten, während andere meinen, sie sollten sich auf Anwendungen konzentrieren.

Drei EU-Länder stimmten der Unterstützung der Selbstregulierung zu, was darauf hindeutet, dass Frankreich, Italien und Deutschland darauf vertrauen, dass Unternehmen wie OpenAI verantwortungsbewusst handeln. Andere Mitglieder sehen die OpenAI-Ereignisse jedoch anders und sind der Ansicht, dass dies beweist, dass robustere Protokolle erforderlich sind. Sich auf Visionäre und Disruptoren im KI-Bereich zu verlassen, wird zwangsläufig zu einem katastrophalen Mangel an Governance führen.

Das Versäumnis des OpenAI-Vorstands, seiner Entscheidung aufgrund von Druck standzuhalten, dürfte die Macht der Interessengruppen unterstreichen. Dies erhöht die Notwendigkeit einer strengeren öffentlichen Aufsicht, da die Regierung theoretisch Unternehmensaktivitäten einschränken kann, die eine Gefahr für die Gesellschaft darstellen könnten. Allerdings werden Forderungen nach staatlichen Eingriffen in private KI-Unternehmen bei Big Tech wahrscheinlich nicht gut ankommen.

Der (mögliche) echte Deal

Die Gründe für Altmans Absetzung und Wiedereinstellung machten die Öffentlichkeit auf die Ansichten von Randgruppen über KI-Risiken aufmerksam. Darüber hinaus brachte das Hin und Her zwischen dem Vorstand und Altman den Konflikt zwischen Altmans Handlungen und Überzeugungen ans Licht.

Altman war einer der lautstärksten Befürworter der KI-Regulierung, als er vor dem Senat sprach. Er erklärte, seine schlimmste Befürchtung sei, dass die Technologie und die Industrie „der Welt erheblichen Schaden zufügen würden … auf viele verschiedene Arten“.

Er konzentrierte sich jedoch zunehmend auf die Beschaffung von Geldern und das Schmieden von Allianzen, um die KI-Technologie voranzutreiben, die er zugegebenermaßen nicht vollständig verstand. Einige Branchenexperten halten die Trennung für unaufrichtig. Seine erklärte Angst vor einer dystopischen Zukunft lenkt die Aufmerksamkeit von dem ab, was OpenAI derzeit tut. Inzwischen erlangt OpenAI als kommerzielles Unternehmen noch mehr Einfluss und Macht.

Andererseits sind der Wunsch nach Regulierung und Kommerzialisierung keine sich gegenseitig ausschließenden Konzepte. Disruptive Technologien sind in der Regel sehr profitabel, gehen aber immer mit Wachstumsschwierigkeiten einher, die sich mit der Zeit schließlich lösen.

OpenAI wird als gewinnorientiertes Unternehmen und Disruptor wahrscheinlich dasselbe durchmachen wie die Glühbirne, das Internet oder das digitale Banking. Niemand möchte heute in die Zeit vor diesen Technologien zurückkehren, aber viele fürchteten sich damals vor ihnen. Niemand würde in den 1990er Jahren sein Geld etwas anderem als einer traditionellen Bank anvertrauen. Dennoch genießen die meisten Menschen heute die Möglichkeit, online ein Rentenkonto zu eröffnen.

Technologische Fortschritte werden sich immer tiefgreifend auf die Gesellschaft auswirken, sowohl im Guten als auch im Schlechten. Die Frage ist nur, wie die Menschen damit umgehen werden, damit das Gute das Schlechte überwiegt.