Google ist einer der Hauptnamen im Bereich der künstlichen Intelligenz. Die DeepMind Division des Unternehmens produziert Dutzende von Entwicklungen und Technologien, die schließlich ihren Weg in die Kernprodukte und -dienste von Google finden. Vor kurzem hat Google DeepMind ein Sicherheitspapier geteilt, das vor der AGI -Ära warnte. Es gibt jedoch Stimmen gegen die Schlussfolgerungen des Dokuments.
Openai prägte vor einiger Zeit den Begriff Agi (künstliche allgemeine Intelligenz). Es bezieht sich auf künstliche Intelligenzsysteme, die in der Lage sind, praktisch jede Aufgabe auszuführen, die ein Mensch erledigen könnte. Es gibt sehr unterschiedliche Ansichten unter Experten auf dem Gebiet, wenn AGIS eintreffen wird. Einige sind optimistisch, andere sind weniger.
Sicherheitspapier zeigt die Ansicht von Google DeepMind von AGI
Laut Google DeepMind könnte True Agis bereits 2030 eintreffen. “(Wir gehen davon aus) Die Entwicklung einer außergewöhnlichen AGI vor dem Ende des aktuellen Jahrzehnts “heißt. ““
Das Unternehmen zeigt diese potenzielle Realität jedoch nicht als völlig positiv. Das Papier warnt davor, dass diese Systeme verursachen könnten “schwerer Schaden. ““ Es heißt auch, dass die Ankunft der Technologie mit sich bringen könnte “existenzielle Risiken“ Das „Die Menschheit dauerhaft zerstören. ““
Das DeepMind -Team hebt wichtige Unterschiede zwischen ihrem Ansatz „AGI -Risikominderung“ und dem anderer hervor. Die Zweigstelle von Google sagt, dass der anthropische Wert weniger betont ““robuste Schulung, Überwachung und Sicherheit. ““ Auf der anderen Seite ist Openai übermäßig optimistisch “Automatisieren„Ausrichtungsforschung nach DeepMind. Ausrichtungsforschung ist eine Methode der KI -Sicherheitsforschung.
KI -Superintelligenz ist nicht rentabel, glaubt das Unternehmen
DeepMind -Forscher haben auch Zweifel an der Lebensfähigkeit von AI „Superintelligence“, auf die Openai ebenfalls Bezug genommen hat. Das Papier besagt, dass es derzeit keine gibt “bedeutende architektonische Innovation„Das zeigt in diese Richtung. Sie sehen jedoch die Möglichkeit von“Rekursive AI -Verbesserung„Mit der vorhandenen Technologie.
“Die transformative Natur von AGI hat das Potenzial für unglaubliche Vorteile sowie schwere Schäden.„Das Dokument liest.“Um AGI verantwortungsbewusst aufzubauen, ist es für Frontier -KI -Entwickler von entscheidender Bedeutung, proaktiv zu planen, schwere Schäden zu mildern. ““
Es gibt Experten, die mit DeepMind nicht einverstanden sind
Es gibt einige Stimmen in der Branche, die mit den Schlussfolgerungen des DeepMind -Berichts nicht einverstanden sind. Heidy Khlaaf, Chef -AI -Wissenschaftlerin am Now -Profit AI Now Institute, behauptet, dass es noch zu früh ist, um das AGI -Konzept zu erwarten, „zu erwarten“rigoros wissenschaftlich bewertet. ““ Matthew Guzdial, Assistenzprofessor an der Universität von Alberta, sagt, dass die von DeepMind erwähnte rekursive AI -Verbesserung ebenfalls unrealistisch ist.Wir haben noch nie Beweise dafür gesehen, dass es funktioniert«, Sagte er.
Sandra Wachter – ein Forscher, der Technologie und Regulierung in Oxford studiert – glaubt, dass das eigentliche Anliegen die Ausbildung zukünftiger AIs mit “mit“ungenaue Ausgänge. ““ Sie scheint sich auf die wachsende Verwendung von synthetischen Daten in der Branche zu beziehen.
“Mit der Verbreitung generativer KI -Ausgänge im Internet und dem allmählichen Austausch authentischer Daten lernen Modelle jetzt aus ihren eigenen Ausgängen«, Sagte sie.“Zu diesem Zeitpunkt werden Chatbots überwiegend für die Suche und Wahrheitsfindung verwendet. Das bedeutet. ““