OpenAI vermutet, dass Deepseek AI GPT -Daten zum Training verwendet hat

Oscar

Die Arbeit von OpenAI in der Tech -Industrie führte zu der aktuellen Situation, in der Unternehmen miteinander konkurrieren, um die leistungsstärkste KI in die Handfläche zu stecken. Jetzt könnte Deepseek eine ähnliche Situation replizieren, aber die Kosten für die Entwicklung leistungsstarker KI -Modelle senken. OpenAI vermutet jedoch, dass seine KI -Modelle illegal zur Ausbildung von Deepseeks verwendet wurden.

Deepseeks Auswirkungen auf die aktuelle Anteile der KI -Industrie und der großen Unternehmen von Unternehmen

Die Entstehung von Deepseek schüttelte die Grundlagen der künstlichen Intelligenzindustrie, wie wir sie kennen. Das chinesische Unternehmen präsentierte Modelle, die in der Lage waren, andere bekannte und etablierte zu vergleichenden oder sogar übertreffen. Trotzdem beruht Deepseeks wirklicher Einfluss auf das von ihnen erreichte Kosten-Performance-Verhältnis. Das Unternehmen behauptet, dass es nur rund 6 Millionen US -Dollar ausgegeben hat, ihre KI -Modelle auszubilden. Dies ist nur ein kleiner Teil der Millionen/Milliarden, die andere große Namen bisher investiert haben.

Nach Angaben des Teams hinter Deepseek sind die niedrigen Kosten darauf zurückzuführen, dass sie Tausende älterer Nvidia H800 -Chips anstelle moderner und teurerer Hardware verwendet haben, um die Modelle R1 und V3 zu trainieren. Die Entwicklung führte zu einem Verlust von mehr als 17% des Aktienwerts von Nvidia innerhalb eines Tages. Dies entspricht einer Kapitalisierung von rund 600 Milliarden US -Dollar.

Aber was wäre, wenn Deepseek zu bestimmten „Verknüpfungen“ zurückgegriffen hätte, über die es beim Start seiner Modelle nicht gesprochen hat? Dies ist der Verdacht, der derzeit von Openai, der Muttergesellschaft von Chatgpt, gehalten wird. OpenAI und Microsoft untersuchen derzeit, ob Deepseek die OpenAI -API verwendet hat, um GPT -Modelle in ihre eigenen zu integrieren.

Microsoft und OpenAI haben Berichten zufolge Beweise dafür, dass Deepseek GPT verwendet, um seine Modelle zu trainieren

Microsoft Security-Forscher teilten Bloomberg mit, dass sie Ende 2024 ein groß angelegte Datenpeelung aus OpenAI-Entwicklerkonten festgestellt hätten. Der Redmond Giant vermutet, dass diese Entwicklerkonten mit Deepseek verbunden waren. Andererseits teilte OpenAI der Financial Times mit, dass es bei der Datendestillation Beweise für Deepseek gefunden habe. Die Destillation ist eine Technik, mit der große Datensätze in kleinere „komprimierte“ für die Verwendung in Trainings -KI -Modellen „komprimiert“ werden können.

In diesem Fall vermuten OpenAI und Microsoft, dass Deepseek Destillation verwendet hat, um GPT -Modelle in ihre eigenen zu integrieren. Dies hätte ihnen alle Millionen gerettet, die Openai in künstliche Intelligenztraining investiert hat. Obwohl OpenAI durch seine API Entwicklungen von Drittanbietern auf seiner Plattform ermöglicht, verbieten die Nutzungsrichtlinien die Datendestillation ausschließlich.

Wir wissen“Openais Aussage lautet. “Als führender Bauunternehmer von AI betreiben wir Gegenmaßnahmen, um unsere IP zu schützen, einschließlich eines sorgfältigen Prozesses, für den die Grenzfunktionen in veröffentlichte Modelle aufgenommen werden sollen, und glauben, dass es von entscheidender Bedeutung ist, dass wir eng mit der US -Regierung zusammenarbeiten Um die fähigsten Modelle vor Bemühungen von Gegnern und Wettbewerbern am besten zu schützen, um uns Technologie zu nehmen,”Fügt das Unternehmen hinzu.

Verdacht haben bereits Trumps Kabinett erreicht

David Sacks, der von der neuen Verwaltung in Washington ausgewählt wurde, um KI und Krypto im Land zu bewältigen, sagte gegenüber Fox News, dass “Es gibt wesentliche Beweise dafür, dass das, was Deepseek hier getan hat. ““