Samsung könnte zukünftige Google-TPU-Chips bauen, um die KI-Kosten zu senken

Oscar

Ob Sie es glauben oder nicht, trotz all des Geldes, das in die KI gesteckt wird, ist sie nicht so profitabel, wie man vielleicht denkt. All diese Geld- und Investitionsspritzen dienen einer Zukunft, in der KI zur wichtigsten treibenden Kraft werden könnte. Aber im Moment verbrauchen die meisten KI-Unternehmen Geld. Dies ist auf teure Hardware, die Kosten für den Betrieb von Rechenzentren und mehr zurückzuführen. Aber Google hätte möglicherweise eine Lösung für dieses Problem gefunden, indem es Samsung dazu gebracht hätte, seine TPU zu bauen.

Zukünftige Google-TPU-Chips könnten von Samsung hergestellt werden

Laut einem aktuellen Beitrag auf X von @jukan05 könnte Google die Herstellung seiner TPU an Samsung auslagern. Es scheint, dass Google-Führungskräfte Samsungs Halbleiterfabrik in Taylor, Texas, einen Besuch abgestattet haben. Bei dem Besuch wurde auch darüber gesprochen, wie viele TPUs Samsung möglicherweise liefern könnte.

Das sind gute Nachrichten für Samsung. Der südkoreanische Technologieriese mag bei den Smartphone-Verkäufen führend sein, aber das betrifft nur die Verbraucherseite. Im Unternehmensbereich liegt Samsung weit hinter TSMC, das Chips für Unternehmen wie Apple, Qualcomm, NVIDIA und andere herstellt.

Die potenzielle Zusammenarbeit von Google mit Samsung könnte den Lebenslauf des Unternehmens verbessern, was in Zukunft andere Unternehmen anziehen könnte, die sich möglicherweise von ihrer Abhängigkeit von TSMC lösen möchten. Derzeit wurde Googles TPU in Zusammenarbeit mit Broadcom entwickelt. Es soll 80 % weniger kosten als der H100 von NVIDIA und bietet gleichzeitig eine ähnliche, wenn nicht sogar bessere Leistung.

Würde Google auf Samsung statt auf TSMC setzen, könnte das in Zukunft zu noch günstigeren TPUs führen. Dies könnte die Gesamtkosten von Google senken, wenn es um den Bau zukünftiger Rechenzentren oder die Modernisierung bestehender geht.

Was ist Googles TPU und warum ist es wichtig?

Die Ausführung von KI-Modellen ist ressourcenintensiv. Selbst einer KI zu danken und sie dazu zu bringen, „Gerne geschehen“ zu sagen, verbraucht mehr Ressourcen, als Sie vielleicht denken, selbst wenn es nur ein paar Worte und ein paar Zeichen sind.

Aus diesem Grund haben Unternehmen wie NVIDIA ihren Fokus auf die Entwicklung von mehr Hardware für KI verlagert. Mit Googles TPU hat das Unternehmen einen maßgeschneiderten KI-Chip entwickelt, der KI- und maschinelle Lernaufgaben beschleunigen soll. Dazu gehört das Trainieren von Modellen wie Gemini für Aufgaben wie Bilderkennung, Stromversorgung neuronaler Netze, Inferenz und mehr.

Der Ansatz von Google unterscheidet sich von dem von NVIDIA. Die TPU von Google ist für die Mathematik neuronaler Netzwerke konzipiert, während die GPUs von NVIDIA für umfassendere KI-bezogene Arbeitslasten konzipiert sind. Die Zusammenarbeit von Google mit Broadcom und Samsung könnte zu günstigeren TPUs führen, was die Google Cloud-Kosten senken und gleichzeitig die Dominanz von NVIDIA im Rechenzentrum herausfordern könnte.