Qualcomm ist mit der Einführung seiner beiden neuen Beschleunigerchips offiziell in das KI-Chip-Rennen eingestiegen. Mit diesem Schritt strebt das Unternehmen eine deutliche Abkehr von seinem traditionellen Fokus auf Halbleiter für Smartphones und drahtlose Konnektivität an. Mit der Einführung seiner neuen AI200- und AI250-Chips positioniert sich das Unternehmen als neuer Herausforderer im boomenden Rechenzentrumsmarkt, der derzeit von Nvidia und AMD dominiert wird.
Qualcomm kündigt AI200- und AI250-Beschleunigerchips an
Laut einer offiziellen Ankündigung plant Qualcomm, seinen neuen Beschleunigerchip, den AI200, im Jahr 2026 kommerziell auf den Markt zu bringen. Der AI250 soll später im Jahr 2027 auf den Markt kommen. Beide Chips sind für große, flüssigkeitsgekühlte Server-Racks konzipiert. Sie sind in der Lage, ein ganzes Rack mit bis zu 72 Chips zu versorgen, die als ein System fungieren.
Qualcomm baut seine Rechenzentrumschips auf der gleichen hexagonalen neuronalen Verarbeitungseinheit (NPU) auf wie seine mobilen Prozessoren. Laut Durga Malladi, General Manager für Rechenzentren und Edge des Unternehmens, ist dies Teil eines strategischen Schritts. Das sagt sie „Wir haben uns zunächst in anderen Bereichen bewährt und sind dann auf die Rechenzentrumsebene skaliert.“
Die neuen KI-Chips konkurrieren hinsichtlich Kosten, Effizienz und Flexibilität
Im Gegensatz zu NVIDIA, dessen GPUs hauptsächlich zum Trainieren von KI-Modellen verwendet werden, konzentrieren sich die Chips von Qualcomm auf Inferenz und führen vorab trainierte Modelle effizient aus. Das Unternehmen gibt an, dass der Betrieb seiner Rack-Scale-Systeme kostengünstiger sein wird. Es soll rund 160 Kilowatt pro Rack verbrauchen, was in etwa den Systemen von Nvidia entspricht.
Malladi fügt in ihrer Stellungnahme weiter hinzu, dass Qualcomm modulare Verkäufe anbieten wird. Kunden können komplette Racks oder einzelne Komponenten erwerben. Interessanterweise könnten sogar Konkurrenten wie Nvidia oder AMD auf Qualcomms CPUs oder andere Rechenzentrumsteile zurückgreifen. Die neuen AI-Karten sollen außerdem in der Lage sein, 768 GB Speicher zu verarbeiten und damit sowohl NVIDIA als auch AMD in dieser Metrik zu übertreffen.