Apples KI-Training basiert auf Google-Chips und nicht auf NVIDIA-GPUs

Oscar

Derzeit gibt es in der KI-Branche einige wichtige Namen, wie beispielsweise NVIDIA. Das Unternehmen konnte dank anderer großer Namen, die seine GPUs für das Training von KI-Modellen nutzen, enorm wachsen und wurde zum Marktführer. Allerdings scheint NVIDIAs Position Apple nicht völlig zu überzeugen, das lieber auf die KI-Chips von Google zurückgriff, um seine eigenen LLMs zu trainieren.

Technisches Dokument bietet Details zu Apples KI-Training

Apple ist etwas spät in das KI-Segment eingestiegen, will aber nicht zurückbleiben. Auf der letzten WWDC24 kündigte das Unternehmen eine Fülle von KI-gestützten Funktionen für seine Mobilgeräte und Macs an. Die meisten dieser Funktionen werden ab nächstem Jahr verfügbar sein, und selbst diejenigen, die diesen September erscheinen sollten, wurden verzögert. Angesichts der mühsamen Entwicklung hinter High-End-KI-Modellen war so etwas jedoch zu erwarten.

Apple hat jedoch ein technisches Dokument mit Einzelheiten zur Entwicklung seiner LLMs veröffentlicht. Diese werden die Grundlage der Apple Intelligence-Plattform bilden, die die eigenen Modelle des Unternehmens und Modelle von Drittanbietern unterstützen wird. Apples erster externer Partner in dieser Hinsicht ist OpenAI, mit dem man zusammenarbeitet, um die ChatGPT-Funktionalität für Cloud-basierte Aufgaben in iOS zu integrieren. Das Unternehmen könnte in Zukunft auch Google Gemini-Unterstützung anbieten.

Apple setzt auf Google-Chips für KI-Training mit Cloud-Fokus

Wie dem auch sei, das Papier zeigt, dass Apple auf Googles TPU-Plattformen zurückgegriffen hat, statt auf NVIDIA-GPUs. Dies steht im Gegensatz zu dem Ansatz anderer großer Unternehmen wie OpenAI und Microsoft. Genauer gesagt werden in dem Papier „Cloud TPU-Cluster“ als Treiber für Apples KI-Training erwähnt. Das Unternehmen bezeichnet seinen eigenen Satz von LLMs als „Apple Foundation Model (AFM)“. Im Grunde hat der Riese aus Cupertino Cloud-Verarbeitungsleistung von Google gemietet, statt NVIDIA-GPUs zu erwerben.

Das Unternehmen behauptet, dass der Cloud-Ansatz für sie der beste sei. Laut dem Dokument „ermöglicht uns dieses System, die AFM-Modelle effizient und skalierbar zu trainieren, einschließlich AFM-on-Device, AFM-Server und größeren Modellen.“

Apple möchte außerdem erreichen, dass seine KI-Modelle eine niedrige „schädliche“ Reaktionsrate aufweisen. Dies umfasst den Umgang mit sensiblen Themen, sachlichen Fehlern, Leistung bei mathematischen Operationen und mehr. Laut dem Dokument weist AFM derzeit eine „schädliche Ausgabeverletzungsrate von 6,3 %“ auf. Zum Vergleich: Apple hat im GPT-4-Modell eine Rate von 28,8 % festgestellt. In Bezug auf die Verarbeitung auf dem Gerät weist AFM eine Fehlerrate von 7,5 % auf, während Metas Llama-3-8B-Modell eine Rate von 21,8 % aufweist.