AI-Wettlauf: OpenAI bleibt Nvidia treu, Apples AI-Modell-Chef geht zu Meta

Jan-Frederik Timm
25 Kommentare
AI-Wettlauf: OpenAI bleibt Nvidia treu, Apples AI-Modell-Chef geht zu Meta
Bild: Google

OpenAI hat Gerüchte, neben Chips von Nvidia würden bald auch AI-Beschleuniger von Google in den KI-Rechenzentren zum Einsatz kommen, dementiert. Nvidia freut das: Über X teilt der Konzern den entsprechenden Bericht von Reuters. Derweil hat auch Apples AI-Modell-Chefentwickler Metas Millionen-Offerte nicht widerstehen können.

OpenAI bleibt vorerst bei Nvidia

OpenAIs Dementi bedeutet allerdings nicht, dass der Einsatz von Googles TPUs in eigenen Rechenzentren für die Zukunft ausgeschlossen ist. Denn während der Konzern erklärt, derzeit keine Pläne zu haben Googles Chips breit einzusetzen, wird gegenüber Reuters zugleich bestätigt, dass frühe Tests mit Googles Tensor Procession Units (TPU) gefahren werden.

Googles aktuelle TPU ist „Ironwood“ alias v7p mit 192 GByte HBM3 und rund 1.000 Watt TDP.

Googles Ironwood im Vergleich zum Vorgänger (Prognose)
v5e v5p Trillium (v6e) Ironwood (v7p)
Bfloat16 197 TFLOPS 459 TFLOPS 918 TFLOPS 2.307 TFLOPS
Int8/FP8 nicht verfügbar 393 TOPS/459 TFLOPS 1.836 TOPS/? ?/4.614 TFLOPS
High Bandwidth Memory (HBM) 16 GByte 95 GByte 32 GByte 192 GB
Speicherbandbreite 820 GByte/s 2.765 GByte/s 1.640 GByte/s 7.372 GByte/s
Chip-zu-Chip-Verbindung 1.600 GBit/s 4.800 GBit/s 3.584 GBit/s 5.378 GBit/s
Chips pro Pod 256 8.960 256 9.216

Apples AI-Modell-Chef geht zu Meta

Noch unbestätigt ist die Meldung von Bloomberg, demzufolge auch Apples AI-Modell-Chefentwickler Ruoming Pang zu Meta wechselt.

Meta umwirbt seit Wochen hochrangige KI-Entwickler der Konkurrenz, von bis zu 100 Millionen US-Dollar allein als Unterschriftenbonus ist die Rede. Ein Vorhaben, das bereits mehrfach von Erfolg gekrönt gewesen ist.

📊 Intel, AMD oder Nvidia? Mach' jetzt noch mit bei unserer großen Jahresumfrage!