10 Gigawatt Rechenleistung: OpenAI kooperiert mit Broadcom für eigenen Custom-ASIC
Nach Deals mit Nvidia und AMD hat OpenAI auch eine Vereinbarung mit Broadcom geschlossen. Am kommenden AI-ASIC könnten beide aktiv zusammenarbeiten, denn zuvor waren bereits Gerüchte im Umlauf, OpenAI wolle eine maßgeschneiderte eigene Lösung nutzen. Wie genau die aber aussehen könnte, dazu gibt es noch keine Details.
Announcing partnership with @Broadcom to build an OpenAI chip.
— Greg Brockman (@gdb) October 13, 2025
This deal is on top of the @nvidia and @AMD ones we’ve announced over the past few weeks, and will allow us to customize performance for specific workloads.
The world needs more compute. https://t.co/zWMDFztrSl
Die größte Neuheit der Ankündigung ist deshalb die offizielle Bestätigung, dass OpenAI einen eigenen Chip entwirft. Wie viel Eigenleistung darin enthalten ist, was genau auf Broadcom entfällt und viele weitere Details bleiben aber unklar. Fakt ist, dass Broadcom die Racks und die Skalierbarkeit via „Ethernet und anderen Lösungen“ realisieren soll, OpenAI wiederum soll Beschleuniger und Systeme entwickeln. Dabei will OpenAI die Erfahrungen verarbeiten, die sie in den letzten Jahren mit AI-Lösungen anderer Hersteller gemacht haben, und so eine maßgeschneiderte Lösung bauen.
Entwickler von OpenAI geben auf X zumindest kleine Einblicke. Demnach ist der Chip bereits seit 18 Monaten in Entwicklung – anders wäre ein Start in rund neun Monaten auch nicht durchführbar. Laut OpenAI soll dies einer der schnellsten Wege zu einem Massenprodukt sein, wobei natürlich auch ein Auftragsfertiger eine Rolle spielen dürfte. Broadcom lässt traditionell bei TSMC fertigen, „the fastest and largest volume ramp of any first time chip“ gilt es entsprechend mit Fakten zu belegen. Da sich Unternehmen wie Apple, Nvidia, AMD und weitere um TSMCs State-of-the-Art-Fertigungskapazität streiten, bleibt auch abzuwarten, worauf diese OpenAI-Lösung fußen wird.
Really happy to be announcing the chips we’ve been cooking the past 18 months! OpenAI kicked off the reasoning wave with o1, but months before that we’d already started designing a chip tuned precisely for reasoning inference of OpenAI models.
— Clive Chan (@itsclivetime) October 13, 2025
In January 2024, I joined OpenAI as… https://t.co/gZfr9BWuGT
Am Ende soll es ein ganzes System werden, welches beide bereitstellen wollen. Broadcom kümmert sich dabei um die komplette Infrastruktur.
Our partnership with OpenAI continues to set new industry benchmarks for the design and deployment of open, scalable and power-efficient AI clusters. Custom accelerators combine remarkably well with standards-based Ethernet scale-up and scale-out networking solutions to provide cost and performance optimized next generation AI infrastructure. The racks include Broadcom’s end-to-end portfolio of Ethernet, PCIe and optical connectivity solutions, reaffirming our AI infrastructure portfolio leadership.
Broadcom
Bereits ab Ende 2026 soll der Aufbau von 10 Gigawatt Rechenleistung beginnen und bis Ende 2029 abgeschlossen sein. Auf dem Papier steht die Vereinbarung damit der Kooperation mit Nvidia in nichts nach, wenngleich dort wohl bereits die Fußnote existiert, dass es auch über die bis dato angekündigte Kapazität hinausgehen könnte.
Wer und wie das ganze am Ende finanziert wird, darüber gibt es keine Informationen. Die Kritik wurde deshalb zuletzt stetig lauter, woher angesichts der Ankündigungen die vielen hundert Milliarden US-Dollar und mehr denn überhaupt kommen sollen.