Teurer Speicher: HBM4 soll 30 Prozent mehr als HBM3E kosten

Michael Günsch
46 Kommentare
Teurer Speicher: HBM4 soll 30 Prozent mehr als HBM3E kosten
Bild: Micron

HBM4 wird nicht nur erheblich schneller, sondern auch deutlich teurer. Das besagt eine Analyse der Marktforscher von TrendForce. Demnach habe bereits der Wechsel auf HBM3E zu 20 Prozent höheren Preisen geführt. Bei HBM4 sei ein Preisaufschlag von sogar 30 Prozent und mehr zu erwarten.

Die neue Generation des High Bandwidth Memory wird demnach kostspielig für die Abnehmer, die vor allem in den Kreisen der HPC- und KI-Beschleuniger zu suchen sind. Als Hauptursache wird die gestiegene Komplexität angeführt: Die Zahl der I/O-Pins wird von 1.024 auf 2.048 verdoppelt. Dadurch wird das Chip-Design komplizierter und auch größer. Der Vorteil ist wiederum, dass sich der Durchsatz bei gleichem Speichertakt verdoppelt. Wie so oft hat die massive Leistungssteigerung also einen hohen Preis.

Zusätzlich würden Samsung und SK Hynix gemeinsam mit Auftragsfertigern an einem neuen Design arbeiten. Das „logic-based base die design“ soll durch eine bessere Integration die Latenz zwischen HBM und Prozessor (SoC) verringern, die Datenpfadeffizienz steigern und für eine höhere Stabilität bei Hochgeschwindigkeitsübertragung sorgen. Die vorherigen HBM3E-Base-Dies würden hingegen nur „als einfache Signaldurchgänge“ fungieren, heißt es weiter.

HBM-Nachfrage weiter hoch, SK Hynix bleibt vorn

Angesichts einer weiterhin „robusten Nachfrage“ geht TrendForce davon aus, dass der gesamte HBM-Absatz (alle Generationen) im Jahr 2026 die Marke von 30 Milliarden Gigabit, umgerechnet 3,75 Millionen Terabyte oder 3,75 Exabyte, übertreffen wird. HBM4 soll schon in der zweiten Hälfte des Jahres 2026 HBM3E „als Mainstream-Lösung überholen“, so die optimistische Prognose zu einer demnach raschen Verbreitung.

Bei den Herstellern wird erwartet, dass der amtierende HBM-Marktführer SK Hynix mit über 50 Prozent Marktanteil an der Spitze bleibt. Micron und Samsung müssten ihre Kapazitäten und Erträge weiter verbessern, „um den Abstand im HBM4-Rennen zu verringern“, heißt es abschließend in dem Bericht.

HBM4 ist nun ein JEDEC-Standard

Erst vor einem Monat wurden die finalen Spezifikationen von HBM4 mit dem Segen der JEDEC veröffentlicht. Bis zu 8 Gbit/s pro Pin wurden dabei definiert. Es ist aber davon auszugehen, dass später höhere Durchsatzraten (als HBM4e?) erreicht werden.

Interface max. Durchsatz pro Pin max. Durchsatz pro Stack
HBM1 (JEDEC) 1.024 Bit 1,0 Gb/s 128 GB/s
HBM2 (JEDEC) 2,0 Gb/s 256 GB/s
HBM2E 3,6 Gb/s 461 GB/s
HBM3 (JEDEC) 6,4 Gb/s 819 GB/s
HBM3E (Micron) 9,2 Gb/s 1.178 GB/s
HBM3E (Samsung) 9,8 Gb/s 1.254 GB/s
HBM3E (SK Hynix) 10,0 Gb/s 1.280 GB/s
HBM4 (JEDEC) 2.048 Bit 8,0 Gb/s 2.048 GB/s
HBM4E ~10,0 Gb/s ~2.560 GB/s

Erste HBM4-Chips werden bemustert

SK Hynix hatte im März als erster Hersteller die Verfügbarkeit von Musterchips angekündigt. Dabei handelt es sich um 12-Layer-Modelle mit bisher nicht genannter Durchsatzrate und Kapazität.

Nvidia will nächstes Jahr seine GPU-basierten Rechenbeschleuniger der Rubin-Generation mit HBM4 bestücken. AMD wird es voraussichtlich bei der Produktfamilie Instinct MI400 gleichtun und ebenfalls ab 2026 auf HBM4 setzen.

📊 Intel, AMD oder Nvidia? Mach' jetzt noch mit bei unserer großen Jahresumfrage!