News Medusa Ridge und Venice: AMD Zen 6 soll in zwei Schichten 192 MB X3D-Cache bieten

zeedy schrieb:
Wäre es denn nicht sinnvoller, den regulären L3 Cache zu vergrößern um die Lücke zu X3D zu verkleinern?
Wird er auch. Von 32MB auf 48MB (weiterhin 4MB/Kern).

Dass der reguläre L3 nicht deutlich vergrößert wird hat primär 2 Gründe:
a) SRAM skaliert profitiert nach N4 gar nicht mehr von neueren Nodes. Da N3 und erst Recht N2 deutlich teurer sind ist es günstiger diesen auf ein extra Chiplet auszulagern.
b) Abgesehen von Gaming profitieren die meisten Workloads nicht von mehr als 32 bzw. 48MB L3. Das ist eine Eigenart bei Spielen wo sich der Ablauf alle 10ms (bei 100fps) wiederholt und man deshalb versucht alle Daten, die während einem Frame benötigt werden in den L3 zu bekommen.
Zusätzlicher L3 würde also für alle Office/Multimedia PCs als auch die meisten Epyc/Threadripper nur zusätzliche Kosten bedeuten ohne viel Nutzen.
Mit VCache hat man die Möglichkeit dasselbe CCD zu verwenden und nur bei einigen Modellen VCache dazu zu packen.
 
Alesis schrieb:
Und dass dann in Masse 4-6 Kerne kaputt sind bei einem 12 Kerne Chips, wäre wohl keine gute Fertigung. Vielleicht gibt es auch keine 6 Kerne CPUs mehr.
Ich denke, AMD wird einfach Zen 5-Chiplets für 6 und 8 Kern-CPUs benutzen. Bei Intel gibt es im unteren Preissegment ja auch nur noch etwas aus der alten Generation...
Ergänzung ()

ETI1120 schrieb:
N3 oben und N4 unten geht z. B. erst dieses Jahr in HVM.
Ein weiterer Grund, warum ich glaube, dass das 12-Kern-Chiplet in 3 nm kommt. Nur Chiplets mit mehr Kernen (Dense) kommen in 2nm.
Ergänzung ()

ThirdLife schrieb:
Der Cache Stack ist nichtmal halb so groß wie das CPU-Chiplet selbst und enthält keine vergleichbar komplexe Logik sondern nur DRAM. Bei ca. 36mm² Größe des V-Cache holt man auf einem 300mm Wafer etwas über 1600 Cache-Chiplets raus.
Bei Zen 4 war das so. Seit Zen 5 sitzt der Cache unter dem Compute-Chiplet. Das Cache-Chiplet ist jetzt so groß wie das Compute-Chiplet. Muss so sein, sonnst würde das darüber gestapelte Compute-Chiplet ja teilweise in der Luft hängen....
Ergänzung ()

Hatsune_Miku schrieb:
@NightspiderAMD muss an den IOD sowieso ran, der braucht eine Generalüberholung. Alleine schon was den Ram und den IF takt angeht, ggf auch nochmal eine etwas brauchbare iGPU, vlt was vom schlag 8700g oder so. Aber ganz wichtig ist auch der verbrauch.

Die IGPU is doch brauchbar für Bild ausgeben. Bevor man da weiter dran geht, erwarte ich eher, dass eine NPU integriert wird, für den AI-PC...
 
Zuletzt bearbeitet:
AYAlf schrieb:
Was AMD da macht hat Hand und Fuß.
Und was macht jetzt Intel? Die machen nur Namenchaos bei ihren CPUs und verlangsamen sie so, dass sie nicht an die 14 Generation ranreichen?
Also ich lebe ganz gut damit. Mein 13700k ist kaum schwächer als der 14700k (selbst Enthusiasten upgraden da nicht) und die Nachfolger sind noch schwächer im Gaming. 13th Gen for the win. :-)
 
Zeitwächter schrieb:
12 Kerne auf einem CCD mit "X3D"-Cache
oder 2 CCDs wo auf beiden der X3D-Cache drauf ist...
Es ist eher die Rede von doppelt gestacktem Cache auf einem 12-Kern CCD.

Ich würde von einem 9800X3D auf einen 10800X3D upgraden.
Der 9800X3D wird dann wohl für 300-400€ über Ebay gehen, jenachdem wie der Preis für den 10800X3D ist.
Und dann werde ich mit der CPU, sofern nichts großartiges passiert, AM6 überspringen.

Und sofern Nvidia oder AMD es nicht verkacken, werde ich auch die 5080 in 2027 ersetzen.
 
Convert schrieb:
Bei Zen 4 war das so. Seit Zen 5 sitzt der Cache unter dem Compute-Chiplet. Das Cache-Chiplet ist jetzt so groß wie das Compute-Chiplet. Muss so sein, sonnst würde das darüber gestapelte Compute-Chiplet ja teilweise in der Luft hängen....
Ne. Alle Cache-Dies hatten schon immer "structural silicon" nebendran. Ist auch jetzt nicht anders.
1751841550712.png

Ergänzung ()

Nighteye schrieb:
Aufrüsten lohnt sich dennoch nicht.
Zu gut ist der 5800X3D noch.
Ist wohl sehr relativ. Der 9800er ist rund 50% schneller in Sachen Per-Core als auch Multicore Performance in Anwendungen und gut 40% in Games. Ich finde es macht schon eine Differenz ob man nun 60 oder 85 fps hat oder eben ruckelige 43 ggü. smootheren 60 fps.

Nighteye schrieb:
Und zu Stromhungrig eine RX9070XT 16GB mit 300W.
Ich hätte gerne RX9070XT Speed für 150W.
Schlechte Ausrede. 150W kannst du ja selbst einstellen.:D

Auch UDNA2 wird dir keine 9070 XT-Leistung bei 150W anbieten. Welcher Nodestep soll denn bitte mal eben 50% Effizienzgewinn bringen ? N3 sicher nicht. Auch N2 reicht hierfür vermutlich nicht. Frühestens A16 wird das mit BSPD eventuell bringen. Und das dann für günstige 1299€ die du dann aber sicher nicht bezahlen wollen wirst für eine 150W 9070 XT.🤣
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Ich finde es macht schon eine Differenz ob man nun 60 oder 85 fps hat oder eben ruckelige 43 ggü. smootheren 60 fps.
Wobei sehr niedrige FPS-Werte ja meist auf eine zu schwache GPU zurückzuführen sind und selten auf mangelnde CPU-Leistung. Der Vorteil einer starken CPU wird ja vor allem bei hohen FPS-Werten ausgespielt, weshalb die Gaming-Leistung von CPUs ja meist bei niedrigen Auflösungen getestet wird.
 
beckenrandschwi schrieb:
Dann kann mein Xeon zum zweit-PC degradiert werden und mein Dual Xeon E5-2643 v4 endlich in den verdienten Ruhestand.
Das Ding wird doch auch jetzt schon von so ziemlich allem halbwegs aktuellen selbst mit nur acht Cores hart abgenatzt. Ganz zu schweigen von allen CPUs mit mehr Cores.
Ergänzung ()

SaschaHa schrieb:
Wobei sehr niedrige FPS-Werte ja meist auf eine zu schwache GPU zurückzuführen sind und selten auf mangelnde CPU-Leistung. Der Vorteil einer starken CPU wird ja vor allem bei hohen FPS-Werten ausgespielt, weshalb die Gaming-Leistung von CPUs ja meist bei niedrigen Auflösungen getestet wird.
Wer viel RTS / Simulatoren etc. spielt wird quasi ständig von der CPU ausgebremst. Selbst ein altes Age of Empires 3 mit 7 KI Gegnern brachte meinen 7950X3D damals unter 50 fps sobald man mal im Mid/Endgame ist.

Grundsätzlich sollte es natürlich eine ausgewogene Mischung sein. Einen 9800X3D mit einer 6600XT zu kombinieren macht genauso wenig Sinn wie eine 5090 mit einem i3-13100 zu paaren.

Sobald du dann aber im Highend unterwegs bist kann man von beidem allerdings kaum genug haben und sollte die CPU definitiv nicht unterschätzen. Flight Simulator lässt grüßen. 🤣
 
Zuletzt bearbeitet:
Matthias B. V. schrieb:
Braucht es das für den Einstiegsmarkt wo eher Preis statt Leistung zählt.
AMD bringt dort ja welche, siehe Phoenix2. Sogar noch darunter, aber nicht jede Generation. Ja, man kann nicht beliebig beschneiden. Das wird irgendwann unökonomisch. Man braucht natürlich die Stückzahlen. Aber AMD scheint die mittlerweile zu haben.
Matthias B. V. schrieb:
Ja aber eben kein extra kleineres CCD für den Desktop.
Matthias B. V. schrieb:
Also würde man ggf. von 8-24 Kernen die üblichen CCDs verwenden.
Genau das habe ich ja geschrieben.
Matthias B. V. schrieb:
Und für darunter ggf. APUs die sonst in Handhelds laufen und dafür entworfen wurden.
So eine Einteilung ist nicht sinnvoll und gibt es meist auch nicht (außer van Gogh, aber der wird auch nirgends anders eingesetzt).
Die kleinen chips wie Phoenix2 werden überall eingesetzt, mobile, Handheld und Desktop. Ein Handheld hat nicht automatisch geringe Anforderungen, zumindest nicht bezüglich der GPU.
Matthias B. V. schrieb:
Es wäre einfach Schwachsinn für einen Einstiegsmarkt extra Aufwand zu betreiben.
Es ist in jedem Segment Schwachsinn. Deswegen kommen die großen und kleinen APU auch in Notebooks, Handhelds und in Desktop. Deswegen kam auch das Chiplet Design als Fire Range in das mobile Segment.
 
Zuletzt bearbeitet:
ThirdLife schrieb:
40% in Games. Ich finde es macht schon eine Differenz ob man nun 60 oder 85 fps hat oder eben ruckelige 43 ggü. smootheren 60 fps.
Ich hab mit dem 5800X3D in Star Citizen bis 650fps.
Also kein bedarf an 40% mehr fps durch den 9800X3D.
ThirdLife schrieb:
Schlechte Ausrede. 150W kannst du ja selbst einstellen.:D
Dann hat sie aber kein RX9070XT Speed mehr. Außerdem unterbindet der Treiber das einstellen der RX9070XT auf 150W.
ThirdLife schrieb:
Auch UDNA2 wird dir keine 9070 XT-Leistung bei 150W anbieten. Welcher Nodestep soll denn bitte mal eben 50% Effizienzgewinn bringen ? N3 sicher nicht. Auch N2 reicht hierfür vermutlich nicht. Frühestens A16 wird das mit BSPD eventuell bringen.
Nicht der Nodestep allein, sondern 2x Architekturverbesserungen bis dahin.
 

Anhänge

  • 6. 605fps DX11.png
    6. 605fps DX11.png
    6,8 MB · Aufrufe: 83
Matthias B. V. schrieb:
Ja das schon aber gleichzeitig kosten die Designs auch immer mehr.
AMD hat Mendoccino, Phoenix 2 designed und auch Krackan Point 2 designed.
Matthias B. V. schrieb:
Und gerade eine 6- oder 4- Kern CPU für Einsteiger ist finanziell weniger attraktiv und hat weniger Marge.
Wenn man nichts anbietet, kann man nichts verkaufen. Wenn man allerdings den halben Die nicht nutzt wirds mit der Marge noch schwerer.
Matthias B. V. schrieb:
Da AMD bisher immer nur komplett auf ein CCD für Server und Desktop setzt wäre es unrealistisch für das Einstiegssegment extra ein Design zu platzieren.
Der 12 Kern CCD ist wohl ein Kompromiss für Server und Desktop.

Aber es ist genau so unwahrscheinlich, dass AMD beim Launch eine 6 Kern CPU, anbietet bei der 50 % der Kerne deaktiviert sind. Wenn AMD eine Zen 6 CPU mit 6 Kernen anbietet, dann muss sie auf einer APU basieren. bei zen 2 hat sich AMD zioemlich schnell von den 4 kern-CPUs verabschiedet, so was tauscht seither nur noch in der Resterampe auf.

Auch eine 8 Kern CPU auf Basis des 12 Kern CCDs ist ein teurer Spaß.

Matthias B. V. schrieb:
Ja aber eben kein extra kleineres CCD für den Desktop.
Bei einem 16 Kern CCD für Server hätte ein 8 Kern CCD für den Desktop Sinn ergeben.
Convert schrieb:
Ich denke, AMD wird einfach Zen 5-Chiplets für 6 und 8 Kern-CPUs benutzen.
Das würde bedeuten keine zen 6 CPUs mit 6 und 8 Kernen anzubieten. Unwahrscheinlich.
Aber es gibt ja die APUs. Und hier wäre ein Vorteil, dass die Überschneidung mit den entsprechenden Desktop CPUs entfällt. Lediglich das Timing wird problematisch, kommen die 6 und 8 Kerne auf APU-basis tatsächliuch schon zum Release, das wäre ein Novum.

Convert schrieb:
Ein weiterer Grund, warum ich glaube, dass das 12-Kern-Chiplet in 3 nm kommt. Nur Chiplets mit mehr Kernen (Dense) kommen in 2nm.
AMD hat Vennice ausdrücklich mit N2 angekündigt. Turin war als 3 nm und 4 nm angekündigt.

N3E/P hat den Nachteil, dass der SRAM so gut wie gar nicht skaliert. Und bei der Menge SRAM die AMD verbaut, würde das sehr weh tun. Bei N2 skaliert SRAM wenigstens mit ca. 18 %.
Convert schrieb:
Bei Zen 4 war das so. Seit Zen 5 sitzt der Cache unter dem Compute-Chiplet. Das Cache-Chiplet ist jetzt so groß wie das Compute-Chiplet. Muss so sein, sonnst würde das darüber gestapelte Compute-Chiplet ja teilweise in der Luft hängen....
Es geht nicht ums in der Luft hängen, das hätte man wie vorher auch durch strukturelles Silizium lösen können.

AMD nutzt diese Bereiche des Cache Chiplets für TSV die Daten und Power zum CCD durchreichen.
Früher oder später wechselt AMD auf Wafer on Wafer, und dann müssen die einzelnen Dies gleich groß sein.
 
Nighteye schrieb:
Zen 3 (2020) + X3D ist einfach die CPU des Jahrzehnts so wie Sandy Bridge damals im 10er Jahrzehnt.
Ansichtssache. Schau dir mal die geringen Sprünge von Ivy Bridge, Broadwell, Haswell und Coffee Lake bei der Leistung an.

Der 9800X3D (November 24) hat schon fast 2,5 Jahre nach dem Release des 5800X3D (April 22) 40 bis 50% mehr Leistung rausgehauen und Zen 6 wird wohl nochmal massiv drauflegen dank 2 Node Sprüngen. (N4P -> N2P)

Das wird so ein riesiger Sprung wie von Zen3 auf Zen5.

Neuer IO Die mit schnellerem RAM Support, deutlich mehr L3 Cache und die schnellere Chip to Chip Verbindung (Silizium-Brücke oder Organische Infinity FanOut Link Verbindung) werden die Gaming Leistung vermutlich zusammen mit dem hohen Takt (>6Ghz dank N2P) Richtung +30% wachsen lassen.

Das heißt Zen6 mit V-Cache wird wohl 80 bis 100% schneller als der 5800X3D sein und das nur 4,5 Jahre später.

Mir war der 5800X3D schon in einigen Spielen zu langsam. Den Wechsel auf den 9800X3D habe ich extrem gemerkt.

Nighteye schrieb:
Ich hab mit dem 5800X3D in Star Citizen bis 650fps.
Also kein bedarf an 40% mehr fps durch den 9800X3D.
Wow, so ein Blödsinn. Wen interessieren die fps im leeren Weltall, wenn es nichts zu berechnen gibt.

Mach mal ein Screenshot davon wie der 5800X3D in Area 18 in Flammen aufgeht bei 30fps.


Der 5800X3D quält sich definitiv schon in vielen Bereichen von Star Citizen.


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
AMD beschleunigt ja die Anbindung an den I/O Chip und könnte so auch 24 MB L3 im N2 CPU Cache noch performant packen.
8-Core und 10-Core CPUs mit dem Cache noch Sinn machen. Bei 12-Core dann 24 MB plus teildeaktiviert 72 MB X3D als Einstieg, volle 192 MB als ultimative Game-CPU. Dazu 16-Core ohne X3D, und mit 2x 72 MB. Dto. für 20-Core und bei 24-Core dann 2x 2 V-Cache.
 
  • Gefällt mir
Reaktionen: wagga
ETI1120 schrieb:
Das Chipdesign und das Physikal Design eines Chips zieht sich über Jahre hin.
Auch einer der Gründe, warum ich denke, dass UDNA als „Code“ schon fertig ist und jetzt das Hardwaredesign ansteht.

Aber Jahre würde ich da nicht schreiben. Je nach Aufwand und was da gemacht wird, kann es etwas weniger oder etwas mehr sein.
drago-museweni schrieb:
9900X3D holen oder den 9800X3D
Wenn dann 9800X3D oder 9950X3D, mit diesen zwischen Ding wird man nie so richtig glücklich.
ThirdLife schrieb:
Die Frage ist hier eher, wieviele Produkte werden für AM6 erscheinen und ändert sich was am Memory-Layout ?
Es wird kein AM6 in nächster Zeit geben. PCIe5 ist gerade mal angekommen. PCIe6 wird zwar im Serverbereich kommen, ist für Clients aber noch vollkommen uninteressant. DDR6 wiederum ist auch noch nicht am Horizont zu sehen.

AMD würde jetzt ohne Not einen neuen Sockel bringen, der quasi keine neuen Techniken mitbringt.
Hatsune_Miku schrieb:
L3Cache hat ja jeder CCD sein eigenen, wieso setzt amd kein L4 Cache ein
Relativ einfach: Es würde die Cache-Logik erhöhen und müsste bedingt Anpassungen am L2 und L3 nach sich ziehen.

AMD baut den L3-Cache sehr einfach auf: Victim-Cache. Alles was aus dem L2 der Kerne fliegt, landet dort und bleibt Dort bis es überschrieben wird.
ThirdLife schrieb:
und enthält keine vergleichbar komplexe Logik sondern nur DRAM
SRAM!
Nightspider schrieb:
Mit über >20% mehr SingleCore Leistung kann man bei Zen6 rechnen
Wäre ich vorsichtig mit. Der aktuelle Umbau bei Zen 5 war schon „radikal“ und brachte dafür sehr wenig IPC.

Zen 6 wird an den eigentlichen Kernen relativ wenig gegenüber Zen 5 verändern. Die Kern-Organisation wird angepasst - 12 statt 8 Kerne pro CCD.

Dazu wird der IOD noch angepasst und Infinity-Fabric. Darüber hinaus sollte man nicht sehr viel erwarten.

Wenn wir 10 % IPC im Mittel sehen, wäre das gut, allerdings mit den aktuellen Wissensständen etwas optimistisch.

Für x > 20 % muss sowohl die IPC um mindestens 10 % steigen und der Takt ebenso. Möglich ja, aber gewagt.
DaBo87 schrieb:
AM6 Chipsatz-Generation erscheint. Die erste möchte ich noch aussitzen
Dann wirst du vermutlich erst irgendwann 2030 deine neue CPU kaufen.

AM6 findet aktuell noch nicht mal in der Gerüchteküche statt und das ist ein „schlechtes“ Zeichen für die, die hoffen das AM6 zügig kommt.

Das AM5 kommt, war ab einem gewissen Zeitpunkt, ein offenes Geheimnis und wurde auch mit Mockups begleitet. Über ein Jahr vor Veröffentlichung der Ryzen 7000er gab es bereits entsprechende Bilder und Gerüchte zum Sockel und all das fehlt aktuell zum Zen 6 / AM6. Es geht um die CCD, IODs und ansonsten ist da nichts.

Also wird AM 6 „frühestens“ mit Zen 7 kommen - und hier gibt es erste Gerüchte die besagen, dass auch die für AM 5 kommen. Also frühestens 2027/2028 kann mit AM 6 gerechnet werden. Wenn sich das mit Zen 7 als richtig rausstellt und AM 5, dann sogar eher 2030 und damit dann mit der zweiten Generation der Chips irgendwann 2032/2033.

Und ich merke, der 32 Bit Unix Timestamp kommt gefährlich nah.
 
  • Gefällt mir
Reaktionen: Skysurfa, Stramma, ThirdLife und 5 andere
Zeitwächter schrieb:
12 Kerne auf einem CCD mit "X3D"-Cache
oder 2 CCDs wo auf beiden der X3D-Cache drauf ist...

Vielleicht noch die Wärmeübertragung an Kühler optimieren, dass man die Dinger nochmal besser kühlen kann.

Let's go. Aktuell noch mit dem 5800X3D unterwegs, zukünftig ein Upgrade auf 12- oder 16-Kerner mit X3D-Cache auf allen CCDs wäre nett.
VCache auf allen Kernen wäre mal super, dann gebe es keine Probleme mehr das eine Anwendung oder Spiel Kerne ohne Speicher nutzt.
 
Also AMD benötigt für AI und bessere iGPU deutlich mehr Bandbreite.
192 Bit GDDR6 würde das ab Zen 7 bieten können.
 
DevPandi schrieb:
Dann wirst du vermutlich erst irgendwann 2030 deine neue CPU kaufen.
Ja, das glaube ich auch. Aber sofern nicht irgend eine neue Superanwendung daherkommt, die ich brauche und für die der 5800X3D nicht mehr ausreichend ist, warte ich ab.
 
Mal sehen ob der 8700k und die 1080ti so lange durchhalten 😁
 
DevPandi schrieb:
Wäre ich vorsichtig mit. Der aktuelle Umbau bei Zen 5 war schon „radikal“ und brachte dafür sehr wenig IPC.
Ich sprach ja auch von der SC Leistung und nicht der IPC. 🙂

Der Takt soll ja scheinbar schon deutlich steigen.
 
Die Meldung ist so eine typische Nullinfo. Der Cache steigt weil die Kernkonfiguration pro CCD eben von 8 auf 12 geht. Das der 3D Cache gestapelt werden kann ist Zweck des 3D Cache, sonst wäre es kein 3D Cache. Der Interne Aufbau sind dann eben "ein paar Vias mehr".
Wird AMD das tun? Nein, wegen der thermischen Limitierung.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Witzig wie viele davon ausgehen dass der Nachfolger vom 9800X3D dann 12 Kerne haben wird... Bei den aktuellen Vorkommnissen ist doch eher davon auszugehen, dass es der Nachfolger des 9900X3D sein wird auch entsprechend eine ganze Ecke teurer werden wird. Wer das beste haben will, wird sicherlich dann auch zur Kasse gebeten.
 
  • Gefällt mir
Reaktionen: Alesis
Zurück
Oben