News Ryzen 9 9950X3D2: Satte 192 MB L3-Cache und 200 Watt für den AM5-Sockel

TheInvisible schrieb:
Klar wenns selbst auf einen 9800x3d mit 30fps herumgurkt, liest du eigentlich meine Posts? Ich hätte bitte gern die doppelte Leistung des 9800x3d...
Noch hat keiner verboten Einstellungsregler im Gamemenü zu verschieben.
 
  • Gefällt mir
Reaktionen: SweetOhm
Pro_Bro schrieb:
Nein, läuft nicht ins Power Limit

Ja, gerade nochmal den Test angeschaut und ja, in den Programmen, die CB getestet hat, wird das Power Limit von 162W auch bei 5200MHz all-core nicht erreicht, und auf dem Board, das sie verwenden, steigt der Verbrauch mit Overclocking auch nicht.

Der 9850x3D wird ein anderes Stepping haben und bei jeder CPU die +400 mehr auch effektiv bringen.

Ob jetzt Overclocking oder Binning, natuerlich wird er die 5600MHz bringen. Aber ob er sie all-core bei allen Programmen bringt, wird man noch sehen muessen.
 
Botcruscher schrieb:
Die Titel fressen Prozessorleistung zum Frühstück. Auf "normalen" CPUs fängt das Ruckeln oder das Warten nur früher an.
Und ja, schuld ist die bescheidene Auswahl der Tester.
Glücklicherweise können wir auf dem PC immernoch Einsellungen verändern.

Und ich spreche keinem ab eine 3D CPU zu kaufen. Jeder wie er mag.

Ich werde irgendwann auch wechseln, aber nur wenn ich die fettere Karte habe.
 
LETNI77 schrieb:
Noch hat keiner verboten Einstellungsregler im Gamemenü zu verschieben.
Mit Highest End Hardware will ich nix verschieben, bei Midrange ok. Außerdem bringt das bei cpu limited games selten was, die Berechnungen müssen immer gleich durchgeführt werden
 
Araska schrieb:
a) Die Reviewer haben eine bescheidene Auswahl an Spielen getroffen.
b) Wer auch immer die Reviewer ausgewählt hat, hat bescheiden entschieden. :mussweg:
Ja und beide sind richtig.

Ich sehe beim Test eines hypotetischen 9950X3D2 dann schon den üblichen Parcours aus Minimum 80% Konsolenspielen.

Stellaris, X4, Factorio, Skylines usw. darf man sich dann an der letzten Ecke des Internets zusammensuchen. Die üblichen Verdächtigen schreiben dann: "aBEr iN rEaLisTisChen SpiEleN mIT UhD iST DeR ProZESSoR eGAl".

LETNI77 schrieb:
Glücklicherweise können wir auf dem PC immernoch Einsellungen verändern.

Du willst es nicht verstehen oder? Bei CPU Limit ist das Spiel vorbei. In einer Simulation sind keine Details zum runter drehen.
 
  • Gefällt mir
Reaktionen: Whetstone, CadillacFan77, Wanderwisser und 3 andere
TheInvisible schrieb:
Mit Highest End Hardware will ich nix verschieben, bei Midrange ok. Außerdem bringt das bei cpu limited games selten was, die Berechnungen müssen immer gleich durchgeführt werden
#141 hier habe ich das gleiche geschrieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
CDLABSRadonP... schrieb:
Speichergeschwindigkeit ist ja beides, Latenz und Bandbreite. Eine CPU, bei der aller Speicher mit heutigen L3-Cache-Bandbreiten und Latenzen zugleich angesprochen werden könnte, wäre sicherlich in diversen Workloads um drastisch mehr als den Faktor 2 schneller.
Es kommt sehr auf die Anwendung an. Wenn die Hitraten aller Caches bereits sehr hoch sind, dann nutzt hypothetischer Zauberspeicher ja entsprechend wenig. Wobei viele Algorithmen ja durchaus darauf getrimmt werden soweit wie möglich lokal auf den Caches laufen zu können. Bei den Algorithmen, bei denen diese Optimierung nicht möglich ist, nutzt der Zaberspeicher auch nur bedingt etwas. Das sind ja tendenziell Fälle, die wild über den gesamten Speicherbereich springen. Denen hilft der Zauberspeicher, da aber Sprungvorhersage bzw. spekulative Ausführung da schnell an Grenzen stoßen. So laufen die Pipelines der CPU tendenziell trotzdem leer.
Geringere Latenzen, höhere Bandbreiten helfen, aber die aktuellen Designs rennen da dennoch gegen eine Wand. Gäbe es Zauberspeicher und die Anforderung wilde Zugriffsmuster darauf gut zu verarbeiten müssen entsprechende CPUs Imho kürzere Pipelines bekommen, mit entsprechender Reduktion beim Takt und Nachteilen beim Numbercrunching.
 
Botcruscher schrieb:
Du willst es nicht verstehen oder? Bei CPU Limit ist das Spiel vorbei. In einer Simulation sind keine Details zum runter drehen.
Doch da geht auch einiges.

Aber das is nicht der Kern.
X3D CPU ist nur bei Highend Karten sinnvoll. Meistens, bis auf ein paar Ausnahmen.
 
LETNI77 schrieb:
Doch da geht auch einiges.
Eben nicht. Ich kann Factorio auf der iGPU meines 7800X3D laufen lassen und laufe ins gleiche CPU-Limit als wenn ich die dedizierte 7800XT nutze, die FPS sind identisch.
 
  • Gefällt mir
Reaktionen: Whetstone
LETNI77 schrieb:
Doch da geht auch einiges.
Was Botcrusher meint ist, dass es gewisse Grundmechaniken der Game-Engine gibt, die man eben nicht ab- oder "runterschalten" kann. Die müssen immer laufen.

Gutes Beispiel war damals WoW (ka, wie der aktuelle Client läuft, spiele WoW nicht mehr). Es gab in dem Game immer ein Mainthread, der die maximale Performance des Spiels vorgab. Dieser lief eben grundsätzlich auf einem einzigen Kern. Der Trend zu immer mehr CPU-Kernen brachte bei WoW gar nix. Nur reine Kern-Raw-Power. Später hat dann Blizzard auch Unterstützung für Mehrkern CPUs eingebaut und einige Berechnungen, die parallel ausführbar waren, eben auf andere Kerne ausgelagert. Aber der Mainthread blieb.

Und wenn ich mir anschaue, wie krass das aktuelle WoW mit den X3D-CPUs skaliert, scheint das wohl immer noch so zu sein.
 
t3chn0 schrieb:
Bei BF6 merkt man den Unterschied zwischen 5.2 und 5.4Ghz auf jeden Fall. Im Schnitt sind es mit 5.4Ghz ca. 20-30FPS mehr laut Graph.
5225MHz auf 5425MHz sind 3,8% mehr Takt, das ist also die maximal mögliche Mehrleistung. Um da auf 20fps mehr zu kommen müsstest du ca 520fps haben. Bei 30fps mehr Leistung entsprechend mehr.
 
LETNI77 schrieb:
Doch da geht auch einiges.

Aber das is nicht der Kern.
X3D CPU ist nur bei Highend Karten sinnvoll. Meistens, bis auf ein paar Ausnahmen.
Gerade bei "Low-End und Mid-Range" Karten ist eine X3D sinnvoll weil du in niedrigen Auflösungen spielst. Für 4k brauchst kein X3D, kannst bei 1080p bspw. 60fps als CPU Wert erhalten bekommst das auch bei 4k. Nur dann liegt es da an der GPU und nicht an der CPU auf 60fps zu kommen.

Ist hier gut ersichtlich
youtube.com/watch?v=M3wusAq1ODo&t=1381s&pp=ygUUYW5ubyAxMTcgZ3JhZmlra2FydGU%3D

Ab 5:46
 
Auf full HD und niedriger kommt es besonders auf die CPU drauf an. Da dürfte es mehr ins CPU Limit gehen. Da wird auch keine rtx 4090 oder 5090 etwas helfen. Das wird auch kaum einer machen in so einer Standard Auflösung so eine starke GPU rein zu hauen.
 
stefan92x schrieb:
Eben nicht. Ich kann Factorio auf der iGPU meines 7800X3D laufen lassen und laufe ins gleiche CPU-Limit als wenn ich die dedizierte 7800XT nutze, die FPS sind identisch.
Bei vielen Games geht das.

Und ich habe nie gesagt, das betrifft alle Spiele.
Ergänzung ()

qiller schrieb:
Und wenn ich mir anschaue, wie krass das aktuelle WoW mit den X3D-CPUs skaliert, scheint das wohl immer noch so zu sein.
Auch hier bestätigen Ausnahmen die Regel.
Ergänzung ()

paganini schrieb:
Gerade bei "Low-End und Mid-Range" Karten ist eine X3D sinnvoll weil du in niedrigen Auflösungen spielst. Für 4k brauchst kein X3D, kannst bei 1080p bspw. 60fps als CPU Wert erhalten bekommst das auch bei 4k. Nur dann liegt es da an der GPU und nicht an der CPU auf 60fps zu kommen.

Ist hier gut ersichtlich
youtube.com/watch?v=M3wusAq1ODo&t=1381s&pp=ygUUYW5ubyAxMTcgZ3JhZmlra2FydGU%3D

Ab 5:46
Ja wer es braucht, aber für mich persönlich ist die X3D CPU bei einer Midrange Karte nicht sinnvoll.
 
LETNI77 schrieb:
Bei vielen Games geht das.
Aber nicht bei denen die @TheInvisible aufgelistet hat. Das sind eben alles Ausnahmen von der Regel (das wissen wir selbst). Du hast aber halt dagegen argumentiert...
LETNI77 schrieb:
Ja wer es braucht, aber für mich persönlich ist die X3D CPU bei einer Midrange Karte nicht sinnvoll.
Was ja je nach Setup und Spieleauswahl auch völlig ok ist.
 
  • Gefällt mir
Reaktionen: LETNI77
Eigentlich sind das neue CPUs, die es jeden Recht machen:

Den Vernünftigen:
Du hast eine 5800X3D / 7800X3D / 9800X3D eingebaut? Es gibt eigentlich keinen Grund zu wechseln. Es wird Leistungsunterschiede geben, aber in der Praxis...

Den Enthusiasten:
Endlich neue Hardware! Und es gibt vielleicht diese 3 Prozent mehr Leistung im Schnitt! Oder eine selektierte CPU, die mehr aushält. Und im Vergleich zur 5090 verbrauchen die Neuen keinen Strom, sind spottbillig - und haben keinen Stecker.^^

Den Ahnungslosen:
Mir egal, beim Mediamarkt habe ich einen High End 4K Gaming PC mit Core i7 12700F gekauft. Ist super!
 
  • Gefällt mir
Reaktionen: Wanderwisser, SweetOhm und Weby
qiller schrieb:
Und wenn ich mir anschaue, wie krass das aktuelle WoW mit den X3D-CPUs skaliert, scheint das wohl immer noch so zu sein.
Wie ich ja weiter Vorne im Thread auch schon am Beispiel von meinem System beschrieben habe. In freier Natur in WoW um 120 FPS und in Dornogal (aktuelle Hauptstadt, viele Spieler auf einem Haufen) sind es mit meinem Ryzen 5700X nur noch 60 FPS und das auch, wenn ich auf minimalste Grafiksettings und 720p runterdrehe. Ähnlich sieht es mit dem Performanceeinbruch in Raids aus. Mit einem X3D würden die FPS in diesen Situationen deutlich wenig einbrechen.
 
Botcruscher schrieb:
Du willst es nicht verstehen oder? Bei CPU Limit ist das Spiel vorbei. In einer Simulation sind keine Details zum runter drehen.
Genau so ist es
Botcruscher schrieb:
Ich sehe beim Test eines hypotetischen 9950X3D2 dann schon den üblichen Parcours aus Minimum 80% Konsolenspielen.

Stellaris, X4, Factorio, Skylines usw. darf man sich dann an der letzten Ecke des Internets zusammensuchen. Die üblichen Verdächtigen schreiben dann: "aBEr iN rEaLisTisChen SpiEleN mIT UhD iST DeR ProZESSoR eGAl".
Ja leider, dabei wäre das ja gar nicht so schwer zu benchen. Eventuell sind die Genres auch zu nischig? Kann aber auch nicht sein, Stellaris allein hat auf Steam 134k Bewertungen. Eventuell fehlt es an Savegames aber da kann die Community sicher aushelfen
 
Zurück
Oben