Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRyzen 9 9950X3D2: Satte 192 MB L3-Cache und 200 Watt für den AM5-Sockel
Ja, gerade nochmal den Test angeschaut und ja, in den Programmen, die CB getestet hat, wird das Power Limit von 162W auch bei 5200MHz all-core nicht erreicht, und auf dem Board, das sie verwenden, steigt der Verbrauch mit Overclocking auch nicht.
Der 9850x3D wird ein anderes Stepping haben und bei jeder CPU die +400 mehr auch effektiv bringen.
Ob jetzt Overclocking oder Binning, natuerlich wird er die 5600MHz bringen. Aber ob er sie all-core bei allen Programmen bringt, wird man noch sehen muessen.
Die Titel fressen Prozessorleistung zum Frühstück. Auf "normalen" CPUs fängt das Ruckeln oder das Warten nur früher an.
Und ja, schuld ist die bescheidene Auswahl der Tester.
Mit Highest End Hardware will ich nix verschieben, bei Midrange ok. Außerdem bringt das bei cpu limited games selten was, die Berechnungen müssen immer gleich durchgeführt werden
Ich sehe beim Test eines hypotetischen 9950X3D2 dann schon den üblichen Parcours aus Minimum 80% Konsolenspielen.
Stellaris, X4, Factorio, Skylines usw. darf man sich dann an der letzten Ecke des Internets zusammensuchen. Die üblichen Verdächtigen schreiben dann: "aBEr iN rEaLisTisChen SpiEleN mIT UhD iST DeR ProZESSoR eGAl".
LETNI77 schrieb:
Glücklicherweise können wir auf dem PC immernoch Einsellungen verändern.
Mit Highest End Hardware will ich nix verschieben, bei Midrange ok. Außerdem bringt das bei cpu limited games selten was, die Berechnungen müssen immer gleich durchgeführt werden
Speichergeschwindigkeit ist ja beides, Latenz und Bandbreite. Eine CPU, bei der aller Speicher mit heutigen L3-Cache-Bandbreiten und Latenzen zugleich angesprochen werden könnte, wäre sicherlich in diversen Workloads um drastisch mehr als den Faktor 2 schneller.
Es kommt sehr auf die Anwendung an. Wenn die Hitraten aller Caches bereits sehr hoch sind, dann nutzt hypothetischer Zauberspeicher ja entsprechend wenig. Wobei viele Algorithmen ja durchaus darauf getrimmt werden soweit wie möglich lokal auf den Caches laufen zu können. Bei den Algorithmen, bei denen diese Optimierung nicht möglich ist, nutzt der Zaberspeicher auch nur bedingt etwas. Das sind ja tendenziell Fälle, die wild über den gesamten Speicherbereich springen. Denen hilft der Zauberspeicher, da aber Sprungvorhersage bzw. spekulative Ausführung da schnell an Grenzen stoßen. So laufen die Pipelines der CPU tendenziell trotzdem leer.
Geringere Latenzen, höhere Bandbreiten helfen, aber die aktuellen Designs rennen da dennoch gegen eine Wand. Gäbe es Zauberspeicher und die Anforderung wilde Zugriffsmuster darauf gut zu verarbeiten müssen entsprechende CPUs Imho kürzere Pipelines bekommen, mit entsprechender Reduktion beim Takt und Nachteilen beim Numbercrunching.
Eben nicht. Ich kann Factorio auf der iGPU meines 7800X3D laufen lassen und laufe ins gleiche CPU-Limit als wenn ich die dedizierte 7800XT nutze, die FPS sind identisch.
Was Botcrusher meint ist, dass es gewisse Grundmechaniken der Game-Engine gibt, die man eben nicht ab- oder "runterschalten" kann. Die müssen immer laufen.
Gutes Beispiel war damals WoW (ka, wie der aktuelle Client läuft, spiele WoW nicht mehr). Es gab in dem Game immer ein Mainthread, der die maximale Performance des Spiels vorgab. Dieser lief eben grundsätzlich auf einem einzigen Kern. Der Trend zu immer mehr CPU-Kernen brachte bei WoW gar nix. Nur reine Kern-Raw-Power. Später hat dann Blizzard auch Unterstützung für Mehrkern CPUs eingebaut und einige Berechnungen, die parallel ausführbar waren, eben auf andere Kerne ausgelagert. Aber der Mainthread blieb.
Und wenn ich mir anschaue, wie krass das aktuelle WoW mit den X3D-CPUs skaliert, scheint das wohl immer noch so zu sein.
5225MHz auf 5425MHz sind 3,8% mehr Takt, das ist also die maximal mögliche Mehrleistung. Um da auf 20fps mehr zu kommen müsstest du ca 520fps haben. Bei 30fps mehr Leistung entsprechend mehr.
Gerade bei "Low-End und Mid-Range" Karten ist eine X3D sinnvoll weil du in niedrigen Auflösungen spielst. Für 4k brauchst kein X3D, kannst bei 1080p bspw. 60fps als CPU Wert erhalten bekommst das auch bei 4k. Nur dann liegt es da an der GPU und nicht an der CPU auf 60fps zu kommen.
Ist hier gut ersichtlich
youtube.com/watch?v=M3wusAq1ODo&t=1381s&pp=ygUUYW5ubyAxMTcgZ3JhZmlra2FydGU%3D
Auf full HD und niedriger kommt es besonders auf die CPU drauf an. Da dürfte es mehr ins CPU Limit gehen. Da wird auch keine rtx 4090 oder 5090 etwas helfen. Das wird auch kaum einer machen in so einer Standard Auflösung so eine starke GPU rein zu hauen.
Eben nicht. Ich kann Factorio auf der iGPU meines 7800X3D laufen lassen und laufe ins gleiche CPU-Limit als wenn ich die dedizierte 7800XT nutze, die FPS sind identisch.
Gerade bei "Low-End und Mid-Range" Karten ist eine X3D sinnvoll weil du in niedrigen Auflösungen spielst. Für 4k brauchst kein X3D, kannst bei 1080p bspw. 60fps als CPU Wert erhalten bekommst das auch bei 4k. Nur dann liegt es da an der GPU und nicht an der CPU auf 60fps zu kommen.
Ist hier gut ersichtlich
youtube.com/watch?v=M3wusAq1ODo&t=1381s&pp=ygUUYW5ubyAxMTcgZ3JhZmlra2FydGU%3D
Aber nicht bei denen die @TheInvisible aufgelistet hat. Das sind eben alles Ausnahmen von der Regel (das wissen wir selbst). Du hast aber halt dagegen argumentiert...
LETNI77 schrieb:
Ja wer es braucht, aber für mich persönlich ist die X3D CPU bei einer Midrange Karte nicht sinnvoll.
Eigentlich sind das neue CPUs, die es jeden Recht machen:
Den Vernünftigen:
Du hast eine 5800X3D / 7800X3D / 9800X3D eingebaut? Es gibt eigentlich keinen Grund zu wechseln. Es wird Leistungsunterschiede geben, aber in der Praxis...
Den Enthusiasten:
Endlich neue Hardware! Und es gibt vielleicht diese 3 Prozent mehr Leistung im Schnitt! Oder eine selektierte CPU, die mehr aushält. Und im Vergleich zur 5090 verbrauchen die Neuen keinen Strom, sind spottbillig - und haben keinen Stecker.^^
Den Ahnungslosen:
Mir egal, beim Mediamarkt habe ich einen High End 4K Gaming PC mit Core i7 12700F gekauft. Ist super!
Wie ich ja weiter Vorne im Thread auch schon am Beispiel von meinem System beschrieben habe. In freier Natur in WoW um 120 FPS und in Dornogal (aktuelle Hauptstadt, viele Spieler auf einem Haufen) sind es mit meinem Ryzen 5700X nur noch 60 FPS und das auch, wenn ich auf minimalste Grafiksettings und 720p runterdrehe. Ähnlich sieht es mit dem Performanceeinbruch in Raids aus. Mit einem X3D würden die FPS in diesen Situationen deutlich wenig einbrechen.
Ich sehe beim Test eines hypotetischen 9950X3D2 dann schon den üblichen Parcours aus Minimum 80% Konsolenspielen.
Stellaris, X4, Factorio, Skylines usw. darf man sich dann an der letzten Ecke des Internets zusammensuchen. Die üblichen Verdächtigen schreiben dann: "aBEr iN rEaLisTisChen SpiEleN mIT UhD iST DeR ProZESSoR eGAl".
Ja leider, dabei wäre das ja gar nicht so schwer zu benchen. Eventuell sind die Genres auch zu nischig? Kann aber auch nicht sein, Stellaris allein hat auf Steam 134k Bewertungen. Eventuell fehlt es an Savegames aber da kann die Community sicher aushelfen