@ElliotAlderson nein. Wenn ich mir das zurecht drehen würde, hätte ich auch den Rest deines Posts zitiert und kritisiert. Da hast du aber durchaus recht, @Nighteye vertritt merkwürdige Ansichten. Aber allein das Posten von mittlerweile veralteten Benchmarks an sich ist halt völlig valide im Kontext, in dem die Diskussion aufkam.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Core Ultra 300?: Arrow Lake-Refresh soll doch keine schnellere NPU erhalten
- Ersteller Jan
- Erstellt am
- Zur News: Core Ultra 300?: Arrow Lake-Refresh soll doch keine schnellere NPU erhalten
Nighteye
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.492
Die Star Citizen Benchs sind von diesem Jahr.ElliotAlderson schrieb:Wenn er alte Benchmarks postet, die nicht mehr State of the Art sind, weil Intel seine CPUs gefixt hat, er darauf hingewiesen wird und trotzdem weitermacht den Unsinn zu behaupten, dann ist es keine Meinung, sondern einfach nur Fakenews.
Star Citizen patch 4.2 ist von Sommer 2025.ElliotAlderson schrieb:@stefan92x falsch. Hier behauptet er immer noch, dass das der aktuelle Stand wäre:
https://www.computerbase.de/forum/t...schnellere-npu-erhalten.2245293/post-30730042
Das Spiel kommt halt mit E-Cores nicht klar. (Siehe Anhang)
Seine Testergebnisse waren in dem moment schon richtig. Er schob es halt auf Buggy Nvidia Treiber und sagte das darf eigentlich nicht sein. (Du meinst ja sicher dass Framegen Video)ElliotAlderson schrieb:Beispielsweise zeigt er mal einen Screenshot aus einem Video. Wer sich das Video aber anschaute, bemerkte, dass der Autor des Videos zu dem Diagramm selbst sagte, dass man es nicht für Bare Münze halten soll, weil seine Testergebnisse nicht korrekt zu seien scheinen.
Das ist dann aber schon sehr alt und war nur wegen CPU Limit, nicht wegen GPU Rohleistung.ElliotAlderson schrieb:Wenn du mir nicht glaubst, schau dir seine Posthistorie selbst an. behauptet, dass seine 6800 XT Karte ist als ne 4090 oder 5090.
In Star Citizen hat Radeon halt schon seit Jahren Framegen gehabt, Nvidia nicht.
Daher hatte ich 2023 & 2024 immer mehr fps als RTX 4090 user durch das heftige CPU Limit in SC. (Damals gabs nur 13900K & 5800X3D & 7800X3D User mit denen ich das verglich)
Ich hab auch heute noch mehr FPS in dem Spiel als alle RTX 4090 User ohne 9800X3D wenn ich framegen nutze. Keine Ahnung was dich daran stört. Ist halt Extrem CPU Lastig das Game.
Aber back to Topic.
Arrow Lake Refresh wird jedenfalls für mich auch für mein Lieblingsspiel leider keine Alternative zu meinem 5800X3D sein weil auch schlechtere FPS pro Watt in meinem Lieblingsspiel.
Ich hoffe Nova Lake wird der burner nächstes Jahr mit dem Extra Cache.
Kann man nur hoffen. Soviel zu ich will nur AMD huldigen und Nvidia/Intel Haten.
PS: Nvidia baut die besseren Grafikkarten. Sagte ich dir schon mindestens 3x.
Anhänge
- Registriert
- Okt. 2023
- Beiträge
- 4.498
Es ist also valide Balken ohne Quelle und ohne betreffendes Spiel zusammenghanglos zu posten und einen RAM-Unterschied zu erfinden, obwohl die Werte auf unterschiedlicher Software (OS, Microcode und Spielupdate) zurückzuführen sind und diese Tests 5 Monate auseinanderliegen. Sprich nachweislich gar nichts mit dem RAM zu tun haben, siehe angeführte Beleg eine Seite zuvor. Ah ok.stefan92x schrieb:Aber allein das Posten von mittlerweile veralteten Benchmarks an sich ist halt völlig valide im Kontext, in dem die Diskussion aufkam.
Cyberpunk war das betreffende Spiel.Nighteye schrieb:Die Star Citizen Benchs sind von diesem Jahr.
Auf der anderen Seite profitiert laut seiner Behauptung Arrow Lake durch DDR5 6400 statt 5600 um satte 40-50%. Auch interessant.ElliotAlderson schrieb:Wenn er alte Benchmarks postet, die nicht mehr State of the Art sind, weil Intel seine CPUs gefixt hat, er darauf hingewiesen wird und trotzdem weitermacht den Unsinn zu behaupten, dann ist es keine Meinung, sondern einfach nur Fakenews.
Zuletzt bearbeitet:
MalWiederIch
Commander
- Registriert
- März 2023
- Beiträge
- 2.589
Rockstar85 schrieb:Denn ein 9800X3D mit DDR5 8000er Ram ist natürlich ebenso schneller als Intel.
Nein - steht doch auch in dem von dir selbst verlinkten Test:
Rockstar85 schrieb:
In den Gaming-Benchmarks zeigt sich vor allem eines: Der Ryzen 7 9800X3D mit DDR5-8000 zeigt nur in Cyberpunk 2077 einen Leistungsvorteil. Ansonsten sind 6.000 MT/s dem schnelleren Speicher wohl auch aufgrund der niedrigeren Latenzen überlegen. Teilweise sind 8.000 MT/s sogar langsamer als die JEDEC-Konfiguration mit 5.600 MT/s.
Hier schenken sich beide Hersteller seit der letzten Generation doch garnichts? Hier aus dem CB Test:N85 schrieb:Als dann nochmal 50W mehr Verbrauch, wie üblich? Intel katapultiert sich immer weiter ins Abseits. Innovation, Intel, nicht Restefix.
https://www.computerbase.de/artikel....90019/seite-5#abschnitt_effizienz_in_spielenDen Cinebench 2024 Multi-Core schließt der Core Ultra 9 285K mit 2.420 Punkten satte acht Prozent besser als der Ryzen 9 9950X mit 2.236 Punkten ab. Auf dem Datenblatt verbraucht er 25 Prozent mehr (+50 Watt). Im Test tut er es aber nicht. Der Prozessor von AMD zieht im Benchmark durchgehend 200 Watt (das erlaubte Maximum), die CPU von Intel aber ebenfalls „nur“ 222 Watt – das sind 8 Prozent mehr Leistung bei 10 Prozent mehr Verbrauch und damit ein sehr knappes Rennen.
Zuletzt bearbeitet:
mario_mendel34
Lt. Junior Grade Pro
- Registriert
- März 2010
- Beiträge
- 425
Mit einem simplen Refresh kann man da gar nichts holen. Ich habe mir jetzt für einen Mini-ITX-Build einen 265 ohne K gekauft und bin absolut erschrocken, wie ineffizient die P-Cores trotz N3B sind. Die trotzdem im Gesamten noch relativ gute Effizienz kommt im Multicore komplett von den E-Cores, die wirklich richtig gut sind. Die P-Cores saufen einfach viel zu viel, 1 Kern mit 5,1 GHz verbraucht 38 W alleine, und das in N3B. Und wenn das 65-W-TDP-Limit zuschnappt, gehts auf 3,1 GHz runter. Kein Ryzen seit Zen 2 verliert bei TDP-Einbremsung so viel Takt. Die P-Cores müssen komplett überarbeitet werden, da ist das Design irgendwo verdammt fehlerhaft.
In Shadow of the Tomb Raider performt das Teil im CPU-Limit übrigens nur auf dem Niveau von Zen 3 ohne X3D-Cache. Kann sein, dass das jetzt nur ein Worst-Case-Spiel ist, aber ich war richtig erschrocken. Für mich kein Wunder, dass diese Generation im DIY-Segment komplett durchgefallen ist.
In Shadow of the Tomb Raider performt das Teil im CPU-Limit übrigens nur auf dem Niveau von Zen 3 ohne X3D-Cache. Kann sein, dass das jetzt nur ein Worst-Case-Spiel ist, aber ich war richtig erschrocken. Für mich kein Wunder, dass diese Generation im DIY-Segment komplett durchgefallen ist.
MalWiederIch
Commander
- Registriert
- März 2023
- Beiträge
- 2.589
@mario_mendel34 20 Kerne bei 65W? Was hast du erwartet, wie kommt man darauf, dass das für die Masse relevant sei - muss ich mit meinem 16 Kerner auch mal versuchen und dann „erschrocken“ sein 
@stock läuft doch alles einwandfrei - man landet vor allen Ryzen 9000 und dem 7600X3D, nur knapp hinter 7800/7950X3D:
Zu Effizienz s.o.:
@stock läuft doch alles einwandfrei - man landet vor allen Ryzen 9000 und dem 7600X3D, nur knapp hinter 7800/7950X3D:
Zu Effizienz s.o.:
MalWiederIch schrieb:Hier schenken sich beide Hersteller seit der letzten Generation doch garnichts? Hier aus dem CB Test:
Den Cinebench 2024 Multi-Core schließt der Core Ultra 9 285K mit 2.420 Punkten satte acht Prozent besser als der Ryzen 9 9950X mit 2.236 Punkten ab. Auf dem Datenblatt verbraucht er 25 Prozent mehr (+50 Watt). Im Test tut er es aber nicht. Der Prozessor von AMD zieht im Benchmark durchgehend 200 Watt (das erlaubte Maximum), die CPU von Intel aber ebenfalls „nur“ 222 Watt – das sind 8 Prozent mehr Leistung bei 10 Prozent mehr Verbrauch und damit ein sehr knappes Rennen.
MalWiederIch schrieb:
mario_mendel34
Lt. Junior Grade Pro
- Registriert
- März 2010
- Beiträge
- 425
@MalWiederIch 1 P-Kern halt schon bei 38 W und 5,1 GHz. Ein einzelner Kern vom 9800X3D läuft auf 5,425 Ghz und verbraucht weniger. Und das bei der schlechteren Fertigung.
Nighteye
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.492
Wow. Danke dir für diesen Interessanten Einblick.mario_mendel34 schrieb:einen 265 ohne K gekauft und bin absolut erschrocken, wie ineffizient die P-Cores trotz N3B sind. Die trotzdem im Gesamten noch relativ gute Effizienz kommt im Multicore komplett von den E-Cores, die wirklich richtig gut sind. Die P-Cores saufen einfach viel zu viel, 1 Kern mit 5,1 GHz verbraucht 38 W alleine, und das in N3B. Und wenn das 65-W-TDP-Limit zuschnappt, gehts auf 3,1 GHz runter. Kein Ryzen seit Zen 2 verliert bei TDP-Einbremsung so viel Takt. Die P-Cores müssen komplett überarbeitet werden, da ist das Design irgendwo verdammt fehlerhaft.
Das ist echt heftig.
Der Arrow Lake Refresh mit noch höheren Taktraten wird die P Cores dann wohl nur noch Stromhungriger machen wegen der gleichen Fertigung.
Vermutlich werden die neuen Intels auch teurer, ähnlich wie damals bei Raptor Lake 13. Gen und 14. Gen.
Also hast du alles richtig gemacht mit dem jetzt zuschlagen.
Hoffentlich wird beim Nachfolger Nova Lake nächstes Jahr dann evtl mit AVX 512 noch die Effizienz verbessert.
(Falls Nova Lake AVX 512 beherrschen wird)
mario_mendel34
Lt. Junior Grade Pro
- Registriert
- März 2010
- Beiträge
- 425
Habs mal angehangen. Ist mit CUDIMM 6400CL52. Im BIOS das Baseline Profil, und das PL2 manuell auf 65 W gesetzt.
Ich gehe davon aus, dass das ein Einzelfall ist, aber war halt gestern abend das einzige, was ich noch ausprobiert habe.
Ich gehe davon aus, dass das ein Einzelfall ist, aber war halt gestern abend das einzige, was ich noch ausprobiert habe.
Anhänge
Du hast leider den 265K rausgesucht (und dann auch noch mit CU-DIMM). Der läuft mit mehr TDP (125/250W statt 65/182W) und vermutlich auch deutlich schnellerem RAM als der 265 (ohne K!) von @mario_mendel34 , da würde ich mal von mehr Leistung ausgehenMalWiederIch schrieb:@stock läuft doch alles einwandfrei - man landet vor allen Ryzen 9000 und dem 7600X3D, nur knapp hinter 7800/7950X3D:
mario_mendel34
Lt. Junior Grade Pro
- Registriert
- März 2010
- Beiträge
- 425
@stefan92x CUDIMM habe ich auch, allerdings JEDEC-konform mit langsameren CL 52.
mario_mendel34
Lt. Junior Grade Pro
- Registriert
- März 2010
- Beiträge
- 425
Du hast schnelleren RAM und die CPU kann wahrscheinlich wegen höherem Powerlimit durchtakten. Ist für dieses Spiel aber trotzdem nicht berauschend, ich hab noch ein altes Foto vom 5800X3D bei mir gefunden, ältere Spielversion und älteres Windows zwar, aber der war auch schon viel schneller.
Anhänge
RealMax123
Lieutenant
- Registriert
- Mai 2025
- Beiträge
- 627
Das finde ich auch garnicht intressant und komplett egal!Matthias80 schrieb:Uhhhhhh ne stärkere NPU. SCHNARCH! 😴
Verbesserungswürdig an Arrow Lake fände ich eher:
- auf die x35, x35T, x45, x45T, x85 und x85T Modelle könnte man komplett verzichten weil sie eh nicht wirklich billiger sind
- zwischen Core Ultra 5 x45K/KF und Core Ultra 7 x65K/KF könnte man vielleicht noch einen Core Ultra 7 x55K/KF mit 8P+8E Kerne schieben.
- nach unten man billige Core Ultra 3 x15/F/G mit 4P+8E Kerne und Core Ultra 3 x05/F/G mit 4P+4E Kerne anbieten.
Und die Sache mit der iGPU:
Bei Arrow Lake hat ja der Core Ultra 5 225 nur 2 Xe Einheiten, die Core Ultra 5 235/T dann 3 Xe Einheiten und ab Core Ultra 245/K dann 4 Xe Einheiten.
Das finde ich aber unklug.
Denn gerade der kleine Core Ultra 5 225 wäre am ehesten die CPU die wirklich in Systemen ohne Grafikkarte landet, und da ist die iGPU dann relativ schwach. Die stärkeren CPUs werden aber eh immer eine Grafikkarte dazu bekommen, und als Ergänzung für Hybrid-Grafik und Diagnosezwecke würde auch eine einfachere iGPU reichen.
Würde es eher so machen: F und KF Modelle ohne iGPU, ohne Buchstabe und K Modelle mit 3 Xe Einheiten, G Modelle mit 6 Xe Einheiten.
Zuletzt bearbeitet:
ElliotAlderson
Commander
- Registriert
- Juni 2024
- Beiträge
- 2.218
Und? Takt allein sagt nichts aus.mario_mendel34 schrieb:@MalWiederIch 1 P-Kern halt schon bei 38 W und 5,1 GHz. Ein einzelner Kern vom 9800X3D läuft auf 5,425 Ghz und verbraucht weniger. Und das bei der schlechteren Fertigung.
MalWiederIch
Commander
- Registriert
- März 2023
- Beiträge
- 2.589
Das erklärt einiges, da braucht man sich auch nicht wundern …mario_mendel34 schrieb:@stefan92x CUDIMM habe ich auch, allerdings JEDEC-konform mit langsameren CL 52.
Ergänzung ()
mario_mendel34 schrieb:Du hast schnelleren RAM
Du kombinierst eine CPU die zumindest durchschnittlich RAM benötigt mit unterdurchschnittlich langsamem RAM und wunderst dich warum die CPU nicht wie im Computerbase Leistungsrating 16% vor dem 5800X3D liegt?mario_mendel34 schrieb:Ist für dieses Spiel aber trotzdem nicht berauschend, ich hab noch ein altes Foto vom 5800X3D bei mir gefunden, ältere Spielversion und älteres Windows zwar, aber der war auch schon viel schneller.
Muss man wirklich nicht verstehen
Ergänzung ()
CU-DIMM oder UDIMM - langsam bleibt langsam …mario_mendel34 schrieb:@stefan92x CUDIMM habe ich auch, allerdings JEDEC-konform mit langsameren CL 52.
Ergänzung ()
CU-DIMM oder UDIMM macht keinen Unterschied, wenn beide wie im Test mit eher langsamen 6400CL36 laufen - 6400CL36 UDIMM würden exakt identisch performen …stefan92x schrieb:Du hast leider den 265K rausgesucht (und dann auch noch mit CU-DIMM). Der läuft mit mehr TDP (125/250W statt 65/182W) und vermutlich auch deutlich schnellerem RAM als der 265 (ohne K!) von @mario_mendel34 , da würde ich mal von mehr Leistung ausgehen![]()
Auch die TDP dürfte hier nicht groß beim Spielen begrenzen - im Test lag der 265K bei durchschnittlich 78W (und somit unterhalb des 5800X3D von dessen Effizienz er schwärmt …):
Jetzt ist nur noch die Frage warum man überhaupt zum 50€ teureren non-K-Modell greifen sollte? Für die 50€ hätte man auch den 5€ teureren Kühler finanzieren können … 10-15W Differenz bzw. 0,003-0,0045€ Ersparnis die Stunde beim Spielen holen die Differenz von 50€ auch nicht wieder rein … und 10-15W weniger Abwärme? Naja, ob das bei der 300W+ GPU auffällt
Ergänzung ()
Was eine Überraschung - bei @mario_mendel34 sitzt das Problem vor dem Bildschirm und gleich wurde wieder wie üblich alles auf die Hardware geschobenBernmanHH schrieb:So hier nochmal:Anhang anzeigen 1636158
Zuletzt bearbeitet:
Mein 265 Non-K ist gerade angekommen, ich gehe den jetzt mal testen (ebenfalls Mini-ITX Build auf B860). Allerdings habe ich den gebraucht zu einem gutem Kurs gekauft. Mit einem 245k habe ich über das WE eine Baseline an Werten aufgebaut, bin auf die Ergebnisse gespannt.
Meine Erfahrung über die Jahre ist, dass die Non-K im Vergleich zu den Ks deutlich effizienter waren, v. a. mit Undervolting. Habe mehrfach versucht, K-CPUs diesbezüglich zu optimieren und bin jedes Mal gescheitert, trotz deutlich mehr Stellschrauben in Verbindung mit Z-Chipsatz.
Meine Erfahrung über die Jahre ist, dass die Non-K im Vergleich zu den Ks deutlich effizienter waren, v. a. mit Undervolting. Habe mehrfach versucht, K-CPUs diesbezüglich zu optimieren und bin jedes Mal gescheitert, trotz deutlich mehr Stellschrauben in Verbindung mit Z-Chipsatz.
Ähnliche Themen
- Antworten
- 47
- Aufrufe
- 3.828
- Antworten
- 17
- Aufrufe
- 1.476
- Antworten
- 106
- Aufrufe
- 9.918