News Core Ultra 300?: Arrow Lake-Refresh soll doch keine schnellere NPU erhalten

Es ist absurd wie sehr der Mensch darauf bedacht ist, sich in Gruppen einzufinden…sogar gänzlich ohne Belohnung.

Das gilt insbesondere für die Fahnenträger dieser Gruppen, - die selbsternannten Aushängeschilder dieses Threads dürfen sich angesprochen fühlen.

Es ist Technik, nicht mehr und nicht weniger. Mit teilweise ähnlichen und teilweise anderen Einsatzzwecken und Kaufabsichten.

AMD hat Pros/Contra, genauso wie Intel.

Wer behauptet, dass diese Intel Generation generell unbedeutend oder gar komplett gemieden werden sollte, ist ignorant und ist in einem Tech-Forum fehl am Platze und sollte sein Glück als Marktschreier oder Stimmungsmacher probieren…und bei der Diskussionsqualität, die eher an kläglichen. ersucjen der Indoktrination erinnert generell keine Bühne jeglicher Art bekommen.

Ich vermisse hier klar die konstruktive Differenzierung. Subjektiv kann jeder und Objektiv ist es auch nicht mit Charts um sich zu werfen - die teilweise sogar älter sind. Es spielen viel mehr Aspekte eine Rolle. Und diese Aspekte sind für jeden Käufer anders gesetzt.

Momentan macht AMD einen differenziert besseren Job, aber Intel dadurch keinen schlechten. Und AMD hat meiner Auffassung nach nur die Nase in Games und Hardcore-Computing vorn. Das Interessiert nur Spezialisten/Zocker und anscheinend die CB-Bubble.

Und mal zu zwei anderen Punkten:

Wenn AMD könnte, würden die auch Verträge abschließen, die Konkurrenten am Markt den Erfolg erschweren. Nennt sich Kapitalismus und ist aus der Sicht eines Unternehmens völlig legitim.

Und wer hier Bulldozer als so schlimmes Los für AMD hinstellt, schon fast als höhere Gewalt, ist sowieso vereinnahmt. AMD wusste was Sie da machen und haben nicht umsonst danach das Unternehmen umgebaut und von extern des Unternehmens Experten reingeholt. Defacto dümpelte AMD nach Sockel 939 nur umher…der Aufkauf von ATI hat sein übriges getan. Und daran hatte Intel keine Schuld.

Zum Thema:

Wenn der Refresh Intel kaum Ressourcen abverlangt, gerne releasen. Sonst hätte ich einen Fokus auf die nächste Generation besser gefunden, da die viel neues bietet.

Um aber auch mal eine kleine Spitze zu setzen:
Intel CPU mit mehr Next Gen P Cores und E Cores sowie mehr Cache. Mal schauen was AMD dann noch so reißen kann.

Fazit:
Momentan profitiert AMD von der Schwäche Intels, genauso wie es Jahre zuvor andersherum war.
Und hier sollten paar Mitglieder mal durch die Hose atmen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: mscn und Quidproquo77
modena.ch schrieb:
Das sind am Ende Matrixioperationen die auf der NPU ausgeführt werden. Wir haben in den GPUs dicke Matrixeinheiten und dann soll das die NPU übernehmen, weil das effizienter ist, wenns auf der GPU viel, viel, viel schneller ginge?
40-50 TOPS in den NPUs VS 980-3300 TOPS. auf dGPU Seite Ich denke nicht TIM, das muss klar auf der GPU auch möglich sein. Nur für ein paar popelige Raytracing Effekte braucht man diese Einheiten in einer GPU nicht.
Hier muss man aber paar Dinge noch unterschieden. Zum einen - anders als bspw. Gaming Leistung gibt es für die KI Geschichte ein Limit. Wenn das was raus kommt, hinten raus kommt, bringt mehr Leistung einfach nix mehr. Wenn die "KI" das Ergebnis hat, hat sie es. Da wird mehr Leistung nicht zu einem besseren Ergebnis führen. Anders als beim Training zumindest.

Sprich du brauchst keine hunderte oder tausende TOPS, wenn das auch mit angenommen 50 TOPS geht.
Was aber dazu kommt, die hunderte oder tausende TOPS der dGPU erreicht diese halt bei 400, 500, 600W Verbrauch. Während die NPU in der CPU das quasi auf ner halben Arschbacke nebenbei mit macht.
modena.ch schrieb:
Ne olle RTX2060 hat mehr Tops als die NPUs und ich kann mir vorstellen, dass wenn diese Operationen für nur 40-50 TOPS ausgelegt sind, wir man die auch recht effizient auf einer modernen Graka ausführen können, weil die hat da ja gar nix zu tun. Das ist ja sofort erledigt.
Wie erwähnt ist das Problem eher, dass das viel fettere Design der dGPU Karten am Ende wohl dazu führen wird, dass die Karte weit ineffizienter die Arbeit erledigt. Dann ist das absolut vielleicht schneller, aber auf die Zeit und das Resultat gerechnet, ist es am Ende trotzdem ineffizienter.

Weiterhin wirkt sich der KI Kram in manchem Bereich halt auch primär dort aus, wo es dafür auch Anforderungen gibt. Die weiter oben genannten Beispiele zielen halt primär auf den Business Use Case ab. Das gibt es privat vielleicht auch, aber da ist eben weniger die "Zeit = Geld".

Eine Sache, die bei uns auf Arbeit gerade so bisschen gehypt wird ist die Möglichkeit, mit dem Business Copilot von Microsoft dahingehend zu interagieren, dass du bspw. nicht mehr nach einem Ergebnis suchst oder nach etwas, was du gedenkst zu finden, sondern du fragst den Agent und der liefert dir das, was du wissen willst. Oder erstellt dir das, was du machen möchtest. Entsprechende Voraussetzungen sauber implementiert bedeutet das, der Copilot hat Zugriff auf die Daten und "denkt" im Rahmen der ihm verpassten Fähigkeiten mit und kann dir Mehrwerte liefern ohne dass du dafür Leute bezahlen musst. Das sind so ganz banale Sachen wie eben die Option, Dinge auszuwerten die passiert sind, Dinge durchzuführen, die vorher Menschen gemacht haben usw. usf. -> das spart ummengen an Geld, WENN es denn funktioniert.
In unserem Fall bspw. ist es so, dass die Leute alle samt mit Notebooks unterwegs sind. Niemand hat eine dGPU und Niemand hat nen Desktop PC (mehr). Also wenn dann muss das eben auf einem Mobile tauglichen Gerät funktionieren und dann idealerweise auch noch 8, 9, 10h im Akku Betrieb durchhalten.
Kann sich bestimmt wieder Niemand aus der Bubble der Gamer und Desktop PC User vorstellen - aber DAS sind reale Business-Usecases. Ob das eine 600W RTX 5090 dann besser und schneller könnte, ist eigentlich total egal, die ist nicht im Notebook.

Der_Unbekannte schrieb:
So viel Text und du gehst auf meine Punkte 0 ein.
Wieder eine Unwahrheit - ich zweifel bisschen an deinem Textverständnis. Da sind mehrere direkte Quotes auf deine Behauptungen inkl. Gegendarstellungen und mehrere Richtigstellungen, wo du zeitlich einfach komplett auf dem Holzweg bist. Aber lass mal gut sein. Mir ist meine Zeit zu schade als dass man sich über verblendete User in Foren mit ihren verbohrten Ansichten rumstreiten muss...
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, mscn, Quidproquo77 und eine weitere Person
Nighteye schrieb:
Jetzt bei den Nachtests mit Optimerungen und Hochgezüchtetem DDR5 OC Ram kann der 3nm Core Ultra gerade mal so den 7nm Zen 3 X3D schlagen.
Du könntest auch einfach schreiben, dass der 265K im Mittel vor dem 7800X3D liegt. Also dort wo du immer einzelne Balken heranziehst. :lol:
 
  • Gefällt mir
Reaktionen: ElliotAlderson
@Quidproquo77 Ist halt die frage welchen Ram man verwendet.

DDR5 5600mhz
1751904069041.png


DDR5 6400mhz + bessere Timings (Super Optimiert)
1751904093768.png


Man stelle sich vor der 12900K hätte den Ram vom Core Ultra, und der Core Ultra nur den 4400mhz Ram vom 12900K.
Wäre mal spannend zu sehen.

Am ende aber immer noch Peinlich was FPS pro Watt angeht.
1751904226014.png


Intel brauchte 3nm und 1/3 mehr Strom um eine Asbach Uralt AMD Architektur von 2020 in 7nm zu besiegen.
Nicht zu vergessen der Super schnellere 6400mhz Ram gegen den 3200mhz DDR4.
 
  • Gefällt mir
Reaktionen: SweetOhm, Der_Unbekannte, eXe777 und 3 andere
MelbarKasom schrieb:
Mehr als nur höhere Taktraten?

mmh, bei Intel vielleicht höhere Preise?
Ich dachte zuerst an... höheren Stromverbrauch 😉.
 
  • Gefällt mir
Reaktionen: SweetOhm
Philste schrieb:
Mittlerweile ist selbst die Gamingleistung mit etwas Tweaking ganz gut, es gab bis jetzt noch keine Auffälligkeiten wie beim Vorgänger, generell ist die Leistung Konkurrenzfähig usw.
Tja und bei Intel braucht es dafür DDR5 8000 mit scharfen Timings..
Ich finde spannend, dass neuerdings OC Speicher mit Kosten von ~5€ pro GB als ein bissl Tweaking bezeichnet werden. Was nebenbei noch erwähnt werden muss dass das AMD DDR5 Kit dann 2-3€ pro GB kostet. (und bei AMD ein 6400er Kit locker reicht) Nebenbei sieht man am X3D wunderbar, wo AMDs Speichercontroller noch Optimierung benötigt, da kann Intel eig froh sein ;)
Das ist weder etwas Tweaking, noch ist das Otto Normal zu erklären. Könnten wir bitte wieder bei den Objektiven Betrachtungen bleiben? Denn ein 9800X3D mit DDR5 8000er Ram ist natürlich ebenso schneller als Intel.
Und @fdsonne das ist hier nicht das PCGH Forum, also bitte mehr Respekt und vor allem: Freundlichkeit! Und ich kann mich dem @Der_Unbekannte nur anschließen: Wenn man Quotet, dann auch bitte auf den Quote eingehen :) Möglichst mit Fakten

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/64771-amd-lässt-arrow-lake-ganz-schön-alt-aussehen-der-ryzen-7-9800x3d-im-test.html?start=10

Am Ende bleiben die Abstände gleich und Intel hat ein massives Kommunikationsproblem. Aber vllt haben wir nun bald, statt Hochfrequenzgamern auch Hochfrequenzspeicherdursatz xD
 
  • Gefällt mir
Reaktionen: boypac007, SweetOhm, Der_Unbekannte und eine weitere Person
relaxed_Guy schrieb:
Habe ich auch nicht behauptet.
Alles gut, kam halt so rüber.
Ergänzung ()

relaxed_Guy schrieb:
Weil er deutlich schneller behoben wurde und die 9000X3Ds dann in den Fokus gerückt sind. Sowas fehlt/e Intel im DIY.
Das stimmt, deshalb kam er mir bis zum CB Nachtest auch nicht in Frage. Aber der Preis war jetzt echt super. Board und CPU hatte ich nun zum Preis des 9800X3D bekommen. 😊
 
  • Gefällt mir
Reaktionen: relaxed_Guy
Erwarte weder vom Arrow Lake Refresh als auch Zen 6 Launch große Leistungssprünge. Schon in den letzten Jahren hat sich immer wieder gezeigt das beide Anbieter nur Preislich Unattraktives zum Launch anbieten und erst viel später nach dem X3D Verkaufsstart, mit Monatelangen Verfügbarkeitsproblemen, realistische Preise erzielt werden. Wer die Chips zum Verkaufsstart gekauft hatte, hat sich vermutlich einfach nur geärgert. Diesmal kommt ja eventuell noch eine geopolitische Komponente dazu. Zumal mit höheren Auflösungen die Wahl der CPU immer unwichtiger wird, es also in vielen Fällen komplett egal ist welcher Zen Prozessor im PC meditiert oder welches Lakerl dahintröpfelt.

Ich würde es feiern wenn sich an der Effizienz im Idle mal was tut. Die wird bei AMDs Chiplet Design von Generation zu Generation schlechter und stagniert auch bei Intel. 30 Watt Idle ohne Monitor und GPU sind in Zeiten wo Mobile Chips 2-5 Watt mit Monitor ziehen einfach nicht mehr zeitgemäß.
 
Nighteye schrieb:
@Quidproquo77 Ist halt die frage welchen Ram man verwendet.
Der Unterschied zwischen deinen gefakten Benchmarks ohne Quelle und ohne Spiel ist weder der Speichertakt, noch Timings, sondern eine andere Spielversion die vorher Arrow Lake nicht richtig auslastete. Hatten wir schon 2-3 mal und jedes mal kommst du wieder mit deinen Zusammenschnitten an und lügst es dir zurecht.
Nighteye schrieb:
Nein, alter Test mit alter Software vom 24.10.24.
Screenshot_2025-07-07-19-46-54-61_40deb401b9ffe8e1df2f1cc5ba480b12.jpg

Nighteye schrieb:
DDR5 6400mhz + bessere Timings (Super Optimiert)
Nur höhere Taktraten, macht 3 oder 4%, stumpfes XMP, keine Optimierung der Timings, lediglich neue Software, Microcode, OS, Cyberpunk Update.
Nighteye schrieb:
"Fake" ohne Link und Spiel. Hier Original.
Screenshot_2025-07-07-19-32-03-03_40deb401b9ffe8e1df2f1cc5ba480b12.jpg

Versuch besser mal nicht den RAM dafür verantwortlich zu machen. Was der bringen kann, sieht man in deinen komischen Ausschnitten gar nicht, sondern in einem separaten Test, wo dann wirklich auch Timings angezogen werden und nicht irreführend untersch. Softwarestages als RAM Zuwachs hingestellt wird.
Nighteye schrieb:
Man stelle sich vor der 12900K hätte den Ram vom Core Ultra, und der Core Ultra nur den 4400mhz Ram vom 12900K.
Wäre mal spannend zu sehen.
Man stelle sich vor du würdest wirklich auf Tests verweisen die das getestet haben, aber dann kämen ja nur ~ 5% raus.

Mangelnde Coreauslastung und falsche Belastung der Cores sowie neue, fehlerbereinigte Software als RAM Zuwachs zu verkaufen ist wirklich ein zweifelhaftes Können.
Nighteye schrieb:
Intel brauchte 3nm und 1/3 mehr Strom um eine Asbach Uralt AMD Architektur von 2020 in 7nm zu besiegen.
Witzig, dann ist ein 9950X3D ja ineffizienter als ein 265K, in einem Vergleich mit Quelle und aktueller Software.

Screenshot_2025-07-07-20-14-11-65_40deb401b9ffe8e1df2f1cc5ba480b12.jpg

Kleine CPUs mit weniger Kernen sind natürlich im Vorteil, wer hätte es gedacht, der Abstand zur aktuellen Gen dennoch eher gering.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mscn und ElliotAlderson
fdsonne schrieb:
In unserem Fall bspw. ist es so, dass die Leute alle samt mit Notebooks unterwegs sind. Niemand hat eine dGPU und Niemand hat nen Desktop PC (mehr). Also wenn dann muss das eben auf einem Mobile tauglichen Gerät funktionieren und dann idealerweise auch noch 8, 9, 10h im Akku Betrieb durchhalten.
Kann sich bestimmt wieder Niemand aus der Bubble der Gamer und Desktop PC User vorstellen - aber DAS sind reale Business-Usecases. Ob das eine 600W RTX 5090 dann besser und schneller könnte, ist eigentlich total egal, die ist nicht im Notebook.

Ich arbeite für einen Deutschen Konzern und das ist bei uns etwas anders, HR, FB, Verwaltung und vielleicht noch die Powerpoint Schubser haben ein 13-15" Schleppi mit i5 oder i7u Gurke der 9, bis 15. Intel Gen.

Aber Entwicklung, Support, Konstruktion hat einen 15-17" Schleppi als Workstation Ersatz.
Da gibts dann 45-65W i7 bis i9 der 11.-15. Intel-Gen mit dGPU ala NV Quadro.
Ich hab z.B. einen i9 13950 HX 24 Kerner, mit ADA Quadro. Also keine NPU in der CPU. aber reichlich Tops in
der dGPU.

Ich denk mir das folgendermassen, das Resultat der Anfrage an den Agenten ist durch mehr Tops nicht besser, aber schneller verfügbar. Das kann bei einer Anfrage, die für 50 Tops gedacht ist auf einer 500 Tops GPU doch nur Sekundenbruchteile dauern und damit ist es schnell erledigt und die dGPU kann sich wieder schlafen legen. Damit wäre es auch recht effizient abgearbeitet, denke ich, natürlich nicht so effizient wie auf ner NPU.
 
  • Gefällt mir
Reaktionen: SweetOhm und Rockstar85
ElliotAlderson schrieb:
Faszinierend, wie bei dir immer ein schlechtes Beispiel auch alle positiven invalidiert. Warum bist du als AMD Fanboy eigentlich hier?
mich nervt es dezent, dass Trolle wie @Nighteye die Foren mit Fakenews zuspammen dürfen
Also Computerbase Test Ergebnisse sind Fakenews ?

Avatar
1751914000797.png

Baldurs Gate
1751914030806.png

F1 2024
1751914082451.png


Mit OC Ram verliert der 3nm Intel gegen den billigen DDR4 7nm AMD mit Architektur von 2020.
Und das obwohl der AMD sogar weniger Strom Zog.

Nova Lake muss also erstmal gegen Zen 3 ankommen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Auch das ist der veraltete Test aus 2024.
Dazu sage ich nichts mehr.
 
  • Gefällt mir
Reaktionen: bart0rn, Botcruscher und ElliotAlderson
shysdrag schrieb:
Erwarte weder vom Arrow Lake Refresh als auch Zen 6 Launch große Leistungssprünge. Schon in den letzten Jahren hat sich immer wieder gezeigt das beide Anbieter nur Preislich Unattraktives zum Launch anbieten und erst viel später nach dem X3D Verkaufsstart, mit Monatelangen Verfügbarkeitsproblemen, realistische Preise erzielt werden
Das ist eine Gesunde Einstellung

Bei Zen 6 erwarte ich einen 12C CCD also ein 12C/24T... Dazu dann maybe Zen 6C Chips und dann gucken wir mal.. Ich bin echt gespannt, ob an den Leaks etwas stimmt. Der Refresh ist für mich, alleine wegen des toten Sockels raus.
AMD macht leider derzeit neben dem 9600X auch keine wirklich guten Offerten.. Ein Zen 4 AM4 wäre natürlich mega, aber wäre für AMD sicher keine Option.
 
  • Gefällt mir
Reaktionen: boypac007 und shysdrag
Nighteye schrieb:
Konnte halt zu release nichtmal einem 7nm Zen 3 5800X3D in Cyberpunk das Wasser reichen und wurde sogar gnadenlos von einem 12900K (10nm CPU) zerhämmert. Das war schon peinlich für eine 3nm CPU.
Anhang anzeigen 1635752
Jetzt bei den Nachtests mit Optimerungen und Hochgezüchtetem DDR5 OC Ram kann der 3nm Core Ultra gerade mal so den 7nm Zen 3 X3D schlagen.
Und das obwohl AMD,s Asbach Uralt CPU dabei keine 58W verbraucht und noch mit DDR4 läuft.
Warum das seltsame Cherrypicking? :confused_alt:
Stimmt - beim wirklichen Leistungsrating sieht der 5800X3D verhältnismäßig alt aus:
IMG_4491.jpeg

Auch Ryzen 9000 ohne X3D landet dahinter, wozu ein 450€ 9900X, wenn ein 265K(F) dieselbe Leistung in Spielen und Anwendungen für unter 300€ bietet? Die meisten wechseln ihre CPU (wie du offensichtlich auch selbst als „Enthusiast“) ja doch nur jedes halbe bis ganze Jahrzehnt …
Ergänzung ()

Nighteye schrieb:
Also Computerbase Test Ergebnisse sind Fakenews ?
Nein - nimm doch einfach das CB Leistungsrating (s.o.) anstatt weiter Cherrypicking mit einzelnen von dir ausgewählten Spielen zu betreiben, da ist dein 5800X3D plötzlich soweit weg vom 265/285K(F) wie die zum 9800/9950X3D :rolleyes:

Ist dir das Cherrypicking, das sich komplett vom CB Leistungsrating unterscheidet, nicht selbst peinlich? :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Xedos99 und ElliotAlderson
Rockstar85 schrieb:
AMD macht leider derzeit neben dem 9600X auch keine wirklich guten Offerten.
Aus meiner Sicht mit meinen Ansprüchen ist ein 150€ 7600X ein guter Preis. 90€ günstiger als ein 225 bei gleicher Leistungsentfaltung.
 
  • Gefällt mir
Reaktionen: SweetOhm und Rockstar85
MalWiederIch schrieb:
Warum das seltsame Cherrypicking? :confused_alt:
Es waren mit meinen geposteten PCGH Benchs insgesamt 4 Spiele, und in Star Citizen welches hier nicht getestet wurde siehts nicht besser aus.
Und ich Spiele eig nur Star Citizen als Anspruchsvolles Spiel.
Kein Spieler der auch Hauptsächlich SC zockt hat sich da einen Intel Core gekauft weil die einfach unterirdisch abschneiden.
Star Citizen 265K.png



Edit:
Hier noch das hier gefunden.
265K mit 8000mhz Ram 30% langsamer in Star Citizen. (Video ist 2 Wochen alt also von Juni 2025)
265K 8000mhz Ram tuned 30 Percent slower then 9800X3D.png


Da mich nur dieses Spiel Interessiert hätte ich also gar kein Upgrade von meiner AMD CPU mit Architektur von 2020.
Also Intel hängt da ein halbes Jahrzehnt hinterher.

Edit 2:
Sehe auch noch das der Intel da stolze 122W zieht, und der 9800X3D auch bereits 99,4W.
Mein 5800X3D zieht in SC nie mehr als 60W und ist wohl kaum langsamer.
1751954399710.png

Also Performance pro Watt muss Intel in dem Spiel immer noch den Zen 3 schlagen.
Mit Zen 4 oder 5 oder gar 6 brauchen wir uns Thematisch als Intel User noch gar nicht zu beschäftigen.

Der 3 nm Intel ist in dem Spiel noch schlechter als Zen 3, und auf 12nm Zen 2 Niveau.

Wie schwach muss eine Architektur sein, um mit 3nm auf 12nm Niveau aus dem letzten Jahrzehnt zu sein ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Nighteye schrieb:
Und ich Spiele eig nur Star Citizen
Das ist nett, aber eine absolute Nische und zudem eine Alpha …

Hier nochmal das CB Leistungsrating mit einem Parkour aus 17 (!) Spielen anstatt deinem seltsamen Cherrypicking, das für dich persönlich relevant sein mag, allgemein aber keinerlei Aussagekraft hat:
IMG_0643.jpeg

Im Mittel - nochmal bei ganzen 17 Spielen - liegt der 5800X3D satte 16% hinter dem 265K(F), selbst der aktuelle Ryzen 9900X und 9950X, sowie 7600X3D liegen dahinter, Ryzen 7800X3D und 7950X3D nur noch 2-3% vorne - einzig der 9800/9950X3D ist mit kaum mehr als den 16% die zwischen 5800X3D und 265K(F) merklich vorne :)
Nighteye schrieb:
Wie schwach muss eine Architektur sein, um mit 3nm auf 12nm Niveau aus dem letzten Jahrzehnt zu sein ?
Wie schwach muss deine Architektur sein um nicht zu verstehen, dass dein seltsames Cherrypicking genau dem Gegenteil vom CB Leistungrating und somit einem seltenen Negativbeispiel entspricht, Positivbeispiele gibt es selbstredend genauso, ansonsten würde dein 5800X3D nicht ganze 16% im CB Leistungsrating hinter dem 265K(F) liegen - für die absolute Masse hat das somit keine Relevanz.

Ein anderer Kollege würde dazu das hier schreiben:
Abrexxes schrieb:
nimmst du Drogen? Stopp das. Es ist nicht gut.
:p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mscn, Quidproquo77 und ElliotAlderson
ElliotAlderson schrieb:
Nicht alles ist ne Meinung. Wenn er alte Benchmarks postet, die nicht mehr State of the Art sind, weil Intel seine CPUs gefixt hat, er darauf hingewiesen wird und trotzdem weitermacht den Unsinn zu behaupten, dann ist es keine Meinung, sondern einfach nur Fakenews.
Nein. Die Frage von @Philste war, warum Arrow Lake "in den Köpfen" immer noch so schlecht drin ist, und die durchaus korrekte Antwort von @Nighteye ist, dass es halt zum Release nicht gut war und zum Teil richtig blamabel. Und Leute lesen keine Nachtests, der erste Eindruck bleibt im Kopf. Der Verweis auf die alten Tests ist in diesem Kontext halt absolut korrekt und kein Unsinn.
 
  • Gefällt mir
Reaktionen: Rockstar85 und SweetOhm
Zurück
Oben