News Core Ultra 300?: Arrow Lake-Refresh soll doch keine schnellere NPU erhalten

TechFA schrieb:
Ich warte ja noch immer auf den Tag, wo man mir mal stichhaltig erklärt, wofür der NPU-Nonsense gut sein soll, wenn der Endkunde für etwas und einen Teil des Prozessors zu bezahlen hat, was er a) gar nicht nutzt, geschweige denn b) in Ermangelung von entsprechender Software (-Infrastruktur) überhaupt nicht nutzen kann.
Auf HW-Seite muss man gewissermaßen in Vorleistung gehen. Der Athlon hatte auch wenig von seiner 64bit Unterstützung. Vorteile der NPU lassen sich im Gegensatz dazu schon heute bei spezialisierter Software (Inferenz) erzielen, also ist die Frage doch eher rhetorisch und scherzhaft als ernst gemeint. Wahrscheinlich darauf basierend, weil der Konkurrent NPUs nur in den größeren APUS anbietet und alle anderen Zen 5 keine haben.
TechFA schrieb:
Ich verstehe auch nicht, weswegen Intel sich den Quatsch gibt und die nächste +100 MHz-Neuauflage von Arrow Lake auflegen will – Bringt nichts und kostet bloß Geld.
Da wir nicht wissen wie das Endprodukt aussieht - die 100Mhz mehr Kerntakt sind lediglich haltlose Behauptungen - so bringt ein schnelleres Produkt idR. auch höhere Verkaufspreise ein. Somit auch das haltlos, wie der ganze Rest des Beitrags. Da fürchtet einer, dass der Refresh in der ein oder anderen Metrik zu AMD aufschließen oder zum Überholen ansetzen könnte und so ist natürlich auch das "Quatsch".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
quakegott schrieb:
Intel hätte sich mal lieber diesen Copilot+ sichern sollen.
Das Ding ist, Intel hat diesen Quatsch überhaupt erst angefangen – Warum, weiß Niemand kann man sich denken.

Das ganze Thema NPU, mit welchem Intel beabsichtigte, den Wettbewerb zu deklassieren und trotz Leistungsvorsprung bei AMD (und besserer Pro-Kern-Effizienz bei Qualcomm) künstlich als „altbacken“ zu degradieren (um natürlich ausschließlich Intel als „besser“ dastehen zu lassen), war nicht nur ein absoluter Bumerang, es ist buchstäblich bloß der nächste Epic fail für Intel …

Weil diese beknackte NPU-Geschichte ist doch eh nur die in Silizium gegossene Recall-Systemvoraussetzung von Microsoft, die ihnen Intel angedreht hat, um irgendwie krampfhaft ein (Pseudo-) Alleinstellungsmerkmal gegenüber AMD zu haben, um sich im Markt hoffentlich besser absetzen zu können.

Nur um im Anschluß daran wieder mal selbst zu spät dran zu sein und in den eigenen Hardware-Spezifikationen (noch vor Markteintritt der eigenen Intel-Technik) von AMD und Qualcomm (welche noch eher mit NPU-Geräten am Markt waren als Intel selbst) geschlagen zu werden.
quakegott schrieb:
Es wird immer häufiger von Kunden gewünscht dass das neue Gerät schon jetzt ungefähr Windows 12 können soll.
Tut mir leid, aber das ist Blödsinn – Du verwechselst hier Ursache und Wirkung.
Ja, Unternehmen und vielleicht sogar Privat-Kunden fragen nach Geräten mit Copilot+ Zertifizierung.

Aber sicherlich nicht, weil sie diesen Copilot+ Nonsense benutzen geschweige denn benötigen würden, sondern weil Microsoft (wahrscheinlich wieder für ein paar Koffer aus Santa Clara…) ihr Copilot+ praktisch zum integralen Bestandteil der Systemvoraussetzungen von Windows 11/12-Systemen gemacht hat.

Soll heißen, die Leute/Unternehmen fragen nach Windows 11/12-zertifizierten Geräten, damit sie Windows 11/12 benutzen können – Explizit also nicht nach irgendeinem Copilot+ Nonsense … was bloß erzwungenermaßen mit an Bord ist (und sein soll, für Microsoft's Recall).
 
  • Gefällt mir
Reaktionen: SweetOhm, .fF und iron_monkey
modena.ch schrieb:
Aufm Desktop?
Nicht wirklich, da hat man ne grosse iGPU optimalerweise oder eine dGPU oder lässt es auf der CPU selber laufen. Da ist jetzt Energieeffizienz nicht so brutal wichtig wie im Notebook.
Ich weiss nicht wie einfach es ist, eine Aufgabe die für eine NPU geschrieben wurde, einfach auf einer dGPU (was AMD, nVidia oder Intel sein kann) laufen zu lassen. Soweit ich weiss wird das momentan nicht gemacht. Klar, grundsätzlich sollte das irgendwie gehen. Allerdings denke ich mal, dass Funktionen standardisiert werden und aus Standardisierungsaspekten macht ein gleicher Aufbau von Laptop/Desktop Sinn.

Die NPU wird ja gesondert z.Bsp auch im Taskmanager ausgewiesen.

Oder anders gesagt: Heute kann ich z.Bsp die Live-Übersetzung in Teams mittels NPU beschleunigen, was ich mit meiner dGPU im Desktop (oder iGPU auf dem Notebook ohne NPU) nicht kann.


raychan schrieb:
Intel ist doch bei diesen Copilot Ding dabei. Wenn ich ein Notebook bei Dell mit der Intel Core 200V bestelle, dann muss ich Windows 11 Pro Copilot+ in der Konfiguration auswählen.
Intel hat nur Lunar Lake (Core Ultra 200V), welcher eine ausreichend starke NPU für Copilot+ hat. Lunar Lake hat aber maximal 4+4 (oder eher 4+0+4) Kerne und ist somit ggü. Arrow Lake (und auch AMD) vergleichsweise langsam. Ausserdem gibt es die nur mit DRAM on package, d.h. auch bei 32GB RAM ist Schluss. Und generell gibts den nicht für den Desktop.

TechFA schrieb:
Ich warte ja noch immer auf den Tag, wo man mir mal stichhaltig erklärt, wofür der NPU-Nonsense gut sein soll, wenn der Endkunde für etwas und einen Teil des Prozessors zu bezahlen hat, was er a) gar nicht nutzt, geschweige denn b) in Ermangelung von entsprechender Software (-Infrastruktur) überhaupt nicht nutzen kann.
Stand heute, was die NPU beschleunigen kann:
  • Live-Translation in MS Teams
  • Background Blurr / Hintergrundbild in Teams (läuft sonst auf der CPU -> deutlich ineffizienter)
  • Windows Studio Effekte (Augen immer zentriert in VC Calls)
  • Recall (nur USA momentan)
  • Bildgenerierung und Bearbeitung in MS Paint.

Gerade die Teams Dinge werden zumindest geschäftlich rege genutzt. Klar geht das auch ohne NPU. Nur halt mit NPU viel effizienter. Akku ist nicht mehr nach 2h Teams call leer, sondern noch bei 50%.... (gefühlt, nicht gemessen ;))
 
  • Gefällt mir
Reaktionen: Roesi, Col. Jessep und raychan
relaxed_Guy schrieb:
Aber kann und macht nichts wirklich besser wodurch man sich abhebt. Und der schwierige Launch ist eben in den Köpfen hängen geblieben.
Nö, in meinem zB nicht. Habe jetzt erst nach den ganzen Patches gekauft (basierend auf dem Nachtest hier bei CB) und was zum Start war, ist mir an der Stelle nicht mehr wichtig. Ärgerlich nur für die, welche zB des BIOS Flashen nicht mächtig sind. Mein Board kam nämlich vor zwei Wochen auch „frisch aus dem Lager“ mit dem Erst-BIOS. 😅
Aber das Thema hat man bei den Ryzen 9000 auch gehabt bzw. sollte man sich da eben auch nach den AGESA Änderungen informieren und dementsprechend das BIOS flashen lernen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
CadillacFan77 schrieb:
Ich weiss nicht wie einfach es ist, eine Aufgabe die für eine NPU geschrieben wurde, einfach auf einer dGPU (was AMD, nVidia oder Intel sein kann) laufen zu lassen. Soweit ich weiss wird das momentan nicht gemacht. Klar, grundsätzlich sollte das irgendwie gehen. Allerdings denke ich mal, dass Funktionen standardisiert werden und aus Standardisierungsaspekten macht ein gleicher Aufbau von Laptop/Desktop Sinn.

Die NPU wird ja gesondert z.Bsp auch im Taskmanager ausgewiesen.

Oder anders gesagt: Heute kann ich z.Bsp die Live-Übersetzung in Teams mittels NPU beschleunigen, was ich mit meiner dGPU im Desktop (oder iGPU auf dem Notebook ohne NPU) nicht kann.

Das sind am Ende Matrixioperationen die auf der NPU ausgeführt werden. Wir haben in den GPUs dicke Matrixeinheiten und dann soll das die NPU übernehmen, weil das effizienter ist, wenns auf der GPU viel, viel, viel schneller ginge?
40-50 TOPS in den NPUs VS 980-3300 TOPS. auf dGPU Seite Ich denke nicht TIM, das muss klar auf der GPU auch möglich sein. Nur für ein paar popelige Raytracing Effekte braucht man diese Einheiten in einer GPU nicht.

Ne olle RTX2060 hat mehr Tops als die NPUs und ich kann mir vorstellen, dass wenn diese Operationen für nur 40-50 TOPS ausgelegt sind, wir man die auch recht effizient auf einer modernen Graka ausführen können, weil die hat da ja gar nix zu tun. Das ist ja sofort erledigt.

Alles Andere wäre ja total sinnfrei....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, TechFA, iron_monkey und eine weitere Person
mscn schrieb:
Gute Frage .. was für ein Niveau wieder .. da kommen Leute nur hier in den Kommentarbereich zu einem Intel-Beitrag, um allen mitzuteilen, wie zufrieden sie mit ihrer AMD-CPU sind oder das Intel den Laden ruhig dichtmachen kann.

Der Verfall der Disussionskultur ist unglaublich.
Aber echt, einfach nur noch traurig was für einen kindischen Schwachsinn man größtenteils zu jeder Nvidia/Intel/Apple News lesen muss :rolleyes:
Sunweb schrieb:
Die üblichen Trolle kommen alle langsam unter ihren Steinen vorgekrochen.
Warte nochmal 1-2 Seiten ab, dann wird hier auch noch gegen Nvidia gehatet.
Sind halt immer wieder die selben Leute die negativ auffallen.
:p
relaxed_Guy schrieb:
Aber kann und macht nichts wirklich besser wodurch man sich abhebt. Und der schwierige Launch ist eben in den Köpfen hängen geblieben.
Doch -P/L - oder warum sollte man einen 450€ 9900X einem 295€ 265K(F) vorziehen? Wurde ja selbst von CB mehrfach hervorgehoben … Ryzen 9000 non-X3D steht Arrow Lake ja in nichts nach - im Gegenteil, trotz deutlich höherem Preis liegen die Ryzen sogar hinten :)
IMG_0641.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und BorstiNumberOne
BorstiNumberOne schrieb:
Nö, in meinem zB nicht. Habe jetzt erst nach den ganzen Patches gekauft (basierend auf dem Nachtest hier bei CB) und was zum Start war, ist mir an der Stelle nicht mehr wichtig. Ärgerlich nur für die, welche zB des BIOS Flashen nicht mächtig sind. Mein Board kam nämlich vor zwei Wochen auch „frisch aus dem Lager“ mit dem Erst-BIOS. 😅
Aber das Thema hat man bei den Ryzen 9000 auch gehabt bzw. sollte man sich da eben auch nach den AGESA Änderungen informieren und dementsprechend das BIOS flashen lernen.
Du bist aber statistisch nicht Alle. Allgemein bist du es aber richtig angegangen, wenn es Intel sein soll für Dich.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
ueg schrieb:
Warum hassen hier eigentlich alle die Core Ultra 200er Reihe so sehr?
Das sind doch ziemlich effiziente schnelle CPUs die nicht mal besonders teuer sind.
Außer den x3d CPUs macht doch amd nichts wirklich besser.
Ich brauche auch keine npu, aber ich finde Intel ist mit dem Blick auf effizientere CPUs wie zb dem 265k auf dem richtigen Weg…

Leider mit wenig Sarkasmus: Weil das hier wie mit den Fußballvereinen ist. Man braucht "seinen" Club und die anderen sind so richtig blöd. Das Marketing der Hersteller geht den Mist auch noch voll mit: "Welcome to Team Red" sag ich da nur. Muss was menschliches sein.

Mit Blick auf die Plattform und die Tatsache dass ich auch (wie die meisten hier) viel am PC spiele, halte ich eine AMD-X3D-Lösung derzeit aber auch für attraktiver.

Als performanter Allrounder mit sehr gutem P/L verströmt aber gerade der 265k eigentlich so schöne Phenom X6-Vibes von früher. Wie sich die Zeiten doch ändern... :)
 
  • Gefällt mir
Reaktionen: Zuchtmaista und BorstiNumberOne
  • Gefällt mir
Reaktionen: BorstiNumberOne
Bräuchte dringend mal eine CPU für den Microsoft Flight Simulator 2024.

Wenn man so richtig Aufwendige Addons laufen hat geht die Performance manchmal trotzdem
in den 30er Bereich obwohl sonst 90+ FPS.

Überlege schon ob ich meinen Threadripper 3970X (256GB RAM hat der) wieder aktiviere..
Der FS2024 nutzt alle Kerne vom 14900KS.
 
relaxed_Guy schrieb:
Du bist aber statistisch nicht Alle. Allgemein bist du es aber richtig angegangen, wenn es Intel sein
Das habe ich doch nirgends behauptet und alle hier im Forum sind statistisch gesehen eben auch nicht viele. Nicht böse sein oder in den falschen Hals kriegen, aber ich mag halt immer allgemein die Aussage nicht, dass es „statistisch vielen im Gedächtnis geblieben ist“. Zumindest bei vielen außerhalb der Techbubbles, wie zB hier auf CB. Den etwas schwierigen Start von Ryzen 9000 interessiert doch heute auch niemanden mehr. Was zählt ist doch das „Jetzt“ und anständige Nachtests, egal ob Intel oder AMD. Ist doch bei Spielen nicht anders. Wenn es nach einem Patch von katastrophalen technischen Zustand nach einer guten Patchserie IO ist, gibt es doch keinen Grund mehr, das Spiel dafür weiterhin zu bestrafen. Wer das anders sieht, für den hoffe ich, dass er niemals ein unausgereiftes Produkt auf den Markt bringt oder unfreiwillig daran beteiligt ist. Und dass ihm immer vorgeworfen wird, egal was er zur Verbesserung tut.
 
Zuletzt bearbeitet:
Ich finde es immer noch krass, wie schlecht die Core Ultra 200 immernoch in vielen Köpfen in Techforen wie hier sind. Ok, 6% schlechter als der Vorgänger in Games zu Release waren halt kacke, aber sonst war eigentlich alles ein Riesenschritt nach vorne.

Mittlerweile ist selbst die Gamingleistung mit etwas Tweaking ganz gut, es gab bis jetzt noch keine Auffälligkeiten wie beim Vorgänger, generell ist die Leistung Konkurrenzfähig usw.

Trotzdem hört es sich hier bei vielen an als wären die CPUs auch abseits der Sackgassen-Plattform technisch der letzte Müll. Ich meine der 285K ist im Multithread effizienter als ein 9950X und der Gamingverbrauchging von 180W+ auf 80W, was zusammen mit dem gestiegenen Verbrauch des 9800X3D bedeutet, dass aus dem 3fachen Gaming-Effizienzvorteil des 7800X3D zum 13900K ein ~1.3facher vom 9800X3D zum 285K wurde.
 
  • Gefällt mir
Reaktionen: mscn, MalWiederIch, ElliotAlderson und 4 andere
Der Arrow-Lake-Refresh wird sicher die meistverkaufte CPU Generation aller Zeiten !
Dafür wird jeder gerne auf die neue Plattform 1851 umrüsten...
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
BorstiNumberOne schrieb:
Das habe ich doch nirgends behauptet
Habe ich auch nicht behauptet.
BorstiNumberOne schrieb:
Den etwas schwierigen Start von Ryzen 9000 interessiert doch heute auch niemanden mehr
Weil er deutlich schneller behoben wurde und die 9000X3Ds dann in den Fokus gerückt sind. Sowas fehlt/e Intel im DIY.
BorstiNumberOne schrieb:
Was zählt ist doch das „Jetzt“ und anständige Nachtests
So soillte es sein. So passiert es aber leider nicht.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und Rockstar85
Philste schrieb:
Ich finde es immer noch krass, wie schlecht die Core Ultra 200 immernoch in vielen Köpfen in Techforen wie hier sind. Ok, 6% schlechter als der Vorgänger in Games zu Release waren halt kacke, aber sonst war eigentlich alles ein Riesenschritt nach vorne.

Mittlerweile ist selbst die Gamingleistung mit etwas Tweaking ganz gut, es gab bis jetzt noch keine Auffälligkeiten wie beim Vorgänger, generell ist die Leistung Konkurrenzfähig usw.

Trotzdem hört es sich hier bei vielen an als wären die CPUs auch abseits der Sackgassen-Plattform technisch der letzte Müll. Ich meine der 285K ist im Multithread effizienter als ein 9950X und der Gamingverbrauchging von 180W+ auf 80W, was zusammen mit dem gestiegenen Verbrauch des 9800X3D bedeutet, dass aus dem 3fachen Gaming-Effizienzvorteil des 7800X3D zum 13900K ein ~1.3facher vom 9800X3D zum 285K wurde.
Ja man, der Unterschied im Stromverbrauch vom 7950 X3D zum 9950 X3D ist surreal.
 
Otsy schrieb:
Forist @Der_Unbekannte bezog sich vermutlich unter anderem auf diesen Vorgang. Insofern entsprechen seine Ausführungen zumindest insoweit den Tatsachen, als dass AMD bar unläuteren Wettbewerbs auf Ressourcen, auch im Bereich R&D, verzichten musste.
Worum es da geht, ist mir völlig klar - aber das macht es ja nicht richtiger!?
Die Aussage war, es lag am Geld und dann bezieht man sich auf alte Kamelle von 2002 bis 2006.
Und behauptet, dass wenn AMD Bulldozer und Zen parallel hätte entwickeln können... Bulldozer kam Q4/2011. Prozessor Architektur Entwicklung dauert zwar lange, aber so lange jetzt auch nicht.

Otsy schrieb:
Darüber hinaus sollte es als unstrittig gelten, dass Tech-Konzerne in Abhängigkeit der ihnen zur Verfügung stehenden Ressourcen in viele verschiedene Richtungen entwickeln.
Das bestreitet ja auch Niemand - der Witz bei der Geschichte ist, dass AMD in der Zeit, als Intel zu Wettbewerbsverstoßen verurteilt wurde, relativ hohe Marktanteile inne hatte. Bspw. im Jahr 2007 lag der Server Marktanteil bei AMD bei fast 30%.
Sprich WENN dann hätten sie dort, wo sie relativ hohe Anteile hatten, doch Geld gehabt. Die Behauptung, dass sie kein Geld hatte, weil Intel den Markt manipuliert hat kann man in der Form einfach nicht bringen. Sie hätten vielleicht noch mehr Geld gehabt, das mag alles richtig sein. Aber es wurde von "kein Geld" gesprochen. Das impliziert, dass sie ihren Kram nicht verkauft bekommen haben -> und das ist einfach eine Unwahrheit.

Rockstar85 schrieb:
Wo Intel in einem P Core Cluster ganze 2 Kerne unter bekommt, baut AMD ein 4C Cluster unter..
Und Intel baut 8 E-Cores in die Größe von einem P-Core. Sprich bei bei 100% mehr Threads gibt es je nach Takt deutlich mehr wie 100% mehr MT Leistung bei zudem noch gesteigerter Effizienz.
Rockstar85 schrieb:
Ich glaube die Effizienz ist nicht in Ordnung und nur bei Teillast wirklich okay. Und AMD hat noch genug Optionen, die Effizienz des I/O Die zu verbessern..
Was ist denn deine Definition von "In Ordnung"!?
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-5-225f-235-test.92075/seite-5
Wenn ich mir das da so in den Zahlen ansehe, dann hat Intel das wie immer leidige Problem, dass sie obenraus einfach den Takt übel durch die Decke gehen lassen - aber wenn man das eben mal nicht macht, dann schaut es gar nicht mal so schlecht aus.

Das bekommt man halt in den Foren nicht verkauft, weil da nur Leistung auf hohem Niveau zählt. Aber abseits davon ist das durchaus solide.
Der_Unbekannte schrieb:
Die „Urmutter“ der heutigen, leistungsstarken CPUs war der mobile Core M entwickelt vom israelischem Design Team.
Das ist eine Unwahrheit. Letztlich tanzt aus der Reihe eigentlich nur Netburst raus. Die Architetur des Pentium M ist weitestgehend eine Weiterentwicklung des P3 mit ein paar Anteilen vom P4. Das Ding wurde Anfang/Mitte 2003 real in den Laden gestellt.

Die ganze Ausführung da oben von wegen Geld und AMD -> AMDs Erfolg damals, der A64 wurde entwickelt und gebracht, da war der Pentium 3 lange schon und sogar knapp der Pentium M am Markt kaufbar. Inkl. der üblichen 3-5, mal auch bisschen länger Jahre der Entwicklung. Das hat(te) nichts, aber auch gar nichts mit dem Ausnutzen der Marktbeherschenden Stellung zu tun, dass AMD da hatte ihre Probleme gehabt, eine bessere/neuere Architektur zu bringen. Denn ihr K9 wie gesagt, wurde kurzerhand eingestellt.
Der_Unbekannte schrieb:
AMD konnte sich das schlicht nicht leisten, diesen „Luxus“.

Darum war Bulldozer fast 6 Jahre die Speerspitze bei AMD, da nahezu alles in Zen reinfloss.

Ein anderes „AMD“ mit mehr Ressourcen hätte ganz anders handeln können.

Das Entwickeln einer Arch von Scratch dauert mindestens 5 Jahre.
Nochmal - du verkennst alle zeitlichen Zusammenhänge. Bulldozer war 2011. Selbst wenn du da 5 Jahre zurück gehst, bist du immer noch Jahre weg von dem, was du da oben behauptest.
Der_Unbekannte schrieb:
2. Hatte Intel früher immer einen massiven Fertigungsvorteil, den sie aufgrund der absurden Gewinne als Monopolist finanzieren konnten. AMD musste andere, innovative Ansätze versuchen, um überhaupt eine Chance zu haben.
Und jetzt hat diesen Vorteil AMD, weil sie bei TSMC kaufen. So what!?
Der_Unbekannte schrieb:
3. illegale Preisabsprachen und Schmiergelder, vom „Verbot“ von AMD CPUs, bis hin zu „leichteren“ Dingen dafür zu sorgen, das AMD absichtlich schlechtere Boards erhält.
Wie gesagt, zu der Zeit gab es hohe AMD Marktanteile, weil die CPUs wirklich auch gut waren. (A64)
Der_Unbekannte schrieb:
Warum glaubst du, gibt es bei AMD kaum gute ITX Boards? Intel zahlt halt eben gut(„Dell is the best friend Money can buy“).

4. Benachteiligung auf Softwareebene. Wurde die Aktion mit dem Intel Compiler auch schon vergessen? Manipulation von Benchmarks?

Deine „Argumente“ gehen voll am Thema vorbei.
Glauben kannst du in der Kirche, diese Nebenschauplätze stören den Markt doch überhaupt nicht. Kein Mensch interessiert sich am Markt für ITX Boards. Das ist Schrauber-Bastelkram.
Bei einem Anteil von über 80% den sich die großen 5 OEMs teilen und wo ein der OEMs nichtmal AMD oder Intel verbaut und mittlerweile auf 10% grob kommt, kommst du mit solchen Strohhälmen wie nem ITX Board... Junge Junge Junge...

Was den Compiler angeht - ist dir bekannt, dass die Intel Compiler trotz aller Nachteile immernoch im Schnitt die schnellsten Ergebnisse auf AMD CPUs lieferten!? Doof...
 
MalWiederIch schrieb:
Doch -P/L - oder warum sollte man einen 450€ 9900X einem 295€ 265K(F) vorziehen?
Du übersiehst den Foren-Fetisch überhaupt: Upgrade Fähigkeit
So ein Boardwechsel ist im DIY Bereich schließlich ein Riesenaufwand :mussweg:
 
  • Gefällt mir
Reaktionen: MalWiederIch und ElliotAlderson
MelbarKasom schrieb:
mmh, bei Intel vielleicht höhere Preise?
Das wäre gut, würde es dich auch bessere Produkte bedeuten. Denn trotz des ganzen Intel Gates ist jedem klar, dass Intel die Preise nur hoch halten kann wenn das Produkt was kann.
Aktuelles Beispiel ist hier etwas AMD, aktuell würde der Witz über hohe Preise dort besser funktionieren.
Wenn man den 265 günstig ordert kommt man fast 250-300 an, der in Spielen etwas schnellere, in Anwendungen etwas langsamere 9800X3D kommt auf fast das doppelte, wenn man die teureren (bei ähnlicher Ausstattung) Boards mit rechnet ist aktuell AMD das teurere Paket
 
Krausetablette schrieb:
Diesem Refresh traue ich persönlich auch nicht wirklich zu, viel Boden gutzumachen. Aber wie @Nazrael schon sagt, muss die nächste Architektur liefern, und zwar so gut, dass man wieder konkurrenzfähig ist. Auch wenn ich eher zum AMD Lager gehöre, würde ich mir wünschen, dass man AMD das Feld nicht gänzlich überlässt. Denn ohne Konkurrenz könnte auch AMD dazu neigen, Preise aufzurufen, die nicht mehr verhältnismäßig sind.
Machen sie doch längst. Schnäppchen gibt's inzwischen bei Intel und nicht mehr bei AMD. Siehe Preise der X3D Prozessoren. Während du nen 285k hinterher geworfen bekommst.
 
Philste schrieb:
Ich finde es immer noch krass, wie schlecht die Core Ultra 200 immernoch in vielen Köpfen in Techforen wie hier sind.
Konnte halt zu release nichtmal einem 7nm Zen 3 5800X3D in Cyberpunk das Wasser reichen und wurde sogar gnadenlos von einem 12900K (10nm CPU) zerhämmert. Das war schon peinlich für eine 3nm CPU.
1751902932074.png

Jetzt bei den Nachtests mit Optimerungen und Hochgezüchtetem DDR5 OC Ram kann der 3nm Core Ultra gerade mal so den 7nm Zen 3 X3D schlagen.
Und das obwohl AMD,s Asbach Uralt CPU dabei keine 58W verbraucht und noch mit DDR4 läuft.
 
  • Gefällt mir
Reaktionen: SweetOhm, TechFA, eXe777 und 2 andere
Zurück
Oben