Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

ElliotAlderson schrieb:
Was AMD mit 3N reißt, kann man nur spekulieren oder hast du Insiderinfos?
Man kann ja einfach das nehmen, was TSMC angibt:
"In summary, TSMC’s 3nm technology offers roughly a 10-15% performance boost, up to 30% better power efficiency, and a 60% improvement in transistor density over 4nm, positioning it as a significant leap forward for premium and performance-oriented chips. However, the high cost and complexity might restrict its initial use to high-margin products."

Da liegt eine Welt zwischen den beiden Nodes. Und natürlich gäbe es bei einem einfach node-switch keine 10-15% - wo sollten die den herkommen ausser dem Takt? Und der steigt ja bekanntlich zumindest bei Intel nicht an, mit dem Wechsel auf TSMC.
Die Effizienz - der grosse Vorteil von Intels neuer Generation - würde aber sicher massiv steigen. Vielleicht nicht um die vollen 30%, aber doch erheblich. Dazu gibt die höhere Transistordichte wieder Möglichkeiten ein paar Dinge mehr reinzupacken wie z.B. grössere Caches, siehe RL, was das bringen kann.

Ich habe natürlich auch keine "echten" Daten, aber angeblich kostet der gleiche Chip zwischen 20 und 40% mehr auf 3NM. selbst wenn es nur die Hälfte wäre, ist es mehr. Der 3NM ist hart umkämpft, die Preise, die TSMC für die neuen Prozesse nehmen kann fast egal - Apple und NV sei dank. Entsprechend machen sie da den verrückten Gewinn, was man tatsächlich dann auch faktenbasiert im Geschäftsbericht prüfen kann.
 
HAse_ONE schrieb:
Das ist viel zu pauschal schon wieder. Das ist EIN Vergleich in Cinebench, in anderen Anwendungen kann es auch anders aussehen und in Gaming ist er nicht Effizienter als die x3D Chips von AMD.
Immer diese Extreme "nass machen" "sieht kein Land mehr" ...
Ich kann nur bewerten was ich sehe und die Effizienz in anderen Anwendungen ist hier nicht ersichtlich.
Kann es sein, dass für dich nicht sein kann, was nicht sein darf? ;)
 
nuestra schrieb:
600€ für eine cpu ist wirklich fast geschenkt für einen 4090 Besitzer der über 1500 für die gpu investiert hat

Gibt solche und solche 4090 Besitzer. Kenne genug Leute mit 4090s Builds, bei denen die GPU 65-70% des Gesamtbudgets ausmachte.
 
HerrRossi schrieb:
Wie ist das gemeint? 2x M.2 5.0 x4?
1x PCIe 5.0 x16, 1x M.2 5.0 x4, 1x PCIe 4.0 x4 direkt und ohne Lane-Sharing an die CPU. Bei AMD bei X870E wegen dem USB-Zusatzchipsatz nur 1x PCIe 5.0 x16 und 1x M.2 5.0 x4. Eine weitere M.2 bedeutet GPU dann nur noch x8 oder es geht über den PCH.
 
an sich ist arrow lake genau richtig designt worden
moderner node tiles und moderne ram Unterstützung. (cudimm)
Es fehlt quasi ein heftiger rutsch bei der ipc
Der plan von keller war es die e-cores mit den p core zu vereinen und quasi ein cpu kern zu haben der nach bedarf thread splitten kann und ohne split die maxed ipc für singlecore zu haben.
Das wurde begraben, leider. Somit muss intel den Takt Weg gehen mit n2 node oder eigener Fertigung bei den p-core da diese aber ab nova lake wegfallen sollen dürfte arrow lake die letzte gen sein mit p-e core design.
Panther lake soll folgen aber es ist unklar ob dies überhaupt am desktop kommt. Daher ist der desktop Fahrplan komplett im Dunkeln.
beast lake wurde begraben was bleibt ist ein refresh von arrow lake mit n2 cpu tiles die etwas mehr Takt erlauben 2026.
Danach ist offen was kommt.

Sofern die preise sich anpassen, aktuell gehen die gar nicht insbesondere bei den mainboards, ist arrow lake ne option.
 
  • Gefällt mir
Reaktionen: Chocobo und Javeran
Ja, genau. Wird eigentlich nur noch mit Windows 11 getestet? Wie sieht der Vergleich zu Windows 10 und Linux aus?
 
Dass die Leistungsaufnahme runter gegangen ist, ist definitiv gut. Ich hätte mir nicht vorstellen können wo das sonst Enden sollte und wie man das noch kühlen soll wenn man keine Wasserkühlung einbauen möchte. Leistung leidet dadurch aber mal sehen wohin sich Intel die nächsten Jahre entwickelt. Mit dieser CPU sind sie erstmal keine große Alternative.

Ende 90er bis mitte 2000er AMD gehabt (erster war der AMD K6-3D 450Mhz), dann auf Intel gewechselt und jetzt, nach 20 Jahren, gehts wieder zurück zu AMD mit dem 9800X3D. Es fühlt ein wenig an wie "nach Hause kommen". Ich bin schon bisschen hyped muss ich sagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche
Freiheraus schrieb:
Es geht mir um die Blender Render-Messungen wo Volllast anliegt.
Dann liegt Arrow Lake bei 9,60 @ stock und der 9950X @ stock bei 8,51.
So machts Sinn, denn Zen 5 hat @ 200W PPT eine etwas bessere Effizienz als Arrow Lake mit 250W PPT, wenn die CPUs durchgehend Last haben. Mit niedrigeren Powerlimits kehrt sich das dann langsam um.
ElliotAlderson schrieb:
Igor hat so viel Mist gebaut in der Vergangenheit. Wundert mich, dass dem überhaupt noch irgendwer glaubt.
Naja, es steht im Test zumindest im Fließtext aber nicht in der Systemkonfiguration, wo es eigentlich rein gehört. Mit PBO wird der Zen leider unnötig ineffizient. So ein Powerlimit von 250 Watt ist für diese CPUs kompletter Unfug und weit vom Sweetspot entfernt. Der liegt bei Intel irgendwo bei 70-100W und bei AMD Zen 5 so bei ~150.
 
@digdib Phoronix testet halt sehr anwendungslastig. Auch hier bei CB sehen beide in Anwendungen gut aus, aber weniger im Gaming. Windows bringt sicher seine eigenen Probleme mit, aber den unterschiedlichen Fokus muss man halt auch mit einbeziehen.
 
ThirdLife schrieb:
Der 5950X hat 969€ bei Release gekostet
Kurzer Einwand zur Korrektur: Der hat zu Release offiziell 799,- Euro gekostet und lag damit 20,- Euro unter den 819,- Euro des 3950x
 
  • Gefällt mir
Reaktionen: JarlBallin, Dittsche und ThirdLife
INTEL ULTRA 9 285K vs INTEL i7-13700K | Test in 6 Games


285K ist doch wesentlich schneller als z.B. 13700K? Krass. Also ist die CPU doch brauchbar?
 
Puh, erstmal 31 Seiten durchgescrollt....

Eli0t schrieb:
CB hat nur EPS12V gemessen und den Mehrverbrauch über den ATX-Stecker vergessen,
Ist das denn bestätigt? Oder ein Board genutzt, dass die CPU nicht über 24Pin mit versorgt.
Aber ja, ich sehe deine Bedenken bezüglich der Genauigkeit der CB Messungen.
Volker schrieb:
Wir nehmen hwinfo letzte beta und loggen all Power in mit. Sieht nicht so aus als würden da 100 Watt fehlen oder woanders herkommen.
Ist "All Power in" eine Angabe von Intel Mainboards? Bei meinem AM4 System bekomme ich die zumindest nicht angezeigt.

Ich denke auch nicht, dass es da um 100W geht, denn es sind ja nur zwei +12V Adern und es ist schon bedenklich, dass sich Grafikkarten darüber 75W ziehen dürfen....zusätzlich zu den Lüftern, Chipsatz und was das Mainboard da noch alles dran klemmt.

Aber wenn es z.B. 5-20W sind, ist das schon ein Einfluss außerhalb der Messtoleranz und es wäre durchaus in eurem Sinne, keine Zweifel an euren Messungen aufkommen zu lassen.

Früher hat CB ja auch das Gesamtsystem gemessen, was natürlich seine Nachteile hat bezüglich der Vergleichbarkeit der Mainboards.
In diesem Fall hätte ich mir diesen Wert als Ergänzung zurück gewünscht.

Das Fazit wird es nicht ändern, aber eure Glaubwürdigkeit wird gestärkt.
piccolo85 schrieb:
PU XY muss dabei aber weder eine hochauflösende BVH berechnen, noch 4k Texturen entpacken.
Ich weiß nicht ob du trollst, aber es wurde dir ja später schon öfter ausführlich geantwortet.

Die "4K Texturen" gibt es nicht. Wenn im Grafikmenü "Ultra Texturen" ausgewählt ist, dann sind die auch in 720p die gleichen Dateien und die gleiche Arbeit für CPU und GPU.
piccolo85 schrieb:
Ob die CPU also auf 4k meine 4090 nicht doch irgendwann verhungern lässt erfahre ich nicht, wenn auf 720p getestet wird.
Doch, da du sehen kannst, was die CPU(mit Einstellungen XYZ) an Frames ausspucken kann und das ist unabhängig davon ob du da eine 2060, eine 4090 oder irgendwann eine 6090 benutzt.

Etwas Eigeninitiative muss man mitbringen, wenn man die reviews auf das eigene System übertragen möchte.
Und das bedeutet, dass man sich überlegt, ob man von z.B. 120 möglichen "CPU Frames pro Sekunde" in Spiel XY einen Nutzen hat, oder ob man eh mit 70 FPS im GPU Limit hängen wird(Eigene Erfahrung oder Einschätzung über GPU Reviews)
Das eine höhere Auflösung die "CPU Frames pro Sekunde" normalerweise nicht beeinflusst, ist oft genug bewiesen worden...z.B. hat HWunboxed ein paar Videos dazu.
Das mag theoretisch mit speziellen Raytracing Spielen anders ein, aber da kannst du gerne mal ein Beispiel raussuchen, wo sowas auftritt und du in 4K im vollen CPU Limit, schlechter bist als in 720p.
RobinSword schrieb:
Das alles ist in den 720p-Tests auf low details mit alle Features off gar nicht berücksichtigt.
Daher testen die allermeisten Reviewer auch mit maximalen Details und optional mit Raytracing.
Wie du das hier anprangerst ist es ein Strohman Argument, da du einen Unstand angreifst, der zu 99% nicht zutrifft.

Ich könnte eher verstehen, wenn sich Leute mehr Daten mit angepassten Details wünschen, da es selten sinnvoll ist alle Settings auf Ultra zu nutzen.
---------------------------------

Zu den Arrow lake CPUs:
Wirtschaftlich wird das ein Flopp für Intel.

Es gibt keinen guten Grund für Intels-Produktiv-Nutzer zu wechseln, da sich die Investition über den gesparten Strom selbst in Deutschland nicht amortisieren wird....die Leistung ist schwankend, ohne deutlich schlechter oder deutlich besser zu sein.
Die Preise sind im Moment auch nicht attraktiv und selbst der AMD-Flopp mit Ryzen 9000 steht aus meiner Sicht besser da...auch ein Flopp von AMD aber ein kleinerer als Intels. ;)

Und für reine Spieler geht es ja zu 95% nur rückwärts und vermutlich bei AMD mit dem 9800X3D zumindest minimal vorwärts....7800X3D dominiert bis dahin....selbst kleinere AMD Modelle schlagen teilweise die Core Ultra CPUs zu viel günstigeren Preisen.

Was die Neuentwicklung angeht ist ist es ein Schritt in Richtung Zukunft. Viele neue Ideen und endlich ein gebändigter Stromverbrauch und Multichip Design.
Darauf kann Intel aufbauen und ich bin zuversichtlich, dass sie zumindest in der übernächsten Desktop Generation wieder gut da stehen.

Im Notebook Bereich bringt es sie vermutlich bald schon in eine gute Sitation, auch wenn es absurd ist, dass die Gerüchte für die kleineren Modele eine Raptor lake refresh prognostizieren. Das wäre ja grausig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: G00fY und Shio
ElliotAlderson schrieb:
Kann es sein, dass für dich nicht sein kann, was nicht sein darf? ;)
:P

Wenn ich aber so eine Pauschale Aussage mach wie "Effizienztechnisch machen die neuen Intels selbst AMD nass", sollte ich mir doch auch noch andere Ergebnisse anschauen, als ein Test von einer Seite. Und dann auch wenn nötig spezifizieren, was ich meine, weil wie gesagt in Gaming ist Intel bei der Effizienz nicht besser. Ich hab mir noch andere Benchmarks angesehen und da ist es eher gemischt Intel Vs. AMD bei den Anwendungen.

Ich finds super, dass Intel jetzt auch endlich von der Brechstange weg ist und bin gespannt, was Intel Aufbauend auf Arrow Lake in den nächsten Gens da noch verbessern kann. Wenn einer von beiden total dominiert, haben wir alle nichts davon, aber bis dahin darf AMD gerne noch ein paar Marktanteile von Intel klauen. Viele vergessen hier immer, dass Intel immer noch beim Marktanteil DEUTLICH vor AMD ist, bis AMD ein Monopol hätte, würde noch etwas dauern :D
 
  • Gefällt mir
Reaktionen: PulsarS und JarlBallin
ElliotAlderson schrieb:
Was AMD mit 3N reißt, kann man nur spekulieren oder hast du Insiderinfos?
Stimmt, die werden bestimmt 50% langsamer als jetzt. :daumen:

ElliotAlderson schrieb:
600€ sind alles andere als geschenkt und das sage ich als 4090 Besitzer.
Stimmt auch wieder. Besser 969€ wie zu 5950X-Zeiten. :freak:
 
Maxminator schrieb:
285K vs 13700K | Test in 6 Games
285K ist doch wesentlich schneller als z.B. 13700K? Krass. Also ist die CPU doch brauchbar?
✅ Test SpecsRAM : 2x16GB DDR4 3600MHz | DDR5 6200MHz
Heh.
Wie dem auch sei: Also nein, nicht wirklich:
https://www.hardwareluxx.de/index.p...der-pfeil-findet-sein-ziel-nicht.html?start=9
https://www.pcgamer.com/hardware/processors/intel-core-ultra-9-285k-review/
https://www.igorslab.de/intel-core-...m-test-wenn-aus-mehr-ploetzlich-weniger-wird/
 
  • Gefällt mir
Reaktionen: JarlBallin und eXe777
Zurück
Oben