News Intel Nova Lake-S: Core Ultra 5 mit 8 P-Cores, Ultra 9 mit 52 Kernen, DDR5-8000 dazu

@Ayo34
Das macht Intel doch nur solange, bis sie wieder besser sind, weil sie sonst gar keine Gamer-CPUs absetzen würden, sie sind gezwungen so zu handeln.

@IBMlover
Joa spätestens beim Thema „Gaming“ werden einem die eine Milliarde Kerne so gar nichts bringen, da gefühlt alle auf die Unreal Engine setzen und die ist aktuell mit weniger Kernen Performance unterwegs, als mit mehr.
Das Video bringt es passend auf den Punkt:

Topic: klingt super interessant aber solange Intel ihre CPUs teilweise schon nach einer Serie absetzt, weil die erste Serie nie kam und man die zweite direkt nach dem Release beerdigt, werden sich wohl wenig Leute für die teuren Spielereien finden lassen. AMD bringt mindestens noch eine Serie für AM5 raus und X3D on Top. Was dann damit mindestens die dritte normale und dritte X3D Serie für den selben Sockel wäre.

Klingt für mich besser und vertrauenswürdiger, man merkt das AMD den Support erstmal beibehält.
 
  • Gefällt mir
Reaktionen: ST18, Iarn und kroto
stefan92x schrieb:
Ob eine Architektur jetzt früher oder später in dem einen oder anderen Markt ankommt, ändert daran nicht viel.
Ich find's nur faszinierend, dass bei Intel jetzt zum zweiten mal die low-power mobile Architektur sich durchsetzt

Erst wurde P4 von der Penium M Weiterentwicklung abgelöst und jetzt scheint es fast eine Frage der Zeit zu sein bis die E-Cores die P-Cores vollständig ersetzen :D
 
  • Gefällt mir
Reaktionen: axi, konkretor, stefan92x und 2 andere
Was sollen die Tiles wenn man nicht auch 16P ohne E anbietet... d.h. nur die 4E im "I/O-Tile".

Der 9 hat alles... 7 ist die CPU für Spieler.
5 die günstigste 9 und 3 die günstige 7.
 
  • Gefällt mir
Reaktionen: Zocker1996 und fox40phil
Rickmer schrieb:
Erst wurde P4 von der Penium M Weiterentwicklung abgelöst und jetzt scheint es fast eine Frage der Zeit zu sein bis die E-Cores die P-Cores vollständig ersetzen :D

Ironie des Schicksals.

Die P6-Architektur hielt sich noch in bis Intels erster Core-i-Gen. für den Deskktop. Für den Workstation folgte dann schon die erste Neuerung, wie der Wegfall der North Bridge, diese durch die erste PCI Host Bridge ersetzt wurde.

Ich denke, Intel hält an den Sky-Bay-Cores noch lange fest, denn einen Grund, diese Architektur abzulösen, sehe ich nicht. Weshalb etwas ändern, das gut funktioniert?

Und diese Entwiclung, hin zu mehr Cores, muss ohnehin sein, denn die Lithographie stößt in den nächsten Jahren an ihr physisches Limit.
 
Stanzlinger schrieb:
Das wird Intel zurück auf den Thron bringen. Aktuell ist AMD ja gut 20% schneller - bei nur 8P Cores in den Intel CPUs. Mit 16P Cores dreht Intel wieder Kreise um AMD. Bei Single Core ist Intel immer noch die Eins
Bisschen aus der Luft gegriffen oder ?
 
  • Gefällt mir
Reaktionen: Veitograf, Alphanerd, Michael vdMaas und 3 andere
Mit der Order wieder min. 50% Gewinn Marge zu machen, wird das laufen wie bei Nvidia.
alte Konfigurationen werden teurer. Neue konfigs werden in neue Preisregionen vorstoßen! Wer glaubt das die neuen Kern Monster für 700€ im Regal zu finden sind, das eine alte konfig ala 8P+16E dann für 150€ gibt. Der träumt!
 
  • Gefällt mir
Reaktionen: ST18, Zocker1996, TheLizardator und 5 andere
fox40phil schrieb:
Das Top-Modell klingt extrem stark nach einer guten Mainstream "Workstation"/Multimedia-Kiste! Schon spannend!

Wenn die dafür vorgesehenen Anwendungen damit effektiv skalieren.

Ein aktuelles Thema auf HWLUXX zeigt auf, dass nach wie vor auf einigen Systemen das Zusammenspiel aus dieser Hybrid-Architektur nicht tadellos gelinge.
Also wenn Handbrake die P-Cores schlafen legt und einzig auf den E-Cores skaliert...

Gut, bei einem Intel Core i9 14900K ist das vielleicht nicht so tragisch, er hat ja 16 Stück davon, aber bei einem Intel Core i7-12700K mit nur 4 E-Cores....
 
Stanzlinger schrieb:
Das wird Intel zurück auf den Thron bringen.
Auf den Cinebench Multicore Thron? Woooow
Im Gaming wird es ohne 6,5 - 7Ghz oder andere (noch unbekannte) Verbesserungen kaum möglich an X3D vorbeizukommen.
12 Core Chiplets von AMD sind schon mit eingerechnet? :freaky:
LamaMitHut schrieb:
Lol. Ein Konter zum 3D Cache ist wohl in so weiter Ferne, dass es nicht einmal Gerüchte gibt?
Wenn bei Intel weiterhin jedem Core ein Stückchen Cache anhängt, wird ja auch der Gesamtcache wachsen bei 16P+32E Cores.

Bild 13900K
1750082752146.png


Ein 285K hat zb. schon 3MB L2 Cache am P-Core.
Das wären für den potenziellen 385K 16P Core dann schon 48MB L2.
Wenn der L3 bei 3MB P Core und 0,75MB E Core bleibt, dann wären es im Vollausbau entsprechend 72MB L3.

GT200b schrieb:
i7-5775c und i5-5675c alles richtig gemacht, der L4 Cache war ein richtiger Boost bei Games, soll Intel sich net so blöd anstellen und für Gamer wieder CPU's mit L4 Cache / 3D Cache bereitstellen
Ohne Hintergrundwissen: das müsste ja dank Tile Bauweise heutzutage sogar einfacher denn je sein.
Als Hochleistungsgamer der Hochfrequenzkerne benötigt, verzichte ich auch gerne auf die E Cores und erst recht LPE Cores oder iGPU wenn mir dafür 64/96/128 MB Cache aufgepflanzt werden :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr, Zocker1996, Iarn und 3 andere
ruthi91 schrieb:
Wenn der L3 bei 3MB P Core und 0,75MB E Core bleibt, dann wären es im Vollausbau entsprechend 72MB L3.
Bleibt die Frage der Latenzen beim Zugriff. AMD nutzt das 3D-Stacking eben auch um die Wege physisch kurz zu halten von Core zu Cache, während wir bei Intel aller Voraussicht nach ein flaches Layout sehen werden. Allein schon aufgrund der längeren Leitungswege wird das schlechter sein.
 
  • Gefällt mir
Reaktionen: Zocker1996, bad_sign und LamaMitHut
IBMlover schrieb:
52 Kerne? Holy moly. Na hoffentlich gibts dann auch genug Alltagssoftware, die davon Gebrauch macht. :confused_alt:
Ich würd sagen der größte Teil der Alltagssoftware die von Parallelisierung profitiert, ist heute schon auf der weitaus besser parallelisierbaren GPU lauffähig.

Alles andere wäre ein Armutszeugnis für die Softwarehersteller.

Der Grad der ineffizienz mit der heutige Hardware verschwendet wird, ist schwer auszudrücken.

Zumindest soll UE6 Multithreading unterstützen. Wer weis, vlt bringen 8 Kerne dann mal was xD

https://overclock3d.net/news/softwa...ber-of-core-limitations-with-unreal-engine-6/
 
  • Gefällt mir
Reaktionen: fox40phil
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zocker1996, Rockstar85 und Naru
Naru schrieb:
Sind denn die Signallaufzeiten bei denn Intel-Designs nicht nach wie vor kürzer?
Klares "es kommt darauf an": https://old.chipsandcheese.com/2025/01/05/analyzing-lion-coves-memory-subsystem-in-arrow-lake/

Je nach größe des nötigen Cache-Zugriffs ist mal AMD, mal Intel schneller. X3D verändert die Latenz kaum. Zusätzlicher Cache über zusätzliche Cores hingegen erhöht die Latenz immer weiter, je weiter die Kerne voneinander entfernt sind. Beides ist natürlich besser, als auf den RAM zugreifen zu müssen, aber X3D hat da den stärkeren Einfluss.
 
  • Gefällt mir
Reaktionen: Naru
Für mich sieht das ehrlich gesagt sehr uninteressant aus. Die allermeisten nutzen ihre Desktop-CPU für Spiele und hier gibt es selbst bei 8 gegenüber 6 Kernen in 2025 kaum einen Gewinn. Der 9800X3D ist nicht umsonst die meistverkaufte Retail-CPU der aktuellen Generation. Für die 12- und 16-Kerner braucht man schon die passenden Anwendungen und Anwendungsfälle, damit sich das überhaupt lohnt - einmal im Monat ein Video zu konvertieren reicht dazu nicht. Deswegen sind >16 Kerne für mich völlig am Markt vorbeientwickelt. Außer natürlich man will mit irgendeinem Cinebench Score flexen.

Was man hier auch beachten sollte: Angeblich sollen die 16+32 Kerne auf zwei Chiplets aufgeteilt sein, d.h. 2x(8+16). Damit würde Intel in Spielen ein ähnliches Problem wie AMD haben, wo die Inter-CCX-Kommunikation jeden Vorteil durch zusätzliche Kerne und dessen Cache wieder auffrisst. Kein 16-Kerner von AMD konnte bisher den zugehörigen 8-Kerner (in Spielen) schlagen. Bei den 3D-Cache-Modellen ist der 12 Kerner sogar oft langsamer als der 8-Kerner, weil die Kerne 7 und 8 dort von den anderen über das IF angesprochen werden müssen.

Und noch ein Punkt: RAM-Bandbreite. Irgendwann muss man die auch erhöhen, um die vielen Kerne zu füttern. Die Server-Modelle haben nicht umsonst mittlerweile 12 Channel bei 128 Kernen, d.h. gut 10 Kerne pro Channel. Selbst wenn man die E-Cores nur als "halbe Kerne" zählen würde, wären das immer noch 16 Kerne pro Channel.
 
  • Gefällt mir
Reaktionen: Innocience, Brrr, Scheinriese und 2 andere
stefan92x schrieb:
Denn AMDs große Kerne sind kleiner als Intels P-Cores, AMD ist viel weniger unter Druck, Chipfläche einsparen zu müssen.
Eine schöne Durftmarke wäre so ein 16+8, 8+16 oder gar 16+16 mit dann 48 bzw. 64 Threads aber durchaus.
 
  • Gefällt mir
Reaktionen: TheLizardator
Rickmer schrieb:
Weil die E-Cores kamen mal von Gracemont, was die weiter-weiter-Weiterentwicklung der Atom CPUs war...

Wie man's nimmt. Der Bonnell-Kern des urspruenglichen Atom (der auch Atom hiess) bekam einen Shrink (Saltwell), und das war's dann. Diese Mikroarchitektur war von der Leistung her so schwach, dass sie voellig neu mit Silvermont (bis 2 IPC) angefangen haben (ist auch erst 5 Jahre nach Bonnell herausgekommen), und diesr Kern wurde dann weiterentwickelt: Airmont (shrink von Silvermont), Goldmont (bis 3 IPC), Goldmont+ (3), Tremont (5), Gracemont (6) und zuletzt Skymont (8); da ist richtig viel weitergegangen.

Was "Atom" betrifft: Die Desktop-Prozessoren mit den Kernen ab Silvermont hiessen alle nicht Atom, es gab aber einige in anderen Bereichen mit diesen Kernen, wo der Name "Atom" benutzt wurde. Und wenn man perf unter Linux auf einem Alder Lake laufen laesst, bezeichnet dieses Werkzeug die Golden-Cove-Kerne als "core" und die Gracemont-Kerne als "atom".
 
  • Gefällt mir
Reaktionen: Naru und Rickmer
Rickmer schrieb:
jetzt scheint es fast eine Frage der Zeit zu sein bis die E-Cores die P-Cores vollständig ersetzen
Dazu müssten zukünftige E-Cores aber erstmal die Leistung der jetzigen P-Cores mindestens erreichen. Ansonsten wäre der komplette Verzicht auf P-Cores ja erstmal ein Perofrmance-Downgrade.
Ergänzung ()

mae schrieb:
Wie man's nimmt. Der Bonnell-Kern des urspruenglichen Atom (der auch Atom hiess) bekam einen Shrink (Saltwell), und das war's dann. Diese Mikroarchitektur war von der Leistung her so schwach, dass sie voellig neu mit Silvermont (bis 2 IPC) angefangen haben
Bonnel und dessen Shrink waren halt ne Architektur mit In-Order Execution und dadurch so lahmarschig. Mit SIlvermont ist man dann auf Out-of-Order Execution gewechselt, was den großen Performanceboost gebracht hat.
 
  • Gefällt mir
Reaktionen: Thomaswww und mae
Wer sich fragt was LPE bedeutet
Low-Power-Efficiency-Kerne
Hab ich im Text nicht gefunden....
 
  • Gefällt mir
Reaktionen: sikarr, Zocker1996, ueg und eine weitere Person
Zurück
Oben