News Intel Nova Lake-S: Core Ultra 5 mit 8 P-Cores, Ultra 9 mit 52 Kernen, DDR5-8000 dazu

mibbio schrieb:
Dazu müssten zukünftige E-Cores aber erstmal die Leistung der jetzigen P-Cores mindestens erreichen.

Er hatte seine Aussage in einen ironischen Kontext gesetzt, wegen der Vorgeschichte um den Pentium M: Der vermeintlich kleine Bruder löst seinen großen Bruder ab.
 
mibbio schrieb:
Eine schöne Durftmarke wäre so ein 16+8, 8+16 oder gar 16+16 mit dann 48 bzw. 64 Threads aber durchaus.

Als "Duftmarke" bzw. Halo-Prozessor waere bei AMD vielleicht die Kombination eines 12-Kern-Zen6-CCDs+3D-cache mit einem 32-Kern-Zen6c-CCD moeglich, falls der Zen6c-CCD mit nur einer Verbindung zum IOD auskommt (die aktuellen Zen4c und Zen5-CCDs brauchen 2 Verbindungen), oder der IOD 3 Verbindungen zur Verfuegung stellt, und der Platz auf dem package reicht). Waere aber genauso wie der Intel mit zwei compute dies etwas, das wenige kaufen wuerden, und das vor allem fuer den Halo-Effekt da ist.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
Wie alle rumheulen dass man nur 8 Kerne braucht und wenn dann die PS6 mit 16 Kernen kommt wird rumgeheult dass 16 P/3D Kerne ja ach so teuer sind und gar nicht richtig auf dem Markt.

Ich finds geil. Auch wenn im dual channel die Kerne für Workstation Aufgaben komplett am Speicherinterface verhungern werden.
 
  • Gefällt mir
Reaktionen: Zocker1996, Wanderwisser und Naru
konkretor schrieb:
Wer sich fragt was LPE bedeutet
Low-Power-Efficiency-Kerne

WIMRE ist das bei Meteor Lake die Bedeutung. Das relevante ist aber, dass die (bei Meteor Lake und wohl auch bei Nova Lake) auf einem I/O-chiplet sitzen und laufen koennen, ohne dass die compute-chiplets mit Spannung versorgt werden. Auf diese Weise kann der Verbrauch bei sehr geringer Last (z.B. Musik hoeren, oder Video mit Hilfe des Hardware-Decoders im Video-Chiplet schauen) richtig niedrig sein. Die Frage ist, ob die Betriebssysteme das hinbekommen, und wenn ja, dann wie.
 
Ja ist nett, aber für was eigentlich?
Ich habe aus Jux und Tollerei nach 7 Jahren auf einen 265K neugebaut.
Aber nicht weil irgendwas zu langsam ginge.
In der Firma habe ich einen 14900K an der Werkbank hängen, keine Ahnung warum.
Mehr als E-Mails öffnen und 3D-Viewer von Creo läuft da nicht drauf.
Dafür ist eine uralte 2GB Quadro im neuen Rechner verbaut.
Weil der IT-Mensch meint das müsse so sein, damit Creo läuft...
Der 3D-Viewer läuft auch auf einem 300€ Laptop von 2018 mit iGPU ohne Umstände... oder gar am Handy.

Mir scheint es ist großflächig jeder Fokus auf das Rigthsizing verloren gegangen.
Aber was solls.
Bei so einer kleinen Bude mit weltweit 300.000 Mitarbeitern macht das doch nichts.
 
  • Gefällt mir
Reaktionen: Hotzenplotz45
Was ich an den Gerüchten zu NovaLake so faszinierend finde ist der Umstand, dass Intel endlich, so viele Jahre nach Matisse, im MSDT auch dazu wechseln würde, mehrere CCDs einzusetzen.
Gleichzeitig find ich es nach wie vor speziell, dass diese nicht auch die Basis für Mainstream-Serverlösungen darstellen, wie es AMD handhabt. So bleibt Intel im Server nach wie vor generationell verspätet, weil ihnen der starke Consumer-Betatest fehlt.
 
  • Gefällt mir
Reaktionen: Zocker1996
phanter schrieb:
Ich finds geil. Auch wenn im dual channel die Kerne für Workstation Aufgaben komplett am Speicherinterface verhungern werden.

Kommt sehr auf die Aufgaben an. Ich habe das auch mal so gedacht, und dann habe ich den Test bei anandtech ueber eine Workstation mit Threadripper gelesen, wo sie grossteils nur zwei Speicherkanaele bestueckt hatten. Von Verhungern war bei den meisten Programmen keine Spur. Klar gibt's Programme, die von der Speicherbandbreite begrenzt werden, aber das sind offenbar nicht soviele wie ich einmal befuerchtet hatte.
 
  • Gefällt mir
Reaktionen: bad_sign
phanter schrieb:
Wie alle rumheulen dass man nur 8 Kerne braucht

Dabei übersehen viele den Vorteil nicht, der sich aus mehreren Cores ergibt: Man kann die Cores bei verringertem Taktsignal mit reduzierter Voltage betreiben, ergo auf Turbo-und sonstige Werks-OC-Geschichten verzichten, und trotzdem eine brachiale Performance umsetzen.

Das ist wie bei den Lüftern: Je mehr Lüfter werklen und desto größere, umso weniger Drehmoment erfordern sie, um ein großes Luftvolumen zu erzeugen.
 
  • Gefällt mir
Reaktionen: Wanderwisser
mae schrieb:
Als "Duftmarke" bzw. Halo-Prozessor waere bei AMD vielleicht die Kombination eines 12-Kern-Zen6-CCDs+3D-cache mit einem 32-Kern-Zen6c-CCD moeglich, falls der Zen6c-CCD mit nur einer Verbindung zum IOD auskommt (die aktuellen Zen4c und Zen5-CCDs brauchen 2 Verbindungen), oder der IOD 3 Verbindungen zur Verfuegung stellt, und der Platz auf dem package reicht). Waere aber genauso wie der Intel mit zwei compute dies etwas, das wenige kaufen wuerden, und das vor allem fuer den Halo-Effekt da ist.
Danke, DANKE! Endlich hab ich eine Erklärung, warum das AMD nicht schon längst so macht und statt dessen die (im Direktvergleich) ziemlich sinnlosen 8+V-Cache+8er-SKUs bringt.
 
CDLABSRadonP... schrieb:
So bleibt Intel im Server nach wie vor generationell verspätet, weil ihnen der starke Consumer-Betatest fehlt.
Das ist auch mehr als an den Haaren herbeigezogen.
AMD spart da Kosten für ein Design, das war's. Was will man da großartig testen? Es bleibt ja der gleiche CCD.
 
Laut MooresLawIsDead soll der Sprung auf Zen6 grösser sein als von Zen4 auf Zen5, weil AMD nicht alle geplanten Neuerungen in Zen5 bringen konnte, die sie wollten.
Ich bin gespannt.
Ich für mich mit meinem Ryzen 8700F hoffe auf eine schnelle 12C24T Zen6 CPU, quasi ein 9700X mit 12 Kernen, 20% mehr IPC und ein besserer Idle-Verbrauch. Für Gaming und Alltag sollte das dicke reichen.
 
  • Gefällt mir
Reaktionen: Brrr
Klingt zwar alles super toll, aber der Kauftreiber wird wohl weiterhin die Gamingleistung bleiben, und da zählen IPC und Cache. Ich sehe die neuen Topmodelle von Intel daher eher als Angriff auf Threadripper, um denen den Boden unter den Füßen wegzubrechen. Die Mehrheit der Nutzer wird sich aber wohl weiterhin mit geringen Kernzahlen begnügen. Ein 9800X3D-Nachfolger mit 12x Zen 6 und vermutlich 144 MB L3 Cache (48 + 96 MB) dürfte es Intel weiterhin sehr schwer machen.
 
  • Gefällt mir
Reaktionen: Zocker1996, TheLizardator, DF86 und eine weitere Person
Naru schrieb:
Ich denke, Intel hält an den Sky-Bay-Cores noch lange fest, denn einen Grund, diese Architektur abzulösen, sehe ich nicht. Weshalb etwas ändern, das gut funktioniert?
Skylake als Architektur wurde bereits mehrfach abgelöst, mit beträchtlichen Änderungen.
Hotzenplotz45 schrieb:
Ich würd sagen der größte Teil der Alltagssoftware die von Parallelisierung profitiert, ist heute schon auf der weitaus besser parallelisierbaren GPU lauffähig.

Alles andere wäre ein Armutszeugnis für die Softwarehersteller.
Jain, Threads und Daten auf die GPU zu schieben bedingt Overhead. Selbst mit Unified Memory[1] ist der Overhead beträchtlich und für viele Anwendungen/Algorithmen macht es wenig bis keinen Sinn diesen Overhead zu akzeptieren. Ganz abgesehen davon, dass GPUs mitunter deutlich abweichende Algorithmen und damit Datenstrukturen benötigen, um wirklich gut arbeiten zu können. Wobei sich reale Probleme selten so verhalten, dass man die GPU-freundliche Abbildung auch gescheit zum Einsatz bringen kann.

Zudem die GPGPU-Welt daran leidet frankmentiert zu sein. DirectX bzw. DirectCompute geht nur auf Windows, CUDA bedingt nur auf Nvidia, OpenCL war/ist kaputt[2], Vulkan geht nicht auf Apple, Metal geht nur auf Apple, ...

Auf der anderen Seite, Algorithmen die auf GPUs tendenziell gut laufen nudelt ein E-Core (Gracemont) auf der lahmen 128+128bit AVX2 Pipeline in der Größenordnung Gigabytes je Sekunde durch. Wirf vier Kerne gegen die Rechenaufgabe und die arbeiten das für die meisten Algorithmen schneller ab, als sie es mit PCIe(3)[3] zur GPU schieben könnten.


[1] Seit 2015 ist das Stand der Technik bei AMD, Intel, ARM.
[2] Yadayadayada, es ist komplizierter
[3] Intel N kann nur PCIe3, die größeren SoCs können PCIe4/5, haben aber auch mehr Kerne, größere Kerne, mehr Cache, mehr Speicherbandbreite. Es ändert sich da wenig am Gesamtbild.
 
  • Gefällt mir
Reaktionen: Rockstar85
Der Core Ultra 7 mit 14P Cores sieht sehr Interessant aus 😁
Dann könnte ich meinen i7 9700k mal in die Rente schicken😎
Ultra 9 mit 52 Kernen ist schon crazy aber wird bestimmt sehr teuer.

Ich glaube Intel wird sich bei Anwendungen wieder an die Spitze setzen, aber für die Gaming Krone wird es wahrscheinlich nicht ganz reichen gegen die sehr starken X3D Chips von AMD.
 
  • Gefällt mir
Reaktionen: Brrr und Wanderwisser
bensen schrieb:
Das ist auch mehr als an den Haaren herbeigezogen.
AMD spart da Kosten für ein Design, das war's. Was will man da großartig testen?
Microcode und Compiler.
Der Grund, weshalb AMD mit Consumer-CPUs startet, ist mMn auf jeden Fall, dass die Architektur schonmal in den Praxistest geht. Bei Intel das gleiche, nur dass dort...
bensen schrieb:
Es bleibt ja der gleiche CCD.
...dann eben nachher nicht das gleiche CCD zum Einsatz kommt. Entsprechend dauert es dann jedes Mal auch, bis nach einem Consumerlaunch die Serverplattform nachzieht.

Bsp: Aktuell ist Intel immer noch bei Redwood Cove und Crestmont, während AMD schon alles zu Zen5 aufgerüstet hat. Nur V-Cache fehlt noch. Wenn Intel 2026 in ihrer CurrentGen ankommt, dann ist AMD gerade dabei zu ihrer NextGen zu wechseln.
 
  • Gefällt mir
Reaktionen: Zocker1996
bf3gmer schrieb:
für die Gaming Krone wird es wahrscheinlich nicht ganz reichen

Ich sehe in puncto Gaming-Performance nicht bloß AMD an der Spitze. Bloß deswegen, weil die Testberichte etwas Maßgebliches verschweigen, worauf es auch ankommt, die Low-FPS, es zählen vorwiegend die Maximum-Werte, muss ein Intel-Prozessor fürs Gaming nicht untauglich sein.

Die Einbrüche auf die Low-FPS sollen auf AMD-Plattformen erheblicher ausfallen und das besagte Mikroruckeln nach wie vor ein architektonisches Kernproblem darstellen. Wenn man in der Konstanz ohnehin nur wenige FPS zur Verfügung hat, zählt dies umso mehr.
 
  • Gefällt mir
Reaktionen: bf3gmer
Stanzlinger schrieb:
Das wird Intel zurück auf den Thron bringen. Aktuell ist AMD ja gut 20% schneller - bei nur 8P Cores in den Intel CPUs. Mit 16P Cores dreht Intel wieder Kreise um AMD. Bei Single Core ist Intel immer noch die Eins


Am Ende limitiert doch eh die TDP, und wenn man dann auf gleich so viel mehr Kerne setzt mag das vielleicht in Anwendungen ein Vorteil sein, aber für Spiele so gar nicht. "Thron" würde dann denke ich mehr denn je davon abhängen was man mit dem Rechner macht. Gegen X3D wird Intel so nicht ankommen können.


CastorTransport schrieb:
Wenn X3D Cache auf einem 16-Kerner kühlbar wird und auch den doppelten Cache bietet - why not ^^


Mich würde es extrem wundern wenn Zen 5 mit vollem X3D-Ausbau nicht schon heute gut kühlbar wäre. Zum einen bleibt doch Zen 5 selbst schon sehr viel kühler als Zen 4, zum anderen ist der Cache doch unter den Kernen. AMD wird Kosten und Nutzen abgewogen haben und dann zum Schluss gekommen sein, dass es sich einfach nicht lohnt, auch mangels Konkurrenz. Die X3D sind "gut genug" und höher muss das Pferd nicht springen.
Wer nur spielt braucht keine 12 oder gar 16 Kerne. Wer gar nicht spielt braucht den Cache meist nicht. Wer beides macht ist mit den aktuellen Modellen dank fehlender Spiele die über 8 Kerne sinnvoll nutzen gut aufgehoben.


Bigfoot29 schrieb:
PS: AMDs c-Kerne sind zwar vollwertige Kerne, aber dank anderem Layout verbrauchen sie weniger Platz und takten nur bis 3,x GHz. Das bringt AMD auf dem Desktop wenig. Da geht es nicht so sehr um den Verbrauch. Und fast 1/3 Performance-Verlust wegen dem "bischen" Platzgewinn lohnen da nicht.


Wer weiß, wie gut man Zen 6c takten können wird?
Wie wenig niedriger Takt mit dickem Cache AMD bringt sieht man am 5700X3D. Der ist immer noch eine sehr gute Wahl für AM4-Besitzer, wenn man nicht gerade einen 5800X aufwärts hat. Mich würde wirklich mal ein "9700X3D" als niedrig gestalteter Nachfolger des 5700X3D interessieren, mit 16 5c-Kernen auf einem Die und großem Cache. Hoch effizient, viel Kerne für wenig Geld und trotzdem hohe Leistung pro Kern in Spielen. Wäre eine CPU für alle, die ihre Hardware lange nutzen, denn dank des Cache und der vielen Kerne dürfte der auf Jahre schnell genug sein und auch dann noch was taugen wenn Spiele mal mehr als 8 Kerne nutzen.
 
  • Gefällt mir
Reaktionen: Zocker1996 und SaschaHa
phanter schrieb:
Wie alle rumheulen dass man nur 8 Kerne braucht und wenn dann die PS6 mit 16 Kernen kommt wird rumgeheult dass 16 P/3D Kerne ja ach so teuer sind und gar nicht richtig auf dem Markt.
Zu PS3/4 Zeiten hätte ich dir Recht gegeben.
Aber aus 2 gründen zieht das Konsolenvorbild heute nicht mehr:

1:
Viele Games auf ps5/xbox werden heute schon mit denselben engines und tools entwickelt wie pc games, zb. UE4/5 , das war früher anders weil die Konsolen chips sich deutlicher unterschieden zum PC. Wenn man bedenkt das erst UE6 Multithreading unterstützen wird, haben wir easy noch min 2 Jahre Zeit.

2:
Je neuer die Konsolengeneration, desto später kommen Spiele raus die die Hardware ünerhaupt ausnutzen.
Bestes Beispiel aktuell Switch 2. Klar, mehr fps aber grundsatzlich dasselbe.
Bei PS5 war es zu beginn dasselbe, 1 Jahr lang nur augebohrte PS4 Spiele.

Sagen wir mal PS6 kommt ende 2026 und hat 16 kerne. Dann bringt das in Spielen frühestens ende 2027 was.

Bis dahin haben die JETZT releasten cpus vielleicht genug kerne aber zu wenig ipc, zu wenig cache, zu wenig takt und zu hohen stromverbrauch.

"Was zählt is aufm Platz" hat glaub mal ein weiser Mensch gesagt xD.

Evtl haben die Konsolen dann auch viel mehr cache und ne NPU anstatt mehr kernen xD
 
@Hotzenplotz45 Würde ich so nicht sagen.

Das neue Witcher soll ja auf einer normalen PS5 mit 60fps laufen (in der Unreal Engine 5)

Die CPU der PS5 ist ja im Prinzip ein Ryzen 3700x mit weniger Takt.

Um so eine "Tech Demo" mit 60fps auf einen gedrosselten 3700x laufen zu lassen braucht es definitiv Mehrkernauslastung damit die 60fps drin sind.

Gibt sogar ein Video von Digital Foundry dazu


Sollte das alles so stimmen sehe ich in naher Zukunft 8 Kerne (oder mehr) im Vorteil.
 
Zuletzt bearbeitet:
GT200b schrieb:
sowohl bei Intel als auch bei AMD's Chiplet Design hat man hohe Latenzen, die werden von AMD mit dem 3D Cache ausgemerzt
Wie meinst du das mit hohen Latenzen? Grundsätzlich hast du erst beim Zugriff auf den RAM hohe Latenzen. Aber auch von lv1 Cache zum lv3 Cache gibt es einen grossen Unterschied.
 
Zurück
Oben