News Das erste Gerücht: „GeForce RTX 6090“ mit GR202 erst im 2. Halbjahr 2027

Ich hoffe inständig, dass nicht nur ein Fertigungsprozess mit kleineren Strukturen, sondern auch Architekturverbesserungen kommen werden, die zu einer besseren Auslastung der Recheneinheiten führen. Die 5090 wird, besonders bei Verwendung von DLSS Super Resolution und ganz besonders in UE5-Spielen, fast nie vernünftig ausgelastet, trotz 4K und maximalen Details (GPU-Auslastung zwar häufig bei 99%, aber Verbrauch deutlich unter der TDP). Falls Sie zum x-ten Mal einfach nur die Zahl der Recheneinheiten erhöhen wird das bei der 6090 noch schlimmer werden. Auch eine deutlich überproportionale Erhöhung der Raytracing-Leistung ggü. der Rasterleistung würde ich gerne endlich mal sehen, hier unterscheiden sich Turing bis Blackwell leider nur sehr wenig.
 
Zuletzt bearbeitet:
wird dann 2028 und die 6090 kommt wegen Speicherpreisen dann mit 16GB VRAM für 5000 Euro 🤣 (SCNR)
 
MoinWoll schrieb:
Falls Sie zum x-ten Mal einfach nur die Zahl der Recheneinheiten erhöhen wird das bei der 6090 noch schlimmer werden.
Technisch ist das kaum zu vermeiden, dass das Problem auftritt. Um so viele Recheneinheiten sinnvoll auslasten zu können, müsste man eher Richtung natives 8k gehen, statt 4k mit DLSS.

Die xx90 sind halt auch schon lange zwar auch die schnellste Gaming-Karte, aber eben nicht mehr darauf fokussiert, sondern viel mehr auch auf Anwendungsperformance (vor allem mittlerweile AI) ausgelegt. Das wird sich nicht mehr ändern.
 
@stefan92x: Ich hoffe, dass Du nicht recht hast und Nvidia doch noch irgendwas einfällt, befürchte es allerdings auch.
 
MoinWoll schrieb:
Die 5090 wird, besonders bei Verwendung von DLSS Super Resolution und ganz besonders in UE5-Spielen, fast nie vernünftig ausgelastet, trotz 4K und maximalen Details (GPU-Auslastung zwar häufig bei 99%, aber Verbrauch deutlich unter der TDP).
Liegt vielleicht auch nur daran, dass Nvidia zwei Chiphälften, also 2x5080 zusammenklatscht.
Und daher das grundsätzliche Chipdesign nicht so performant ist.
Aber grundsätzlich ist die Shader Skalierung bezüglich Anzahl, Rechenleistung, fps zwischen Maximalausbau und Midrange Chip auch noch nie perfekt gewesen.
 
ruthi91 schrieb:
Liegt vielleicht auch nur daran, dass Nvidia zwei Chiphälften, also 2x5080 zusammenklatscht.
Der GB202 (5090) ist ein eigener, ebenfalls monolithischer Chip. Es gab vor dem Release der 50xx-Serie mal Gerüchte, dass es so wäre wie Du sagst, die sich allerdings nicht bestätigt haben.

ruthi91 schrieb:
Aber grundsätzlich ist die Shader Skalierung bezüglich Anzahl, Rechenleistung, fps zwischen Maximalausbau und Midrange Chip auch noch nie perfekt gewesen.
Klar, es wird allerdings immer schlimmer. Die 2080 Ti war z. B. mit 48% mehr Einheiten noch 30% schneller als die 2080, während die 5090 mit 102% mehr Einheiten nur ~48% schneller ist als die 5080. Kann aber natürlich auch dem deutlich größeren Unterschieden zwischen den jeweiligen Karten geschuldet sein. Evtl. läge eine 5090 auch etwa bei 30% Performancezuwachs ggü. der 5080, wenn sie nur 48% mehr Einheiten hätte. Ein anderes "Problem" ist auch, dass mit 4K so langsam der Point of Diminishing Returns erreicht ist, ab dem eine weitere Erhöhung der Auflösung nicht deutlich mehr Bildqualität bringt, aber heftig Leistung kostet. Dazu kommt dann noch, dass die notwendige Renderauflösung zur Erreichung dieses Punkts momentan immer weiter sinkt durch DLSS/FSR/XeSS. Früher hatte man alle zwei/drei Generationen eine höhere etablierte Renderauflösung, sodass das Skalierungsproblem weniger ins Gewicht gefallen ist. Heute ist es eher umgekehrt. 4k mit DLSS 4.5 Performance (1080p Renderauflösung) sieht mittlerweile durchweg besser aus als 4K Nativ+TAA, lässt aber, vor allem bei der 5090, viel Rechenleistung brach liegen.
 
Zuletzt bearbeitet:
stefan92x schrieb:
Technisch ist das kaum zu vermeiden, dass das Problem auftritt. Um so viele Recheneinheiten sinnvoll auslasten zu können, müsste man eher Richtung natives 8k gehen, statt 4k mit DLSS.

Die xx90 sind halt auch schon lange zwar auch die schnellste Gaming-Karte, aber eben nicht mehr darauf fokussiert, sondern viel mehr auch auf Anwendungsperformance (vor allem mittlerweile AI) ausgelegt. Das wird sich nicht mehr ändern.
Hm ne, für AI gibts ja spezialisierte Karten für den Business Bereich. Im Consumer Bereich nutzt kaum einer AI so, dass es da Sinn machen würde ne Gamer Karte zu spezialisieren. Die 90er Karten sind einfach Leuchttürme, die das maximal machbare darstellen sollen, was pro Gen geht. Reines Enthusiasten-Stück. NVIDIA wirbt bei den 90ern zwar nochmal expliziter mit AI, das ist aber reines Marketing.
Ergänzung ()

MoinWoll schrieb:
Klar, es wird allerdings immer schlimmer. Die 2080 Ti war z. B. mit 48% mehr Einheiten noch 30% schneller als die 2080, während die 5090 mit 102% mehr Einheiten nur ~48% schneller ist als die 5080. Kann aber natürlich auch den deutlich größeren Unterschieden zwischen den jeweiligen Karten geschuldet sein. Evtl. läge eine 5090 auch etwa bei 30% Performancezuwachs ggü. der 5080, wenn sie nur 48% mehr Einheiten hätte.
Ich kann mir aber kaum vorstellen dass Nv nochmal eine Gen rausbringt mit so kleinem Zuwachs, das wäre nach dann fast drei Jahren auch ohne Konkurrenz im High End Bereich eher dürftig.

Aber ja, ohne grundsätzlichen Architektur-Wechsel wird das nicht besser werden mit der Skalierung.
 
Chilisidian schrieb:
Die Abstände zwischen zwei Gens werden immer länger, das war so zu erwarten weil die Verringerung der Fertigungsstruktur nicht mehr linear sein kann dank physikalischer Grenzen.
Und wo ist hierbei das Problem? Willst du jedes Jahr eine neue Grafikkarte kaufen?
 
2 H 2027 ? : genug Zeit zum Sparen
 
Chilisidian schrieb:
Ich kann mir aber kaum vorstellen dass Nv nochmal eine Gen rausbringt mit so kleinem Zuwachs, das wäre nach dann fast drei Jahren auch ohne Konkurrenz im High End Bereich eher dürftig.
Ging ja eher um die Skalierung innerhalb einer Generation, nicht um den relativ kleinen Zugewinn von der 4090 zur 5090. Aber zu letzterem Thema: der Sprung von der 5090 zur 6090 könnte etwas größer werden durch den Wechsel von 4/5nm zu 3nm. Allerdings erwarte ich hier auch nicht mehr als 40%, da die TDP der 6090 vermutlich ebenfalls unter oder bei 600W bleiben wird. Denke der 70-80% Sprung von der 3090 zur 4090 war das letzte Mal, dass wir sowas gesehen haben, bis man auf gänzlich andere Technologien als kleiner werdende Siliziumchips umsteigt.

Chilisidian schrieb:
Aber ja, ohne grundsätzlichen Architektur-Wechsel wird das nicht besser werden mit der Skalierung.
Ja, leider.
 
FatalFury schrieb:
Meine 4090 reicht erstmal. DLSS 4 treibt die Karte auch gut voran.
Genau so sehe ich das auch mit meiner 4090! Seit 2022 nutze ich gerne DLSS und das wird sich nicht ändern. Und solange ich keinen UHD@240Hz Bildschirm bei 55 Zoll kaufen kann und entsprechend eine Leistungsstarke GPU benötigen würde, bleibe ich bei der 4090. Zumal ich RT/PT sowieso freiwillig nie nutze.
 
  • Gefällt mir
Reaktionen: FatalFury
BDR529 schrieb:
Und wo ist hierbei das Problem?
Das Problem hierbei ist, dass Stagnation nie gut ist. Ausbleibende Effizienzverbesserungen bedeuten nicht nur höheren Stromverbrauch pro verrichteter Arbeit (egal ob Spiele/HPC/KI), sondern auch wirtschaftliche Stagnation, also geringere Produktivität, höhere Preise und weniger Fortschritt in allen Bereichen die Rechenleistung erfordern, was heutzutage so gut wie alle Wirtschaftszweige betrifft. Auch wenn man nur die Gamer-Perspektive betrachtet und alles andere ausblendet (obwohl es unweigerlich jeden betrifft) hat man nichts gewonnen, da der finanzielle Vorteil durch die längere Lebensdauer der Karten durch die entsprechend höheren Preise und Stromkosten wieder aufgefressen wird, bei gleichzeitig ausbleibendem Fortschritt bei der Grafikdarstellung.
 
Wahnsinn, ich denke die Leute die jetzt eine starke Karte haben, können froh sein doch nicht weiter investieren zu müssen für ein Upgrade, da es so ja keinen Sinn macht....
Da bin ich doch direkt froh darüber eine 5090 mein eigen nennen zu dürfen, auch wenn ich für den Schinken einen mittleren 3 stelligen Betrag zahlen musste (als Defekt gekauft und repariert)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NHEADY55
Ich hätte damals eine 4090 anstatt der 4080 kaufen sollen... Das ärgert mich öfters ^^
 
  • Gefällt mir
Reaktionen: Ko$chi und FatalFury
MoinWoll schrieb:
Der GB202 (5090) ist ein eigener, ebenfalls monolithischer Chip. Es gab vor dem Release der 50xx-Serie mal Gerüchte, dass es so wäre wie Du sagst, die sich allerdings nicht bestätigt haben.
Er ist zwar monolithisch, aber trotzdem sinds zwei Hälften.
Und im Gegensatz zu beispielsweise 4090/4070 oder 3090/3070, ist wie angesprochen das Skalierungsverhältnis wirklich auffällig schlecht von einer 5080(!!) zur 5090.
 
Ich hab im Frühjahr 2025 nachdem AMD seine Dinger rausgebracht hat eigentlich entschieden, dass ich diese Generation noch aussitzen möchte mit meiner 3070.
Jetzt fühle ich mich irgendwie eklig unter Druck gesetzt, jetzt wo die Preise auch für die 9070er steigen.

Das wird eine lange Durststrecke jetzt

Aber ich glaub ich komm noch klar. Aber selten so eklig gefühlt. Ich konnte die Covid-Zeit gut überbrücken weil ich die 3070 für 499€ UVP direkt beim Launch bekommen hab :)
 
ruthi91 schrieb:
Er ist zwar monolithisch, aber trotzdem sinds zwei Hälften.
Hast Du dazu eine Quelle? Ich habe nichts finden können, außer den Gerüchten vor Release. Außerdem heißt monolithisch meines Wissens per Definition nicht zwei Hälften sondern ein Ganzes.
 
raigey schrieb:
Ein 14900K ist jetzt keine "Krüppel CPU"
Klar.. geht besser, aber auch schlimmer
Gut eingestellt mit neustem Bios Update und du bist ein paar Jahre safe :)
Und zur Not gibts ja die 5 J Garantie
Eigentlich fehlt hier die "/IRONI" oder? :daumen:


"14900k ist kein krüppel cpu, mit bios update hält er ganze 5 jahre" :evillol::evillol::evillol::evillol:
 
@MoinWoll Jedenfalls kann ich mir nur so die auffallend schlechte Skalierung erklären, also das der Chip nicht perfekt fürs Gaming skaliert. Für Workstation & KI Zeug mag das vielleicht nicht zutreffen und dort skaliert alles schön hoch.

Auf den Fotos "die shots" kann ziemlich gut die Aufteilung bzw. Verdopplung sehen:
https://www.hardwareluxx.de/index.p...eigt-schicke-die-shots-der-blackwell-gpu.html
Bei den Specs ist es ja schon auffallend mit Shaderanzahl, Recheneinheiten, Speicherinterface, Cache usw.

Btw, hat grad jemand Links zu Tests mit 5090 vs 5080 in 6K oder 8K zur Hand? (mindestens 5K sollten es sein)
 
Chilisidian schrieb:
Hm ne, für AI gibts ja spezialisierte Karten für den Business Bereich. Im Consumer Bereich nutzt kaum einer AI so, dass es da Sinn machen würde ne Gamer Karte zu spezialisieren. Die 90er Karten sind einfach Leuchttürme, die das maximal machbare darstellen sollen, was pro Gen geht.
Naja... nicht ganz. Spezialisierte Karten? Ja, es gibt z.B. die RTX PRO 6000. Die praktisch eine 5090 mit mehr VRAM ist (will sagen, beide nutzen die GB202 GPU). Wenn der VRAM der 5090 reicht, schafft die praktisch die gleiche Leistung und ist dann auch tatsächlich sinnvoll nutzbar für AI etc.
 
Zurück
Oben