News Refresh gestoppt: Nvidia soll GeForce RTX 50 Super vorerst gestrichen haben

MalWiederIch schrieb:
Süß aber nein, 550€ sind nicht „Stand heute“
https://www.computerbase.de/preisve...f=9816_03+05+18+-+RTX+5070&sort=p#productlist
Screenshot 2026-01-09 085516.png

Das AMD in dem Preisbereich deutlich bessere Angebote hat steht außer Frage, aber das war auf 5070 vs 5070Ti bezogen

kachiri schrieb:
Haben ist besser als Brauchen
In der Tat. Weil erst wenn man es braucht (was in Angesicht der mickrigen 12GB oft der Fall sein wird wenn man 1440p+ DLSS + FG möchte) fällt es auf.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
und ich würde mich bei der aktuellen Lage (KI Rechenzrntren, RAM) auch nicht wundern, wenn es auch 2027 keine neuen Nvidia Grafikkarten gibt

die Kapazitäten der Chip Produktion sind begrenzt und solange die Industrie Massenbestellungen aufgibt, ist der Gaming Markt uninteressant
 
  • Gefällt mir
Reaktionen: matkenhauser
Liebe Redaktion, was hat das Wort „vorerst“ im Titel verloren?

Es wird keine High End GPUs mehr für Endkunden geben. Wenn ein Chip für eine kolportierte 6090 noch ein GPU Anteil hat dann nur, um im RZ auch Cloudgaming anbieten zu können.
 
Piak schrieb:
Jo, so lassen sich leicht die VRAM Sparereien begründen...nvidia sollte die Preise für ihre ganzen alten Karten um mindestens 30% senken.
Werden sie nicht. Denk doch Mal am die Marge und die armen Aktionäre...
 
  • Gefällt mir
Reaktionen: Locutus2002
anexX schrieb:
Das sind richtig schlechte News für Gamer ... und das alles Dank AI. :rolleyes:

Aber wen wunderts - die Tage hiess es ja schon Lederjacke wolle die 3060er wieder auspacken - da wars ja schon quasi abzusehen das da keine Super Serie kommen wird ...
Geht. Die Super waren doch nichts anderes als ein lauwarmer Aufguss, der sich für kaum jemanden gelohnt hat. Die 5090 bleibt sowieso unangetastet wenn Enthusiasten das Argument sein sollten.
 
Stanzlinger schrieb:
Aber sehr gute für Besitzer einer 5000er Karte. Somit bleibt der Wertverlust aus
Keine Ahnung wie man sich darüber freuen kann. Früher hatten Grafikkarten Wertverlust, weil die Technik besser wurde. Heute haben sie keinen mehr. Weil die Technik einfach stecken bleibt

Früher gab es mit einer Karten ein zwei Stufen kleiner mehr Leistung als das vorherige Topmodell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Locutus2002, Sturmflut92, nyster und 11 andere
bogge101 schrieb:
und ich würde mich bei der aktuellen Lage (KI Rechenzrntren, RAM) auch nicht wundern, wenn es auch 2027 keine neuen Nvidia Grafikkarten gibt

die Kapazitäten der Chip Produktion sind begrenzt und solange die Industrie Massenbestellungen aufgibt, ist der Gaming Markt uninteressant
Die Chips sind fertig, wäre ja verbranntes Geld die nicht zu bringen.
Der Preis wird aber sicher bei vielen Brechreiz auslösen.

kachiri schrieb:
Und mit 8 GB lebt man auch noch solide, wenn man ein ganz klar abgestecktes Anwendungsgebiet hat....
Wofür also mehr VRAM? Ich habe darauf bis heute keine Antwort bekommen.
Klar abgesteckt wäre in dem Fall "das Spiel soll noch starten", mehr als 1080p minimum Details ist ja teilweise schon zu viel verlangt wenn in Tests die 16GB 5060ti bei 1080p medium die 8GB Version zerstört weil die FPS technisch in den Keller stürzt.
 
  • Gefällt mir
Reaktionen: adnigcx
LeChris schrieb:
Es wird keine High End GPUs mehr für Endkunden geben. Wenn ein Chip für eine kolportierte 6090 noch ein GPU Anteil hat dann nur, um im RZ auch Cloudgaming anbieten zu können.
Nichts anderes als eine Meinung, die durch nichts gestützt ist.
 
  • Gefällt mir
Reaktionen: Pisaro und shaboo
wildfly schrieb:
Der Wettbewerb im Bereich der Grafikprozessoren wird immer intensiver. Unternehmen wie AMD und große Technologiekonzerne wie Alphabet, Amazon, Microsoft und Meta entwickeln eigene Chips, um sich von den teuren GPUs von NVIDIA unabhängiger zu machen
Die 4 Firmen die du nennst entwickeln allerdings keine Grafikprozessoren.
 
johnieboy schrieb:
In der Tat. Weil erst wenn man es braucht (was in Angesicht der mickrigen 12GB oft der Fall sein wird wenn man 1440p+ DLSS + FG möchte) fällt es auf.
Nein. Es "wird nicht oft der Fall sein". Es sind eine Hand voll Spiele, die mit 12 GB "problematisch" sein können. Texturqualität eine Stufe runter löst das Problem dann in der Regel schon. Und der sichtbare Unterschiede ist dann gerne mal kaum bis gar nicht wahrnehmbar.
Dafür reicht der VRAM aber wieder...
In den aller meisten Tests: "12 GB reichen" und hier im Forum wird ständig "oft reichen 12 GB heute schon nicht mehr für FullHD". Wtf? Weil es 2-3 Spiele gab, bei denen das der Fall war.

Der VRAM-Bedarf wird auch erstmal nicht großartig anwachsen, solange Konsolen mit maximal 16 GB shared RAM daher kommen. Und mit neuen Konsolen brauchen wir vor Ende 2027 wohl eher 2028 nicht rechnen.
 
  • Gefällt mir
Reaktionen: matkenhauser, usopia, serve1chilled und 2 andere
Ich bin immer wieder fassungslos, was für einen Brei man hier in den Kommentaren lesen muss.
Wie kommen hier einige Leute darauf, nVidia müsste irgendwas tun. Wie kommt Ihr darauf, Ihr hättet Anspruch auf die neuste Hightech-Hardware für 3,50€?
Es gibt andere (Rechenzentren), die mehr zahlen, also steigt der Preis. Die Nachfrage ist riesig und nVidia hat teilweise ein Monopol.
So funktioniert diese Welt.
Und z.B. die 3060 ist heute keinen Deut schlechter als bei ihrem Release, aber deutlich günstiger. Rechenleistung wird günstiger. Jedes Jahr. Das ist Fakt, auch wenn der RAM gerade ausreißt.
Und nichts, aber auch gar nichts macht es erforderlich, privat eine 5080 zu besitzen (die 3-4 Leute, die es tatsächlich für ihre Arbeit nutzen, klammere ich aus). Das ist ein reines Luxusprodukt.
Das ist teilweise schlimmer, als einer Horde 11-Jähriger zuzuhören wenn sie rummaulen weil das Taschengeld nicht für die neuste Playstation reicht..


Zur News: Ich schätze, diese Nachricht war zu erwarten, da der größere RAM sicher in Rechenzentrums-Produkte gesteckt wird, und es zu 5080 / 90 eh keine Konkurrenz gibt. Spätestens beim Preis der Super-Variante wäre der Aufschrei sicher wieder groß gewesen.

Ich habe immer noch meine 4090 Laptop mit 16 GB und frage mich, wofür ich mehr brauchen sollte..
 
  • Gefällt mir
Reaktionen: matkenhauser, schkai, Bright0001 und 4 andere
wäre also "nur" mehr RAM gewesen? nicht mal mehr SM/ALUs?
Die Lücke zur 5090 ist halt einfach gigantisch.

Nun gut, hab ich mit der 9070xt alles richtig gemacht, vor allem P/L - die reicht bis der AI Scam zuende ist
 
  • Gefällt mir
Reaktionen: Viper816 und pookpook
Aduasen schrieb:
Für meinen ganz frischen PC (da der alte abgeraucht war) habe ich auf eine 5080 zurückgegriffen.
Insofern bleibt es halt bei der Planung, dann 27/28 eine RTX 60xx zu erwerben
Wie ist das passiert ? Nur GPU oder wirklich ganzer PC kaputt gegangen ?
Kuestennebel79 schrieb:
Hier im Forum wird die VRAM Frage immer etwas arg priorisiert. Ich musste wegen einer Reklamation auch zurück meine 4070ti mit 12 GB und spiele momentan problemfrei auf meinem 4k Fernseher: LoU, AC Shadows, KCD2 und CP77.
Aber mit etwas Schäubchen drehen und Transformer DLSS Leistung und FG komme ich überall auf 120 FPS mit fast max Settings.
Aus Star Citizen, 4k Nativ ohne Upscaling ohne framegen. Man achte auf die Vram Auslastung rechts im Bild.
Kumpel hat die RX7900XTX im Angebot neu für 700€ erhalten.
 

Anhänge

  • 4K RX7900XTX 9800X3D Ruin Station 160fps jpg.jpg
    4K RX7900XTX 9800X3D Ruin Station 160fps jpg.jpg
    4,9 MB · Aufrufe: 150
  • Gefällt mir
Reaktionen: JarlBallin
TheInvisible schrieb:
Wieder mal verdrehte Fakten. Wenn man sich den CES Event anschaut ist eher die Frage ob AMD für die Gamer überhaupt noch da ist
Was hat nvidia denn außer Roboter und AI so vorgestellt?
 
  • Gefällt mir
Reaktionen: JarlBallin
kachiri schrieb:
16 GB sind mehr als genug.
Sind aktuell genug.
kachiri schrieb:
12 GB sind noch absolut fein.
Nein.
kachiri schrieb:
Wofür also mehr VRAM? Ich habe darauf bis heute keine Antwort bekommen.
Damit man die Karte nicht nur heute, sondern auch noch in 2 Jahren nutzen kann. Mein Lieblingsbeispiel ist hier immer die GTX 770 4GiB, welche die Tomb-Raider-Reboot-Trilogie unter FHD noch prima gerendert hat, während die 2-GiB-Standardvariante bereits einbrach. Ähnliches später auch bei der GTX 1060 6 GiB vs. 3 GiB.
kachiri schrieb:
Kommt gleich wahrscheinlich einfach: Haben ist besser als Brauchen.
Wie gesagt: aktuell haben, in 2 Jahren brauchen.
 
  • Gefällt mir
Reaktionen: herrStreusalz, Sturmflut92, JarlBallin und eine weitere Person
Alphanerd schrieb:
Was hat nvidia denn außer Roboter und AI so vorgestellt?
Ernsthaft?

Ergänzung ()

JackTheRippchen schrieb:
Wo den nicht? Und komm jetzt nicht mit irgendwelchen 4k PT zeugs wo sie sowieso zu langsam ist. Gerade die UE5 läuft auch mit 8GB sehr gut, Neural Texture soll das nochmal senken.
 
  • Gefällt mir
Reaktionen: usopia, MalWiederIch, Pisaro und eine weitere Person
Vorsicht überspitzt!

Die Bude kann wirklich machen was sie will und die üblichen Nvidia Lämmer blöken im Chor, wie cool der Move doch ist. Kannst dir nicht ausdenken. 😂

"The more you buy, the more you save" for the win.
 
  • Gefällt mir
Reaktionen: MegaDriver, herrStreusalz, schkai und 4 andere
Kommt da was auf uns zu? Verknappung ? Nvidia wird doch jeden Chip in AI stecken und iwann laufen die RAM Vereinbarungen aus für die Gaming GPUs ....
 
Ich bin so froh, dass im im Oktober die TUF 5070ti für 760 geschossen habe, ich will nicht wissen wo die Preise dieses Jahr hingehen, leider habe ich das AM5 Upgrade auf die lange Bank geschoben und jetzt sitze ich hier ein weiteres Jahr bei AM4 fest.
 
  • Gefällt mir
Reaktionen: stevefrogs
das heisst doch nur, dass ich meine rtx 5080 zu release preisen verkaufen kann :D sehr nice
 
  • Gefällt mir
Reaktionen: Özil
Zurück
Oben