News Gerüchte zu Nvidia Blackwell: GeForce RTX 5070 Ti mit 16 GB, RTX 5090 nicht ganz mit 600 W

wahli schrieb:
Alles nicht meine Preisklasse, ...
mehr interessiert mich aber die AMD RX 8800 XT mit 16GB.
wenn die denn nur 16gb bekommt, warum nicht 20gb?
 
MGFirewater schrieb:
wenn die denn nur 16gb bekommt, warum nicht 20gb?
Weil der Speicherausbau vom Speicherinterface abhängig ist und 3GB Vram Chips gibts erst 2025+.
Das Speicherinterface liegt im GPU Chip und benötigt Chipfläche bzw. "ist teuer".

Ist aber auch nicht allentscheident, siehe Infinity Cache bei AMD oder allgemein mehr Cache ab RTX4000.

Ganz stumpf könnte man auch fragen warum ne Karte die langsamer als ne 7900XTX oder sogar XT ist, den Speicher braucht...
 
GOOFY71 schrieb:
Ich habe mit einer 5080 spekuliert, mit nur 16GB hat das einen bitteren Beigeschmack. Aber gibt es Alternativen?

Ja meine 4090, hat kein Spulenfiepen und müsste noch Restgarantie haben...

Wer keine 5090 kauft, ist nur Kunde zweiter Wahl und darf bei Nividia die 5090 Käufer unterstützen bei der Refinazierung der 5090.

Wie soll das sonst gehen, wenn die 5080 das deutlich bessere Angebot werden würde?

Nachdem die 4090 Besitzer den Abverkauft beendet haben werden und die 5090 Absätze anfangen werden runter zu gehen, wird euch Nvidia eine 5080 Super/Ti mit 20/24 GB Ram spendieren.

Diese wird aber auch nicht wirklich ernsthaft zur 5090 aufholen, denn die 6090 kommt auch irgendwann und solange es keine Konkurrenz gibt, wird Nvidia das genauso beibehalten jede Genaration.
 
  • Gefällt mir
Reaktionen: floTTes
snaapsnaap schrieb:
Bei Indie Titeln auch gerne mal nur 30W, während AMD Karten gefühlt erst ab 100W beginnen sobald Last anliegt, egal wie wenig Leistung das Spiel eigentlich erzeugt.
Naja Unterschiede gibt es immer, aber beim Wechsel von der 6700XT zur 4070 ist mir da nichts aufgefallen, klar die 6700XT braucht mehr Strom für die selbe Leistung aber bei alten Spielen operierte die auch im zweistelligen Bereich.

Man muss halt eh mal abwarten wo die Reise bei beiden hingeht, aber Vram Menge wird zum entscheidenden Faktor. Es nützt mir halt nichts wenn der VRam schnell ist aber der Pool nicht groß genug ist damit man aus dem vollen schöpfen kann.
Gerade Stalker 2 hat das gezeigt, bei den Settings wäre durchaus Max drin, es wird aber am Ende doch knapp.
Ob es so kommt wird der Preis zeigen, da bin ich sehr Budgetorientiert aufgestellt. Entweder es passt mit dem Preis, zusammen mit dem Erlös den ich für die alte Karte bekomme oder es wird runtergeregelt. Ich meine ob max oder eine Stufe drunter ist bei den oft geringen Unterschieden ja eher ein Luxusproblem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes und Icke-ffm
Wollte evtl. wegen VR von einer 4090 zur 5090 aufrüsten, aber iwi ist es das nicht Wert und ich werde bis zur 6090 mit dann hoffentlich wieder einem nodesprung warten. 550 Watt alleine für die graka sind mir auch einfach zuviel.
 
Die 5090 ist ja schon ultra. Aber die 5080 ist ja irgendwie schwach dagegen. Halb so viel RAM, halbes Speicherinterface und nur 30% weniger Strom.
Da frag ich mich ob die 4090 effizienter und besser ist?
 
wahli schrieb:
Alles nicht meine Preisklasse, aber trotzdem bin ich gespannt, was NVidia da raus bringt.
Noch mehr interessiert mich aber die AMD RX 8800 XT mit 16GB.
Ich bin auf die Preisklasse der 8800 XT gespannt. Mich würden 700 Euro nicht wundern.
 
  • Gefällt mir
Reaktionen: Quidproquo77, wahli und floTTes
Ich versteh ehrlich gesagt nicht, wie man sich über die Preispolitik von nVidia aufregt. Wenn ich bedenke, dass es wahrscheinlich immer noch viele gibt, die sich jedes Jahr ein neue iPhone um die 1,5 TEUR(?) oder Vergleichbares kaufen, gibts kein Gemurre. Bei PC-Hardware - besonders bei GraKas - heult man aber Jahr für Jahr rum, wie teuer mittlerweile alles ist und wie günstig früher alles war. Da kann man sich beispielsweise auch aller 2 Jahre eine nVidiva xx80 bzw. xx90 kaufen. Meine 1080 Ti ist immer noch im PC und die läuft seit 7 Jahren einwandfrei. Die großen Player bestimmen eben die Preispolitik, da sie wissen, dass ihre Produkte konkurrenzlos laufen. Man kann auch ganz entspannt weiter unten ins Regal greifen und sollte sich dabei nicht zweitklassig vorkommen.
 
  • Gefällt mir
Reaktionen: floTTes und kachiri
16GB werden die neuen 8GB in 4 Jahren wohl schon für die ersten Games in FHD dann für Max Details benötigt. wird interessant sein wie sich die 5070-12GB verkauft, das ist ja schon jetzt eigentlich nur noch eine FHD Karte. und wenn die 5060ti wieder 16GB bekommt dann lieber das geld Spaaren und die kaufen, oder aber gleich die 5090-32GB oder zumindest eine 3080ti-384Bit 24GB.
wird spannend gerade wie die Raster Leistung zwischen der 5070ti und 8800xt aussieht, ist die ti da nicht deutlich schneller wird ein Mehrpreis kaum noch durchzusetzen sein selbst wenn sie in RT doppelt so schnell ist
 
DevPandi schrieb:
256 Bit sind 8 RAM-Chips, damit sind es entweder 16 oder 24 GB (2 GB und 3 GB-Chips).

Bei einer potenziellen 5070S, sofern diese nicht auf den GB203 wechselt, sind es 18 GB, die möglich wären mit den "kommenden" 3 GB Chips.

Meine Spekulation bezieht eher darauf, dass die teildefekten Chips einer Klasse höher dann als Super Karten verkauft werden. Also
5090 -> 5080S mit dann 24GB (oder nur 20, wenn man das Interface kürzt).
5080 -> 5070S mit dann 16GB usw.
 
ElliotAlderson schrieb:
Soll ne 5060 4K mit 120 FPS wuppen?
Schreibe ich das irgendwo? Aber 1.000 € für ne WQHD Karte? Dein Ernst?

Ne 5060 TI oder 5070 würde völlig reichen hätte die einfach nur mehr VRAM. Meine jetzige 3070 würde auch noch überwiegend reichen, aber die 8GB limitieren da einfach.

a_to_y schrieb:
die sich jedes Jahr ein neue iPhone um die 1,5 TEUR(?) oder Vergleichbares kaufen
Die allermeisten kaufen das aber nicht jedes Jahr, sondern zahlen das in Raten über den Vertrag. Sonst täte das nämlich niemand mehr.
 
Tja, wenn die B580 sich vielleicht doch nicht so schlecht verkauft wie oft propagiert, wird eine B770 umso interessanter für Intel und den Endkonsumenten.

Auch AMD hat seine Nachteile in gewissen Anwendungsgebieten und eine Karte mit 16 GB Vram sowie angemessener Rohleistung für unter 450€ dürfte denen aus den Händen gerissen werden, wenn Nvidia hier so weiter macht.
 
  • Gefällt mir
Reaktionen: floTTes
Icke-ffm schrieb:
16GB werden die neuen 8GB in 4 Jahren wohl schon für die ersten Games in FHD dann für Max Details benötigt. wird interessant sein wie sich die 5070-12GB verkauft, das ist ja schon jetzt eigentlich nur noch eine FHD Karte.
Ach kommt. Wir wissen doch absolut nichts über die Spezifikation der nächsten Konsolengeneration und die ist letztlich immer eine gute Orientierung, für die "realen" Anforderungen. Wir dürfen ja ohnehin gespannt sein, was Konsolen zukünftig kosten....
Würde mich ehrlich gesagt nicht wundern, wenn die bei 16 GB shared Speicher verbleiben... Aber das ist auch nur Spekulation.

Und die 12 GB sind eigentlich JETZT noch genug für ziemlich viele Spiele selbst in 4k. Eine 4070 (Super) oder halt auf AMD-Seite eine 7800 XT (oder auch 7700 XT bzw. 6800) funktioniert auch heute noch wunderbar in WQHD...
Die 8 GB in FHD sind auch nur ein Problem, weil die Karten mit nur 8 Lanes angebunden sind und damit das Nachladen von Texturen halt langsamer gemacht wird, als notwendig.

Aber hey. Man kann nie zu müde sein, zu betonen, dass Grafikkarten ALLE 32 GB RAM benötigen, weil 16 GB sind heute ja schon das 8 GB von vor 10 Jahren.
 
  • Gefällt mir
Reaktionen: floTTes und Quidproquo77
blende11 schrieb:
Fast 600 Watt Verbrauch unter Last bei einer Spiele-Grafikkarte, ist nur noch krank.
Halte diese Entwicklung zu höheren Stromverbräuchen nicht für gut und würde mir so eine Grafikkarte nicht kaufen.
Irgendwo hört es dann mal auf!
Das ist aber auch schon bei der 4090 mit ~ 430 W Verbrauch im Durchschnitt, krank. Dabei schafft die teilweise nicht mal super hohe FPS, z. B. wenn Lumen und Nanite in UE Spielen aktiviert wird. Von der 5090 und bis zu 600 W Verbrauch ganz zu schweigen. Selbst wenn sie "nur" 500W im Durchschnitt zieht, ist das aus meiner Sicht mehr als inakzeptabel.
 
  • Gefällt mir
Reaktionen: ro///M3o
Die 600W waern mir egal, Abwaerme auch egal, wofuer hat man ne Klima?
Aber wenn das ueber EINEN 12VHPWR Stecker geht, kommt mir das nicht ins Haus.
Warn die 450W ja offensichtlich schon grenzwertig ....
 
Lächerliche Upselling Trickserei von Nvidia. Die 5080 ist eine 5070. Egal ob mit 16 oder 24Gb, was wollen die zwischen 5090 und ihrer "5080" reinschieben? Die Leistungslücke schreit dann eigenlich nach einen teildefekten GB202 als 5080ti.
 
Ich finde das reine Thema Kosten manchmal zu kurz gedacht. Meine Lebensgefährtin und ich leben durchaus nicht verschwenderisch, gehen beide in Vollzeit arbeiten, das Haus in dem wir wohnen ist effizient und keine 10 Jahre alt und in einem durchschnittlichen Monat legen wir etwa 1300€ zur Seite und 500€ gehen in ETFs.

Dennoch würde ich keine 2000€ für eine Grafikkarte ausgeben, auch wenn ich gerne spiele nicht.
Mir fehlt einfach die Bereitschaft, den Gedanken des "Das Melken immer höher treiben" mitzugehen. Wir sind eh schon alles Schlachtlämmer, dann muss ich zumindest manchmal auch gegen den Strom mähen.
(Was für eine absolut komische tierische Analogie ich da geschrieben habe, weiß ich selbst nicht😅)
 
  • Gefällt mir
Reaktionen: floTTes, ro///M3o, Micha_80 und 2 andere
Couch-Potatoe schrieb:
Meine Spekulation bezieht eher darauf, dass die teildefekten Chips einer Klasse höher dann als Super Karten verkauft werden. Also
5090 -> 5080S mit dann 24GB (oder nur 20, wenn man das Interface kürzt).
5080 -> 5070S mit dann 16GB usw.
Mit nem 512bit Interface gehen aber ja auch nur 24GB wenn man 3GB Chips zur Verfügung hätte
 
Zurück
Oben