Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Tolle Karte / toller Sprung, ich werde nachher wohl zugreifen. Heute Nachmittag geht der Verkauf los? Ist das Gewissheit oder Vermutung?

Eins muss man den Nvidia-GPUs allgemein lassen: Sie können halt sowohl DLSS als auch FSR nutzen, das ist (leider) ein Alleinstellungsmerkmal.
 
th3o schrieb:
Für 1440p@144/165Hz oder 4k@60Hz Displays ist die 4090 absolut gar nichts und jeder sollte die Hände davon lassen. Für diese Displays reicht eine 3080 oder 3090 für die nächsten zwei Jahre noch absolut aus um Spiele in hohen Details und guter Framerate genießen zu können.
Dem stimme ich zu... bis Raytracing dazu kommt. Dann ist selbst mit ner 3080TI Ende. Und sein wir uns ehrlich Leute die sich High End Grafikkarten kaufen und nicht auf hohe FPS achten, die wollen auch alle Grafikregler auf Anachlag haben.

Es ist auch eine wirtschaftliche Überlegung. Mit ner 4090 könnte man wirklich für Jahre ausgesorgt haben, ne 3080/3090 bekommst du allerdings nur jetzt noch zu nem guten Kurs verkauft ohne dass der Verlust zu groß wird.
 
  • Gefällt mir
Reaktionen: th3o und Laphonso
Illithide schrieb:
Transistorcount ist wohl sogar x3.
Wenn man sich den fast 10mal so großen L2 Cache Anschaut, dürfte das für den Großteil des Transistorenzuwachses verantwortlich sein, denk ich mal.
 
Rockstar85 schrieb:
Mach dir da keine Sorgen... das wird auch wieder sich ändern.. Wir sind nicht mal im Ansatz bei 2008... Gefühlte Inflation vs Reale.. Ist aber auch nicht Thema hier.

Kommt halt auch immer drauf an, wie einen die Inflation persönlich trifft. Ich wohne im EFH mit 20 Jahre Zinsbindung, heize mit günstiger Fernwärme aus Müllverbrennung, habe einen Stromalttarif, der jetzt auf 28ct erhöht wird und habe beim Einkauf fast alles auf Eigenmarken umgestellt. Also meine persönliche Inflation ist durch günstige Umstände gerade vllt bei 2%. Das ist eben höchst unterschiedlich.
 
th3o schrieb:
Lt. insider Informationen kostet die 4090 in der Produktion das doppelte der 3090.
Dafür 'nur' 100$ Aufpreis gegenüber der 3090 damals bei der gestiegenen Performance zeigt mir eher dass NVIDIA hier stark unter Druck steht aufgrund der gegebenen weltwirtschaftlichen Lage.
Wir sollten halt auch nicht vergessen dass wir hier 2000€ für die Karte zahlen weil der Euro so schwach ist. Ich denke dass bei einem Preis von 1599€ (wie es der Fall gewesen wäre wenn der Euro wie 2020 wäre) die Preisbeschwerden viel kleiner gewesen wären.
Vielleicht ist das auch ein Indiz dafür, dass RDNA 3 ähnlich performant sein wird und Nvidia weiß, dass sie sonst preislich nicht konkurrieren können*daumendrück*
 
Habe jetzt paar mal gelesen, dass man eine 3090 gebraucht für 600-700 kaufen sollen kann. Ich hätte da ein paar Interessenten; also wenn ihr mehr solche Angebote findet von Leuten, die ihre Karten verschenken wollen bitte eine PM an mich. Alternativ gehen auch 6900xt für 400 bis 450. Hab auch schon selbst geschaut bin aber nicht fündig geworden bzw. habe ein schlechtes Gefühl .
 
Beeindruckend, dann noch weng UV und fertig is die kühle Leistungskrone. Bin auf AMD gespannt (und heut noch Raptor Lake?)
 
Tornavida schrieb:
Habe jetzt paar mal gelesen, dass man eine 3090 gebraucht für 600-700 kaufen sollen kann. Ich hätte da ein paar Interessenten; also wenn ihr mehr solche Angebote findet von Leuten, die ihre Karten verschenken wollen bitte eine PM an mich. Alternativ gehen auch 6900xt für 400 bis 450. Hab auch schon selbst geschaut bin aber nicht fündig geworden bzw. ein schlechtes Gefühl .

700-800 Euro ist gerade realistisch bei Kleinanzeigen. Einfach mal etwas anhauen und die Leute ein wenig runterhandeln. Als verschenken sehe ich das nicht. Ich hab für meine netto in zwei Jahren 720 Euro bezahlt, völlig ok.
 
asm schrieb:
@Ewoodster
naja der Rohpreis liegt bei 1599 Dollar. Das sind 100 mehr als bei der 3090 zum Start.

Leider ist der aktuelle Wechselkurs ziemlich am Arsch für uns Euronasen :-/
Exakt das! Der Rohpreis ist astronomisch, der Wechselkurs tut sein übriges.
 
Gibt es schon irgendwo Tests zu den Custom Modellen? Irgendwie juckt es doch schon, wollte aber eigentlich auf AMD warten, argh!.
 
Nemesis200SX schrieb:
Dem stimme ich zu... bis Raytracing dazu kommt.

Dem stimme ich ebenfalls zu. Wobei ich aber sagen muss dass mich Raytracing bisher recht wenig reizt weil die Kosten dafür noch zu hoch sind im Vergleich zu RT aus. So wie damals (vor sagen wir mal 15 Jahren) auch Antialiasing noch ein Luxus war und jetzt mittlerweile denkt man gar nicht mehr drüber nach. Da wird RT auch irgendwann ankommen. Mit der 4090 ists schon mal ein großer Schritt nach vorne.
Muss aber auch sagen dass es mir teilweise negativ auffällt wenn ich sehe wie bestimmte Spielbereiche auf Zwang quasi so designed werden dass da möglichst viele Reflexionen sind, extra shiny Boden oder ne Unmenge an Pfützen etc. Das wirkt so "naja komm, das habt ihr jetzt hier nur fürs raytracing damit es scheinen kann hingeklatscht".
Was ich viel mehr als RT Reflexionen oder RT Schatten mag ist Raytraced Global Illumination. Das ist für mich der Game Changer.
 
  • Gefällt mir
Reaktionen: 7oNine
erazzed schrieb:
Dafür, dass DLSS3 dafür gedacht ist, den Bildfluss zu verbessern, finde ich es doch etwas befremdlich, dass damit kein GSync möglich ist.
Ich habe bis auf diesen Kommentar noch keine vergleichbare Ausssage gelesen. Gibt es dafür eine Quelle?
 
  • Gefällt mir
Reaktionen: Melmoth
Leistung top - würde auf 300W auch nicht mein 650W-NT sprengen. Ist der Kauf für mich irgendwie zu rechtfertigen? Ich fürchte nein, aber es juckt schon in den Fingern...
 
Zuletzt bearbeitet:
Für mich doch etwas überraschend positiv, wie der Preis/Performance Vergleich ausgeht. Also zumindest sieht man hier einen definitiven Leistungssprung zur vorherigen Klasse..d.h. die kleineren Karten sollten dann ja immer noch eine spürbare Mehrleistung bringen. Bin aber noch mehr gespannt auf AMD..erst dann kann man sich ein umfassendes Bild machen.
 
Gute Leistung.
Gute Effizienz (bei FPS Limitierung oder UV)
Temps sind OK
Spulenfiepen = Lotto

Overkill für 1440p
Overkill für Mittlelklasse / Mainstream CPUs (3700x - 7700x)
Preis jenseits von gut und Böse

Ein cleverer Trick von Nvidia den Preis zu "normalisieren"
 
  • Gefällt mir
Reaktionen: 7oNine, Rock Lee und Zockmock
Cr4y schrieb:
Wenn man sich den fast 10mal so großen L2 Cache Anschaut, dürfte das für den Großteil des Transistorenzuwachses verantwortlich sein, denk ich mal.
Dachte x16. Im 3DC schätzte da jemand auf 5 Mrd. Transistoren, also eher unbeachtlich. Wer weiß? Der starke Ausbau der Tensoren fällt aber schon sehr auf. Groß Fokus auf RZ scheint nV jedenfalls nicht (mehr) zu haben. Wächst für mich aus dem Gamingbereich halt mehr und mehr ins AI- und HPC-Geschäft rüber. Aber solange das Ergebnis passt, sicher alles gut. Denke trotzdem, da wäre noch mehr drin gewesen.
 
Beatmaster A.C. schrieb:
Overkill für Mittlelklasse / Mainstream CPUs (3700x - 7700x)
Also dann für gar keine CPUs? Denn ein 7700x ist unglaubliche 3% langsamer als der schnellste Prozessor den du momentan kaufen kannst ;)
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
Chilisidian schrieb:
Kommt halt auch immer drauf an, wie einen die Inflation persönlich trifft.

Prinzipiell sind wir schon recht sorglos unterwegs ... also vielleicht auch etwas zu sorglos.
So Sprüch wie "Mach dir da keine Sorgen... das wird auch wieder sich ändern.. " sind immer leicht gesagt. Bis es eben knallt.

Aber um das Thema jetzt mal wieder aufzugreifen, um das es hier eigentlich geht:

Es wollen doch recht viele Leute wohl direkt zugreifen.
Was mich etwas wundert! Also die Hemmschwelle 2000€ ist wohl nicht so groß wie ich dachte.

Kann mich noch an einen Kumpel erinnern der damals bei der 2080 Ti zuggeriffen hat, weil sie auf 999€ gefallen war. Verrückt.

Ich hab ja schon bei 872€ für die 3080 Ti gekotzt.
Also solch eine Ausgabe werde ich für eine Grafikkarte erst mal LANGE nicht machen werden (wenn sie denn heile bleibt)

Ansonsten sehe ich der Zukunft rosig entgegen was den Grafikkarten Markt angeht.
Wirklich endlich mal 4K Karten. Somit wird es dann auch gute Midrange Karten geben (die oder einer der nächsten Gens, ich hab es nicht eilig)

Schön das wir da nicht IMMER nur tröpfchenweise die Leistung erhöhen.
Hab auch nie verstanden warum so viele vorher schon meinten das die letzte Gen 4K@60 tauglich ist.
Ein AAA-Titel und Feierabend ... Natürlich kommt es immer auf den Anspruch an.

Ich persönlich habe die Finger von 4K gelassen weil dort eben zu viele Pixel nativ geschoben werden müssen.
21:9 ist mir sowieso lieber - 3440x1440 ist meine Auflösung ! <3 und wird es auch noch länger bleiben.

Irgendwann gibt es mal ein neues Panel - mehr nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GUN2504, Zockmock und Maxminator
Zurück
Oben