Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

Danke für den aufwendigen Vergleich :) @DevPandi , mir fehlt in der gesamtheitlichen Betrachtung allerdings der Fokus auf der Speicherbetrachtung (selbst im Fazit nicht berücksichtigt), die m.E. maßgeblich bei in maximalen Einstellungen gestesteten, aktuellen Spielen dafür sorgt, dass es ab RTX 4070 oder 12GB maßgeblich besser ausieht als mit einer am nur 8GB großen, nicht mehr zeitgemäßen Speicher verhungernden RTX 3070 (oder gar RTX 2070).

Ich finde das schwierig es so reduziert auf die reine Architektur betrachten zu wollen, wenn der Speicher oder die Knappheit von diesem eine große Rolle spielt (vielleicht nicht bei allen getesteten Titeln aber bei einigen).

Meinem Gefühl (Benchmarks) nach brachte Ada Lovelace im Bereich RealTime PathTracing einen großen Sprung gegenüber Ampere (was z.T. auch wieder speicherbedingt sein dürfte mit Ausnahme einer RTX 3090) und bzgl. absoluter Effizienz (m.E. mittlerweile zunehmend wichtiger als fps/W je höher die Leistungsklasse geht; eine nicht unter 400W stabil betreibbare RTX 5090 ist als Produkt dahingehend m.E. vollkommen inakzeptabel), aber im Rasterizerbereich mutet das eher weniger spektakulär an, wenn man auf Basis der verbauten Shader, usw. vergleicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: blue45
minimii schrieb:
Mich freut es, dass der Invest in eine 4090 nun schon über zwei Jahre hält.
Und die Karte wird auch in noch zwei Jahren Spaß machen.
Das denke ich bei meiner 4080 auch, die beste Karte die ich bis jetzt hatte.
 
omaschabubu schrieb:
Denke das das Problem ist wieso nicht mehr so hohen Leistungszuwachs gibt.
Das müssen auch die Leute einsehen welche in MFG FG FSR DLSS keinen Leistungssprung sehen, das wird die Zukunft sein.
Außer einer der GPU Hersteller hat irgendwas bahnbrechendes in den nächsten Jahren, außer Fertigungsgröße, Chip Größe oder höherer Leistungsaufnahme.


Bei den Prozessoren schon lange normal. Immerhin haben sich die reinen Anschaffungspreise (ungleich Gesamtkosten!) hier kaum gewandelt. "Brauchbare" Modelle für um die 100 Tacken gibts noch immer. Und selbst ein aktueller Ryzen X3D hat ein kleineres Preisschild als ein Athlon 64 FX-55 vor zwanzig Jahren -- so much for "Inflation".


Alles hatte seinen Preis...
 
  • Gefällt mir
Reaktionen: Öcher Tivoli, SweetOhm und floTTes
vielen Dank für den Test!
Ich vermisse WQHD oder 3440x1440.

Gerade den Kompromiss aus:

"Hey ich kauf mir keine dicke Graka, möchte aber sehen wie gut sie mit der Auflösung des neuen Bildschirms zurecht kommt"

Man rüstet ja nicht nur für "heute" auf. Und genau jetzt ist bestimmt die Zeit in der man sich fragt: Darfs a bissl mehr sein als FullHD ? ;)

4K ist ja dann eigentlich schon eine ab 16GB Karte um noch etwas "Luft" zu haben. Sofern man das so nennen darf ;)
natürlich mit entsprechend Dampf.

Also zB 4070 Ti Super oder 5070 Ti

Das "nur" FullHD abseits 4K getestet wurde, verstehe ich nicht wirklich.

Hattet ja sowieso schon den Schaff mit 😅 den Karten.

Wie immer gilt: Im Nachhinein was kritisieren ist suuper einfach.
Kann es mir ja auch aus rechnen. Dann hab ich einen theoretischen Wert. 🤷🏼‍♂️
 
jube schrieb:
Ansonsten fehlt doch die Begründung, eine neue Generation rauszubringen. Software-Verbesserungen kann man auch für alte Generationen freischalten.
Die Begründung ist dann schlicht: Geld. Wenn eine neues Software-Features prinzipiell auch auf der vorherigen Generation laufen würde, macht man das halt bewusst exklusiv für die neue Generation, damit man einen zusätzlichen Kaufanreiz schafft. Besonders wenn es davon ab nur einen minimalen Fortschritt bei der Rohleistung und Effizienz gibt.

Ein Feature ohne technischen Grund nur auf den aktuellen Karten anzubieten, ist schlicht eine wirtschaftliche Entscheidung.
 
  • Gefällt mir
Reaktionen: ro///M3o und jube
wern001 schrieb:
Soll ja auch ein Grafikkarten und kein CPU Test sein.
Interessant wäre mal ein Test in 1080 und UHD mit verschiedenen CPUs
Die Person(en) an die das gerichtet ist haben verstanden. CPU Tests werden übribens in HD durchgeführt, nicht FullHD. ;)
 
  • Gefällt mir
Reaktionen: ro///M3o und SweetOhm
Die 70er sind mir doch die Liebsten!
 

Anhänge

  • IMG_1584.jpeg
    IMG_1584.jpeg
    647,5 KB · Aufrufe: 130
  • IMG_1585.jpeg
    IMG_1585.jpeg
    458,2 KB · Aufrufe: 128
  • Gefällt mir
Reaktionen: R++
Raptorlake schrieb:
Dann viel spaß damit. Ich bleibe bei Nativ.
Es gibt Grafiken die wesentlich besser aussehen oder weniger bis gar nicht mehr flimmern/flackern.

Da ist DLSS der nativen Auflösung deutlich überlegen.

Es gibt auch Games in denen es nicht so hübsch aussieht.

Aber es pauschal abzutun ist in 2025 beinahe schon, ... nennen wir es beschränkt. "Sich selbst eingeschränkt!"
🤷🏼‍♂️ Aber jeder wie er mag.

FSR4 soll ebenfalls sehr gut aussehen und konkurrenzfähig sein!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bright0001
Abrexxes schrieb:
Die Person(en) an die das gerichtet ist haben verstanden. CPU Tests werden übribens in HD durchgeführt, nicht FullHD. ;)

Mich interessiert aber die 720p Auflösung nicht und ich schätze die meisten anderen auch nicht.
Ich weiß je höher die Auflösung desto weniger Einfluss hat die CPU. Deswegen hätte ich gerne mal einen Test mit 1080p und UHD mit verschiedenen CPUs.
Wenn jemand die "beste" Gaming CPU kaufen will kann er ja die 720p Tests anschauen.
 
wern001 schrieb:
Mich interessiert aber die 720p Auflösung nicht und ich schätze die meisten anderen auch nicht.
Ich weiß je höher die Auflösung desto weniger Einfluss hat die CPU. Deswegen hätte ich gerne mal einen Test mit 1080p und UHD mit verschiedenen CPUs.
Wenn jemand die "beste" Gaming CPU kaufen will kann er ja die 720p Tests anschauen.
Und wenn interessiert eine 2070 in UHD? Heute oder Gestern? Das Resultat dürfte klar sein.
 
Haldi schrieb:
Und darum arbeitest du nicht in Nvidias Marketing Abteilung!
Da ist was was dran. Ich wäre auch nie auf die legendären Sprüche gekommen.

4 elephants 1 GPU!
The more you buy the more you save!
The power of a 4090 for 549!

Da sind echte Künstler am Werk.

Und dann noch dieser coole asiatische Indiana Jones.

Das schon die geilste Show on earth
 
  • Gefällt mir
Reaktionen: ro///M3o, fef_ on_berg, SweetOhm und 2 andere
Abrexxes schrieb:
Und wenn interessiert eine 2070 in UHD? Heute oder Gestern? Das Resultat dürfte klar sein.

DLSS4 FTW. :D

Okay, okay: Es sind auf diesem Legacy-Oldie trotzdem nicht ganz die heiligen 60 Render-Bilder pro Sekunde an Existenzmininum. Damals wäre es für die anspruchslosen Plebs bei Computerbase sogar noch drüber gewesen -- waren da in der Redaktion Konsolen-Gamer oder was? So oder so: Nvidia gefiel das nicht. 🤑

0G9orwJ.png
 
Raptorlake schrieb:
Vielleicht morgen? ^^
Nein, aber ich schließe nicht aus das sich jemand in 10 Jahren daran aufgeilt das "Populous" mit einem i9-14900KS mit 118 FPS auf einer GeForce RTX 5090D v2 in 16K läuft. :D
 
  • Gefällt mir
Reaktionen: derkleinedieb und iWebi
ChrisMK72 schrieb:
für die 3090 TUF OC, die immer noch untertaktet/undervoltet bei mir läuft, aber freue mich langsam auf min. 66 % Mehrleistung durchschnittlich

Da bin ich auch gespannt. Ob ich wechsle hängt am Ende davon ab ob Anno 117 mit der 3090 in 4K noch rennt oder nicht mehr. Wenns das tut, bleibt die 3090 wohl nochmal 2 bis 3 Jahre im Rechner :D
 
Zurück
Oben