• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

aid0nex schrieb:
Letztlich empfinde ich den Fortschritt in dieser Generation für den Endkunden also auch als zu gering
Gering ist noch untertrieben.
Wer sich noch zb Sommer 2026 eine RTX 5000 kauft weil er 2023 keine RTX 4000 kaufen konnte, tut mir halt etwas leid, weil da alte Technik gekauft wird.
Die Karten von 2022 sind oft Effizienter.
1755594742761.png


Damals von Geforce 5 auf Geforce 6 gabs innerhalb eines Jahres über 200% Mehrleistung bei weniger oder gleichbleibendem Verbrauch.
Bei Geforce 6 auf 7 das selbe. Das waren echte Sprünge. Und das alles innerhalb von nur einem Jahr.

Heute warten wir fast 3 Jahre und haben anstatt 200% FPS pro Watt, Lederjacken Aufpreise und teilweise Negative fps Pro Watt, und das wird hier auch noch Emotional verteidigt.
(Verständlich wenn man selber RTX 5000 Kunde ist, aber es ändert nichts an der super Schwachen gen)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iWebi
Man kann die RTX5000 halt nur verteufeln, da ist wirklich gar nichts positives zu erkennen.

Und was Ende 2025 Anfang 2026 kommt, hätte von Anfang an so kommen müssen. Dann hätte es wenigstens etwas mehr gegeben, als bei Ada Lovelace. Aber so ist das wieder Mal nur die reinste Verarschung.
 
So rückwirkend betrachtet war es glaub echt ein guter Zeitpunkt, wo ich damals von der 2070 auf die 4070 gewechselt bin. Zumindest in WQHD. Bin echt zufrieden mit der Karte. Frühestens alle zwei Generationen zu wechseln wird wohl generell mein zukünftiges Konzept sein.
Aber die neue Generation hat sich ja auch nicht wirklich gut geschlagen bisher. Da kann man nur hoffen, dass die die Kurve kriegen. Ansonsten rentiert sich vllt. noch ein Wechsel nach 3 Generationen ;)
 
  • Gefällt mir
Reaktionen: Nighteye
@Nero2019 mit welcher Auslösung zockst du denn so ? Schon Mal versucht mit ner niedrigeren Auflösung zu zocken wie 720p und so? Oder bisher nur mit full hd gezockt oder mit welcher zockst du denn so?

Es gibt ja noch mehr Optionen als Auflösung ,FPS die den Stromverbrauch beeinflussen. Da kommt ja noch der speichertakt sowie auch der Chiptakt noch mit dem man es beeinflussen kann. Selbst wenn man den drosselt hat man am Ende noch immer mehr Leistung als mit der anderen GPU und schon steigt die effizients auch wenn die Leistungs sinkt .
Ich wollte einst einen 720p alias 1366*768 mit mehr Hertz haben. Den gibt es allerdings nicht . Denn dann hat man automatisch mehr FPS und wenn das dann gecapt ist sinkt massiv der Stromverbrauch bei den gpus.
Ich werde das auch wenn am Ende dennoch der Stromverbrauch steigen sollte es dennoch so machen. Es hilft ja nix . Was tut man nicht alles wenn man ein aktuelles Game zocken will.

Meine GTX 1650 ist scheinbar sparsamer als deine GTX 1050 oder rtx 3050 und das selbst wenn man die rtx 3050 mit 6 GB nehmen sollte .

Nun ja das mache ich selbst bei einer GTX 750 ti so und da sinkt der Verbrauch ebenso. Man muss eben alles kombinieren . Ich bin dummerweise ein egoshooter ,Rennspiel Spieler sowie auch Strategie ,Rollenspiel Zocker. Von allem etwas ,nur eben aktuell alte Spiele . Das könnte also auch noch der Grund sein warum ich aktuell so noch sparsamer als du unterwegs bin. Ich Stelle grundsätzlich solche settings wie bewegungsunschärfe ,zu viele Lichteffekte ,Ambient oculsion auf aus auch wenn ich genug FPS habe .
Das mache ich auch bei dem neuen Boderlands 4 dann ebenso.
Ich zocke nur in full HD und Falls ich Bock haben sollte auch mal in HD . Die FPS cap habe ich ebenso am laufen .

Das reicht mir aber nicht aus ,habe sogar die CPU am drosseln . Ich bin bei Strom sparen der wo extremen Sorte . Ich würde wenn es drauf an kommt sogar einen nativen 1366*768 Bildschirm nehmen . Native Auflösung ist immer besser als nach unten extra zu stellen. Ich habe nen Fernseher mit dieser nativen Auflösung . Sollte mal ausprobieren wie da die neuen Spiele so aussehen. Ich melde hohe Auflösung sogar auch wenn ich ein 4k Video auf YouTube haben sollte immer full hd aus . Das ist das Maximum .
Das spart Strom und braucht weniger Platz . Heiß wird mein PC niemals . Die CPU ist bei rund 60 Grad ,die GPU bei rund 50 Grad. Und das trotz richtiger Last. Ein Hoch auf das drosseln .
 
aid0nex schrieb:
Sind die 70er Karten wirklich Mittelklasse? 🤔
Ich würde es eher als gehobene Mittelklasse betrachten.

50er -> Entry
60er -> Mittelklasse
70er -> gehobene Mittelklasse
80er -> Oberklasse
90er -> High-End

Anders macht das für mich keinen Sinn.
Kommt halt je nach Generation drauf an.
In der 4000er Generation hatte man vier xx70 Modelle: 4070, 4070 Super, 4070Ti, 4070Ti Super.
Manchmal gabs ne 90, manchmal nicht. Und auch wieviele Ti oder Super Zwischenstufen dabei sind, kann einen Unterschied machen.
Früher gabs auch noch xx40 oder xx30 Modelle. Oder es wurde kaum anhand der Zahlen unterschieden, sondern mit Buchstabenkürzeln (zb 8800, GT, GTS, GTX, Ultra...)

Und natürlich noch die Hardware Specs der Karten selbst.
Eine 3070 hatte noch 56% der Shader eines GA102.
Eine 5070 hat nur noch 25% der Shader eines GB202.

Insofern probiere ich zumindest für mich eine Grafikkarte preislich danach zu beurteilen wie groß noch das Stück Kuchen ist, was man von der ganzen Torte abbekommt.
 
  • Gefällt mir
Reaktionen: EcOnOmiC und aid0nex
Nighteye schrieb:
Wer sich noch zb Sommer 2026 eine RTX 5000 kauft weil er 2023 keine RTX 4000 kaufen konnte, tut mir halt etwas leid, weil da alte Technik gekauft wird.
Ein von Dir konstuiertes Beispiel, dass vielleicht in Zukunft eintrifft.
Es bezeichnet Dich ja auch keiner für dumm, weil Du noch ~2024 die alte RDNA2 Technik gekauft hast.
Jeder hat wohl seinen eigenen Turnus und seine eigenen Vorstellungen/Ansprüche wann und wie er aufrüsteten will/muss.
Wenn eben 2025 Zeit zum aufrüsten war, kauft man in der Regel auch die neuste Technik.
Es ist ja nicht so, dass Blackwell jetzt schlechter als Ada wäre.
 
latiose88 schrieb:
@Nero2019 mit welcher Auslösung zockst du denn so ? Schon Mal versucht mit ner niedrigeren Auflösung zu zocken wie 720p und so? Oder bisher nur mit full hd gezockt oder mit welcher zockst du denn so?
Ich spiele hauptsächlich Full HD, das ist auch was mein Monitor maximal kann. Die Auflösung zu senken habe ich auch schon gemacht, aber auch das führt zu einer drastischen Senkung der Bildqualität.

Verbrauch gesamter PC.
Idle 45w.
1080p Vollstream (Netflix usw). 55w
Zocken zwischen 70w und 95w (je nachdem ob 30 oder 60 fps cap und welches Spiel).
Monitor selber verbraucht 7w und ist in den obigen Werten mitberücksichtigt.

Wenn ich ein anderes Mainboard hätte, wie zB B550 oder B550-I dann würde der Verbrauch wohl um 10-20 watt senken können. B450 frisst mehr Strom im Vergleich zu den B550 Sorten.

Ein anderer hat B550-I MB mit 4650G CPU und der Idle Verbrauch liegt bei 9 W.
 
DaHell63 schrieb:
Es bezeichnet Dich ja auch keiner für dumm, weil Du noch ~2024 die alte RDNA2 Technik gekauft hast.
Ich hab im 1Q 2024 die RX6800 für 359€ Neu bekommen.
(Speziell gekauft für Star Citizen damals)
Das war schon eine richtig gute Investition für mein eines Spiel welches ich Spiele.
Bereue ich kein bisschen. Es gab für fast 1,5 Jahre kein vergleichbares FPS pro Euro zu meiner Karte.
(Grob auf dem Rohspeed einer RX7700XT 12GB zu vergleichen)
1755601061362.png
Nur das meine RX680016GB hat. (Was in SC gut ist wo ich bis zu 14GB Vram verbrauch auf 1440p habe)
Wie man sieht ist erst die jetzt neu rausgekommene RX9060XT ein würdiger Konkurrent was FPS pro Euro angeht.
1755601471682.png

FPS Pro Euro
1755601725425.png

Also hab ich damals, vor 1,5 Jahren, schon eine Karte gekauft die besser war als diese ganze Liste.
Intelligenter hätte man nicht kaufen können für mein Spiel wo ich in 2 Jahren diese Spielzeit habe.
1755601780685.png
 
  • Gefällt mir
Reaktionen: Boimler
Nighteye schrieb:
Damals von Geforce 5 auf Geforce 6 gabs innerhalb eines Jahres über 200% Mehrleistung bei weniger oder gleichbleibendem Verbrauch.
Bei Geforce 6 auf 7 das selbe. Das waren echte Sprünge. Und das alles innerhalb von nur einem Jahr.


Ja. Und auch eine Halbierung des Werts. Ich kanns belegen: Die GeForce 4 Ti 4200 startete Mitte 2002 für über 200 Euro. Ich so ein Jahr später (Neupreis):

gefurz.png





Entsprechend sahen die Gebrauchtpreise aus. Besonders brutal trafs übrigens die Early Gelackmeierten einer GeForce 2 Ultra oder mit viel Tamtam releasten GeForce 3. Schon damals Karten, die knapp ~vierstellige (DM-)Preise kosten konnten. Wenige Monate später releasten Nvidia selbst Karten, die in etwa vergleichbar (aber günstiger) waren, die GeForce 4 Ti 4200 war dann spätestens stärker. Heute hat selbst ne 3060 kaum 30% ihrer einstigen UVP an Shop-Preis verloren -- und mit ner durchgenudelten 4090 ging mancher Gebrauchtmarkt-Abschieber gar mit einem PLUS raus. :daumen:
 
Zuletzt bearbeitet:
@Nighteye du magst du 5000 zwar nicht aber wer von einer GTX 970 kommt ,für den lohnt es sich dennoch. Wobei ja die rtx 5060 ti mit 16 GB für in Indiana Jones und der große kreis sich lohnen wird. Gekauft wird noch heuer ,wann weiß ich nicht aber scheint für ihn keine Rolle zu spielen . Gekauft hat er das Game aber er kann es nicht zocken. Mit der Core i7 6700 kann man das Game ebenso nicht starten. Hier hilft nicht mal GPU Wechsel was. Was ratest du solchen Nutzern die zuletzt 2019 gekauft hatten denn so ?
 
  • Gefällt mir
Reaktionen: Peter73
Nighteye schrieb:
Das war schon eine richtig gute Investition für mein eines Spiel welches ich Spiele.
Du hast genau für deinen Anwendungszweck und deine Bedürfnisse aufgerüstet. Warum gestehst Du das nicht anderen auch zu?

Nighteye schrieb:
Also hab ich damals, vor 1,5 Jahren, schon eine Karte gekauft die besser war als diese ganze Liste.
Also ich habe (Januar 24) von der RX 6800 auf eine RTX 4070Ti super aufgerüstet....einfach weil das Ding für meine Spiele viel zu lahm war.
Du gestehst mir aber schon zu, dass ich nach meinen Bedürfnissen aufrüste?
Nighteye schrieb:
Intelligenter hätte man nicht kaufen können für mein Spiel wo ich in 2 Jahren diese Spielzeit habe.
Wieder dein Spiel.... interessiert jemanden, der das Spiel nicht zockt, einfach nullkommanull.

Die FPS/€ Tabelle ist ja mal wieder zu süss....muss jetzt ein RX 9070XT Besitzer neidisch/gekränkt sein weil eine RX 7800XT ein besseres FPS/€ Verhältnis hat....der macht höchstens einen Haufen auf die Mülltabelle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Peter73
@Nero2019 krass das b550 sparsamer ist als b450 und dann muss ich ja mit der 470 richtig viel Strom ziehen wenn die 400 Serie so ineffizient ist und wie hast du es denn geschafft das der Bildschirm nur 9 Watt zieht ,hast du etwa die Helligkeit auf das Minimum reduziert oder wie ?
 
@latiose88 Ja die Helligkeit runter auf 7/100. Das ist hell genug für Filme/Serien und eigentlich noch zu hell für weiße Seiten. 24" Monitor. Mit der 100/100 Helligkeit würde dieser Monitor 32w verballern.
Kontrast hat keinen Einfluss.

Bei den TV's unbedingt die Hintergrundbeleuchtung senken und dafür die Helligkeit erhöhen (müsste im gleichen Reiter sein wie Helligkeit, Kontrast usw). Damit hat mein 50" TV eine bessere Bildqualität mit 40w statt mit dem voreingestellten 144w Verbrauch.
 
latiose88 schrieb:
Was ratest du solchen Nutzern die zuletzt 2019 gekauft hatten denn so ?
Speziell für Indiana Jones kann man schon eine RX9060XT empfehlen.
1080p mit Raytracing ohne Framegen, ohne Upscaling.
1755611080504.png
2560x1440 mit Raytracing ohne Framegen, ohne Upscaling.
1755611107682.png

1755611149467.png

Mit Framegen und Upscaling reicht da aber eine Arc B580 für 2560x1440 um 60fps zu erreichen, wenn man noch weniger ausgeben will.
(Framegen + upscaling verdoppelt quasi fast die fps einer Grafikkarte)
DaHell63 schrieb:
Die FPS/€ Tabelle ist ja mal wieder zu süss.... einen Haufen auf die Mülltabelle.
Die Preisleistungstabelle ist Super, find ich auch :heuldoch:

Wir mögen's keinem gerne gönnen,
daß er was kann, was wir nicht können.
- Wilhelm Busch
 
Zuletzt bearbeitet:
Da ich ihn kenne wird er an den settings nichts einstellen heißt er lässt es so laufen wie es Standard eingestellt ist vom Spiel und das sind bestimmt keine maximalen settings und ob da full hd läuft oder nicht weiß ich nicht ,weil ich nie weiß welche Einstellung so das Spiel selbst einstellst . Naja damit ist FG und co wohl aus und das Spiel wird ja selbst erkennen das nativ full hd läuft . Er merkte nicht mal das die alten Spiele nicht maximale Details ein waren . Der konzentriert sich echt nur auf das zocken. Kein Wunder das er sich nach mir richtet beim zusammen stellen der Liste .
Solch ein Zocker dem Hardware egal Hauptsache er kann zocken ,gibt es wirklich selten . Und dann merkt er nicht mal das es ruckelt . Es kann 15 FPS sein und ihm juckt das nicht . Erst wenn das Spiel stockt sieht es anderst aus .

Und als ich ihm gesagt hatte das er ja schlechter wäre wenn das so ist ,dann sagte er drauf ,das er dann fürs mich zu gut sei wenn alles butterweich laufen würde .
Nun ja wie sieht denn die Empfehlung bei 1600*900 so aus weil das ein 1680*1050 Bildschirm ist . Für den Fall Falls da der andere Kumpel borderlands 4 drauf zocken wird . Und ja die Auflösung auf einem 22 " Bildschirm ist mein voller ernst. Der bekommt keine besseren Bildschirme weil alles eh so teuer ist . Soll ja keine top Hardware sein .

Für so einen wird wenn dann nur gebrauchte Ware gekauft . Jedoch finde ich 600 € für einen ganzen PC mit ryzen 7 2700x mit einer rtx 2070 oder sowas eigentlich viel zu teuer . Naja was tut man nicht alles damit borderlands 4 überhaupt drauf laufen wird .zumindest die 16 GB ddr4 dürften wohl auch ausreichen .
 
Seit gestern aus dem Urlaub zurück. Als Besitzer einer RTX 2070 (in der Quarantäne im März 2020 gekauft), der nur noch gelegentlich zockt und aus Platzgründen momentan auf einen 1200p-60Hz-Monitor angewiesen ist, war der Test für mich sehr aufschlussreich und bestätigt meinen Eindruck, dass die 2070 noch etwas reicht.

Aktuell könnte Anno 117 ein Anlaß zum Aufrüsten werden, allerdings steht einen Monat nach Release die Geburt des ersten Kindes an, so dass die Zeit fehlen wird.

Als ich mir 2023 mein AM5-System zusammengestellt hat, juckte es die ganze Zeit in den fingern, erst Mitte 2023 eine gebrauchte 3080/Ti/3090 oder 4070(Ti)/7800XT/7900XT zu kaufen, dann später eine 4070S/4070TiS, aber ich hab es gelassen, weil Blackwell und Navi4 vor der Tür standen.

Natürlich ist Blackwell eine der Graka-Generationen mit dem schlechtesten Fortschritt und ich würde auch nur eine 5070S/5070TiS oder eben 9700XT kaufen. Aber trotzdem kriegt man immer mehr Leistung fürs Geld als mit der Vorgängergeneration, weil ein gewissen Fortschritt nun doch da ist - diesmal aber eben recht wenig.
 
  • Gefällt mir
Reaktionen: Boimler und Svennc
Tigerfox schrieb:
Seit gestern aus dem Urlaub zurück. Als Besitzer einer RTX 2070 (in der Quarantäne im März 2020 gekauft), der nur noch gelegentlich zockt und aus Platzgründen momentan auf einen 1200p-60Hz-Monitor angewiesen ist, war der Test für mich sehr aufschlussreich und bestätigt meinen Eindruck, dass die 2070 noch etwas reicht.

Pro-Tipp: Für die RTX 2070 von Anno 2018 gibts auch noch zählbares Geld -- kannst du der Fortschrittsbremse verdanken. Hatte selbst ne 1050 Ti (!) noch zu Geld gemacht. :) Ich würde es aber wenn möglich "aussitzen", zur Not die DLSS4-Hölle aus dem Ding upscalen und auf die Specs der PS6 warten. Denn die wird bis Mitte der 2030er-Jahre bestimmen, was überhaupt an "Grafikbomben" entwickelt wird.
 
  • Gefällt mir
Reaktionen: Tigerfox
@Tigerfox In "Fortschrittszeiten" wäre das Ding bereits Ende 2019 nur mehr ~250 Euro wert gewesen -- Neupreis. Und mittlerweile gebraucht optimistisch 50 Euro wert. Denn da wäre 2019 bereits die Nachfolgegeneration auf dem Markt gewesen, mit dem folgenden Angebot: Mehr Leistung zum kleineren Preis.

Als ein weiteres Beispiel dafür, siehe den einstigen P/L-Klassiker 8800GT, der "Can it Run Crysis" auch in überschaubarer Auflösung so mittel runnte... 🤓

Launch Ende 2007: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-8800-gt-sli-test.707/seite-30

Kein Jahr später: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-260-216-shader-test.874/seite-27


Es war nicht alles besser oder so. Persönlich habe ich bislang NIE wieder so viel Kohle in PC-Hardware gesteckt wie in den 90ern und frühen 2000ern. Und das liegt auch, aber nur in Teilen an verändertem Spielverhalten, wenn ichs nüchtern durchrechne. :D
 
Zuletzt bearbeitet:
Zurück
Oben