Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

E1M1:Hangar schrieb:
Ich sehe die 4070 hier klar als Gewinner. :)

Wäre die noch verfügbar ( also die Super Variante ), wäre das auch heute noch meine "Budget-Option".
Idee: 5070 (Super) kaufen und auf 200 W limitieren. Kommt am Ende dasselbe bei raus.
 
Besser als bei den 80ern .

Rtx 6000 wird wahrscheinlich gleicher Chip, nur gefertigt in 2-3nm, die chips erwas besser ausgenutzt (die 90er nutzt gefühlt nur 3/4 des chips) und dann der preis um 50% erneut erhöht
 
  • Gefällt mir
Reaktionen: ro///M3o und SweetOhm
NguyenV3 schrieb:
Wenn du jetzt die Leistung brauchst, dann kauf. Ansonsten wirst du nächstes Jahr gesagt bekommen, auf die RTX 7060Ti zu warten usw.

Danke, ich sehe das auch so. Die 5060Ti 16GB soll es werden da ich hier im Garten eine Insel PV Anlage habe. Damit betreibe ich auch meinen Rechner. Mit UV ist die dann auch recht verbrauchsarm hat aber noch genug Bumms für alles.

Wichtig sind da eher die DLSS Features und auch die 16GB VRAM. Mein Spiel für die Insel (Wortwitz) ist Factorio. Mit HD Mods und alles drum und dran ziehe ich da auch 14 - 15 GB VRAM. Ist schwer zu glauben aber wahr.

Da ist es nicht unwichig das der Rechner so wenig wie möglich aus der Dose zieht. Da scheidet AMD leider vollkommen aus. CPU und GPU seitig. Mein alter 5800X3D und die RX7900XTX lagen im Leerlauf bei weit über 100 Watt. Geht nicht. Da ist die Intel und Nvidia Kombi deutlich besser. Da zieht der Rechner keine 40 Watt im Leerlauf.

Gruß und schickes WE
Holzinternet
 
Mimir schrieb:
Warum "derart hohe Anforderungen"? Jedes aktuelle Spiel läuft auf den Konsolen. Und die sind relativ günstig.
Richtig, aber 30 fps bei 4K bzw. 60 fps bei 1080p upscaled ist ein Niveau, das ich auf dem PC nicht mehr akzeptieren würde.
Ergänzung ()

@DevPandi Nochmal kurz zur Klarstellung, weil das nicht 100% aus Text und Screenshots hervorgeht: Ihr vergleicht hier 1080p nativ mit 2160p FSR3-Quality/DLSS-Quality, also de facto 1440p Renderauflösung?
 
  • Gefällt mir
Reaktionen: SweetOhm
Die 5000er Generation ist ein nettes Softwareupdate und lohnt sich für keinen, der von der 4000er Generation kommt, weil die Leistungszuwächse zum Preis in einem so schlechten Verhältnis stehen.
 
  • Gefällt mir
Reaktionen: Simonsworld, eXe777 und SweetOhm
Bin mit der RTX 2080 immer noch sehr zufrieden - zusammen mit dem 7800X3D macht die immer noch ordentlich Druck - never the less wird sie ab Weihnachten / Neujahr ins Zweitsystem wandern denn dann gibts ne RTX 5070 Super 18GB. ;)
 
Holzinternet schrieb:
Ich kann auch nur sagen das die 4070 eine echt klasse Karte ist... Sitzt mittlerweile im Rechner meiner Frau. Mit UV und OC bringt sie in 1080p und 1440p immer sehr gute uns solide FPS. Da brauch man noch lange nix anderes.
Ein Mittelklassekarte für nur noch mittelmäßige Spiele. Das passt doch. Ich habe mich geärgert Ende 2023 nicht zur 4070 Super für 539€ gegriffen zu haben.
 
  • Gefällt mir
Reaktionen: SweetOhm und Holzinternet
Holzinternet schrieb:
Da ist es nicht unwichig das der Rechner so wenig wie möglich aus der Dose zieht. Da scheidet AMD leider vollkommen aus. GPU seitig. Da ist Nvidia deutlich besser.
1755351644127.png

Irren ist Menschlich

Aus dem BF6 Computerbase Test:
FPS in 2560x1440
1755351862764.png

Die Radeon ist im Idle sparsamer und Speedtechnisch Super dabei.
Es ist laut deiner Logik besser die Radeon zu nehmen.
Bist du dir sicher das du das Thema Rational betrachtest ? Ich vermute Emotionalität als Grund bei dir.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: muvmend, eXe777, SweetOhm und eine weitere Person
Alphanerd schrieb:
Also, wenn ich von 3070 und 500€ 4,25 Jahre 3% Inflation rechne komme ich lange nicht bei 650€ aus
Da kommt natürlich auch der eurokurs drauf, deshalb vergleicht man wenns um Inflation geht auch die $ UVP und da ist die 3070 bei $499 und die 5070 bei $549
 
jube schrieb:
Idealerweise aber zeitgleich mit Hardware-Verbesserungen. Ansonsten fehlt doch die Begründung, eine neue Generation rauszubringen. Software-Verbesserungen kann man auch für alte Generationen freischalten.
Das stört mich bei dem Aspekt am meisten. Ich frage mich immer, ob das so stimmt, wenn es heißt für ein Feature wird die neue Hardware benötigt. Sicherlich hätte man so manches per Software auf alten Karten freigeben können, wenn es nicht unwirtschaftlich gewesen wäre.
 
  • Gefällt mir
Reaktionen: ro///M3o, SweetOhm und jube
Nighteye schrieb:
Anhang anzeigen 1647920
Irren ist Menschlich

Die Radeon ist im Idle sparsamer und Speedtechnisch Super dabei.
Es ist laut deiner Logik besser die Radeon zu nehmen.
Bist du dir sicher das du das Thema Rational betrachtest ? Ich vermute Emotionalität als Grund bei dir.

Du ziehst Hardware zum Vergleich die ich nicht nutze... in meinem Post steht deutlich das es ein R7 5800X3D und eine RX7900XTX waren. Keine 9060 oder ähnliches.

Des weiteren ist DLSS viel weiter verbreitet. Ist ein Argument für Nvidia.

Und bitte stelle keine Vermutungen an wenn Du keine Grundlage hast. Danke !

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: ElliotAlderson
The Hillsman schrieb:
Richtig, aber 30 fps bei 4K bzw. 60 fps bei 1080p upscaled ist ein Niveau, das ich auf dem PC nicht mehr akzeptieren würde.
Ergänzung ()

Und jetzt frag dich mal, warums kein Crysis mehr gibt. Das Higher-End-Möhren nicht nur kitzelt. Sondern sie bis ans Limit pusht, ohne erst den "Very High" oder "Ultra"-Booster zu zünden. Früher NextGen, heute Shitstorm. Selbst das aktuelle Doom ist ein Witz, wenn man das Erbe der Reihe verrechnet. Und John Carmack lacht am lautesten von allen. :D


Wie jemand hier schrieb: Aktuelle Games haben hohe Anforderungen? Alles ist relativ. :D
 
Zuletzt bearbeitet:
Nighteye schrieb:
Bestätigt nochmals, RTX 5000 Käufer sind zu bedauern.
Anhang anzeigen 1647779
3.) Blackwell gehört zu den schlechtesten Nachfolge Architekturen Nvidias, was FPS pro Watt angeht.
Um dies zu kaschieren hat NVIDIA mit der Blackwell Generation die Scheinverdoppelung der Leistung per MFG (mit freundlichen Grüßen) erfunden.
Dieses neue “Mooresche Gesetz” kann für die Ewigkeit garantieren, dass, falls es in der Technologie keinen Fortschritt gibt, trotzdem immer eine Verdoppelung der Leistung erreicht werden kann.
Das Gesetz lautet: Leistung = MFG^(Generation X+1)
 
  • Gefällt mir
Reaktionen: SweetOhm
Ich finde die 5070 am beeindruckendsten - Sie zeigt auf, warum NV die Nr. 1 ist und AMD und insbesondere Intel keine Chance haben auf Sicht: Gleiche Node, 10% weniger Chipfläche und dennoch 18% mehr Leistung für das gleiche Geld.
Oder anders: Bei gleicher Node fast 30% Mehrleistung / mm2! Ohne echte neue Architektur! Absolut brillant!

Schlecht für uns Kunden, dass deren Intelligenz nur in die Margenoptimierung fliesst und wir nun 4 Jahre lang 5nm kriegen. Aber selbst das reicht eben locker aus um die beiden anderen auf Abstand zu halten, was ziemlich traurig ist.

Wenn NV dann bei den 6000ern mit dem ganzen Geraffel zwei Fullnodes weitergeht auf 2nm, geht es wieder 50 oder gar 70% voran und die "Aufholjagd" von AMD - die ja auch keine ist, NV hat sich nur schlafen gelegt und AMD kommt aus einer Katastrophengeneration - ist ganz schnell wieder vorbei.
 
Holzinternet schrieb:
Und bitte stelle keine Vermutungen an wenn Du keine Grundlage hast. Danke !
Nicht nur das, er faked auch noch seine eigenen Screenshots und benutzt zusätzlich auch Cherrypicking.
Dazu Stromverbräuche aus anderen Tests, mit anderen Einstellungen, von anderen Seiten, die keinesfalls vergleichbar sind, aber trotzdem in einen Topf geworfen werden.

Nehmen wir doch einfach mal den selben Test und dazu seine ausgeschnittenen Werte:

1755354575200.png


Aus dem Valorant Computerbase Test:
FPS in 2560x1440:

1755354909163.png

Die Nvidia ist im Desktop + Games sparsamer und Speedtechnisch Super dabei, weil deutlich schneller.
Es ist laut deiner Logik besser die Nvidia zu nehmen.
Bist du dir sicher das du das Thema Rational betrachtest? Ich vermute hartes Getrolle als Grund bei dir.

Aber blos keine Durchnittswerte nehmen, man könnte ja wirklich realistische Werte zeigen,
müsste dann aber seine AMD Fanboybrille absetzen und könnte nicht wie in jedem anderen Thread auch
Fakenews, Märchen und im Großteil Lügen verbreiten.

Stromverbrauch gibt es hier:
1755356228551.png

Incl. Lastspitzen:

1755356286034.png

Und auch incl.

1755356370642.png


Und wenn man mehr will, einfach den kompletten Test Lesen:
https://www.computerbase.de/artikel...rformancerating_mit_und_ohne_rt_in_2560__1440
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor, ElliotAlderson und Holzinternet
Die 5070 ist im Vergleich mit der 4070 ja mal mega schlecht. Klar besser, aber der Stromverbrauch ist auch um gute 50W gestiegen.
 
  • Gefällt mir
Reaktionen: ro///M3o, SweetOhm und iWebi
omaschabubu schrieb:
Das müssen auch die Leute einsehen welche in MFG FG FSR DLSS keinen Leistungssprung sehen, das wird die Zukunft sein.
Wieso soll das die Zukunft sein?

DLSS4 ist jetzt.

Bereits runter bis zu den 2000er Karten.
Nicht Zukunft.

DLSS4 find’ ich geil (die Kantenglättung z.B., bei DLSS Q in WQHD). :)
Und logisch, dass man bei niedrigerer Auflösung (umgerechnet), mehr FPS und weniger Verbrauch hat.
Das Ergebnis kann sich trotzdem sehen lassen.

FG/MFG (daraus) brauche ich hingegen nicht. Auch nicht in Zukunft.

Ist auch kein Leistungssprung, da gar kein neues Bild angezeigt wird. Also neu schon, aber berechnet auf Basis von Bild 1 und 2 und das dann künstlich dazwischengequetscht, um es "smoother" wirken zu lassen.

Sind ja nur "Dazwischenbilder", zwischen den eigentlichen. Die "Leistung" ist dadurch genau Null erhöht. Nur der FPS-Counter, um sich selbst zu veräppeln. ;)

Da kann man theoretisch auch MFG 20fach bringen. Oder 1000fach. Dann hat man halt zwischen Bild 1 und 2 entsprechend viele Zwischenbilder.
Das könnte aber "ziemlich zäh'" werden, beim Zocken mit z.B. 800 FPS. :D :utenforcer:

Brauch' ich nicht.

Ich will direkt Bild 2, ohne FG/MFG dazwischen und fertig.

Und was sollen wir nun "einsehen"?

Dass DLSS schon längst da ist? Dass es verschiedene Möglichkeiten gibt, der Bildausgabe? Ist Gegenwart, nicht Zukunft.

Ich bin nur gespannt, welche technischen Verbesserungen die 6000er bringen werden, z.B. bezüglich der Effizienz, des Strommanagements (bitte keine abfackelnden Stecker mehr!), des Speichers usw.
Und na klar: Des Leistungssprungs in der Basis (ohne FG/MFG).

Disclaimer: Dieses posting spiegelt nur die Einzelmeinung eines unwissenden, zufällig dahergelaufenen Mittelklasse-Zockers (aber enthusiastisch! ;) ) wider.
 
  • Gefällt mir
Reaktionen: Holzinternet
Mimir schrieb:
Wenn eine neue Konsolengeneration veröffentlicht wird, werden ALLE grafisch aufwändigeren Spiele sich an das Featureset das die GPU in der Konsole mitbringt anpassen und es nutzen.
Und welche Features haben die Nvidia Karten Generationen die du erwähnt hast die RDNA4 nicht hat? Ja DLSS sieht im Schnitt 1-2% besser aus aber das wars auch.
 
  • Gefällt mir
Reaktionen: ErnstHaft99 und SweetOhm
Zurück
Oben