Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sunweb und ElliotAlderson
Leute, die Balken reichen von 0,29 bis 0,33. Da entscheidet quasi die RGB-Beleuchtung darüber, ob da was effizient ist oder nicht. Mal abgesehen davon, dass die meisten keinen derartigen CPU-Unterbau haben, Framecap nutzen und UV/OC betreiben. Bleibt doch mal bei den Fakten: Der Effizienz-Unterschied meldet sich im direkten Vergleich über die Generationen sehr deutlich, wenn man von einer 3070 oder darunter kommt. Ansonsten ist es quasi egal, ob man Ada oder Blackwell nimmt. Was soll bei fast gleichem Unterbau und geringer Leistungssteigerung denn auch herauskommen?
 
  • Gefällt mir
Reaktionen: CDLABSRadonP..., DaHell63, McTheRipper und eine weitere Person
TheInvisible schrieb:
Jap pro Nvidia Argumente werden plötzlich zu pro AMD. Ich finde es immer witzig...
Und ich find´s immer witzig, was Du immer so glaubst / hineininterpretierst ... 🤡
 
  • Gefällt mir
Reaktionen: ErnstHaft99 und Sebbi
CDLABSRadonP... schrieb:
Bzgl. des 9800X3D: Das Bedauern für diejenigen Spieler, die keinen 7800X3D für 350€ und weniger gekauft hatten, war durchaus hoch.
Muss doch jeder selbst wissen wann und wozu er upgradet, ab wann es sich lohnt.

Die wenigsten rüsten für ein paar % auf, von daher gibt es auch nichts pauschal zu bedauern.

Und was bringt den Spielern AVX 512 bitte? Lässt du den 9800X3D mit 50-60 Watt auf 7800X3D Niveau laufen ist der auch nicht mehr schneller. Logisch bei fast gleichem Fertigungsprozess.
CDLABSRadonP... schrieb:
In diesem Posting hatte ich mich bereits vollumfänglich drum gekümmert:
Wie lange ist der Turnus nun schon etwa 2 Jahre? Ne halbe Ewigkeit. Du kümmerst dich darum seine Fake News zu verteidigen? Zwischen der GTX 680 und der GTX 980 lagen 2 Jahre und 6 Monate. Und dazwischen gab's dann auch keine irrelevante Profi Architektur, die gar kein GeForce Produkt war.

Und ja konstruiert. Man konstruiert sich offenbar alles zusammen wenn es um Nvidia geht. Nach dem Motto bei der Konkurrenz müsse man ja nicht genauso lange warten. Was lag denn zwischen RDNA 3 und RDNA 4, ah Genauso 2 Jahre und 3 Monate. Die ganze Kritik ist also deshalb schon rein faktisch haltlos. Vor allem dann wenn betreffende Person ansonsten sowas schreibt:

IMG_20250818_060541.jpg

Comedy Club.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und Taxxor
Boimler schrieb:
Leute, die Balken reichen von 0,29 bis 0,33. Da entscheidet quasi die RGB-Beleuchtung darüber, ob da was effizient ist oder nicht.
Montag Morgen, auf dem Weg zur Arbeit und die Switch 2 vergessen. Mir ist langweilig.

Nein, mal im Ernst: die Diskussion, sowie die hier abläuft hatte ich erwartet und ebenso die „Fanboys“, die nun mal wieder pro AMD oder pro NVIDIA sind. Hier wird sich aktuell wirklich um alles gestritten.

Egal ob jetzt Effizienz, DLSS, FSR und ebenso vieles andere.

Die Unterscheide aktuell in der Effizienz sind zwischen RDNA 4 und Blackwell zwar existent, am Ende bewegen sich beide Karten auf einem ähnlichen Niveau.

Beim 9800X3D und 7800X3D ist es da schon was anderes und der 9800X3D wurde auch dafür gerügt, das er quasi nicht effizienter ist.
Boimler schrieb:
dass die meisten keinen derartigen CPU-Unterbau haben, Framecap nutzen und UV/OC betreiben
Mit Framecap entspannt sich die Lage eh noch mal für viele und da kann RDNA 4 aktuell auftrumpfen. Und ja, RGB Disco kann einiges an Watt gerade im Leerlauf und ebenso bei einer CPU ausmachen. Je nach Intensität schluckt meine Disco knapp 10 Watt.
Boimler schrieb:
ob man Ada oder Blackwell nimmt.
Wer jetzt eine neue Grafikkarte kauft, sollte zu Blackwell greifen, außer man bekommt die Ada zu einem fairen Kurs.

Die 9070 und 9070 XT wiederum sind brauchbare Alternativen. Man macht nichts falsch. Punkt.

Ansonsten: Musste sogar eine zweite Portion Popcorn machen.
 
  • Gefällt mir
Reaktionen: SweetOhm, ElliotAlderson, ChrisMK72 und 5 andere
Quidproquo77 schrieb:
Wie lange ist der Turnus nun schon etwa 2 Jahre? Ne halbe Ewigkeit. Du kümmerst dich darum seine Fake News zu verteidigen? Zwischen der GTX 680 und der GTX 980 lagen 2 Jahre und 6 Monate. Und dazwischen gab's dann auch keine irrelevante Profi Architektur, die gar kein GeForce Produkt war.
Steht auch darin:
CDLABSRadonP... schrieb:
Denn ansonsten gäbe es nur zwei...
...Möglichkeiten in früheren Gens: 8800 GTX und GTX 285 als Karten der selben Gen anzusehen oder aber erst Maxwell 2.0 als neue Gen zu sehen und dann 600 / 700 als längste Gen erklären.
Bitte ließ doch alles vollständig. Ich habe doch extra davon gesprochen, dass es vollumfänglich beantwortet wurde!
Edit: Vor allen Dingen vergisst du, worum es im Kern geht. Wäre Blackwell mal endlich, endlich einen Zwischengen geworden, die kurzfristig nachgeschoben worden wäre, wäre Blackwell unproblematisch. Aber nach solch einer Wartezeit?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Musste sogar eine zweite Portion Popcorn machen.
Ja kann ich so unterschreiben.

Ich verstehe nicht was die Leute hier mit dem Thema Effizienz haben.

Das ist so ziemlich das unnötigeste wo wir hier drauf schauen müssen.

Bringt es eine 4080S für 60FPS FHD? Nein, schon gar nicht wenn die FPS nicht limitiert sind. Da gibt es effizientere Karten, so lange die FPS nicht limitiert werden und der Monitor das Limit ist. Es ist alles effizienter was die 60FPS schafft bei weniger Watt.
Dann interessiert auch keinen was für ein Faktor in einer Tabelle steht, wenn deine Stromrechnung nachher immer noch explodiert.

Kaum jemand wird hier seine Karte stock betreiben, von daher kann man die Effizienz Tabelle eh völlig vergessen.

Da regt man sich über eine Faktor Abweichung von 0,04 auf. Man fragt aber nicht mal nach wie der Anwendungsfall aussieht und ob da mal selber hand angelegt wurde.
Zumal man die 9070 dann gleich weg lässt.

Meine 9070XT wischt in der Tabelle mit allen Stock Karten den Boden auf. Ja und betreibe ich die so? Nein, die läuft meistens ineffizienter im max OC. Oder gleich im FPS Limit.
Ist mir doch egal ob da irgendein Faktor bei 0,38 oder 0,29. Mir geht's um den Spaß beim Zocken.
Wenn das heißt da muss OC her, dann muss da OC her. Wenn ich mal sehr effizient zocken kann dann ist auch mal schön.

Ich verstehe die Aufregung hier nicht.

Vllt geht ja doch weiter mit🍿, wäre auch mal schön ohne.
 
  • Gefällt mir
Reaktionen: SweetOhm
Also ja stimmt wenn man alle in ein 60 oder 120 FPS Limit oder wenn man 144 Hz hat auch 144 FPS,dann würde es wohl anderst aussehen bei dem Stromverbrauch . Man kann aber auch da noch nach helfen mit Takt bei memory sowie auch alle anderen Taktraten. Dann brauchen alle gpus weniger . Spannend ist also was man da noch raus holen kann. Die FPS Limit das mache ich wirklich. Manche spiele ruckeln aufgrund von zu starken FPS Schwankungen . Selbst wenn man 500 FPS hat merkt man sowas wenn es manchmal auf 250 FPS abbrupft absinkt usw. Hier kann man mit sowas nach helfen.
 
  • Gefällt mir
Reaktionen: HI.
HI. schrieb:
Ich verstehe nicht was die Leute hier mit dem Thema Effizienz haben.
Für manche ist das auch ein Kaufkriterium
HI. schrieb:
Das ist so ziemlich das unnötigeste wo wir hier drauf schauen müssen.
Nö...eben für viele nicht
HI. schrieb:
Da regt man sich über eine Faktor Abweichung von 0,04 auf. Man fragt aber nicht mal nach wie der Anwendungsfall aussieht und ob da mal selber hand angelegt wurde.
Da gebe ich Dir recht
HI. schrieb:
Meine 9070XT wischt in der Tabelle mit allen Stock Karten den Boden auf. Ja und betreibe ich die so? Nein, die läuft meistens ineffizienter im max OC. Oder gleich im FPS Limit.
Das darfst Du gerne so für Dich entscheiden
HI. schrieb:
Mir geht's um den Spaß beim Zocken.
Das soll ja auch so sein
HI. schrieb:
Ich verstehe die Aufregung hier nicht.
Mücke....Elefant
Am Ende des Tages sollte man jeden selbst entscheiden lassen wie er seine Hardware betreibt.
Persönlich bin ich eher im Team uv/FPS cap um meine Hardware möglichst effizient zu betreiben.
 
HI. schrieb:
Ja kann ich so unterschreiben.

Ich verstehe nicht was die Leute hier mit dem Thema Effizienz haben.

Das ist so ziemlich das unnötigeste wo wir hier drauf schauen müssen.

Bringt es eine 4080S für 60FPS FHD? Nein, schon gar nicht wenn die FPS nicht limitiert sind. Da gibt es effizientere Karten, so lange die FPS nicht limitiert werden und der Monitor das Limit ist. Es ist alles effizienter was die 60FPS schafft bei weniger Watt.
Dann interessiert auch keinen was für ein Faktor in einer Tabelle steht, wenn deine Stromrechnung nachher immer noch explodiert.

Kaum jemand wird hier seine Karte stock betreiben, von daher kann man die Effizienz Tabelle eh völlig vergessen.

Da regt man sich über eine Faktor Abweichung von 0,04 auf. Man fragt aber nicht mal nach wie der Anwendungsfall aussieht und ob da mal selber hand angelegt wurde.
Zumal man die 9070 dann gleich weg lässt.

Meine 9070XT wischt in der Tabelle mit allen Stock Karten den Boden auf. Ja und betreibe ich die so? Nein, die läuft meistens ineffizienter im max OC. Oder gleich im FPS Limit.
Ist mir doch egal ob da irgendein Faktor bei 0,38 oder 0,29. Mir geht's um den Spaß beim Zocken.
Wenn das heißt da muss OC her, dann muss da OC her. Wenn ich mal sehr effizient zocken kann dann ist auch mal schön.

Ich verstehe die Aufregung hier nicht.

Vllt geht ja doch weiter mit🍿, wäre auch mal schön ohne.
Erst einmal Start mit einer klaren Zustimmung: Die prozentualen Minimalunterschiede sind selbstverständlich uninteressant.

Aber Effizienz ist mitnichten uninteressant, sondern mittelfristig betrachtet sogar das Zentrale, was bei dem Vergleich von Generationen zählt. Effizienz und Performance sind schließlich das gleiche, wenn man feste Powertargets ansetzt. Setzt man diese nicht an, wird schlicht alles zu manipulierten Bullshit.
Extrembeispiel: Die Geforce 256 besuchte noch etwa 25W statt der später üblichen 250W. Nur wenn man das weiß versteht man, wieso sich von der Geforce 256 bis zur 8800 GTX so viel und danach im Direktvergleich viel weniger bei der reinen Performance getan hat.

In den letzten Jahren schoss es dann von ~250W auf nun über 500W, nachdem dazwischen einige Jahre lagen, in denen die größte Karte immer bei ~250W blieb. Bei gleicher Effizienz (sprich Stagnation) würde man durch eine gelungene Verbreiterung des 250W-Designs auf 500W trotzdem eine Performanceverdoppelung erhalten --- das wäre natürlich gut vermarktbar. Genau darum geht es: Echten Fortschritt von Mogelpackungen zu unterscheiden.
 
  • Gefällt mir
Reaktionen: SweetOhm und HI.
DaHell63 schrieb:
Nö...eben für viele nicht
Das mag sein, ist mir auch irgendwo wichtig.
Aber sich dann mit Krampf auf eine Liste von stock Karten zu beziehen ist einfach unsinnig.
Wenn es einem so wichtig ist dann legt man Hand an, an die Karte und dann sieht die Tabelle ganz anders aus.
Dann kann einem die Tabelle doch eh völlig egal sein. Oder sehe ich das falsch.
Wir sind hier in einem Hardware Forum, der Großteil wird hier seine Hardware optimieren, von daher sind doch solche Werte für uns eh nicht maßgebend. Alleine wer ein Custom Model mit anderem PL kauft kann die Tabelle vergessen.
Wozu also überhaupt drüber diskutieren?
 
  • Gefällt mir
Reaktionen: SweetOhm und DaHell63
Das Problem ist es gibt welche die Vergleichen oc mit Stock Hardware und behaupten dann die Stock GPU ist effizienter und so. Oder alte oc GPU mit neuer Stock Gen bei GPU usw .
 
  • Gefällt mir
Reaktionen: SweetOhm und HI.
HI. schrieb:
Das mag sein, ist mir auch irgendwo wichtig.
Aber sich dann mit Krampf auf eine Liste von stock Karten zu beziehen ist einfach unsinnig.
Wenn es einem so wichtig ist dann legt man Hand an, an die Karte und dann sieht die Tabelle ganz anders aus.
Dann kann einem die Tabelle doch eh völlig egal sein. Oder sehe ich das falsch.
Das war übrigens sowohl bei der GTX 480 als auch bei der R9 290(X) noch so ne Sache: Im Referenzdesign wurden die gekocht, entsprechend fielen die Leckströme aus und daher liefen sie viel ineffizienter als eigentlich möglich.

Da kam dann sowas raus, wie gerade wieder auf der Main als Im Test vor 15 Jahren zu sehen:
https://www.computerbase.de/news/gr...te-die-geforce-gtx-480-amp-dank-zalman.93892/
Sparsamer und stärker zu gleich...

Würde man wirklich die Effizienz einer Architekturgen und keiner Refdesigngen testen wollen, müsste man eigentlich eh alle unter Wasser setzen.
 
CDLABSRadonP... schrieb:
Würde man wirklich die Effizienz einer Architekturgen und keiner Refdesigngen testen wollen, müsste man eigentlich eh alle unter Wasser setzen.
Was aber dann halt auch an der Realität vorbei getestet wäre. Denn entscheidend ist am Ende gar nicht so sehr, wie effizient die Architektur (unter Laborbedingungen) ist, sondern wie die Effizienz in Form der kaufbaren Karten ausfällt. Denn der Nutzer kauft ja nicht den Chip, sondern eine bestimmte Grafikkarte.
 
Was uU auch interessant ist: die Entwicklung bei der Größe von VRAM im Vergleich zum Arbeitsspeicher (RAM). Laut Passmark Survey sind mittlerweile 32 GB RAM beim Arbeitsspeicher die qualifizierte Mehrheit, während es 2017/18 noch 16 GB waren. Leider hat sich die VRAM Ausstattung bei zumindest namensgleichen GPUs aus dem Haus Nvidia lange nicht so stark entwickelt (d.h. verdoppelt ). Ist bei VRAM extra ärgerlich, weil man es eben nicht selbst aufrüsten kann.
 
  • Gefällt mir
Reaktionen: SweetOhm
Sonderbare Diskussionen um Effizienz und Verbrauch.
Mein PC verbraucht mit Monitor unter Volllast 420 Watt, also der PC allein wohl 380 Watt. Natürlich ist das wichtig. Wenn man eine neue GPU kaufen will, ist der Weg doch folgendermaßen:
Welche Performance will ich in Anbetracht von vorhander CPU / VRAM?
Welches Features will ich?
Sichtung der relevanten Karten -> Kauf der effizientesten Karte (alternativ Kauf der billigsten Karte)

Wenn ich 144 fps will und eine Karte 100 Watt mehr zieht, kaufe ich ganz sicher nicht diese.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Peter73
Raptorlake schrieb:
RTX6070 wird bestimmt noch kleiner ausfallen. Ich sehe Stillstand auf uns zukommen.
Die Medaille hat immer zwei Seiten. Ist doch schon, wenn man sich mal länger nichts Neues kaufen "muss".
 
latiose88 schrieb:
Das Problem ist es gibt welche die Vergleichen oc mit Stock Hardware und behaupten dann die Stock GPU ist effizienter und so.
Dann hast Du was verkehrt gemacht :D ...ausser max oc
latiose88 schrieb:
Oder alte oc GPU mit neuer Stock Gen bei GPU usw .
Was ist verkehrt daran die neue GPU mit der alten GPU in jedem Szenario zu vergleichen?
 
crt schrieb:
Die Medaille hat immer zwei Seiten. Ist doch schon, wenn man sich mal länger nichts Neues kaufen "muss".

Oder wenns einen doch unter den Fingerkuppen juckt mal wieder am PC rumzuschrauben, hat es auch den netten Nebeneffekt, dass der Restwert der alten Hardware stabiler bleibt, was dann die Netto-Upgradekosten senkt.

Leistungszuwachs pro ausgegebenem Euro nach Verkauf der Althardware, ist für mich das ausschlaggebende Kriterium.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben