Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

Alesis schrieb:
Könntest du mir den Inflationspreis bei der 8800 GTX erklären?
Kannst du mir auch erklären, wie man die damals 399$ für die R9 290 einordnen soll, wenn diese Laut CB in Deutschland bei 500€ angefangen hat?
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290x-test.2263/seite-5
8800GTX: Bei mir werden da $916.38 angezeigt, wenn ich die Webseite lade. Keine 96 wie in deinem Bild.
R9 290: Das ist die 290X, anderes Modell. Laut CB in D für ("zu hohe") 450 Euro.


Die interessante Frage bliebe ja stehen: Wann gabs mehr Frames pro Euro? Damals, als auch die Computerbaser ihren Lesern noch mitteilen durften oder mitunter mussten (siehe Fließtext): Hey, auch 40 Bilder sind hmkay? Oder heute, wo jeder Artikel für Entry-Hardware der letzten Generation einen Tweakingtipp für 60 Bilder die Sekunde minimum hat? Auf "bezahlbaren" Konsolen sind 30 Bilder die Sekunde (Quality-Modus), 40 (Balanced-Modus) und 60+ (Performance-Modus) mitunter noch heute die Standards. Aber womöglich sind diese Konsolen das deshalb bis heute: vergleichsweise preisstabil. Denn bislang hat sich niemand im Grafik-getriebenen AAAA-Markt hingesetzt und gesagt: "So, ist mal gut jetzt." Sondern jedes dieser Bilder wird im Mittel noch immer komplexer.

Aber eigentlich deckt auch das nicht die kompletten Kosten. Der erwähnte Wertverlust, der ist heute um ein Vielfaches geringer. Da muss man gar keine großen Daten bemühen, das regelt sofort sichtbar an den stabilen Preisen der Markt. Und der ist bestimmt durch stark entschleunigten Fortschritt. Übrigens auch an der Software-Front, denn 3-5+ Jahre Entwicklungszeit sind längst die Norm. Verlaaaaaaaangsamter Fortschritt: Ein Faktor, den man aus Enthusiastensicht natürlich auch negativ auslegen kann.

Wie auch hier im Thread so manches mal geschehen. :D
 
Zuletzt bearbeitet:
DerRico schrieb:
Guter Versuch - aber die massgebliche Messgrösse ist die Effizienz. Und die ist faktisch gleich geblieben, minimal schlechter.

Insofern ist auch das ordentlich.
Unterstreich allerdings nicht gerade Deine Aussage/Huldigung ... :rolleyes:

"Ich finde die 5070 am beeindruckendsten - Sie zeigt auf, warum NV die Nr. 1"
 
SweetOhm schrieb:
Unterstreich allerdings nicht gerade Deine Aussage/Huldigung
Ist keine Huldigung… Insgesamt ist das erbärmlich und Abzocke.

Die Fähigkeit die Konkurrenz mit so wenig Einsatz auf Distanz zu halten und den Markt weiter so zu dominieren, obwohl man den Spielern klar zeigt, dass man keinen Bock hat PC Gaming weiterzubringen, ist einfach beeindruckend.

unterm Strich machen sie es somit viel besser als die Konkurrenz, das erkenne ich an. Dass so wenig reicht, ist einfach auch traurig
 
  • Gefällt mir
Reaktionen: CDLABSRadonP... und SweetOhm
12 GB. insert Kotzemoji
Wegen ihrem tollen Stromstecker könnte ich auch rückwärts aus der Hose fahren. Erbärmliches Management.
 
  • Gefällt mir
Reaktionen: SweetOhm
ElliotAlderson schrieb:
Das hier ist kein Circlejerk, sondern ein Forum und dementsprechend sollte auch das Niveau sein.
Wie war das nochmal vor kurzem mit dem "Aufwand" FSR zu integrieren, wenn DLSS schon drin ist und wie war das in einigen deiner alten Posts DLSS zu integrieren, wenn FSR bereits drin ist?

Nichtsdestotrotz sind Nvidia und Intel natürlich die Schurken schlechthin.
ElliotAlderson schrieb:
Wir brauchen keinen x-ten Thread mit "mimimi Nvidia bad". Früher hat man sich auf technischer Ebene bzw. sachlich in solchen Foren ausgetauscht, heute herrscht hier nur noch Lagerkrieg.
Vor allem stimmt es ja nicht einmal, da Nvidia den Sprung seitens der Architektur auch hinsichtlich der Fertigung eben schon vor Jahren geliefert hatte und AMD nur nachzog. Wäre es unter umgekehrten Vorzeichen gelaufen, Nvdia hätte in Sachen RT/Effizienz/Upscaler usw. nachgezogen, liefe das so wie bei Arrow Lake, nah dran, aber eben trotzdem der größte Mist, weil böse.
ElliotAlderson schrieb:
Wenn ihr sowas braucht, dann geht auf /r/amd und schreibt den Scheiß den lieben langen Tag da, aber ich muss sowas nicht unter jeder Nvidianews haben.
Es ist unter jeder News, selbst ein Kommentar nach dem Motto "haha ihr seid zu bedauern", erntet 45 Likes.
Nighteye schrieb:
Bestätigt nochmals, RTX 5000 Käufer sind zu bedauern.
Das Forum hat sowas von AMD Schlagseite - es ist jämmerlich geworden und auch keinen Blick mehr wert.
Nvidia Threads werden von dieser Agenda gekapert, es lässt sich gar keine inhaltliche Debatte mehr führen.
CDLABSRadonP... schrieb:
Naja, es ist ein pointierter, treffender Beitrag an einer frühen Position. Große Überraschung, dass das ankommt.
Das trifft für jene zu, die von einer 4070 Ti Super auf eine 5070 Ti aufrüsten und dabei nicht übertakten und Geld verbrennen, das sind vielleicht 0,01% des Marktes. Die kann man dann vielleicht "bedauern". Zutreffend ist hier wenig, oder liest du solche Aussagen zum 9800X3D? Sind die Käufer dort auch zu bedauern, weil er mit gleichem RAM nur 8% schneller ist? Nein, da hörte man nichts dergleichen. Daran merkt man, dass das meiste hier nur noch Theater ist.
CDLABSRadonP... schrieb:
Die Aussage ist korrekt, da im zitierten Abschnitt von Gens gesprochen wurde. Hier hingegen...
Man hat alleine zwischen Pascal und Turing 1 Monat länger gewartet. Ende Mai 2016 - Turing Release Ende September 2018. Inwiefern soll diese Aussage dann korrekt sein?
Man sucht sich einfach nur die am negativsten klingende Fake News heraus und postet sie dann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, DaHell63, ElliotAlderson und eine weitere Person
Ein klasse Artikel über die Zuwächse in Performance über Generationen hinweg. Wenn man jetzt noch die Preisunterschiede zwischen den Generationen in die Bewertung einbezieht, schneidet meiner Ansicht nach die 5000er Generation richtig schlecht ab. Die 3000er Serie war die goldene Generation in der Kombination aus Leistung für Preis.
 
Man kann nur hoffen, dass Hopper wieder einen größeren Sprung macht. Meine 3080 wird langsam alt. Blackwell war echt eine Enttäuschung.
 
Vielen lieben Dank an @DevPandi für den informativen Vergleich. Genau richtig als Sonntagslektüre.

Liebe Grüße Sven
 
  • Gefällt mir
Reaktionen: Quidproquo77 und DevPandi
„In den letzten 30 Jahren die TV Geräte (größer, höhere Auflösung, mehr Gimmicks und eben günstiger) !!“

Das ist wirklich ein interessanter Quervergleich: beides Technik, beides Unterhaltungselektronik.
Wichtig ist aber: Die Marktstruktur ist völlig anders.
  • Im Tv Bereich gibt es mehrere gleichwertige Hersteller und verkauft wird über viele Händler die sich gegenseitig pushen. Es kommen jedes jahr neue Geräte, daher sind bereits nach 4-6 Monaten sehr gute Preise möglich - das ist fast wie bei Mode mit SSV und WSV.
  • im gpu Bereich hingegen ist Nvidia seit etwa 8 jahren übermächtig. Der Consumer ist zudem in einer schlechten rolle - tech Firmen sind die Zielgruppe; allein sie generieren mehr als genug Nachfrage für Nvidia. Der Consumer muss die Reste zu diktierten Preisen nehmen… und er tut es dank buzz-words und emotionaler Ansprache (dlss4, Frame Generation etc.) auch, ohne zu hinterfragen dass das Produkt eigentlich seit Jahren immer schlechter und teurer wird (highend früher: Vollausbau 500-700€, highend heute: kein vollausbau aber 2300-2500€ mit Glück)
 
EadZ schrieb:
Die 600 EUR, die ich durch den Wechsel von 4080 auf 5070Ti gut gemacht habe, lassen mich trotzdem beruhigt schlafen. Bis die schlechtere Effizienz das aufgebraucht hat, hat sich nvidia wohl ein völlig neues Namensschema ausgedacht. :p
Ansonsten natürlich völlig richtig., Die 5000er wird eventuell erst mit den Super Modellen insgesamt besser als die 4000er.
Habe von einer 4070ti auf eine 5070ti gewechselt, das war ok, nicht gut aber ok aber dein Pick halte ich für fragwürdig
 
  • Gefällt mir
Reaktionen: EcOnOmiC
Alphanerd schrieb:
Die 3070 ist 150€ günstiger als die 5070 gewesen. Obwohl man heute vieeel mehr Dollar für den Euro bekommt als damals.
Ich hab doch die Kurse extra dazu geschrieben zu Release der beiden Karten.

Zu Rlease der 5070 lag der Kurs bei 1,06$ pro Euro bzw. 0,95€ pro Dollar.

Zu Release der 3070 lag er bei 1,17$ pro Euro bzw. 0,86€ pro Dollar
 
  • Gefällt mir
Reaktionen: floTTes
Mordhorst3k schrieb:
Auch recht anmaßend, wenn man Sätze wie

"Zwischen beiden Prozessoren liegen im Mittel knapp 10 Prozent bei den Frametimes, wie im Navi-Generationenvergleich schon angemerkt."

schreibt und voraussetzt, dass man auch noch andere Artikel lesen soll.
Ohh das kommt so aber nicht bei mir rüber - das könnte auch einfach nur als Hinweis für Leute die es genauer interessiert zu verstehen sein - ich würde da bei dieser Aussage nichts (anmaßendes) reininterpretieren.
 
Entrovis schrieb:
Das ist wirklich ein interessanter Quervergleich: beides Technik, beides Unterhaltungselektronik.
Wichtig ist aber: Die Marktstruktur ist völlig anders.
Als weiterer Unterschied kommt noch hinzu, dass GPUs überlicherweise modernste Fertigungstechniken verwendet. Für die Fertigungstechniken hat aber TSMC quasi das Monopol und alle 3 Grafikkartenhersteller (Nvidia, AMD, Intel) lassen dort fertigen und dazu krallt sich auch Apple noch einen Großteil der Fertigungskapzitäten. Entsprechend lässt TSMC sich die Kapazitäten vergolden, wer mehr zahlt bekommt mehr/priorisiert Fertigungskapazitäten. Und enstprechend teuer sind dann halt die Chips in der Fertigung.

In TVs werden aber eher selten Chips mit Highend-Fertigung verwendet, sondern eher 12nm oder noch größer. Dafür gibt es dann auch wieder mehr konkurrierende Auftragsfertiger, was die Preise für solche Chip tendenziell drückt. Lediglich die Panels in den Geräten sind je nach Modell modernste Technik. Aber anders als TSMC bei Chips gibt es für Panels halt auch wieder mehrere Hersteller, die auf ähnlichem Niveau fertigen können.
 
  • Gefällt mir
Reaktionen: floTTes
Quidproquo77 schrieb:
Zutreffend ist hier wenig, oder liest du solche Aussagen zum 9800X3D? Sind die Käufer dort auch zu bedauern, weil er mit gleichem RAM nur 8% schneller ist?
Zudem auch nicht effizienter als der 7800X3D weil halt im gleichen Prozess gefertigt, die Parallelen sind schon erschreckend auffällig.
Aber ich garantiere dir, hätte ich sowas wie seinen Post unter dem 9800X3D Test unter den ersten 10 Kommentaren geschrieben, wäre das nicht ein Kommentar mit vielen Likes geworden, wohl aber ein Kommentar ganz kurz darauf, der mich zitiert und sich darüber beschwert, dass ich ja nur über AMD meckere^^
 
  • Gefällt mir
Reaktionen: floTTes und ElliotAlderson
Svennc schrieb:
TRIGGERALARM*! https://www.techradar.com/computing/gpu/gpu-prices-arent-actually-that-expensive-no-really

Anhang anzeigen 1648123

Anhang anzeigen 1648126


* Ich wäre aber an einer seriösen Rechnung interessiert, etwa von Computerbase. Testarchive sind vorhanden. ;) Denn historische Preise 1:1 an eine Inflation anzupassen, ist schwierig. Und erledigt tendenziell PR-Arbeit für Hersteller. Denn gerade in der Technik gilt: Bessere Produkte zu näherungsweise stabilen (oder im Falle TVs günstigeren) Konditionen sind kein Einzelfall (siehe auch CPUs, wo ein 2024er Ryzen X3D günstiger ist als ein Athlon 64 FX-55 von 2004). Der Fortschritt in der Fertigung regelt das.

Absolut "seriös" und absolut kein Zufall ist jedenfalls, dass im reinen Anschaffungspreis (noch mal: ´nicht gleich Kosten!) relativ preisstabile Konsolen bis heute 30, 40 und 60 fps "beliefern". Das sind schließlich noch immer Bilder, gerendert in jeder einzelnen Sekunde -- und nach wie vor stetig komplexere. Während Nvidia bereits kräftig die Werbetrommel für 1000Hz-1000fps-PC-Bildschirme rührt. 60, 120, 144, 240Hz? ALles Rookie Numbers. $$$You gotta pump them up!$$$ :D

Anhang anzeigen 1648121

Svennc schrieb:
Die interessante Frage bliebe ja stehen: Wann gabs mehr Frames pro Euro? Damals, als auch die Computerbaser ihren Lesern noch mitteilen durften oder mitunter mussten (siehe Fließtext): Hey, auch 40 Bilder sind hmkay? Oder heute, wo jeder Artikel für Entry-Hardware der letzten Generation einen Tweakingtipp für 60 Bilder die Sekunde minimum hat? Auf "bezahlbaren" Konsolen sind 30 Bilder die Sekunde (Quality-Modus), 40 (Balanced-Modus) und 60+ (Performance-Modus) mitunter noch heute die Standards. Aber womöglich sind diese Konsolen das deshalb bis heute: vergleichsweise preisstabil. Denn bislang hat sich niemand im Grafik-getriebenen AAAA-Markt hingesetzt und gesagt: "So, ist mal gut jetzt." Sondern jedes dieser Bilder wird im Mittel noch immer komplexer.

Aber eigentlich deckt auch das nicht die kompletten Kosten. Der erwähnte Wertverlust, der ist heute um ein Vielfaches geringer. Da muss man gar keine großen Daten bemühen, das regelt sofort sichtbar an den stabilen Preisen der Markt. Und der ist bestimmt durch stark entschleunigten Fortschritt. Übrigens auch an der Software-Front, denn 3-5+ Jahre Entwicklungszeit sind längst die Norm. Verlaaaaaaaangsamter Fortschritt: Ein Faktor, den man aus Enthusiastensicht natürlich auch negativ auslegen kann.
Ich halte es für eine der absurdesten Ideen überhaupt, Fortschritt bei Graka-Preisleistungsverhältnissen daran zu messen, wie viele FPS sie in zeitgenössischen Spielen bei gleichem monetären Einsatz erreichen konnten. Das ist so absurd, wie wenn man Preis-Leistungsverhältnisse von Automobilen messen würde, indem man ihre Höchstgeschwindigkeit ins Verhältnis zu den in Ortschaften erlaubten maximalen Geschwindigkeiten und ihrem Preis setzten würde.
Oder, wenn man anfängt, das intellektuelle Niveau verschiedener Jahrgänge von Kindern mittels des Abschneidens in unterschiedlichen Tests zu messen. Whuups, das letzte passiert ja, stellt nichts als Wahnsinn dar und wird entsprechend auch andauernd kritisiert!

Was ist ein richtiger Kern der Beobachtungen: Über die Jahre haben sich Ansprüche an Framerates und Auflösungen in 3D-Spielen deutlich nach oben verschoben. (beim Sprung ins dreidimensionale gingen sie kurz drastisch und sehr absurd zurück) Gegenüber Grafik haben Bildqualität und Flüssigkeit definitiv Boden wett gemacht und das trotz einzelner Verirrungen, wie z.B. dem FXAA-Hype. Oh du meine Güte, der Bullshit von wegen in UHD braucht man kein AA mehr war fast so schlimm wie das Auge sieht nicht mehr als 24 Bilder pro Sekunde...

Aber die Methodik, die daraus etwas bzgl. P/L basteln soll, ist völliger Blödsinn. Unter anderem lässt sie auch außer Acht, dass Grakas nicht nur für neue Spiele gekauft werden, sondern eben gerade auch dafür, dass alte Spiele nun anständiger laufen sollen. Im Endeffekt schießt sie sogar der eigenen Beobachtung ins Bein.

Wenn man etwas in der Richtung basteln wollen würde, dann sollte man mindestens stets beides haben: Einen Titel der alten Karte, einen Titel der neuen Karte. Auch da wäre immer noch massig Raum für Verzerrungen drinne.

Persönlich bin ich sehr für Retrotests zu haben und zwar insbesondere auch für solche, bei denen moderne Methodik und moderne Vorteile genutzt werden können. Platt gesprochen: Eine 8800 GTX läuft auch zusammen mit einem 9800X3D, in der Kombi hat man dann sicherlich idR. keine CPU-Limits mehr. Und heute kann man auch besser die echten Leistungsaufnahmen testen und so weiter.

Bzgl. des Konsolenabstechers: Tatsächlich zeigen sie am Meisten von allem auf: Zum Ende der Lebenszeit von 360 und PS3 war dort nahezu alles in Punkto Auflösung und Framerates ein Graus, bei XBONE und PS4 sah es schon viel besser aus.
 
  • Gefällt mir
Reaktionen: floTTes
Selbst mit einer sehr betagten 2070 ist man noch nicht am Ende. Wer mit mittleren Details klarkommt und FHD reichen, kann man dir bis auf wenige Ausnahmen weiterhin alles spielen.
Habe selbst noch eine 2070 im Dritt-PC.

Für mich war die 30er Serie auch irgendwie eine Enttäuschung. Vielleicht sollte man jetzt nur noch jede gerade Generation kaufen.
 
Taxxor schrieb:
Zudem auch nicht effizienter als der 7800X3D weil halt im gleichen Prozess gefertigt, die Parallelen sind schon erschreckend auffällig.
Ja, das kommt ja noch oben drauf. Der 9800X3D ist mehr oder weniger Blackwell zum Quadrat.
Inhousevergleich. Kaum schneller, deutlich ineffizienter, (Blackwell als 5080 ist zumindest meist leicht effizienter, gut übertaktbar) und die Konkurrenz hat in Sachen Spiele-Effizienz massiv aufgeholt (Arrow Lake).

Ja, trotzdem eine sehr gute/beste CPU, aber mit den gleichen Maßstäben die hier von vielen angewendet werden, natürlich der größte Mist und angeblich schlechteste Entwicklung aller Zeiten und überhaupt noch jede Menge "Fake Benchmarks" zum 9700X und der Generationn, die auch so ein Bild negativ abrunden würden.
Taxxor schrieb:
Aber ich garantiere dir, hätte ich sowas wie seinen Post unter dem 9800X3D Test unter den ersten 10 Kommentaren geschrieben, wäre das nicht ein Kommentar mit vielen Likes geworden
Wäre wahrscheinlich ein "Nullsummenspiel" geworden. Aber da geht es dann wieder um Intel und wie weit man doch vorne liegt. Also das worum es bei 5070Ti/5080/5090 auch gehen könnte, aber wenig ging.
Naja, jedenfalls sind die Wahrnehmungen auch in den Folgethreads zu den Themen Intel, Nvidia, AMD doch schon sehr von subjektiver Wahrnehmung abhängig, das Aufholen von Arrow Lake von ~20% Punkten wurde kaum beachtet, hingegen 2-4% durch neue Treiber bei Radeons groß und ausladend diskutiert. Mit Perzeption ist das nicht zu erklären.

SweetOhm schrieb:
Bei 25 % höherem Verbrauch (200 vs. 250 Watt) ! Ganz großes Tennis NV
Leistet ja auch etwa 20% mehr, ist doch in Ordnung im gleichen Prozess.
Man könnte ja auch die Effizienz in einer Gesamtdarstellung zeigen.
Die 9070XT wäre dann "ganz großes Tennis".
Screenshot 2025-08-17 115806.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und ElliotAlderson
Alesis schrieb:
Mit limitierten Frames auf max 144 ist die 9070 XT richtig gut und alleine ganz oben. Hier stimmt wieder die von Simanova getroffene pauschale Aussage, die aktuellen Readons sind effizienter.
Auf solche Vergleiche sollte und kann man keine allgemeine Rückschlüsse ziehen. Gemessen wird in einem einzigen Spiel. In einem anderen Spiel kann es schon wieder ganz anders aussehen....je nach dem ob AMD oder Nvidia besser läuft.
Was ist mit Raytracing Games, oder den ganzen Spiele in denen man 144FPS nicht mal im Ansatz erreicht und die Karten sowieso auf Anschlag laufen.
Also pauschale Aussagen sind da echt daneben.

Der nächste kommt und misst die Effizienz mit einem TS Run....limitiert auf 60FPS....
RX 6800 60FPS.jpg

und kommt dann an und erzählt eine RX 6800 braucht für 60FPS rund ~230W.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Zurück
Oben