Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

themk schrieb:
Das ändert aber nichts daran, dass wir seit längerem steigende Produktionskosten bei geringeren Fähigkeits-Sprüngen der Produktion sehen. Sowie, dass sich dies in den Leistungsdaten und Preisen der Grafikkarten niederschlägt.
Dir ist schon aufgefallen, dass die MSRPs aller Blackwell-Karten (mit Ausnahme lediglich der 5090) gleichauf mit oder unterhalb der MSRP der jeweiligen Vorgängerkarte liegen? Statt blasiertes Geschwätz über Logik vom Stapel zu lassen, solltest du dich lieber mal vernünftig informieren.
 
  • Gefällt mir
Reaktionen: MalWiederIch
SweetOhm schrieb:
In den letzten 30 Jahren die TV Geräte (größer, höhere Auflösung, mehr Gimmicks und eben günstiger) !! :stacheln:

TRIGGERALARM*! https://www.techradar.com/computing/gpu/gpu-prices-arent-actually-that-expensive-no-really

1080.png


1440p.png



* Ich wäre aber an einer seriösen Rechnung interessiert, etwa von Computerbase. Testarchive sind vorhanden. ;) Denn historische Preise 1:1 an eine Inflation anzupassen, ist schwierig. Und erledigt tendenziell PR-Arbeit für Hersteller. Denn gerade in der Technik gilt: Bessere Produkte zu näherungsweise stabilen (oder im Falle TVs günstigeren) Konditionen sind kein Einzelfall (siehe auch CPUs, wo ein 2024er Ryzen X3D günstiger ist als ein Athlon 64 FX-55 von 2004). Der Fortschritt in der Fertigung regelt das.

Absolut "seriös" und absolut kein Zufall ist jedenfalls, dass im reinen Anschaffungspreis (noch mal: ´nicht gleich Kosten!) relativ preisstabile Konsolen bis heute 30, 40 und 60 fps "beliefern". Das sind schließlich noch immer Bilder, gerendert in jeder einzelnen Sekunde -- und nach wie vor stetig komplexere. Während Nvidia bereits kräftig die Werbetrommel für 1000Hz-1000fps-PC-Bildschirme rührt. 60, 120, 144, 240Hz? ALles Rookie Numbers. $$$You gotta pump them up!$$$ :D

rookie numbers.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, Quidproquo77 und SweetOhm
shaboo schrieb:
Dir ist schon aufgefallen, dass die MSRPs aller Blackwell-Karten (mit Ausnahme lediglich der 5090) gleichauf mit oder unterhalb der MSRP der jeweiligen Vorgängerkarte liegen? Statt blasiertes Geschwätz über Logik vom Stapel zu lassen, solltest du dich lieber mal vernünftig informieren.

Ich habe mich auf die Produktionskosten von Chips (und deren allgemeine Auswirkungen auf Grafikkartenpreise) in dem von dir zuletzt zitierten Teil bezogen. Nicht auf die Marketingbegriffe von NVIDIA. Ich dachte mir, das erginge aus dem Kontext. War aber vielleicht nicht klar genug formuliert.

Mein ursprünglicher Kommentar bezog sich auf Marketingbegriffe (nichts anderes ist "70er-Serie") von NVIDIA. Und ebenso geht es in diesem Artikel um nichts anderes. Dass NVIDIA die Definition der einzelnen Serien über die Zeit verändert hat ist weithin bekannt. Für einige Jahre waren diese Begriffe deutlich konstanter und verlässlicher. Aber letztlich ist das nichts neues bei NVIDIA. Man braucht nur an die MX Serien denken...

Es hat noch niemandem geschadet, Logik formell zu studieren, da es das Denken schärft. Leider aber hat es den Nachteil, dass man danach zu überpräzisen Formulierungen neigt in der Annahme, das Gegenüber würde diese formell auswerten... Anstatt zu pragmatischen Formulierungen mit größerer Redundanz..
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
ElliotAlderson schrieb:
Warum spielt es für dich so eine große Rolle, wie das Bild technisch erzeugt wird?
Weil! :)
ElliotAlderson schrieb:
als würde das immer abwertend bzw. schlecht geredet, weil Nvidia in diesen Technologien federführend ist und AMD noch weiter abgeschlagen wäre, wenn man sie akzeptieren würde und deshalb tun das viele nicht.
? Nein ? Es ist viel simpler.
Ich find' FG/MFG ganz einfach shice! :D
 
EadZ schrieb:
Die 5000er wird eventuell erst mit den Super Modellen insgesamt besser als die 4000er.
??? weist du mehr als 99% der welt?? die bekommen nur mehr vram und tdp mehr nicht also nix besser :)
 
@Zuchtmaista
Lesekompetenz 6, setzen.
Wäre mir neu, dass "wird eventuell" einen Fakt beschreibt.
Mal unabhängig davon: Mehr VRAM ist also schlechter als weniger VRAM? :rolleyes:
 
  • Gefällt mir
Reaktionen: MalWiederIch
Mimir schrieb:
Ich sagte ja auch "praktisch" minimalanforderung, weil man als PC spieler eigentlich keinesfalls Hardware nutzen möchte, die langsamer ist, als eine Konsole, da man dann schnell bei low settings landet und die Spiele schlechter aussehen als vor 5-10 Jahren.

Hast du das eigentlich mal probiert? Das war zu Crysis-Zeiten der Fall. Da waren die Settings regelrechte OFF-Knöpfe: Schatten auf LOW = Alle Schatten Aus. Beleuchtung auf Low = Beleuchtung aus. Grafik auf LOW= Grafik auf aus. Das Game sah so tatsächlich älter aus als Far Cry. Mach dasselbe mal aktuell in Silent Hill 2, Alan Wake 2, Indiana Jones. Klar geht idR was verloren. Aber das Grundbild bleibt absolut erhalten. Entwickler wurden durch die Jahre auch besser mit der Skalierung. Digital Founrdy hatten das auch schon thematisiert.

Und gelegentlich ist das Äquivalent auf der Konsole auch das Low-Setting am PC. Oder seltener drunter, wie etwa die RT-Beleuchtung in Indiana Jones auf der Xbox, zumindest zu Launch. Wird wohl nicht kommen und würde auch nicht immer realisierbar sein. Aber es wäre manchmal gar nicht verkehrt, ein "Konsolen-Like"-Preset am PC zu haben. Bilder-pro-Sekunde-Locks auf 30 oder 40 FPS in expliziten Quality/Balanced-Modi würden aber wohl nicht alle Modern Master Racer mehr akzeptieren -- auch die nicht, die sich über die (Anschaffungs-)Preise ihrer Grafikkarten beschweren. Dabei gabs für die meisten in echten PC-Games wie Doom, Mafia 1, Armed Assault, Operation Flashpoint, Wing Commander und natürlich Crysis damals quasi nur den Quality-Modus -- oder gar nichts. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: calippo
Danke für den schönen Test, der auch meine persönlichen Eindrücke die mein aktuelles Upgradeverhalten widerspiegeln.
Ich bin quasi gezwungen die 5000er Generation zu überspringen, da ich mit der 4070 Laptop Version nach wie vor in einem Sweetspot liege, die keine hohen Preis bei der Neuanschaffung rechtfertigt für mich.

(PS**: Entgegen der üblichen Meinung hier (aka oft dann nur dummes allgemeingültig gemachtes Nachgeplapper bin ich auch noch nie ins VRAM Limit gelaufen ohne, dass ich die Regler bedienen hätte müssen weil eh die Rohleistung beim aktuellen Setting fehlt. -> GTX1650 Laptop, RTX3060 Laptop, RTX4070 Laptop, RTX4060 Desktop)

Da warte ich dann mal ganz entspannt ab was die nächste Grafikkarten Gen. macht und schau mal noch was CPU technisch in den Laptops in Relation zum Kühlsystem kombiniert wird.
 
Zuletzt bearbeitet:
Svennc schrieb:
Warum? Du schreibst doch selber, dass du dir eine seriöse Berechnung wünscht.
Was soll man mit Dollarpreise anfangen? Wir wissen alle, dass die Preise schwanken können und ein Beispiel was in meiner Erinnerung ist......
1755408902767.png

https://www.computerbase.de/artikel/prozessoren/intel-core-i9-9900ks-cpu-test.69204/

Könntest du mir den Inflationspreis bei der 8800 GTX erklären?
1755409337875.png


Könntest du auch erklären, was eine AMD Grafikkarte bei diesen Bilder zu suchen hat?
Könntest du auch erklären, welchen Sinn die nach beliebig aussehenden Zeitabstände haben?
Kann man Inflationsberechnungen für die USA, einfach so auf Deutschland ummünzen?
Kannst du mir auch erklären, wie man die damals 399$ für die R9 290 einordnen soll, wenn diese Laut CB in Deutschland bei 500€ angefangen hat?
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290x-test.2263/seite-5
 
Zuletzt bearbeitet:
Taxxor schrieb:
Der Rest sind Kursschwankungen, die halt mal zu unserem Vorteil und mal zu unserem Nachteil sind.
Die 3070 ist 150€ günstiger als die 5070 gewesen. Obwohl man heute vieeel mehr Dollar für den Euro bekommt als damals.
Auch sind es keine 5, sondern 4,25 Jahre.
650€ sind heute 760$

650€ -19% sind 526,5€. Sind 616 Dollar.

Also kann man den Wechselkurs ja nicht wirklich ranziehen.
 
  • Gefällt mir
Reaktionen: Alesis
Simanova schrieb:
Schau euch die Effizienz zwischen Ada und Blackwell an.
Einer Gründe warum in meiner Signatur eine AMD Karte steht.
Dann schauen wir uns doch mal die Effizenz an:

1755411959171.png


Oh schade, allesamt effizienter :(
 
  • Gefällt mir
Reaktionen: ElliotAlderson, MalWiederIch, NguyenV3 und 2 andere
Mimir schrieb:
Du scheinst davon auszugehen, dass bei DLSS im wahrsten Sinne upscaling geschieht. Das ist aber falsch. Es wird hier kein niedrig aufgelöstes Bild mit AntiAliasing glattgebügelt und dann via AI hochskaliert. Nein.
Nein, das tue ich nicht, du vertust dich.
Mimir schrieb:
Das Bild wird in niedrigerer Auflösung vom Spiel gerendert. Also z.B. 1080p. auf einem 4K Monitor mit dem DLSS Performance Preset.

Dann werden ähnlich wie bei klassichem Supersampling eine unmenge an zusätzlichen Samples erzeugt. Bei klassischen Supersampling hat man die Samples noch einzeln und teuer berechnet, so als würde das gesamte spiel in einer viel höheren Auflösung laufen. Mit TAA und genauso auch mit DLSS werden die Samples aber aus vorherigen Frames interpretiert, was im vergleich zu klassischen Supersampling vielfach weniger Leistung kostet (und man bei reduzierter Renderauflösung sogar noch sehr viel performance dazu gewinnt). Man gewinn Samples, also Bilddaten über die Zeit statt über die Berechnung in der 2D Bildfläche. (Deswegen temporales verfahren, statt spatiales)

Das entscheidende ist, der Algorithmus nimmt dann diese Samples aus den alten Bilddaten + die Samples aus denen das aktuelle Bild zusammengesetzt ist (also das 1080p bild) und rekonstruiert daraus ein völlig neues 4K bild. Es wird nicht hochskaliert, sondern aus der Summe der Samples ein neues Bild zusammengebaut, also Resampled. Das ist der kleine aber entscheidende Unterschied.
Und da der Algorithmus idr. deutlich mehr als 8 Mio samples aus den vorherigen Bilddaten sammeln kann um sie in das neue Bild zu stecken, hast du effektiv supersampling und damit AntiAliasing + einen Zugewinn an Details.

Die tatsächliche renderauflösung spielt also praktisch keine große Rolle. Wichtig ist, (schon immer) aus wie vielen Samples das finale Bild zusammengesetzt wurde. Und in dem moment wo die Sampleanzahl die Pixelzahl deines Displays übertrifft, hast du technisch gesehen supersampling. Und da übertrifft DLSS eben idr. selbst klassische SSAA verfahren bei weitem. Nicht in allen Bildaspekten, aber bei den allermeisten.

Das Deep Learning bzw. die "KI" steckt bei DLSS auch nicht in der Bildbearbeitung bzw. einem Upscaling algorithmus, denn wie gesagt passiert ja gar kein Upscaling im klassischen sinne. Stattdessen wird das Deep learning dafür genutzt, um aus vorherigen Frames so viele verwertbare Bildinformationen wie möglich zu extrahieren um sie dann für das aktuelle Bild korrekt zu verwerten. In dem Algorithmus steckt die ganze "Magie" und genau da entscheidet sich wie leistungsfähig das Verfahren ist.
Danke, dass du das für andere User zusammenfasst. Aber eben nicht für mich. Kannst du gerne irgendwann später mal zitieren.

Mein Punkt ist doch ganz einfach: Um DLSS 2 herum galt die Faustformel, dass Quality (mit UHD als Ausgabeauflösung) etwa nativ entsprach. (heute sieht es besser aus) Entsprechend war damals klar: Ultra Performance entspricht auf jeden Fall SubSampling. Oder, um deine Worte zu verwenden:
Mimir schrieb:
Und in dem moment wo die Sampleanzahl die Pixelzahl deines Displays übertrifft, hast du technisch gesehen supersampling.
Da übertraf dann die Sampleanzahl eben nicht mehr die Pixelzahl des Displays.

Heutzutage sieht alles noch viel besser für die zusammengefasst gerne HighFidelityUpscaling genannten Algorithmen aus.
 
Sunweb schrieb:
Oh schade, allesamt effizienter
Schönes Bilchen. Warum postest du keinen Link zu deiner Anschauung? Wenn ich mir da meine Anschauung anschaue, vermute ich einen bewusst gewollten Schritt, keinen Link zu posten.
Und da @Simanova eine 9070 XT hat, stimmt für diesen Menschen die von ihr? ihm?gemachte Aussage nicht. Nachtrag: Simanova klingt für mich weiblich, ich bin aber unsicher. Deswegen ihr, oder ihm.
1755412794507.png

1755412823742.png

https://www.computerbase.de/artikel...-9#abschnitt_energieeffizienz_in_fps_pro_watt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Boimler, eXe777, zeedy und 2 andere
Alesis schrieb:
Warum postest du keinen Link zu deiner Anschauung?
Wozu der ist ja von hier und jeder findet ihn in wenigen Sekunden.
Du doch auch.
Wo war nochmal dein Link zu genau den selben Bildern?
Ach ja, natürlich nicht vorhanden., denn da vermute ich einen bewusst gewollten Schritt, keinen Link zu posten.

Alesis schrieb:
Und da @Simanova eine 9070 XT hat
Ja und wenn du jetzt noch lesen könntest und den Unterschied zwischen 9070 und 9070 XT erkennst...
Ach lassen wir das, der einzige Sinn deines Post wurde direkt erkannt.
 
  • Gefällt mir
Reaktionen: Quidproquo77
SweetOhm schrieb:
Bei 25 % höherem Verbrauch (200 vs. 250 Watt) ! Ganz großes Tennis NV
Guter Versuch - aber die massgebliche Messgrösse ist die Effizienz. Und die ist faktisch gleich geblieben, minimal schlechter.

Insofern ist auch das ordentlich.
 
Sunweb schrieb:
Mich wundert sowieso, warum er als Radeon 6800 Nutzer hier so wettert?

Als würde ich, ein leidenschaftlicher BMW Fahrer, Audi madig machen. 🤷🏻‍♂️

Ich bin froh, dass ich jetzt bald 3 Jahre Spaß an meiner 4090 in 4K Spielen habe.

Ich würde 50x0 Käufer aber nicht „bedauern“. Als PC Neu-Käufer oder von 30x0 abwärts kommend, richtig guter Sprung.

5070Ti is ne geile Karte für 7/800€. Wenn die sich mit UV ähnlich gut optimieren lässt, wie meine 4090, noch besser! 👍

9070 und die XT sind auch super Karten mit tollem P/L - will ich damit nicht in Abrede stellen.
 
  • Gefällt mir
Reaktionen: Cohen und ElliotAlderson
Sunweb schrieb:
Wo war nochmal dein Link zu genau den selben Bildern?
Das gefällt mir. Selber es nicht können, noch nicht einmal nachtragen können, aber mich fragen, warum ich es nicht anders gemacht habe als du.
Und nein, dein Bildchen zeigt keine 9070. Also habe ich nicht deine Anschauung gefunden.
 
Alesis schrieb:
Und nein, dein Bildchen zeigt keine 9070
Natürlich nicht, weil es nicht um eine 9070 geht, sondern um eine 9070XT.
Ebensowenig zeigt es, 7900XT, 7800XT, 6800XT.
Hast du das immer noch nicht verstanden?
Oder willst du einfach nicht?
Und btw. sind das die selben Bilder.

Alesis schrieb:
Das gefällt mir. Selber es nicht können, noch nicht einmal nachtragen können, aber mich fragen, warum ich es nicht anders gemacht habe als du.
Wer hat sich nochmal über fehlende Links beklagt und selbe dann keine geliefert?
Ach ja...
Wer keine Fakten hat versucht es halt mit gejammere.

Sunweb schrieb:
der einzige Sinn deines Post wurde direkt erkannt.
mach ruhig weiter

Sinatra81 schrieb:
nee nicht hier, sondern überall.
Besagter Post bringt es direkt auf den Punkt:
ElliotAlderson schrieb:
Da besagter User ständig über Nv/Intel herzieht und dafür sogar selbst Threads erstellt, Cherrypicking betreibt und alte Infos bzw. Fakenews postet, hat er ein klares Ziel: Nvidia so schlecht wie möglich machen, selbst wenn die Aussage falsch ist. Hauptsache draufhauen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, Quidproquo77 und Sinatra81
Sunweb schrieb:
Wer hat sich nochmal über fehlende Links beklagt
Um dir zu zeigen, wie wichtig es ist Links zu posten. Damit man nachprüfen kann. Ich habe bewusst gewollt den Link zuerst nicht gesetzt. Nachträglich aber dann doch. Ich habe deine Reaktion abgewartet.
Und trotzdem habe ich nicht deine Anschauung gefunden, sondern eine komplette Anschauung mit Link :daumen:

Mit limitierten Frames auf max 144 ist die 9070 XT richtig gut und alleine ganz oben. Hier stimmt wieder die von Simanova getroffene pauschale Aussage, die aktuellen Readons sind effizienter.

Deswegen Links posten und einen gesamten Überblick damit erreichen. Und nicht......
Die Wahrnehmung ist ein erwartungsgesteuerter Suchprozess
 
Im Zweit PC werkelt eine RTX 2070 und dank DLSS bzw. FSR laufen die Spiele in WQHD auf mittel oder hoch immer noch super - das gab es früher nicht, das man nach 7 Jahren immer noch aktuelle Titel vernünftig spielen konnte. Dazu ein super Treibersupport. Für mich sind die RTX Karten eine Art goldene Generation - noch nie wurde durch Innovation (DLSS) Hardware so langlebig. Klar, Hardwerseitig sind die Leistungssprünge auch nicht mehr so groß wie früher, aber es geht nach wie vor vorwärts. :)
Mal sehen wie lange meine RTX 3050 4GB im Notebook noch durchhält - in FullHD laufen die Spiele die ich spiele (Anno & Fortnite) immer noch ordentlich (natürlich mit angepassten Details)
 
  • Gefällt mir
Reaktionen: floTTes und MuhSagtDieKuh
Zurück
Oben