Nein.Haldi schrieb:Hat doch Pro Generation schön etwa 50% Performance plus
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell
Chismon
Fleet Admiral
- Registriert
- Mai 2015
- Beiträge
- 10.132
Danke für den aufwendigen Vergleich
@DevPandi , mir fehlt in der gesamtheitlichen Betrachtung allerdings der Fokus auf der Speicherbetrachtung (selbst im Fazit nicht berücksichtigt), die m.E. maßgeblich bei in maximalen Einstellungen gestesteten, aktuellen Spielen dafür sorgt, dass es ab RTX 4070 oder 12GB maßgeblich besser ausieht als mit einer am nur 8GB großen, nicht mehr zeitgemäßen Speicher verhungernden RTX 3070 (oder gar RTX 2070).
Ich finde das schwierig es so reduziert auf die reine Architektur betrachten zu wollen, wenn der Speicher oder die Knappheit von diesem eine große Rolle spielt (vielleicht nicht bei allen getesteten Titeln aber bei einigen).
Meinem Gefühl (Benchmarks) nach brachte Ada Lovelace im Bereich RealTime PathTracing einen großen Sprung gegenüber Ampere (was z.T. auch wieder speicherbedingt sein dürfte mit Ausnahme einer RTX 3090) und bzgl. absoluter Effizienz (m.E. mittlerweile zunehmend wichtiger als fps/W je höher die Leistungsklasse geht; eine nicht unter 400W stabil betreibbare RTX 5090 ist als Produkt dahingehend m.E. vollkommen inakzeptabel), aber im Rasterizerbereich mutet das eher weniger spektakulär an, wenn man auf Basis der verbauten Shader, usw. vergleicht.
Ich finde das schwierig es so reduziert auf die reine Architektur betrachten zu wollen, wenn der Speicher oder die Knappheit von diesem eine große Rolle spielt (vielleicht nicht bei allen getesteten Titeln aber bei einigen).
Meinem Gefühl (Benchmarks) nach brachte Ada Lovelace im Bereich RealTime PathTracing einen großen Sprung gegenüber Ampere (was z.T. auch wieder speicherbedingt sein dürfte mit Ausnahme einer RTX 3090) und bzgl. absoluter Effizienz (m.E. mittlerweile zunehmend wichtiger als fps/W je höher die Leistungsklasse geht; eine nicht unter 400W stabil betreibbare RTX 5090 ist als Produkt dahingehend m.E. vollkommen inakzeptabel), aber im Rasterizerbereich mutet das eher weniger spektakulär an, wenn man auf Basis der verbauten Shader, usw. vergleicht.
Zuletzt bearbeitet:
Fighter1993
Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 8.435
Das denke ich bei meiner 4080 auch, die beste Karte die ich bis jetzt hatte.minimii schrieb:Mich freut es, dass der Invest in eine 4090 nun schon über zwei Jahre hält.
Und die Karte wird auch in noch zwei Jahren Spaß machen.
omaschabubu schrieb:Denke das das Problem ist wieso nicht mehr so hohen Leistungszuwachs gibt.
Das müssen auch die Leute einsehen welche in MFG FG FSR DLSS keinen Leistungssprung sehen, das wird die Zukunft sein.
Außer einer der GPU Hersteller hat irgendwas bahnbrechendes in den nächsten Jahren, außer Fertigungsgröße, Chip Größe oder höherer Leistungsaufnahme.
Bei den Prozessoren schon lange normal. Immerhin haben sich die reinen Anschaffungspreise (ungleich Gesamtkosten!) hier kaum gewandelt. "Brauchbare" Modelle für um die 100 Tacken gibts noch immer. Und selbst ein aktueller Ryzen X3D hat ein kleineres Preisschild als ein Athlon 64 FX-55 vor zwanzig Jahren -- so much for "Inflation".
Alles hatte seinen Preis...
vielen Dank für den Test!
Ich vermisse WQHD oder 3440x1440.
Gerade den Kompromiss aus:
"Hey ich kauf mir keine dicke Graka, möchte aber sehen wie gut sie mit der Auflösung des neuen Bildschirms zurecht kommt"
Man rüstet ja nicht nur für "heute" auf. Und genau jetzt ist bestimmt die Zeit in der man sich fragt: Darfs a bissl mehr sein als FullHD ?
4K ist ja dann eigentlich schon eine ab 16GB Karte um noch etwas "Luft" zu haben. Sofern man das so nennen darf
natürlich mit entsprechend Dampf.
Also zB 4070 Ti Super oder 5070 Ti
Das "nur" FullHD abseits 4K getestet wurde, verstehe ich nicht wirklich.
Hattet ja sowieso schon den Schaff mit 😅 den Karten.
Wie immer gilt: Im Nachhinein was kritisieren ist suuper einfach.
Kann es mir ja auch aus rechnen. Dann hab ich einen theoretischen Wert. 🤷🏼♂️
Ich vermisse WQHD oder 3440x1440.
Gerade den Kompromiss aus:
"Hey ich kauf mir keine dicke Graka, möchte aber sehen wie gut sie mit der Auflösung des neuen Bildschirms zurecht kommt"
Man rüstet ja nicht nur für "heute" auf. Und genau jetzt ist bestimmt die Zeit in der man sich fragt: Darfs a bissl mehr sein als FullHD ?
4K ist ja dann eigentlich schon eine ab 16GB Karte um noch etwas "Luft" zu haben. Sofern man das so nennen darf
natürlich mit entsprechend Dampf.
Also zB 4070 Ti Super oder 5070 Ti
Das "nur" FullHD abseits 4K getestet wurde, verstehe ich nicht wirklich.
Hattet ja sowieso schon den Schaff mit 😅 den Karten.
Wie immer gilt: Im Nachhinein was kritisieren ist suuper einfach.
Kann es mir ja auch aus rechnen. Dann hab ich einen theoretischen Wert. 🤷🏼♂️
- Registriert
- Feb. 2009
- Beiträge
- 10.837
Und darum arbeitest du nicht in Nvidias Marketing Abteilung!Alphanerd schrieb:
Die Begründung ist dann schlicht: Geld. Wenn eine neues Software-Features prinzipiell auch auf der vorherigen Generation laufen würde, macht man das halt bewusst exklusiv für die neue Generation, damit man einen zusätzlichen Kaufanreiz schafft. Besonders wenn es davon ab nur einen minimalen Fortschritt bei der Rohleistung und Effizienz gibt.jube schrieb:Ansonsten fehlt doch die Begründung, eine neue Generation rauszubringen. Software-Verbesserungen kann man auch für alte Generationen freischalten.
Ein Feature ohne technischen Grund nur auf den aktuellen Karten anzubieten, ist schlicht eine wirtschaftliche Entscheidung.
Die Person(en) an die das gerichtet ist haben verstanden. CPU Tests werden übribens in HD durchgeführt, nicht FullHD.wern001 schrieb:Soll ja auch ein Grafikkarten und kein CPU Test sein.
Interessant wäre mal ein Test in 1080 und UHD mit verschiedenen CPUs
iWebi
Lt. Commander
- Registriert
- Nov. 2024
- Beiträge
- 1.364
Ich empfehle SDAbrexxes schrieb:CPU Tests werden übribens in HD durchgeführt
Es gibt Grafiken die wesentlich besser aussehen oder weniger bis gar nicht mehr flimmern/flackern.Raptorlake schrieb:Dann viel spaß damit. Ich bleibe bei Nativ.
Da ist DLSS der nativen Auflösung deutlich überlegen.
Es gibt auch Games in denen es nicht so hübsch aussieht.
Aber es pauschal abzutun ist in 2025 beinahe schon, ... nennen wir es
🤷🏼♂️ Aber jeder wie er mag.
FSR4 soll ebenfalls sehr gut aussehen und konkurrenzfähig sein!
Zuletzt bearbeitet:
wern001
Admiral
- Registriert
- Mai 2017
- Beiträge
- 8.926
Abrexxes schrieb:Die Person(en) an die das gerichtet ist haben verstanden. CPU Tests werden übribens in HD durchgeführt, nicht FullHD.![]()
Mich interessiert aber die 720p Auflösung nicht und ich schätze die meisten anderen auch nicht.
Ich weiß je höher die Auflösung desto weniger Einfluss hat die CPU. Deswegen hätte ich gerne mal einen Test mit 1080p und UHD mit verschiedenen CPUs.
Wenn jemand die "beste" Gaming CPU kaufen will kann er ja die 720p Tests anschauen.
iWebi
Lt. Commander
- Registriert
- Nov. 2024
- Beiträge
- 1.364
Bitte keine Beleidigung. Danke.RaptorTP schrieb:Aber es pauschal abzutun ist in 2025 beinahe schon, ... nennen wir es beschränkt.
Und wenn interessiert eine 2070 in UHD? Heute oder Gestern? Das Resultat dürfte klar sein.wern001 schrieb:Mich interessiert aber die 720p Auflösung nicht und ich schätze die meisten anderen auch nicht.
Ich weiß je höher die Auflösung desto weniger Einfluss hat die CPU. Deswegen hätte ich gerne mal einen Test mit 1080p und UHD mit verschiedenen CPUs.
Wenn jemand die "beste" Gaming CPU kaufen will kann er ja die 720p Tests anschauen.
iWebi
Lt. Commander
- Registriert
- Nov. 2024
- Beiträge
- 1.364
Vielleicht morgen? ^^Abrexxes schrieb:Heute oder Gestern?
Da ist was was dran. Ich wäre auch nie auf die legendären Sprüche gekommen.Haldi schrieb:Und darum arbeitest du nicht in Nvidias Marketing Abteilung!
4 elephants 1 GPU!
The more you buy the more you save!
The power of a 4090 for 549!
Da sind echte Künstler am Werk.
Und dann noch dieser coole asiatische Indiana Jones.
Das schon die geilste Show on earth
Abrexxes schrieb:Und wenn interessiert eine 2070 in UHD? Heute oder Gestern? Das Resultat dürfte klar sein.
DLSS4 FTW.
Okay, okay: Es sind auf diesem Legacy-Oldie trotzdem nicht ganz die heiligen 60 Render-Bilder pro Sekunde an Existenzmininum. Damals wäre es für die anspruchslosen Plebs bei Computerbase sogar noch drüber gewesen -- waren da in der Redaktion Konsolen-Gamer oder was? So oder so: Nvidia gefiel das nicht. 🤑
Nein, aber ich schließe nicht aus das sich jemand in 10 Jahren daran aufgeilt das "Populous" mit einem i9-14900KS mit 118 FPS auf einer GeForce RTX 5090D v2 in 16K läuft.Raptorlake schrieb:Vielleicht morgen? ^^
Kuhprah
Lt. Commander
- Registriert
- Nov. 2009
- Beiträge
- 1.668
ChrisMK72 schrieb:für die 3090 TUF OC, die immer noch untertaktet/undervoltet bei mir läuft, aber freue mich langsam auf min. 66 % Mehrleistung durchschnittlich
Da bin ich auch gespannt. Ob ich wechsle hängt am Ende davon ab ob Anno 117 mit der 3090 in 4K noch rennt oder nicht mehr. Wenns das tut, bleibt die 3090 wohl nochmal 2 bis 3 Jahre im Rechner
Ähnliche Themen
- Antworten
- 274
- Aufrufe
- 42.648