• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Doom: The Dark Ages im Test: Benchmarks mit 25 Grafik­kar­ten und zwei Überraschungen

Eternal fand ich ganz furchtbar. Reiht sich in die Linie der schlimmsten egoshooter ein.

Der neue Teil sieht ehrlicherweise gut aus, könnte man sich genehmigen.
 
Also bitte, wer die zusätzliche Latenz bei aktivierter DLSS nicht bemerkt, dem ist nicht zu helfen. Für mich ist hier eine spürbare Verzögerung eindeutig bemerkbar und teilweise viel schlimmer als bei manchen anderen Spielen.

Ich hatte hier halt einfach das Gefühl, dass bei aktivierten DLSS einfach etwas nicht stimmt und dadurch das Spielgefühl mindert.

Und wenn man schon, diese magische Frameerzeugung erzwingt, dann sollte sie auch bestmöglich umgesetzt werden.

So bleibt bei mir ein bitterer Nachgeschmack.
 
  • Gefällt mir
Reaktionen: SweetOhm, fubster und Pisaro
Mimir schrieb:
Zum einen das.
Zum anderen, vergleiche mal die Latenzen von AMD und Nvidia,

Die 5070ti hat bei 2xFG mit 106 FPS (53 FPS als basis) BESSERE Latenzen als die 9070 XT OHNE Frame gen bei 73 FPS.

Und das obwohl die 5070ti selbst ohne FG schon 11% langsamer als die 9070 XT ist und mit aktivier FG weiter performance verliert (FG kostet ja Leistung) und die Latenzen erhöht werden. Und trotzdem hat die langsamere Nvidia Karte am Ende mit FG die besseren Latenzen, als die schnellere AMD Karte ohne FG.

Würde man zwei in diesem Spiel gleich schnelle Karten vergleichen, wäre der Vorteil für Nvidia noch größer.

Leute die wegen der Latenz FG nicht nutzen wollen kann man bei diesen Daten einfach nicht mehr ernst nehmen. Es ist ja richtig, dass mit Reflex ohne FG nochmals bessere Latenzen möglich sind, da wird AMD dann völlig abgehängt. Aber wenn man dann selbst mit FG immer noch bessere Latenzen hat, dann wird FG doch zum absoluten nobrainer. Zumindest für Nvidia Karten.
Da wäre ich vorsichtig, das sehe ich anders.

Ich kann es nicht beweisen, aber ich habe da eine Theorie:
Und zwar ist meiner Meinung nach das Hauptproblem für das Spielgefühl mit Frame Generation gar nicht unbedingt die Latenz alleine. Natürlich spielt die Latenz eine Rolle, aber nicht unbedingt die allgemeine Latenz.

Ich glaube, dass da eigentliche oder zumindest ein Teil des Problems ist, dass die Framerate auf dem Display und das Spielgefühl bezüglich der Reaktionszeit schnell nicht mehr zueinander passen. Da ist es dann egal, dass die Latenz ohne FG nicht großartig anders ist. Aber während die Latenz ohne FG so ist wie gewohnt, es passt quasi das Bild zum Input. Gibt es mit FG plötzlich einen Disconnect: Das Bild wird für das Auge schneller, aber nicht für "die Hände".

Und das ist etwas, wo das Gehirn zumindest bei manchen dann dicht macht und quasi mitteilt, dass hier etwas nicht mehr stimmt. Und das fühlt sich dann komisch an.

Anders kann ich es mir zum Beispiel nicht erklären, dass sich die Latenz von 60 ms auf der RTX 5070 Ti mit DLSS Q sich für mich gut anfühlen, die 62 ms für DLSS MFG 4x aber plötzlich komisch. An den 2 ms Unterschied kann es nicht liegen, das bekommt wohl keiner mit.
Serandi schrieb:
Wird man denn das Raytracing abschalten können? Dann hätte man doch defitniv einen riesengroßen Leistungsverlust eliminiert. 🤔
Und man hätte eine kaputte Grafik. Das funktioniert so nicht in Spielen, die RT von Anfang an für die Beleuchtung vorsehen.
 
  • Gefällt mir
Reaktionen: Czk666 und ElliotAlderson
malvan schrieb:
Also bitte, wer die zusätzliche Latenz bei aktivierter DLSS nicht bemerkt, dem ist nicht zu helfen. Für mich ist hier eine spürbare Verzögerung eindeutig bemerkbar und teilweise viel schlimmer als bei manchen anderen Spielen.

Ich hatte hier halt einfach das Gefühl, dass bei aktivierten DLSS einfach etwas nicht stimmt und dadurch das Spielgefühl mindert.

Und wenn man schon, diese magische Frameerzeugung erzwingt, dann sollte sie auch bestmöglich umgesetzt werden.

So bleibt bei mir ein bitterer Nachgeschmack.
DLSS erzeugt per se keine zusätzliche Latenz, im Gegenteil sogar: DLSS Super Resolution reduziert die Latenz.
Frame Generation verschlechtert die Latenz dann.

Es mag pingelig klingen, aber bei dem Thema muss man sehr auf die Wortwahl achten, sonst bringt man sehr schnell alles durcheinander. Einfach nur von DLSS zu reden ohne zumindest explizit vorher etwas zu zitieren ist maximal verwirrend.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
TheInvisible schrieb:
Überhaupt nicht traurig weil die gewonnene Rechenleistung in BQ gesteckt werden kann und es nicht schlechter aussieht bzw eher das Gegenteil.
Das ist richtig traurig. Mit DLSS/FG hätte man bei Doom eher 200+ FPS erwartet.
 
  • Gefällt mir
Reaktionen: SweetOhm und fubster
Mimir schrieb:
Zum anderen, vergleiche mal die Latenzen von AMD und Nvidia,

Würde man zwei in diesem Spiel gleich schnelle Karten vergleichen, wäre der Vorteil für Nvidia noch größer.
Also so wie ich das gelesen habe, sind Beide auf (gleich) gutem Niveau ... :rolleyes:
 

Anhänge

  • Doom Millisekunden.jpg
    Doom Millisekunden.jpg
    242,6 KB · Aufrufe: 57
Grundgütiger schrieb:
Doch, in WQHD, der Auflösung welche hier viele nutzen ist die 9070XT schneller.
In UHD nicht.

Grundgütiger schrieb:
Und 73fps mit!DLSS sind für eine 1120€ Karte auch irgendwie peinlich.
Das ist ein Shooter, irgendwo bei 120fps bzw 240/480 mit FG/MFG, ist das Ziel.
Da das keine Karte erreicht, ist das auch nicht peinlich ;)

MehlstaubtheCat schrieb:
Das aber kompletter Blödsinn bei ID Software!
Das sind die Jungs und Mädels überhaupt, sogar weit vor UE5!
Wenn es auf diesem Planeten überhaupt irgendjemand sich mit Grafikengines auskennt, ist es ID!
Und trotzdem performt es genau so wie UE5, CryEngine, Anvil und Snowdrop. Was sagt uns das? Alle unoptimiert? Ich denke nicht.
 

Anhänge

  • HW Data 724.jpg
    HW Data 724.jpg
    209,7 KB · Aufrufe: 61
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Und trotzdem performt es genau so wie UE5, CryEngine, Anvil und Snowdrop. Was sagt uns das? Alle unoptimiert? Ich denke nicht.
Ich denke schon, dass hier viel weniger Zeit in die Optimierung gesteckt wird, da man dies durch DLSS und FG viel einfacher und billiger haben kann. Zudem braucht man dazu keinen John Carmack oder ähnliche Programierer, die eine Optimierung des Kodes auch genial umsetzen können.

Meiner Meinung geht man den einfachen Weg, weil who cares!
 
  • Gefällt mir
Reaktionen: Czk666, fubster und SweetOhm
Ich hätte mindestens als Ausgangsbasis gern native Werte (wenn möglich mit RT on und off)

Alles andere ist dann zweitrangig.

Was fake Frame Generation dazuschummelt oder Upscaling Algorithmen aus dem nichts erschaffen, interessiert mich weniger.

Warum steht an den Tabellen 4k Auflösung aber das eigentliche Rendering erfolgt in irgendeiner (deutlich geringeren) Auflösung? - Das sollte wenigstens im Tabellenheader deutlich gemacht werden (soll heissen die native Auflösung dazuschreiben, statt irgendwelche DLSS + trallalla wo niemand erkennt was jetzt eigentlich die nativ gerenderte Auflösung ist.)

Vor allem für die Vergleichbarkeit spielt es ja eine Rolle, ob nativ WQHD auf 4k hochgescaled wird oder FullHD auf 4k - oder igendwas dazwischen.

Wenn die Hersteller das "verheimlichen" und die native Auflösung vor dem Upscaling nicht mehr erkennbar ist, ist die Vergleichbarkeit eh hinfällig - deshalb bitte für die Zukunft immer die native Auflösung ohne Softwarezauberei als Baseline mit testen und angeben.
 
  • Gefällt mir
Reaktionen: fubster, HerrRossi, SweetOhm und eine weitere Person
malvan schrieb:
Ich denke schon, dass hier viel weniger Zeit in die Optimierung gesteckt wird, da man dies durch DLSS und FG viel einfacher und billiger haben kann. Zudem braucht man dazu keinen John Carmack oder ähnliche Programierer, die eine Optimierung des Kodes auch genial umsetzen können.
Bei sowas geht es aber nicht um "Meinungen", sondern um Fakten. Wenn alle Spiele gleich performen, kannst du mir nicht erzählen, dass alle auf einmal unoptimiert sind. Das ist zu unwahrscheinlich. Es ist eher wahrscheinlicher, dass deine Erwartungen unrealistisch sind.

SweetOhm schrieb:
Aha, der übliche 4K "Cherry" ... :daumen:
Aha, der übliche WQHD "Cherry" ... :daumen:
 
ElliotAlderson schrieb:
Die RDNA4 Karten sind aber KEINE 4K/UHD Karten ! Aber wem erzähl ich das ... :freak:
 
  • Gefällt mir
Reaktionen: Grundgütiger
ElliotAlderson schrieb:
Bei sowas geht es aber nicht um "Meinungen", sondern um Fakten. Wenn alle Spiele gleich performen, kannst du mir nicht erzählen, dass alle auf einmal unoptimiert sind. Das ist zu unwahrscheinlich. Es ist eher wahrscheinlicher, dass deine Erwartungen unrealistisch sind.

Welche Fakten? Für mich ist das doch wischiwaschi. D.h. doch dann nur, das die Spiele mit den jeweiligen Engines unoptimiert sind, weil sie es dank DLSS und FG nicht optimieren müssen. Deshalb performen sie auch in ähnlicher Weise.
 
  • Gefällt mir
Reaktionen: SweetOhm
Mimir schrieb:
Nö, sind nicht zu schwach.
Also wenn ohne das ganze Software Fake Gedöns auf einer ca. 2000 € Karte lediglich 20 (!) FPS rum kommen, eben schon !
 

Anhänge

  • 20 FPS 4090.jpg
    20 FPS 4090.jpg
    272,8 KB · Aufrufe: 62
SweetOhm schrieb:
Vielleicht weil es WQHD Karten sind ?!? :lol:
Sieht AMD anders
Unbenannt.jpg

Aber wem sag ich das? Wie schmeckt dir deine eigene Medizin?

malvan schrieb:
Welche Fakten? Für mich ist das doch wischiwaschi. D.h. doch dann nur, das die Spiele mit den jeweiligen Engines unoptimiert sind, weil sie es dank DLSS und FG nicht optimieren müssen. Deshalb performen sie auch in ähnlicher Weise.
Und wo ist der Beweis für die Behauptung? Das ist ziemlich Aluhut. Es mag auf das ein oder andere Spiel zutreffen, aber auf alle? Sicher nicht.
 
Zuletzt bearbeitet:
Nordwind2000 schrieb:
Kommt mir immer so vor, wie man kauft ein Auto und der Verkäufer sagt: "Ihr Auto kann 200 km/h fahren, aber nur mit dem zweiten Schlüssel und mit nur einer Person an Board."
DLSS, bzw. die Tensor Kerne gehören seit RTX 2000 zur Serienausstattung. Bei AMD käme dein Vergleich aber hin, entsprechende Ausstattung nur ab RX 9000 und dann auch nur wenn von AMD gewhitelistet und wenn das Spiel nicht die Vulkan API nutzt.
 
Eno77 schrieb:
Ich hätte mindestens als Ausgangsbasis gern native Werte (wenn möglich mit RT on und off)
RT kann man wohl nicht ausschalten (wenn ich es hier richtig gelesen habe)

Bei Techpowerup gibt es diverse Auflösungen und Modi im Vergleich - bei PCGH auch nativ

mit 100-120 FPS bin ich völlig zufrieden

https://www.techpowerup.com/review/doom-the-dark-ages-performance-benchmark/5.html

https://www.techpowerup.com/review/doom-the-dark-ages-performance-benchmark/6.html

https://www.pcgameshardware.de/Doom...Review-Steam-Benchmarks-Raytracing-1471919/3/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eno77
Zurück
Oben