-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Doom: The Dark Ages im Test: Benchmarks mit 25 Grafikkarten und zwei Überraschungen
Also bitte, wer die zusätzliche Latenz bei aktivierter DLSS nicht bemerkt, dem ist nicht zu helfen. Für mich ist hier eine spürbare Verzögerung eindeutig bemerkbar und teilweise viel schlimmer als bei manchen anderen Spielen.
Ich hatte hier halt einfach das Gefühl, dass bei aktivierten DLSS einfach etwas nicht stimmt und dadurch das Spielgefühl mindert.
Und wenn man schon, diese magische Frameerzeugung erzwingt, dann sollte sie auch bestmöglich umgesetzt werden.
So bleibt bei mir ein bitterer Nachgeschmack.
Ich hatte hier halt einfach das Gefühl, dass bei aktivierten DLSS einfach etwas nicht stimmt und dadurch das Spielgefühl mindert.
Und wenn man schon, diese magische Frameerzeugung erzwingt, dann sollte sie auch bestmöglich umgesetzt werden.
So bleibt bei mir ein bitterer Nachgeschmack.
- Registriert
- Nov. 2002
- Beiträge
- 9.543
Da wäre ich vorsichtig, das sehe ich anders.Mimir schrieb:Zum einen das.
Zum anderen, vergleiche mal die Latenzen von AMD und Nvidia,
Die 5070ti hat bei 2xFG mit 106 FPS (53 FPS als basis) BESSERE Latenzen als die 9070 XT OHNE Frame gen bei 73 FPS.
Und das obwohl die 5070ti selbst ohne FG schon 11% langsamer als die 9070 XT ist und mit aktivier FG weiter performance verliert (FG kostet ja Leistung) und die Latenzen erhöht werden. Und trotzdem hat die langsamere Nvidia Karte am Ende mit FG die besseren Latenzen, als die schnellere AMD Karte ohne FG.
Würde man zwei in diesem Spiel gleich schnelle Karten vergleichen, wäre der Vorteil für Nvidia noch größer.
Leute die wegen der Latenz FG nicht nutzen wollen kann man bei diesen Daten einfach nicht mehr ernst nehmen. Es ist ja richtig, dass mit Reflex ohne FG nochmals bessere Latenzen möglich sind, da wird AMD dann völlig abgehängt. Aber wenn man dann selbst mit FG immer noch bessere Latenzen hat, dann wird FG doch zum absoluten nobrainer. Zumindest für Nvidia Karten.
Ich kann es nicht beweisen, aber ich habe da eine Theorie:
Und zwar ist meiner Meinung nach das Hauptproblem für das Spielgefühl mit Frame Generation gar nicht unbedingt die Latenz alleine. Natürlich spielt die Latenz eine Rolle, aber nicht unbedingt die allgemeine Latenz.
Ich glaube, dass da eigentliche oder zumindest ein Teil des Problems ist, dass die Framerate auf dem Display und das Spielgefühl bezüglich der Reaktionszeit schnell nicht mehr zueinander passen. Da ist es dann egal, dass die Latenz ohne FG nicht großartig anders ist. Aber während die Latenz ohne FG so ist wie gewohnt, es passt quasi das Bild zum Input. Gibt es mit FG plötzlich einen Disconnect: Das Bild wird für das Auge schneller, aber nicht für "die Hände".
Und das ist etwas, wo das Gehirn zumindest bei manchen dann dicht macht und quasi mitteilt, dass hier etwas nicht mehr stimmt. Und das fühlt sich dann komisch an.
Anders kann ich es mir zum Beispiel nicht erklären, dass sich die Latenz von 60 ms auf der RTX 5070 Ti mit DLSS Q sich für mich gut anfühlen, die 62 ms für DLSS MFG 4x aber plötzlich komisch. An den 2 ms Unterschied kann es nicht liegen, das bekommt wohl keiner mit.
Und man hätte eine kaputte Grafik. Das funktioniert so nicht in Spielen, die RT von Anfang an für die Beleuchtung vorsehen.Serandi schrieb:Wird man denn das Raytracing abschalten können? Dann hätte man doch defitniv einen riesengroßen Leistungsverlust eliminiert. 🤔
- Registriert
- Nov. 2002
- Beiträge
- 9.543
DLSS erzeugt per se keine zusätzliche Latenz, im Gegenteil sogar: DLSS Super Resolution reduziert die Latenz.malvan schrieb:Also bitte, wer die zusätzliche Latenz bei aktivierter DLSS nicht bemerkt, dem ist nicht zu helfen. Für mich ist hier eine spürbare Verzögerung eindeutig bemerkbar und teilweise viel schlimmer als bei manchen anderen Spielen.
Ich hatte hier halt einfach das Gefühl, dass bei aktivierten DLSS einfach etwas nicht stimmt und dadurch das Spielgefühl mindert.
Und wenn man schon, diese magische Frameerzeugung erzwingt, dann sollte sie auch bestmöglich umgesetzt werden.
So bleibt bei mir ein bitterer Nachgeschmack.
Frame Generation verschlechtert die Latenz dann.
Es mag pingelig klingen, aber bei dem Thema muss man sehr auf die Wortwahl achten, sonst bringt man sehr schnell alles durcheinander. Einfach nur von DLSS zu reden ohne zumindest explizit vorher etwas zu zitieren ist maximal verwirrend.
Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 16.506
Das ist richtig traurig. Mit DLSS/FG hätte man bei Doom eher 200+ FPS erwartet.TheInvisible schrieb:Überhaupt nicht traurig weil die gewonnene Rechenleistung in BQ gesteckt werden kann und es nicht schlechter aussieht bzw eher das Gegenteil.
SweetOhm
Commander
- Registriert
- Juli 2023
- Beiträge
- 2.583
Also so wie ich das gelesen habe, sind Beide auf (gleich) gutem Niveau ...Mimir schrieb:Zum anderen, vergleiche mal die Latenzen von AMD und Nvidia,
Würde man zwei in diesem Spiel gleich schnelle Karten vergleichen, wäre der Vorteil für Nvidia noch größer.
Anhänge
ElliotAlderson
Commander
- Registriert
- Juni 2024
- Beiträge
- 2.215
In UHD nicht.Grundgütiger schrieb:Doch, in WQHD, der Auflösung welche hier viele nutzen ist die 9070XT schneller.
Da das keine Karte erreicht, ist das auch nicht peinlichGrundgütiger schrieb:Und 73fps mit!DLSS sind für eine 1120€ Karte auch irgendwie peinlich.
Das ist ein Shooter, irgendwo bei 120fps bzw 240/480 mit FG/MFG, ist das Ziel.
Und trotzdem performt es genau so wie UE5, CryEngine, Anvil und Snowdrop. Was sagt uns das? Alle unoptimiert? Ich denke nicht.MehlstaubtheCat schrieb:Das aber kompletter Blödsinn bei ID Software!
Das sind die Jungs und Mädels überhaupt, sogar weit vor UE5!
Wenn es auf diesem Planeten überhaupt irgendjemand sich mit Grafikengines auskennt, ist es ID!
SweetOhm
Commander
- Registriert
- Juli 2023
- Beiträge
- 2.583
Gilt "Nerds" (mit Ahnung) ?!?TheInvisible schrieb:Stimmt aber mit dem marketshare überein, kannst ja eine bessere Quelle nennen.
https://www.pcgameshardware.de/Graf...s/GPU-Verkaufszahlen-bei-Mindfactory-1472590/
Anhänge
Zuletzt bearbeitet:
Ich denke schon, dass hier viel weniger Zeit in die Optimierung gesteckt wird, da man dies durch DLSS und FG viel einfacher und billiger haben kann. Zudem braucht man dazu keinen John Carmack oder ähnliche Programierer, die eine Optimierung des Kodes auch genial umsetzen können.ElliotAlderson schrieb:Und trotzdem performt es genau so wie UE5, CryEngine, Anvil und Snowdrop. Was sagt uns das? Alle unoptimiert? Ich denke nicht.
Meiner Meinung geht man den einfachen Weg, weil who cares!
Ich hätte mindestens als Ausgangsbasis gern native Werte (wenn möglich mit RT on und off)
Alles andere ist dann zweitrangig.
Was fake Frame Generation dazuschummelt oder Upscaling Algorithmen aus dem nichts erschaffen, interessiert mich weniger.
Warum steht an den Tabellen 4k Auflösung aber das eigentliche Rendering erfolgt in irgendeiner (deutlich geringeren) Auflösung? - Das sollte wenigstens im Tabellenheader deutlich gemacht werden (soll heissen die native Auflösung dazuschreiben, statt irgendwelche DLSS + trallalla wo niemand erkennt was jetzt eigentlich die nativ gerenderte Auflösung ist.)
Vor allem für die Vergleichbarkeit spielt es ja eine Rolle, ob nativ WQHD auf 4k hochgescaled wird oder FullHD auf 4k - oder igendwas dazwischen.
Wenn die Hersteller das "verheimlichen" und die native Auflösung vor dem Upscaling nicht mehr erkennbar ist, ist die Vergleichbarkeit eh hinfällig - deshalb bitte für die Zukunft immer die native Auflösung ohne Softwarezauberei als Baseline mit testen und angeben.
Alles andere ist dann zweitrangig.
Was fake Frame Generation dazuschummelt oder Upscaling Algorithmen aus dem nichts erschaffen, interessiert mich weniger.
Warum steht an den Tabellen 4k Auflösung aber das eigentliche Rendering erfolgt in irgendeiner (deutlich geringeren) Auflösung? - Das sollte wenigstens im Tabellenheader deutlich gemacht werden (soll heissen die native Auflösung dazuschreiben, statt irgendwelche DLSS + trallalla wo niemand erkennt was jetzt eigentlich die nativ gerenderte Auflösung ist.)
Vor allem für die Vergleichbarkeit spielt es ja eine Rolle, ob nativ WQHD auf 4k hochgescaled wird oder FullHD auf 4k - oder igendwas dazwischen.
Wenn die Hersteller das "verheimlichen" und die native Auflösung vor dem Upscaling nicht mehr erkennbar ist, ist die Vergleichbarkeit eh hinfällig - deshalb bitte für die Zukunft immer die native Auflösung ohne Softwarezauberei als Baseline mit testen und angeben.
SweetOhm
Commander
- Registriert
- Juli 2023
- Beiträge
- 2.583
Aha, der übliche 4K "Cherry" ...ElliotAlderson schrieb:Tut sie ja auch nicht![]()
ElliotAlderson
Commander
- Registriert
- Juni 2024
- Beiträge
- 2.215
Bei sowas geht es aber nicht um "Meinungen", sondern um Fakten. Wenn alle Spiele gleich performen, kannst du mir nicht erzählen, dass alle auf einmal unoptimiert sind. Das ist zu unwahrscheinlich. Es ist eher wahrscheinlicher, dass deine Erwartungen unrealistisch sind.malvan schrieb:Ich denke schon, dass hier viel weniger Zeit in die Optimierung gesteckt wird, da man dies durch DLSS und FG viel einfacher und billiger haben kann. Zudem braucht man dazu keinen John Carmack oder ähnliche Programierer, die eine Optimierung des Kodes auch genial umsetzen können.
Aha, der übliche WQHD "Cherry" ...SweetOhm schrieb:Aha, der übliche 4K "Cherry" ...![]()
SweetOhm
Commander
- Registriert
- Juli 2023
- Beiträge
- 2.583
Die RDNA4 Karten sind aber KEINE 4K/UHD Karten ! Aber wem erzähl ich das ...ElliotAlderson schrieb:In UHD nicht.
Grundgütiger
Lt. Commander
- Registriert
- Aug. 2017
- Beiträge
- 1.152
Das ist ein Shooter und nicht irgendein Titel sondern Doom.ElliotAlderson schrieb:Da das keine Karte erreicht, ist das auch nicht peinlich![]()
Hier erwarte ich besseres.
SweetOhm
Commander
- Registriert
- Juli 2023
- Beiträge
- 2.583
Vielleicht weil es WQHD Karten sind ?!?ElliotAlderson schrieb:Aha, der übliche WQHD "Cherry" ...![]()
ElliotAlderson schrieb:Bei sowas geht es aber nicht um "Meinungen", sondern um Fakten. Wenn alle Spiele gleich performen, kannst du mir nicht erzählen, dass alle auf einmal unoptimiert sind. Das ist zu unwahrscheinlich. Es ist eher wahrscheinlicher, dass deine Erwartungen unrealistisch sind.
Welche Fakten? Für mich ist das doch wischiwaschi. D.h. doch dann nur, das die Spiele mit den jeweiligen Engines unoptimiert sind, weil sie es dank DLSS und FG nicht optimieren müssen. Deshalb performen sie auch in ähnlicher Weise.
SweetOhm
Commander
- Registriert
- Juli 2023
- Beiträge
- 2.583
Also wenn ohne das ganze Software Fake Gedöns auf einer ca. 2000 € Karte lediglich 20 (!) FPS rum kommen, eben schon !Mimir schrieb:Nö, sind nicht zu schwach.
Anhänge
ElliotAlderson
Commander
- Registriert
- Juni 2024
- Beiträge
- 2.215
Sieht AMD andersSweetOhm schrieb:Vielleicht weil es WQHD Karten sind ?!?![]()
Aber wem sag ich das? Wie schmeckt dir deine eigene Medizin?
Und wo ist der Beweis für die Behauptung? Das ist ziemlich Aluhut. Es mag auf das ein oder andere Spiel zutreffen, aber auf alle? Sicher nicht.malvan schrieb:Welche Fakten? Für mich ist das doch wischiwaschi. D.h. doch dann nur, das die Spiele mit den jeweiligen Engines unoptimiert sind, weil sie es dank DLSS und FG nicht optimieren müssen. Deshalb performen sie auch in ähnlicher Weise.
Zuletzt bearbeitet:
DLSS, bzw. die Tensor Kerne gehören seit RTX 2000 zur Serienausstattung. Bei AMD käme dein Vergleich aber hin, entsprechende Ausstattung nur ab RX 9000 und dann auch nur wenn von AMD gewhitelistet und wenn das Spiel nicht die Vulkan API nutzt.Nordwind2000 schrieb:Kommt mir immer so vor, wie man kauft ein Auto und der Verkäufer sagt: "Ihr Auto kann 200 km/h fahren, aber nur mit dem zweiten Schlüssel und mit nur einer Person an Board."
RT kann man wohl nicht ausschalten (wenn ich es hier richtig gelesen habe)Eno77 schrieb:Ich hätte mindestens als Ausgangsbasis gern native Werte (wenn möglich mit RT on und off)
Bei Techpowerup gibt es diverse Auflösungen und Modi im Vergleich - bei PCGH auch nativ
mit 100-120 FPS bin ich völlig zufrieden
https://www.techpowerup.com/review/doom-the-dark-ages-performance-benchmark/5.html
https://www.techpowerup.com/review/doom-the-dark-ages-performance-benchmark/6.html
https://www.pcgameshardware.de/Doom...Review-Steam-Benchmarks-Raytracing-1471919/3/
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 236
- Aufrufe
- 12.691
- Antworten
- 172
- Aufrufe
- 7.316
- Antworten
- 3
- Aufrufe
- 720
- Antworten
- 220
- Aufrufe
- 11.954
- Antworten
- 48
- Aufrufe
- 3.844