Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestDoom: The Dark Ages im Test: Benchmarks mit 25 Grafikkarten und zwei Überraschungen
Über die DLL kann ich nichts sagen, aber man kann die FSR-Version in Doom per Optiscaler tauschen. Und ja, die sieht dann was das Ghosting angeht deutlich schlechter aus. Hier hat id irgendeinen Mist gebaut.
Sorry, aber dann ist das Produkt (hier Spiel) einfach kaputt. Es kann doch nicht sein, dass man an den Reglern herumstellen kann, sich aber nichts ändert.
Mit Mittel und Niedrig tut sich dann doch etwas mehr. Aber die drei höchsten Presets sind halt unnötig. Wie so häufig. Hauptsache noch eins draufsetzen. Wurde denn getestet, ob es mit Hoch oder Albtraum wirklich schlechter aussieht als mit Ultra-Albtraum oder Ultra? Was sind das eigentlich schon wie für super tolle Namen.
Warum langt Niedrig, Mittel, Hoch und dann von mir aus Ultra nicht? Scheint sich ja ohnehin nichts zutun. Entweder, weil sich die Frames nicht ändern oder´, weil sich das Bild sichtbar auch nicht mehr bessert und nur noch die Frames in den Keller gehen.
Sind btw. immerhin 22% (9070) bzw. 20% (5060 Ti) die zwischen Ultra und Niedrig liegen.
Aber klar. Unter Hoch testen wir gar nicht erst. Dann kommt man zum Fazit, dass die Grafikoptionen gar keine Option sind. Das kann man btw. finde ich auch deutlicher kritisieren.
Wenn ich mir btw. dann noch das "Testbild" bei HWLuxx in den verschiedenen Detailstufen ansehe, frage ich mich, warum ich bei dem Spiel Ultra wählen sollte <.<
Was Enthusiasts denken, wie Games 2025 in low aussehen:
Wie Games 2025 in low aussehen:
Spaß beiseite:
Viel sind ~20% natürlich trotzdem nicht. Das schreibt Wolfgang aber auch: "Die Grafikdetails bringen im GPU-Limit so gut wie keine Besserung, mehr als 20 Prozent mehr FPS mit den niedrigsten (!) Grafikdetails im Vergleich zu den höchsten gibt es nicht. Aggressiveres Upsampling ist dann die einzige empfehlenswerte Variante." HW Unboxed zeigen auch, warum... da ist noch Potenzial. Und ich habe so die Vermutung -- da wird noch was reingepatcht. Offiziell soll in 1080p noch eine RX6600 für 60 fps reichen. Das könnte eng sein.
IMHO ist das Spiel eine weitere Warnung, in 2025 keine neue dGPU mit weniger als 12 GB mehr zu kaufen. Selbst wenn die Shadern usw eigentlich genug Leistung haben, kommt man um die Limitierung durch zu wenig VRAM eben nicht herum.
Schon interessant, daß der "Toaster" B580 in QHD immerhin noch 41 FPS in den 1% Minimums schafft; in meinen Augen also durchaus noch spielbar. Die B580 hat eben auch 12 GB VRAM.
Da gibts auch andere Ergebnisse, allgemein VRAM-hungrig ist das Game ja eh nicht. Aber wer weiß. Ich bin bei Benches mit id Tech seit Indiana Jones vorsichtig geworden. Habe selbst auch 12GB und würde auch keine 8GB mehr nehmen. Hätte mir aber gerade bei Indy mehr Benefit erhofft -- zumindest gegenüber vergleichbaren GPUs mit weniger VRAM. Heute erst wieder drüber diskutiert, warum. Es geht um den einstellbaren Texturpool, der ein Streamingcache ist, kein direktes Textur-Detailsetting. Der führt mit steigenden Größen zu immer kleinerem Mehrwert -- aber zu heftigen Performance-Einbrüchen bis Crashes, wenn man ihn zu hoch einstellt. Warum id das einem überhaupt selbst überlassen, statt die Engine das alles managen zu lassen, ist weird.
Da nur DLSS4 unterstützt wird, habe ich so das flaue Gefühl, dass Doom DA nicht mit dem guten, alten 566.36 laufen wird, auf Update habe ich ja mal so gar keinen Bock...
Ich habe heute den aktuellen drauf installiert, komischerweise läuft alles wieder, außer Valorant, dass stürzt schon bei der Installation ab. Liegt aber wohl am Spiel und nicht am Treiber.
Wozu?
Jeder weiß, dass die 6800/6900XT in etwa da landen, wo die 7800XT ist,
mit OC mehr in die nähe der 7900 GRE.
Das zu testen kann man sich sparen, das schon richtig so!
Bin selber 6900XT Nutzer.
Früher war Doom für mich auch deswegen interessant, weil die Engine neue Technologien implementiert hatte und z. B. meine RX Vega⁶⁴ dort fast GTX 1080 Ti Performance brachte. Daß Doom TDA mit Blackwell nichts anzufangen weiß, ist da eher ernüchternd. Aber zumindest befriedigend, daß Indiana Jones keinen Prädiktor für mittelfristigen VRAM bedarf darstellt, sondern eher ein abschreckendes Negativbeispiel für üble Software / Ressourcenmanagement.
Es gibt Doom TDA bei verschiedenen Händlern mit dazu, wenn man eine nvidia RTX 50xx Karte kauft.
Was ich aber nicht verstehe, CB benutzt den Treiber 576.40, der link führt aber zu dem offiziellen 576.28.
Es gibt nirgends den 576.40. wird der Treiber in ein paar Tagen releast? Ist das ein Testtreiber?
Wieso wird nicht der offizielle 576.28 genutzt?
Sogesehen, sehe ich diese Benchmarks, vorallem das ''komische'' Verhalten der Blackwells (lt. Test)
mit Skepsis, und nicht als final an.
Die schlechte Performance ist sehr enttäuschend. Aber zum Glück kommen ja bald neue schnellere Grafikkarten. Oh wait.
Habe Doom und Doom Eternal mehrmals auf dem höchsten Schwierigkeitsgrad durch, aber mit 50 fps hab ich da keinen Bock drauf. Schaue ich halt Nachrichten, sind weniger deprimierend als der Käse hier.
Was wurde ich hier beschimpft, weil ich geschrieben habe, dass jeder der eine 4090 oder 4080 hat, sich keine 5XXX Karte brauchen muss, weil es rausgeschmissenes Geld ist. Jetzt sitzt ich hier und freue mich, dass meine 4080 absolut ausreichend ist.
Wurdest du? Eigentlich hat das in so ziemlich allen Foren so ziemlich jeder gesagt. Und dass die Zielgruppe für die 5000er nicht in erster Linie 4000er-Käufer waren und sind, ist ja nun mehr als offensichtlich.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
DF hat das Game wohl ohne Patch getestet. Hier auf dem Kanal funktioniert der FOV Slider überall und die Performance hat auch keine Schwankungen:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.