Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestMafia: The Old Country im Test: Grafikkarten-Benchmarks mit extrem hohen Anforderungen
Ich bin der Meinung wenn CB Entscheidungen wie das "Nicht mehr 1080p Benchen" an eigenen Statistiken festmacht dann sollten diese zumindest ausgelesen und nicht manipulierbar sein. Aber ist halt nur meine Meinung ...
Den Nutzwert könnte dadurch zweifelsohne gesteigert werden, doch bedeutet das auch eine Menge Arbeit.
Und die Benchmark-Tests sind jetzt schon richtig viel Arbeit, nochmal mehr (und es wäre schon deutlich mehr, die optimalen Einstellungen findet man nicht mal eben so raus) ist da einfach nicht drin.
Als Anregung für zukünftige Benchmarks/bei Erneuerung des Test-Parcours:
Vielleicht wäre es sinnvoller, sich bei Tests von Grafikkarten/Hardware auf Auflösungen wie 3.840 × 2.160 und 3440x1440 (oder 2560x1400) und hohen Upscaling-Faktoren zu beschränken um die Leistungsfähigkeit der Hardware in den Vordergrund zu stellen.
Bei den Tests von Spielen wie diesen hier dann auf 3.840 × 2.160 und 1920x1080 beschränken und dazu Presets oder optimierte Einstellungen mit in den Test aufnehmen, anstatt eine dritte Auflösung und gerne auch zumindest exemplarisch Informationen zur CPU.
Denn dies scheint nicht nur hier, sondern auch bei anderen Seiten ein stetig nachgefragter Inhalt zu sein.
Ich habe mir jahrelang die Performance für 21:9 Auflösungen umrechnen müssen und das würde ich auch in Zukunft wieder gerne machen, wenn ich einen Überblick über die Presets oder empfehlenswerte Einstellungen für den besten Kompromiss zwischen Leistung und Qualität bei den Spiele-Tests bekommen würde.
Ja. Wenn eine Firma, die in den letzten Quartalen vielleicht halb so viel Umsatz wie Intel erwirtschaftet, ein viertel oder fünftel des Umsatzes von Nvidia erwirtschaftet und seit Jahren der einzige Konkurrent dieser beiden Firmen ist, dann finde ich mithalten bei quasi fast allen Aspekten abseits von Pathtracing und maximaler Leistung schon ziemlich beeindruckend.
Dir ist aber bewusst, dass du hier Spiele miteinander vergleichst, die mehrere hundertmillionen Euro in der Entwicklung gekostet haben mit einem Spiel, das vielleicht 20.000.000 Millionen Euro (ich schätze noch nicht einmal das, aber ich bin ich jetzt etwas überfragt) gekostet hat?
Kann es sein, dass Du das Komma (oder den Punkt) irgendwie falsch gesetzt hast ?!?
Weil 20 Millionen Millionen (20 Billionen) hat nicht mal das Apollo Programm gekostet ...
GTX 5900 od. RTX 5090 ?!? Gesetzt der Fall Ersteres, dann schließt sich der Kreis.
Ergänzung ()
DJKno schrieb:
Die 5000er Serie ist erschreckend schwach, dafür die RDNA richtig stark. Bin also mit einer 4080S weiterhin sehr gut dabei. Also alles richtig gemacht.
Beeindrucken wie weit NVIDIA mit der 4090 nach wie vor, vor AMD ist. Ob sie das die nächsten Jahre aufholen können? Sieht bisher nicht so aus (wenn man die beiden besten Karten miteinander vergleicht).
Laufen ist relativ -- zumindest aus heutiger PC-Enthusiastensicht. Konsoleros, die im Qualitätsmodus (30 fps) zocken, würdens noch akzeptieren. Und das ist die niedrigste damals gebenchte Auflösung -- selbst ich als Late Adopter hatte bereits einen Flachen mit 1280x1024. Und das Hoch-Preset. Kein Ultradultra oder Epic -- zumindest manches Spiel ist ja noch heute clever genug, ne Warnung auszuspucken, wenn man das aktivieren möchte. Denn da gehts meist darum, alles draufzupacken, was noch einigermaßen drin ist. Darfs noch ein bisschen mehr sein? Sweetspots sehen anders aus. Und: Ob das dann noch performant ist, ist zweitrangig.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
M.e. wäre es sehr klug von den meisten Herstellern, ein "Konsolen-Like-Preset" anzubieten. Und in manchen Games auch, "Low" einfach "Effizient" zu nennen. Hier wird ja tatsächlich mal u.a. einiges an Vegetation deaktiviert. Da muss man nicht suchen im Vergleich. Aber auch hier scheints weit von Crysis-Low entfernt, das damals für jede Option ein regelrechter OFF-Button war: Schatten? Low = Aus. Beleuchtung? Low = aus. Grafik? Low = aus. Das Jahre ältere Far Cry 1 sah besser aus -- und pumpte trotzdem mehr Bilder pro Sekunde raus. Hersteller sind heute deutlich besser in der Skalierung geworden. Eventuell auch wegen den Konsolen... Denn wie gesagt: PC-Showcases wie Crysis, Wing Commander und Doom³ sind so tot wie Tupperware-Partys. Ich meine, The Old Country ist sicher kein Vorzeigetitel, technisch. Aber auch im für seine Optimierung gelobten KCD2 geht auf dem höchsten Presetwie in Teil 1 genauso wieder massiv Performance flöten. Und laut Steam ist selbst das letzte Doom ein Optimierungsfail -- ich musste schmunzeln.
PS: Upscaler sind wie auf Konsole gekommen, um zu bleiben. Andererseits: Man zahlt ja auch dafür...
Das werde ich wohl auch so machen. Aktuell kommt es mir eh vor, also hinkt die Hardware der Software ständig hinterher. Das war bis und mit RTX 2000 er Serie gefühlt andersrum.
RTX 2080 kam 2018 und da war Shadow of the Tombraider der Benchmark:
1080p auf RTX 2080 + RT Ultra = 70FPS bei 215 Watt.
RT & DLSS 1.0 kamen erst 2019 ins Game und FSR 1.0 wurde erst 2021 released. Damit wollte und will sowieso niemand zocken.
Heutzutage sind Cyberpunk & Indiana Jones in 2560 x 1440p die Benchmarks. Laut Steam Survey haben 20% diese Auflösung.
Cyberpunk, DLSS Quality, High Raytracing, RTX 5080 1440p = 98FPS bei 300 Watt.
Shadow of the Tombraider RT Ultra mit RTX 5080 in 4k!!! = 170 FPS bei 300 Watt.
Die modernen GPUs leisten schon beträchtliches bei knapp 80% mehr Pixeldichte mit 1440p (von 4k gar nicht zu sprechen) im Vergleich zu 1080p. Dazu gibt es im Gegensatz zu 2018 sinvolles/verwendbares Upscaling & MFG sowie deutliches besseres RT. Und die Grafik in den Games, auch Mafia, ist nun wirklich eine detailiertere/dynamischere (zB Details in hoher Sichtweite).
Schau mal hier, so sah 2018 kein Game aus hinsichtlich Sichtweite, Vegetation, Schatten ect pp.
Preislich ist die 5080 mit 1100€ natürlich um einiges teurer als damals die RTX 2080 für 850€. Aber die AMD 9070 XT leistet für 700€, zumindest in diesem Titel in 4k und 300 Watt, das Gleiche wie die RTX 5080 = 50FPS auf Ultra + DLSS/FSR Quality.
Unwahrscheinlich, sofern man nicht gerade eine AMD-Grafikkarte vor der 9000er Generation hat - nicht umsonst kommt nahezu jedes aktuelle Spiel mit Raytracing
Zum Test - Grafik und Anforderungen passen hier einfach nicht zueinander
Ergänzung ()
zeedy schrieb:
Herrje da war der Nvidia Treiber wohl nicht ganz game ready. Was sind das denn für Abstände zu entsprechenden AMD GPUs? Wenn ich >100€ mehr für eine 5070TI bezahle dann erwarte ich ja mindestens die gleiche Performance wie von einer 9070XT 🙄
Eigentlich absolut lächerlich - da werden die neuesten superduper schießmichtot Grafikkarten maximal in 1080p getestet und erreichen dort in der Spitze sagenhafte 70fps
Die RX 7900XTX fehlt doch. Wieso eigentlich?^^ Die ist ohne Raytrasing in einigen games schneller als die 9070XT. Ich z.b. will keine künstlich erzeugten Bilder. 🤓😅🙄