• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Senua's Saga: Hellblade II im Test: Neue GPU-Benchmarks mit dem Enhanced-Patch

Meine RX 9070 XT entpuppt sich immer mehr als wirklich gute Investition. Mir ist egal ob die RTX 5080 ein kleines Stück vorne liegt in anderen Tests. Allein der Preisunterschied relativiert das alles sehr sehr schnell!
 
  • Gefällt mir
Reaktionen: Redundanz, Alphanerd und kristwi
Auf dem Steam Deck spielbar? 😂😂
Sehr guter Witz.
1755539048874.jpeg

FSR Performance/Ultra Performance sind nötig damit das Game eher mit knapp über 20 als stabilen 30 fps läuft.
 
  • Gefällt mir
Reaktionen: kristwi
Wolfgang schrieb:
Naja, was heißt "falsche Testsequenz". Ich weiß was du meinst, aber falsch ist ja keine. Beide zeigen, wie schnell die Grafikkarten in eben genau jenen Szenen sind.
Der Artikel heißt aber nicht, schaut her wie stark sich Benchmarks in verschiedenen Szenen unterscheiden können, sondern "Senua's Saga: Hellblade II im Test" und da sind Szenen die sich völlig von den Ergebnissen einer anderen Testzeitschrift unterscheiden, definitiv nicht die richtigen um dies darzustellen.

Wenn wir mal davon ausgehen, dass ihr beide technisch saubere Arbeit abgeliefert habt und die die Karten sich je nach Szene so unterschiedlich verhalten, dann hätte man eine Szene nehmen müssen die irgendwo "in der Mitte" liegt. Einzig der Glaube daran fehlt mir, dafür liegen die Tests zu weit auseinander.

Wolfgang schrieb:
Und diese Punkte (DLSS/FSR) halte ich auch nicht für "optimieren" im Sinne von Schummeln, so wie es früher gewesen ist oder so wie es bei integrierten Benchmarks sein kann.
Es ist eigentlich genau das - Schummeln, wobei ich da grundsätzlich nichts dagegen habe. Technisch gesehen ist die gesamte "3D" Darstellung geschummelt, noch bevor Hochrechnungalgorithmen ins Spiel kommen. Nur ist natürlich die Frage wie gut ich trotz DLSS und Co. ein Benchmark des gezeigtem durchführen kann. Bei Audio hatte man früher mehrere unabhängige Hörer, die jeweils versuchten die Qualität einzuschätzen, hier bist du hingegen weitgehend auf dich gestellt und wir auf dein geschultes Auge.

Das Problem an der Geschichte ist, es ist damit dein subjektives empfinden und kein Benchmark mehr. Während an anderen Stellen die Qualität stark zugelegt hat, wir Effizienz, Latenz und andere Werte sehen können, wird die angezeigte Bildqualität nur noch geschätzt. Denke mal an Witcher 3, da haben Haare die GPUs von AMD in die Knie gezwungen, heute würde man das in der Software "wegoptimieren", merkt in der schnellen Bewegung eh "niemand".

Technisch gesehen bräuchte man ein "Referenzbild" und eine Software die davon abweichende Unterschiede aufzeigt oder ein Gremium der die Bildqualität unabhängig bewertet, nur ist beides aus verschiedenen Gründen unrealistisch.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Für einen halben Tag an einem der zwei Open Beta Wochenenden, ein reichlich konstruiertes Schreckensszenario^
Vlt kein Schreckenszenario, aber doch schon leicht peinlich für die wertvollste Firma der Welt.
 
Serandi.87 schrieb:
Hatte ich vor Release der RX 9070 XT schon geahnt. Bin dennoch erstaunt, dass es wirklich passiert und das bereits in einigen Titeln. Mal sehen was in kommenden Titeln passiert.
Beste GPU am Markt aktuell.

Werkt im zweiten Rechner vor sich hin. Leise und stark (Asus Tuf).

Dass die 5080 hier und da liegen gelassen wird, ist echt ein Genuss und bringt hoffentlich ein paar zum Umdenken.
 
  • Gefällt mir
Reaktionen: Redundanz und Serandi.87
Deinorius schrieb:
Basierend darauf werde ich das erweitern, dass Upscaler Teile des GPU-Transistorbudgets komplettieren. Würde man keine Upscaler verwenden, liegen Teile der GPU brach. Ich würde also argumentieren, dass man somit nicht die "gesamte Rohleistung" ausnutzt, was für Raytracing angewendet werden kann.
Das Problem an dieser Stelle ist das jeweils unterschiedliche Ergebnis und nicht wie er zustande kam. Solange die im Spiel integrierten Methoden genutzt werden, kann es für mich noch halbwegs nachvollziehbar sein, ab er spätestens wenn dann noch Zusatztools ins Spiel kommen, wird es willkürlich.

Ich erinnere mich an LTT und die Erklärung wie Optiscaler funktioniert und wo gezeigt wurde, dass die Software praktisch nur den angezeigten Frame unabhängig von Inhalt nimmt und diesen vervielfältigt. Das Ergebnis konnte man ebenfalls gut sehen und teils erschrecken, und sowas soll nun ein "Benchmark" sein?
1755541595935.png

Wenn wir schon die "Softwaremanipulation" der jeweiligen Hersteller gegenüber stellen wollen, dann zählt leider auch wie gut es in Spielen eingebaut ist, wie gut die Verbreitung der jeweils aktuellsten Technologien ist, wie gut ist die Abwärtskompatibilität usw. Während man bei Nvidia seit Jahren einfach die aktuellsten DLSS Bibliotheken in das Spieleverzeichnis kopieren kann, ist AMD hier leider weit davon entfernt.
 
Alphanerd schrieb:
Vlt kein Schreckenszenario, aber doch schon leicht peinlich für die wertvollste Firma der Welt.
Naja es lag ja wenn dann eher an Dice.
Was anderes wäre es wenn das laufend in unterschiedlichen Spielen in der Releaseversion passieren würde
 
Ich verfolge die Technik- oder Grafiktests hier schon länger und gerade in der jüngeren Vergangenheit fällt mir des Öfteren auf, dass die 9070XT in den Benchmarks häufig bis immer vor der 7900XTX liegt.
Ich bin vor ein paar Monaten erst von einer 4090 auf eine 7900 XTX gewechselt (kurz vor Launch von RDNA4) und hab das bisher nicht bereut. Die 4090 hab Ich teuer verkauft, als das was ich damals kurz nach Launch bezahlt habe und für die 7900XTX habe ich „nur“ 750 Euro bezahlt. Allerdings wundert es mich, dass hier die 9070XT so oft besser abschneidet und auf anderen Seiten die Tests dann anders ausfallen.
Nicht falsch verstehen, ich habe mir die 7900XTX bewusst gekauft, da ich in nativer Auflösung in UWQHD spiele und kein Upscaling benötige und es mir auch optisch nicht zusagt, aber ich finde es sollten Tests, dann auch so gestaltet werden, dass Ergebnisse vergleichbar sind.
 
RotkohlRitter schrieb:
Geht mir aktuell genauso. Meine 4090 hatte dieses Jahr nach der Reparatur einen Transport-Schaden, wodurch ich am Ende nur das Geld zurück bekam, weil kein Ersatz mehr verfügbar. In der Blackwell Generation gibt es einfach keinen richtigen Ersatz für die 4090. Manchmal kommt die 5080 gut ran, manchmal ist wieder weit weg. Die 5090 kostet nochmal ordentlich mehr als die 4090, kann sich oft aber auch kaum mit DLSS Quality absetzen. Ich trauere der Karte echt hinterher.
ich habe von der 4090 auf die 5090 upgegraded. hat sich gelohnt. low fps viel besser und weniger artifakte bei fg.
 
Coco Cabana schrieb:
Allerdings wundert es mich, dass hier die 9070XT so oft besser abschneidet und auf anderen Seiten die Tests dann anders ausfallen.
Lieg dann halt meist daran, wenn ein Spiel FSR4 unterstützt, dann ist die 9070XT alleine dadurch schneller, dass sie für gleiche Qualität eine geringere Auflösung benötigt.
 
xexex schrieb:
Ich erinnere mich an LTT und die Erklärung wie Optiscaler funktioniert und wo gezeigt wurde, dass die Software praktisch nur den angezeigten Frame unabhängig von Inhalt nimmt und diesen vervielfältigt. Das Ergebnis konnte man ebenfalls gut sehen und teils erschrecken, und sowas soll nun ein "Benchmark" sein?
Da ich jetzt gerade nicht direkt nachsehen kann, es ging in dem Video doch um Lossless Scaling, nicht um Optiscaler. Dazu hat man sich darin FG und nicht Upscaler angesehen, oder zumindest war ersteres das primäre Thema.
Wir diskutieren hier gerade über Upscaler, nicht FG, was wiederum seine eigenen Probleme mit sich bringt. "Derzeit" kann ich mir überhaupt nicht vorstellen, dass FG in Benchmarks jemals eine Rolle spielt, zumindest, sofern Nvidia nicht deren Finger im Spiel hat.
Was das Anwenden von Zusatztools anbelangt, darüber kann man sich wirklich streiten. Ich persönlich bin dafür, denn wenn es möglich ist und ohne Probleme funktioniert, dann würde ich es selber absolut verwenden. Darüber hinaus finde ich es auch wichtig, dass Leser auf die vielen Möglichkeiten aufmerksam gemacht werden. Hier fände ich es gut, wenn dieser Umstand als Fußnote bei jedem Bechmarks-Diagramm vermerkt ist.

xexex schrieb:
Wenn wir schon die "Softwaremanipulation" der jeweiligen Hersteller gegenüber stellen wollen
Das Einzige, was mir hier wirklich auf die Nerven geht, ist, dass es überhaupt unterschiedliche "Softwaremanipulationen" der jeweiligen Hersteller gibt. Ich gebe hier primär Microsoft die Schuld. Jetzt sitzen wir halt in der Bredouille.
 
  • Gefällt mir
Reaktionen: Fika und Redundanz
Hi zusammen,

gibt es eine Möglichkeit (Mod) die schwarzen Balken oben u unten bei der Enhanced Version im Spielbetrieb zu entfernen?

LG Hannes
 
TheInvisible schrieb:
Du weißt schon das die ganze Computergrafik eine einzige Trickserei ist. Upscaling ist nicht nur Upscaling sondern auch Antialiasing und Bildberuhigung und ist daher meiste Zeit sogar besser als nativ.

die aussage "besser als nativ" ist quatsch. das muss richtig heißen "besser als nativ mit unscharfem TAA" - dann ist die aussage korrekt. die native auflösung kann nichts dafür, dass TAA meistens so dermaßen unscharf ist, dass die auflösung gefühlt eine stufe nach unten rutscht. andere AA methoden liefern eine viel bessere bildschärfe mit weniger / keinen bildartefakten, kosten aber mehr leistung und sind deshalb unpopulär. die unreal engine 4/5 braucht gar den unschärfeeffekt von TAA damit manche effekte überhaupt "korrekt" dargestellt werden.

am schönsten ist native auflösung mit DLAA oder anderem oversampling. und auch wenn man bei TAA mit oversampling arbeitet, steigt die bildqualität massiv an. resident evil 2 remake unterstützt nur FSR2 oder nativ mit SMAA/TAA/FXAA, und die sind alle 3 nicht besonders gut. am besten ist hier 4k+oversampling+TAA. moderne grafikkarten haben genug leistung das auch in 5k mit raytracing mit über 100fps zu rendern.
TheInvisible schrieb:
Du musst es anders sehen, ohne Upscaling, FG usw würde man quasi fast gar keinen Leistungsgewinn mehr erzielen. Glaubs du AMD/Intel/NV machen das mit Absicht das es nur mehr so wenig Fortschritt im Rohleistungsbereich gibt?
Nein, ich sehe das genau richtig. eine 64 CU gpu wie die 9070XT hat noch VIEL luft nach oben. die 7900XT hatte 96CUs, das sind 50% mehr compute units. und nvidia verkauft einen 380mm² chip für über 1000€. das ist eigentlich die 500€ mittelklasse. bei ampere ist nvidia die düse gegangen, weil sich RDNA2 viel besser und die samsung-fertigung schlechter als erwartet herauskristallisiert hat, lovelace war dann eine machtdemonstration, und nvidia konnte die chips alle eine klasse höher einordnen, was quasi eine verstecke 30% preiserhöhung ist.

und ja, ich glaube amd und nvidia stagnieren heute den consumer markt mit absicht, damit man da mehr geld rauspressen kann. zwischen amd und nvidia gibts seit rdna1 bei den gpus keine gesunde konkurrenzsituation mehr. manche nennen das auch preisabsprachen oder ein kartell. nenns wie du willst, aber einen konkurrenzkampf gibt es da de facto nicht mehr.



2016:

TheInvisible schrieb:
Nvidia hat es schon frühzeitig erkannt und mit den AI Kernen einen Grundstein gelegt, alle anderen haben jetzt schon nachgezogen.

selber vorgang wie damals mit physx, tessellation, gameworks, hairworks. da wird von nvidia softwareseitig ein problem produziert, in entwicklerstudios transportiert, vorallem via unreal engine oder finanziellen anreizen direkt, das hinterher mit proprietärer nvidia hardware gelöst wird. das ist eine langjährige methode von nvidia um die konkurrenz auszubooten.
Taxxor schrieb:
Weil die Renderauflösung nicht mehr wirklich relevant ist, es geht um die Monitorauflösung die die Leute nutzen.

die interne renderauflösung bestimmt die FPS, völlig egal ob upscaling oder nicht. das delta zwischen 1080p nativ und 1440p mit quality upscaling bei etwa der selben internen renderauflösung ist sehr gering.

Taxxor schrieb:
Erstmal woher kommt der Gedanke dass die Bildqualität „den Bach runter geht“? Bisher ist sie mit jedem Update bei gleicher Auflösung gestiegen bzw. mit geringerer Auflösung gleich geblieben oder sogar trotzdem noch gestiegen, was ja auch Sinn der Sache ist.

wir leben in einer turbokapitalistischen tech dystopie - "race to the bottom" oder "enshittification". da wird zu 10000% irgendwas kommen. erst ködern, dann cashen. der gpu markt ist kein gesunder markt, sondern ein quasi duopol bestehend aus zwei firmen bei denen die CEOs verwandt sind. es gibt tausende beispiele, wie sich firmen durch vermeintliche kundenfreundlichkeit nach oben gearbeitet haben, nur um dann die daumenschrauben anzuziehen.

Taxxor schrieb:
Und das ist auch keine Verschwörung der GPU Hersteller, die sich Geld sparen wollen und dafür mit Software tricksen, es ist einfach die natürliche Entwicklung effizienterer Renderingmethoden, eben weil über Rohleistung immer weniger zu holen ist.
Und wenn man es schafft, effizienter zu rendern, dann gehört das in einem Vergleich der Performance eben unbedingt dazu

ein teil wird sicherlich moores law geschuldet sein, aber eine verschwörung auszuschließen halte ich für naiv und vermessen. und selbst wenn es der am wenigsten kriminelle ansatz ist, bleibt es immernoch ein vorstoß von nvidia, der nur mittel zum zweck ist: geld. bei nvidia ging es schon immer darum den markt mit proprietärer technik zu beherrschen - nvidia legt mit 10-fachem budget und mindshare vor und der rest hechelt hinterher. da gehts nur um eine marktdominierende position, es geht nicht und ging nie darum irgendwelchen gamern ein besseres spieleerlebnis zu ermöglichen. nvidia ist das paradebeispiel von "sell me this pen".

Taxxor schrieb:
Für einen halben Tag an einem der zwei Open Beta Wochenenden, ein reichlich konstruiertes Schreckensszenario^^
es gibt auch einige titel die nur FSR oder TSR und kein DLSS unterstützen. so ist das eben mit konkurrierenden standards.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Uthleber und MalWiederIch
duskstalker schrieb:
die interne renderauflösung bestimmt die FPS, völlig egal ob upscaling oder nicht. das delta zwischen 1080p nativ und 1440p mit quality upscaling bei etwa der selben internen renderauflösung ist fast identisch.
~15% Langsamer durch den Algorithmus.

Und irgendwas musste eben Platz machen für die hier am 3. häufigsten genutzte Auflösung UWQHD, auf dessen Performance kommst du mit keinem Upscaling Faktor von den anderen 16:9 Auflösungen aus hin
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Taxxor schrieb:
Lieg dann halt meist daran, wenn ein Spiel FSR4 unterstützt, dann ist die 9070XT alleine dadurch schneller, dass sie für gleiche Qualität eine geringere Auflösung benötigt.
"Schneller" wird die dadurch nicht, sondern liegt hier oft an von Wolfgang gewählten Settings.

1755548401324.png


Im Grunde hat es seine Berechtigung, man will am Ende ein möglichst ähnliches visuelles Ergebnis haben und FSR4 steht auf älteren AMD GPUs nicht zur Verfügung. Ob man das jetzt auf die eigenen Vorlieben so übertragen kann sei dahin gestellt und ist eben das Problem dieser Technologie.
Ergänzung ()

Deinorius schrieb:
Was das Anwenden von Zusatztools anbelangt, darüber kann man sich wirklich streiten. Ich persönlich bin dafür, denn wenn es möglich ist und ohne Probleme funktioniert, dann würde ich es selber absolut verwenden.
Absolut richtig, aber was wird denn dann noch überhaupt getestet? Das Spiel, die Hardware, die unterstützten APIs, mit welchen Tools man die besten FPS rausbekommt? Für mich sind das keine "Tests" mehr, sondern bestenfalls Konfigurationsempfehlungen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
xexex schrieb:
aber was wird denn dann noch überhaupt getestet? Das Spiel, die Hardware, die unterstützten APIs, mit welchen Tools man die besten FPS rausbekommt?
Bei Spieletests geht’s doch in erster Linie darum: Was kann man in speziell diesem Spiel mit dem was man zur Verfügung hat mit der jeweiligen Hardware erreichen?

Dazu gehören alle deine genannten Punkte in Kombination ^^

Mal ganz hypothetisch angenommen es würde morgen wirklich ein Spiel rauskommen mit bisher noch nie gesehenem DLSS5 welches es sonst nirgends gibt außer in diesem Spiel. Es wäre Blackwell exklusiv und würde bei gleicher Bildqualität zu DLSS4 die FPS nochmal um 30% erhöhen.
Dann wäre doch jeder User bescheuert, der mit seiner Blackwell GPU hier DLSS4 einstellt.

Und damit gehört die Tatsache, dass das Spiel dieses spezielle Feature für Blackwell bietet, auch in die Performance Analyse rein
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Quidproquo77
duskstalker schrieb:
resident evil 2 remake unterstützt nur FSR2 oder nativ mit SMAA/TAA/FXAA, und die sind alle 3 nicht besonders gut. am besten ist hier 4k+oversampling+TAA. moderne grafikkarten haben genug leistung das auch in 5k mit raytracing mit über 100fps zu rendern.
Hast du etwas geraucht? Laut CB schafft eine "RTX 5090" in 4K selbst ohne RT mit DLSS Q gerade 111 fps! Und mit RT sind es nur über 80 fps! Mit welchen Einstellungen soll das passieren? Low oder Lowest?

xexex schrieb:
Absolut richtig, aber was wird denn dann noch überhaupt getestet? Das Spiel, die Hardware, die unterstützten APIs, mit welchen Tools man die besten FPS rausbekommt? Für mich sind das keine "Tests" mehr, sondern bestenfalls Konfigurationsempfehlungen.
Jetzt übertreibst du. Mit Optiscaler und Upscalern verschafft man sich damit eher eine Vergleichbarkeit als ohne. Das kann auch andersherum betrachtet werden, wenn ein Spiel ohne DLSS (selten genug) mit diesem bereichert wird.
Und was würde dagegen sprechen, wenn zumindest eine Review-Seite mit "Konfigurationsempfehlungen" testen würde? Ich persönlich würde mir wünschen auch solche lesen zu können. Derzeit testet jeder praktisch nur mit den höchsten Grafikeinstellungen, was durchaus valide ist, manchmal auch mit Medium für bestimmte Fragestellungen. Aber optimierte Einstellungen, damit man sich direkt die realistische Leistung ansehen kann.
 
  • Gefällt mir
Reaktionen: Fika
kristwi schrieb:
Egal welches Spiel - es ist immer peinlich für NVIDIA.
Gebe ich dir recht, bei dem Preisunterschied sollte sowas nicht passieren und als 9070XT Nutzer freut mich das natürlich.
 
  • Gefällt mir
Reaktionen: MrZweistein und kristwi
Ein weiterer Test, ein weiteres Problem mit der unterschiedlichen Handhabung der Upscaler. Traurig. Aber ich gebe nicht auf, bis es geändert wird. :daumen:
 
Ich war immer der Meinung das FullHD noch recht weit verbreitet ist - haben die getesteten Auflösungen mittlerweile eine höhere Verbreitung? Ansonsten Danke für den Test und die Übersichten :)
 
Zurück
Oben