• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Senua's Saga: Hellblade II im Test: Neue GPU-Benchmarks mit dem Enhanced-Patch

DriveByFM schrieb:
Wow die 9070XT hat die 5080 rasiert.
Ja - in „Senua's Saga: Hellblade II“, was auch immer das sein soll - gerade mal bei Steam Charts nachgeschaut:
IMG_0692.jpeg

Years after the studio confirmed its development, Hellblade 2 failed to achieve the success and popularity they had anticipated. Despite receiving generally good reviews similar to the first title, Ninja Theory’s title quickly faded into obscurity after its May release.

Its early Game Pass availability was a benefit. According to several sales analyses, the game did not achieve anything close to a good flow of units sold. In terms of popularity and concurrent players on Steam, the title didn’t even surpass 10,000 players.

Ninja Theory’s New Title, Hellblade 2, Was a Sales Failure

77 Spieler im Peak bei Steam, über die letzten Monate sieht es auch nicht wirklich besser aus - das Spiel interessiert so gut wie niemanden :D

Hier das CB Leistungsrating ohne solche Nischenspiele:
IMG_0650.jpeg

Wenn man dann überlegt, dass 15% im CPU Limit im Vergleich für einige ein riesiger Abstand sind, da wurde sich noch nicht einmal bei 600€ für lediglich 8 Kerne aufgeregt :p
Ergänzung ()

s0undjan schrieb:
Und auch die 4080 Super ist erstaunlich nah an der 5080.
Lag preislich aber auch um einiges höher … OC geht bei der 4080 Super dafür fast nichts, während die 5080 5% hinter der 4090 landet - ganz ohne Erhöhung des Power Limits :)
Ergänzung ()

Fighter1993 schrieb:
Du hast doch ne 4090. selbst ich mit 4080 sehe 0 Grund aufzurüsten.
Von einer Generation auf die nächste hat noch nie viel Sinn ergeben von einer 7900 XT(X) auf eine 9070 XT macht auch nur bedingt Sinn - hier folgte die 5080 auf eine 3080 und landet wie gesagt mit nur 2 Klicks bei immer noch 360W für aktuell knappe 1.000€ bzw. 899€ als B-Ware im MSI-Shop nur 5% hinter der auch vorhandenen 4090 … von der Leistung gibt es keine Alternative, eine 4080 (Super) war/ist deutlich teuer …
Ergänzung ()

FrozenPie schrieb:
Je mehr Benchmarks ich zur aktuellen GPU Generation sehe, desto mehr trauere ich einer um 50% aufskalierten RX 9080 (XT) als direkter Nachfolger der 7900 XT(X) hinterher, da die NVidias RTX 5080/5090 echt das Leben schwer gemacht hätte.
Schön wäre es gewesen, die Umbenennung von 7700 XT zu 9070 XT kam ja nicht von ungefähr und somit bleibt es diese Generation etwas unterhalb 5070 Ti Leistung - hoffentlich kommt nächste Generation wieder etwas mit mehr Leistung …
Ergänzung ()

danyundsahne schrieb:
passiert in letzter Zeit immer wieder mal, dass man hier sehr eng beieinander liegt ;)
Genauso oft wie es passiert, dass man deutlich vor den 24% Differenz aus dem CB Leistungsrating liegt - deshalb nimmt man einen Schnitt aus vielen Spielen :)
Ob man das Spiel mit solch einer kleinen Spielerbase hier in ein Rating mit reinnehmen sollte ist die Frage …
Ergänzung ()

BobHB schrieb:
Und was sagt man in den meisten anderen Szenarien wo die 5080 rasiert?
Nichts. :p
Ergänzung ()

MrZweistein schrieb:
Meine RX 9070 XT entpuppt sich immer mehr als wirklich gute Investition. Mir ist egal ob die RTX 5080 ein kleines Stück vorne liegt in anderen Tests. Allein der Preisunterschied relativiert das alles sehr sehr schnell!
Ist doch überall so - 7950X3D Käufer:
Mir ist egal ob der 9950X3D ein kleines Stück (10% in Spielen und Anwendungen) vorne liegt in anderen Tests. Allein der Preisunterschied von 400€ bei Wiederverkauf relativiert das alles sehr sehr schnell!
9060 XT Käufer:
Mir ist egal ob die 9070 XT ein kleines Stück vorne liegt in anderen Tests. Allein der Preisunterschied relativiert das alles sehr sehr schnell!
Hoffen wir, dass AMD mit UNDA wieder aufholen kann, dann kann Nvidia auch keine hohen Aufpreise für sein Leistungsmonopol oberhalb der 5070 Ti verlangen - ähnliches gilt für den CPU-Markt :)
 
Zuletzt bearbeitet:
duskstalker schrieb:
die aussage "besser als nativ" ist quatsch. das muss richtig heißen "besser als nativ mit unscharfem TAA" - dann ist die aussage korrekt. die native auflösung kann nichts dafür, dass TAA meistens so dermaßen unscharf ist, dass die auflösung gefühlt eine stufe nach unten rutscht.
Du kehrst natürlich wie alle über TAA polemisierenden völlig unter den Teppich, dass TAA quasi kostenlos das Bild glättet und unterm Strich somit ein höher aufgelöstes Bild mit TAA größenteils flimmerfrei und recht scharf möglich ist, wohingegen das niedriger aufgelöste MSAA Bild zusätzlich Leistung kostet und technisch nicht mehr in der Lage ist Bildruhe herzustellen, weil es nur auf Geometriekanten wirkt. Du stürzt dich rein auf die "Unschärfe" und blendest alles andere aus. Gratuliere.
duskstalker schrieb:
andere AA methoden liefern eine viel bessere bildschärfe mit weniger / keinen bildartefakten
MSAA liefert wesentlich mehr Bildartefakte, warum es sich auch nicht mehr durchgesetzt hat, sondern komplett mit TAA und nun darauf KI basierenden Up- und Supersampling durchgesetzt hat. So scharf und ruhig, wie es sonst nur per massivem Leistungsaufwand mit Downsampling möglich gewesen wäre, aber das wird von dir nicht goutiert, lieber wird eine Verschwörung herbeigeschwurbelt.
duskstalker schrieb:
kosten aber mehr leistung und sind deshalb unpopulär.
So viel Leistung, dass es sich einfach nicht lohnt. Kosten/Nutzen. Und dann nur für Geometrie. Flimmern aus der Hölle.
duskstalker schrieb:
die unreal engine 4/5 braucht gar den unschärfeeffekt von TAA damit manche effekte überhaupt "korrekt" dargestellt werden.
Du möchtest Spiele also ohne Windbewegungen, Wellen, motion blur, DOF, "deffered rendering",realtime- Beleuchtung usw. im allgemeinen oder sonstige Effekte "genießen"?
duskstalker schrieb:
am schönsten ist native auflösung mit DLAA oder anderem oversampling.
DLAA ist unnötig, der Unterschied zu DLSS Quality oder Performance ist in 4K Auflösung kaum mehr zu beziffern, da Performance besser als Nativ aussieht.
duskstalker schrieb:
und nvidia verkauft einen 380mm² chip für über 1000€. das ist eigentlich die 500€ mittelklasse.
Dann soll AMD die 9070(XT) für 350 Euro verramschen? Na komm, das ist ungefähr wie bei deinen TAA Argumenten, die einem Realitätscheck und gesunden Margen nicht standhalten.
duskstalker schrieb:
selber vorgang wie damals mit physx, tessellation, gameworks, hairworks.
Tesselation, was war daran denn proprietär? Das war ein Directx11 Feature.
Und mit AI wird kein künstlich produziertes Problem gelöst, sondern reale.
Und bezüglich "ausbooten", so funktioniert ein Konkurrenzkampf, ansonsten hätten wir kaum Fortschritt, da keine Anreize bestehen.
Taxxor schrieb:
Für einen halben Tag an einem der zwei Open Beta Wochenenden, ein reichlich konstruiertes Schreckensszenario^^
Von ihm ist alles nur konstruiert. Es ist nicht ein Punkt dabei von dem man sagen könnte, das ergibt irgendwie Sinn.
 
  • Gefällt mir
Reaktionen: Deinorius, ElliotAlderson und Taxxor
duskstalker schrieb:
zwei firmen bei denen die CEOs verwandt sind.
Naja, eine Verwandschaft über 3 Ecken. Jensens Mutter ist die Schwester von Lisas Großvater mütterlicherseits, also nach unserem Verwandschaftsverständnis um einen zusästzlichen Schritt versetzte Cousins. Müsste nach westlichem System eine Verwandtschaft 4. oder 5. Grades sein und bis sie beruflich miteinander zu tun hatten, kannten die Beiden sich gegenseitig noch nichtmal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius und Alphanerd
4k - 5090 -> 11 (elf) FPS mehr als 4090 :)
Aber hey! Es ist schneller! Kann man nicht abstreiten, sie ist schneller-ah hab ich wieder kurz um den längeren Balken geschwitzt :)
 
ChrisMK72 schrieb:
Is das nicht ein kostenpflichtiges Programm? Werbung?
Gefällt mir nicht.
Tja muss man für die funktion bei Nvidia nicht auch deutlich drauf legen?
Gefällt mir nicht. 😏
 
Begu schrieb:
Naja, nach Balkenlänge schon. Allerdings zeichnet DLSS wohl mehr details, was potentiell mehr Leistung kostet, womit das eine Erklärung sein konnte.
Nein, in dem Fall ist das keine Erklärung, da keiner der Algorithmen wirklich "zusätzliche" Details berechnet. DLSS, FSR und XeSS - vereinfacht - rekonstruieren ein Bild in einer höheren Auflösung. Die Menge der Details, die rekonstruiert werden, haben keine Auswirkung auf die Laufzeit. Was eine Auswirkung auf die Laufzeit hat, ist die Menge an Daten, die zur Rekonstruktion herangezogen werden, sowie ggf. die Iterationen zur Rekonstruktion des Bildes.

Auswirkungen haben also die Anzahl der Frames, die vorgehalten werden zur Rekonstruktion, sowie die Ausgangs- sowie Zielauflösung und wie viele "Schritte" der Algorithmus zur Rekonstruktion des Bildes nutzen darf/soll.
Thane schrieb:
Ein Leistungsfresser sind offenbar die Schatten. Aber das ist wohl immer noch bei sehr vielen Spielen so.
Das Thema ist heute deutlich komplexer, weil du auch "gute" Schatten relativ einfach berechnen könntest. Das Problem ist dann oft die Menge an Lichtquellen und Co noch einbezogen werden.
SuperDrive schrieb:
Mit dieser Einstellung werden wir zwangsläufig immer schlechtere Hardware von den Herstellern bekommen.
Die Frage ist an der Stelle, wie wir bestimmte Probleme denn in "Hardware" heute noch lösen sollen? Aktuell kann TSMC frei an der Preisschraube drehen - ich hoffe immer noch auf Intel und Samsung, dass da wieder etwas "Preiskampf" entsteht.

Mehr Leistung aus einer GPU bekommt man aktuell in der Regel nur durch mehr Shader, mehr TMU und mehr ROPs. All das benötigt entsprechend Platz. Daneben gibt es noch die Taktschraube. Nvidia und AMD haben seit 2015 beziehungsweise 2019 jetzt ihre finalen Strukturen gefunden für ihre GPUs, die relativ gut skalieren und eine gute Auslastung ermöglichen. Größere Umbauten werden wird weder bei Nvidia noch AMD in den nächsten Jahren erleben.

Mehr Shader bringt mit der Zeit ein Auslastungsproblem - sieht man an RTX 4090 und RTX 5090, die deutlich schlechter skalieren als ihre Vorgänger. Beide Grafikkarten können erst bei entsprechender Auflösung ihre rohe Kraft umsetzen, das allerdings nicht in dem Maß, wie man denkt. Sieht man hier im Test - es ist nur ein Beispiel - sehr gut. RTX 5090 170 SM, RTX 5080 84 SM. In 1440p liegen 25 % zwischen beiden Karten und in 2160p 40 %. Die RTX 5090 hat allerdings 102 % mehr Shader. Dazu darf die RTX 5090 bis zu 60 % mehr Energie aufnehmen. Für die 40 % in 2160p muss also sehr viel an Ressourcen aufgewendet werden.

Auflösungssteigerungen wirken sich nun halt mal quadratisch aus und nicht linear und ohne DLSS und Co würden sich in "modernen" Spielen selbst eine RTX 4090 und RTX 5090 schwertun, und das sieht man an vielen Test, sobald 4K "nativ" getestet wird. Und wir reden von UHD bereits seit 10 Jahren!

Wir rennen aktuell in physikalischen Grenzen bei den Halbleitern, dazu ebenso in eine Kostengrenze. Wir regen uns bereits jetzt schon über die Hardwarepreise zum Teil auf, wenn man sich aktuell ansieht, was TSMC für N3 und N2 verlangt, dann würde eine RTX 5090 Nvidia trotzdem moderneren Prozess und dem schrumpfenden Chip, genauso viel kosten. Größere Chips wären.

Wir alle hatten den "Luxus" seit Mitte der 90er und ebenso den 00er und 10er, dass sich die technischen Fortschritte im Hardwarebereich quasi selbst überholten und alle quasi sich um Software kaum Gedanken machen mussten. Jetzt ist hier allerdings ein Ende zu sehen und nun muss auch wieder auf Software-Ebene gearbeitet werden, denn ohne wird es nicht mehr gehen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Deinorius
TheInvisible schrieb:
Das nur ein winzig kleiner Bruchteil fsr4 überhaupt aktivieren können und dann noch viel weniger mit optiscaler herumbasteln? Hier wird für optiscaler User eine extrawurst gemacht das in der Praxis keine nennenswerte useranzahl überhaupt einsetzt.


Also sollte man deiner Meinung nach auch RDNA4-Karten mit FSR3 testen? Was für ein Blödsinn...
Für jede Karte den besten Weg zu wählen um eine vergleichbare Bildqualität zu erreichen ist genau der richtige Ansatz. Ein Besitzer einer 9070XT wird nicht FSR4 ausschalten, nur weil andere Karten es nicht können.

Wenn du den Gedanken zuende denkst dürfte man übrigens auch nicht mit DLSS testen. Einfach XeSS für alle, wenn das nicht geht eben FSR3. Dass so keiner spielt? Geschenkt, seit wann müssen Benchmarks für den Nutzer daheim relevant sein, hab ich Recht?


BDR529 schrieb:
Und was ist mit den zehntausenden Spielen bei denen es umgekehrt ist? Manche Kommentare muss man nicht verstehen...


Ja, echt komisch, dass unter einem Artikel zu einem Spiel die Ergebnisse dieses Artikels zu diesem Spiel diskutiert werden und nicht alle Spiele, die jemals auf dem PC erschienen sind... glaube du bist da einer großen Sache auf der Spur.


xexex schrieb:
Der Artikel heißt aber nicht, schaut her wie stark sich Benchmarks in verschiedenen Szenen unterscheiden können, sondern "Senua's Saga: Hellblade II im Test" und da sind Szenen die sich völlig von den Ergebnissen einer anderen Testzeitschrift unterscheiden, definitiv nicht die richtigen um dies darzustellen.


Worauf willst du eigentlich hinaus? Dass Benachmarks nur richtig und für Spieler relevant sind wenn alle Tester auf dasselbe Ergebnis kommen?
Wer darf dann entscheiden welche Szene die richtige ist? Die, die die ersten Benchmarks veröffentlichen? Sollen dann alle anderen ihre bisherigen Ergebnisse einstampfen und einfach die kopieren, die die Ersten rausgefunden haben? Oder die Hersteller? Wenn ja, darf AMD oder nVidia entscheiden? Oder vielleicht Intel?
Meine Güte, manche haben Vorstellungen...


Spannend, dass Blackwell so abstürzt. Aber klar, wenn sich die Mehrleistung zum Vorgänger im Rahmen eines Refreshs hält und man als einzigen Grund für einen Kauf MFG nennt kann es immer mal zu solchen Ausreißern kommen.
Auch gut zu sehen wie sich FSR4 bemerkbar macht, damit ist der Mehrwert einer 9070XT gegenüber der 7900XTX schon enorm und man merkt dass man nicht nur bei RT und PT von der neuen GPU profitiert.
 
Bierliebhaber schrieb:
Worauf willst du eigentlich hinaus? Dass Benachmarks nur richtig und für Spieler relevant sind wenn alle Tester auf dasselbe Ergebnis kommen?
Ein Benchmark für ein Spiel kann sich nur dann ein Benchmark schimpfen, wenn er nachvollziehbar ist nur nicht die Werte zeigt die im Spiel sonst ganz anders vorkommen. Möchtest du demnächst ein Benchmark vom Intro, wo alle Karten 300FPS erreichen und im Spiel sind es dann 30FPS?
 
Zuletzt bearbeitet:
DevPandi schrieb:
Nein, in dem Fall ist das keine Erklärung, da keiner der Algorithmen wirklich "zusätzliche" Details berechnet. DLSS, FSR und XeSS - vereinfacht - rekonstruieren ein Bild in einer höheren Auflösung. Die Menge der Details, die rekonstruiert werden, haben keine Auswirkung auf die Laufzeit. Was eine Auswirkung auf die Laufzeit hat, ist die Menge an Daten, die zur Rekonstruktion herangezogen werden, sowie ggf. die Iterationen zur Rekonstruktion des Bildes.

Die Menge an Daten, die zur Rekonstruktion herangezogen werden, haben aber Auswirkung auf die Menge der Details die rekonstruiert werden können.

Also hat auch die Menge der Details die rekonstruiert werden, Auswirkung auf die Laufzeit, da dafür die Menge an Daten steigt
 
  • Gefällt mir
Reaktionen: Quidproquo77
DevPandi schrieb:
Das Problem ist dann oft die Menge an Lichtquellen und Co noch einbezogen werden.

:D Heißt: Kein Licht, kein Problem?
 
Taxxor schrieb:
Also hat auch die Menge der Details die rekonstruiert werden, Auswirkung auf die Laufzeit, da dafür die Menge an Daten steigt
Nein, die Menge der Details hat keine Auswirkung auf die Laufzeit - auch wenn das stark vereinfacht ist. Was eine Auswirkung auf die Laufzeit hat, ist die Ursprungsauflösung sowie die Zielauflösung und die Menge an Iterationen, die die zur Skalierung zugestanden werden. Nach dden Faktoren kommt noch die Datenmenge, die beim Input verarbeitet werden muss.

Die Menge an Details, die FSR, DLSS und XeSS "rekonstruieren" können, wird zum Teil durch das Training als auch eben die Datenmenge, die zur Verfügung steht bestimmt.

 
@DevPandi
Wenn ich die letzten 30 Frames für DLSS nutze, bin ich schneller fertig und erhöhe die Performance mehr, als wenn ich die letzten 60 Frames nutze, kann dafür aber auch weniger Details rekonstruieren, weil ich geringere Datenmengen zur Verfügung habe.

Will ich mehr Details rekonstruieren, muss ich die Datenmenge erhöhen, was die Laufzeit erhöht.

Das war ja der Vorteil von DLSS ggü dem alten FSR vor Version 4, man hatte durch die Tensor Cores die Möglichkeit, mehr Daten zu sammeln ohne langsamer als FSR zu sein und dadurch konnte man die Details besser rekonstruieren.
Hätte FSR den gleichen Detailgrad erreichen wollen, wäre es deutlich langsamer geworden.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Blackwell verpufft in UE5:
https://ibb.co/2YRswLcg

NV 378mm^2 ~ 36/44/50fps
AMD 357mm^2 ~ 48/55fps
NV 609mm^2 ~ 58fps
NV 750mm^2 ~ 72fps

Was auch immer Huang da verbaut hat, die RTX 5070 12GB ist mit 36fps absoluter Schrott, so schnell wie die fünf Jahre alte RDNA2 RX 6800 XT 12GB.
 
  • Gefällt mir
Reaktionen: danyundsahne
FrozenPie schrieb:
Je mehr Benchmarks ich zur aktuellen GPU Generation sehe, desto mehr trauere ich einer um 50% aufskalierten RX 9080 (XT) als direkter Nachfolger der 7900 XT(X) hinterher, da die NVidias RTX 5080/5090 echt das Leben schwer gemacht hätte. Dann hätte ich diese Generation auch mal wieder aufgerüstet...

GPUCUs (Shader)InterfaceMemoryTDP
RX 9080 XT96 (6144)384 Bit24 GB450 W
RX 908080 (5120)320 Bit20 GB375 W

Okay, ich höre auf zu träumen...
hätte hätte fahrradkette
 
Wolfgang schrieb:
Stattdessen sollte eine vergleichbare Qualität gesucht werden und danach getestet werden. Das ist schlussendlich das, was der Spieler nutzt.

Ich würde es begrüßen, wenn wir wieder gleiche Settings vergleichen würden, statt arbiträrer Vergleiche.
 
Quidproquo77 schrieb:
DLAA ist unnötig, der Unterschied zu DLSS Quality oder Performance ist in 4K Auflösung kaum mehr zu beziffern, da Performance besser als Nativ aussieht.

vor lauter upscaling weiß man offenbar gar nicht mehr, was überhaupt möglich ist. es geht mir nicht darum, dass nativ + taa besser als upscaling ist, es geht mir darum, dass sich TAA massiv auf die allgemeine bildschärfe auswirkt und nur weil upscaling ähnlich wie TAA aussieht, heißt das nicht, dass upscaling ein perfektes bild produziert - das ist nämlich wie mit TAA einfach nicht der fall.

die screens sind in 4k und müssen fullscreen betrachtet werden.

resident evil 2 remake aus 2019 mit 5k oversampling auf 4k mit SMAA. alle schreien nach fotorealistischen spielen, permanent wird die texturqualität bemängelt. aber vielleicht sind es gar nicht die texturen, vielleicht liegts ja an TAA und dem upscaling - deshalb der alte schinken mit enorm hohem detailgrad bei den charaktermodellen: anno 2019 annährend fotorealistisch durch die enorme detailauflösung der texturen, vorallem in den augen, der hautstruktur, der feinen struktur der lederjacke, dem schmuck und den reißverschlüssen - die charaktermodelle sind einfach enorm gut.

5k native.png

4k nativ + TAA verliert eine menge detailauflösung zur referenz:

4k native TAA.png
leider gibts hier bestenfalls durch modding XESS und FSR2.

FSR2 Quality:
FSR2 Quality.png


das wesentlich bessere XESS mit aktuellen libraries, etwa auf dem niveau von 4k nativ mit TAA, allerdings besseres anti aliasing - gleichzeitig verschwinden wie mit TAA fast alle glanzeffekte auf dem nassen boden, der regen verschwindet und feine glanzeffekte auf metalloberflächen werden stumpf:
XESS Quality.png

wir stellen fest, dass FSR2 was für die tonne ist während XESS eigentlich sehr respektabel abschneidet, weil es insgesamt ein bisschen besser als 4k nativ mit TAA ist, ABER wir sehen auch, dass 4k mit 5k oversampling + smaa eine detailfülle wiedergibt, die so mit TAA und upscaling schlicht nicht mehr existiert - aber in den assets sehr wohl, weil sonst würden die bei der hohen auflösung ohne blurfilter nicht durchschlagen. man könnte sagen man verliert hier eine texturdetailstufe ans AA/upscaling, aber man kann auch sagen "BESSER ALS NATIV* !!!!11" *mit TAA.

TAA ist eine referenz für bildqualität wie die aldi frikadelle aus dem tiefkühlfach eine referenz für die haute cuisine ist und nur weil jemand eine frikadelle kocht die etwas besser als eine aldi frikadelle ist, macht es denjenigen noch nicht zu einem sternekoch.

upscaling hat seinen platz - aber es ist nicht die neue referenz in sachen bildqualität. man kann sich in der gallerie mit den hellblade 2 screenshots die finger wund klicken, da ist nicht ein 4k screenshot dabei, der auch nur annährend irgendwo eine anständige bildschärfe hat - überall die typische unschärfe von upscaling/taa.
 
  • Gefällt mir
Reaktionen: Redundanz
duskstalker schrieb:
wir stellen fest, dass FSR2 was für die tonne ist während XESS eigentlich sehr respektabel abschneidet
duskstalker schrieb:
man könnte sagen man verliert hier eine texturdetailstufe ans AA/upscaling, aber man kann auch sagen "BESSER ALS NATIV* !!!!11" *mit TAA.
Was niemand weder über XeSS und schon gar nicht über FSR2 gesagt hat.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Deinorius und KuroSamurai117
Wenn dann bitte wirklich mit DLSS 4 oder FSR 4 vergleichen. Wenn XeSS dann auf Intel Arc hardwarebeschleunigt und nicht die etwas schlechtere Softwarelösung auf AMD oder Nvidia GPU.

Sag jetzt nicht dass man überhaupt nicht mehr in 4k aufwärtsrendern soll. DLAA ist auch nicht immer perfekt und hat so seine Artefakte.

Wäre auch bei dem Game nett wie woanders 2160p mit TAA bzw TSR im Benchmark zu sehen. Zumindest auf 2 GPUs als Abgleich zu den Upscaling Test.
 
Taxxor schrieb:
Will ich mehr Details rekonstruieren, muss ich die Datenmenge erhöhen, was die Laufzeit erhöht.
Ach was?

Moment, was war denn die Eingangsaussage, auf die ich geantwortet habe:
Begu schrieb:
Allerdings zeichnet DLSS wohl mehr details, was potentiell mehr Leistung kostet, womit das eine Erklärung sein konnte.
Was war darauf meine erste Aussage:
DevPandi schrieb:
Die Menge der Details, die rekonstruiert werden, haben keine Auswirkung auf die Laufzeit. Was eine Auswirkung auf die Laufzeit hat, ist die Menge an Daten, die zur Rekonstruktion herangezogen werden, sowie ggf. die Iterationen zur Rekonstruktion des Bildes.
Im übrigen ist das folgende dann deine Erwiederung darauf gewesen:
Taxxor schrieb:
Also hat auch die Menge der Details die rekonstruiert werden, Auswirkung auf die Laufzeit, da dafür die Menge an Daten steigt
Und dieser Satz bleibt genau in dieser Form falsch! Nicht die Menge an wiederhergestellten Details bestimmt die Laufzeit, sondern - wie du ja selbst jetzt feststellst - die Menge an Daten die verarbeitet werden.

Und damit geht es zurück zu meiner Ausgangsaussage: Die Menge an Daten bestimmt die Laufzeit des Algorithmus. Und ebenso bestimmt die Menge an den Daten, wie viele Details rekonstruiert werden können.

Eingangsframe, sowie die "vorhanden" Frames sind die Datenmenge, das ist das was wir vorne rein geben. Diese Datenmenge muss verarbeitet werden. Am Ende steht der Ausgangsframe und dadrin die wiederhergestellten Details.

DLSS, FSR und XeSS sowie fast alle anderen "Algorithmen" werden hier auf feste Laufzeiten hin optimiert, und die Laufzeiten werden durch die Datenmenge bestimmt und dafür maßgeblich ist die temporale Komponenten, also wie viele Frames mit hinzugezogen werden.
 
  • Gefällt mir
Reaktionen: Redundanz
Zurück
Oben