McABC schrieb:
Wenn ich einen Spieletest lese, möchte ich vor allem wissen, wo meine Hardware im Vergleich zu anderen steht. Und dazu brauche ich einfach einen Test in Nativ, um das ganze möglichst neutral beurteilen zu können und nicht von der Einschätzung des Testers abhängig zu sein, welcher Prozentsatz von Upscaling XY jetzt dem Upscaling YZ im jeweiligen Game entspricht. Ihre Erklärung liest sich ein bisschen so, als könnten wir die Vergleichstabelle eigentlich auch abschaffen...
Das Problem ist doch aber, dass man dann die BQ Differenzen durch Upscaling unter den Tisch fallen lässt.
Letztlich sind diese Tests eh nur vergleichbar unter exakt den Bedingungen wie im Test definiert. Klar kann man als Baseline sagen, max Effekte, 100% Renderauflösung, ... aber dann ist das auch nur darin vergleichbar. Dann kommt wer mit FSR4 oder DLSS4 oder irgend einer wilden Kombination aus Downsampling und Upscaling und hat wieder ne andere Basis.
Letztlich ist es egal was man testet, solange es konsistent ist. Leider ist es das aktuell nicht, das ist mMn schade, aber ein endliches Thema. RTX 2000 und RTX 3000 GPUs sind schon bis auf Ausnahmen nicht mehr vertreten. RDNA3 und älter fallen im nächsten Lineup Update wahrscheinlich dann auch raus. Dann ist es wieder stimmig, weil dann alle FSR4 oder DLSS4 können.
Theoretisch wäre als Alternative denkbar, RDNA kleiner 4 einfach ganz weg zu lassen. Oder anstatt im selben Diagramm eben wie mit RT on und RT off ein drittes, ohne Upscaling zu veröffentlichen. Der Aufwand würde steigen und die Vergleichbarkeit wäre dennoch fraglich - weil was bringt einem der Vergleich, wenn bei allen RTX und RDNA4 GPUs eh immer Upscaling verwendet werden würde? Dann testet man was, was Niemand nutzt, nur damit RDNA3 und älter Besitzer in der Tabelle ihre GPUs weiter oben finden? Ergibt doch irgendwie auch keinen Sinn.
Es lässt sich damit egal wie man es dreht, kein belastbarer Vergleich anstellen. Entweder man verzichtet bei der einen Seite auf BQ und Performance oder man bevorteilt die andere Seite durch diesen Verzicht.
Wenn Aufwand keine Rolle spielt, könnte man einfach alles testen. Das dürfte für lau wie hier auf CB aber auch keine Option sein. Zumindest nicht redaktionell aufgearbeitet. Ein Community Test könnte sowas ggf. abdecken. Also dass die Leser dann DLSS/FSR4 an oder aus in mehreren Auflösungen quasi alle erdenklichen Karten testen und damit dann vergleichbar wird, welches Modell durch welche Technik BQ oder Leistung gewinnt oder verliert.
McABC schrieb:
Wie viel Prozent ist FSR4 jetzt nun im jeweiligen Titel schlechter/besser? Es ist einfach immer ein krummer Vergleich.
Die Vergleichstabelle ist in der jetzigen Form jedenfalls für mich ziemlich wertlos.
Das stimmt natürlich, allerdings sind nach der Einschätzung der Tester FSR4 und DLSS4 so nahe bei der allgemeinen BQ aneinander, dass man das durchaus vergleichen kann und letztlich aber auch hier die Unterschiede auch gar nicht real praktisch relevant sind, weil der User nut FSR4 oder DLSS4 kann, nie aber beides. Je nach Vendor. Der NVler wird DLSS4 nutzen und der AMDler mit RDNA4 eben FSR4 - insofern ist es gut zu sehen, ob/wie das im 1:1 Vergleich performt. Während der RDNA3 Nutzer eben immer auf BQ verzichten muss, da nur FSR3 irgendwas oder das Upscaling von Intel und das im Zweifel sogar noch in langsamer, wenn man bspw. FSR3 Quality gegen FSR4 Performance stellt.
Bei lediglich 50% der Renderauflösung in einigen der Konstellationen spart man teilweise 50-70% an Leistung. Der Rechenaufwand rein für die Auflösung nativ ohne den Mehraufwand des Upscalings liegt zwischen FHD zu UHD in etwa bei 1/2 bis 2/3 FPS Verlust. Ein einfach brauchbar gut funktionierendes Upscaling Feature bringt dir neben dem leichten FPS Verlust durch das Upscaling fast die Performance der nativen Renderauflösung bei teilweise erheblich besserer BQ, häufig sogar besser als bei 100% Skalierung. Als Endkunde der die Hardware hat will ich doch genau das wissen - komme ich in Anno hier mit UHD Screen und irgendeiner x-beliebigen GPU auf spielbare FPS? Ja, Nein, Vielleicht? Wenn da ne 5070 mit DLSS4 Quality an der 40 FPS Marke scheitert, aber intern gerade so WQHD rendert, was hab ich denn dann vom Wissen der 100% Renderauflösung? So spielt wahrscheinlich Niemand, weil es einfach nicht lauffähig wäre. Klar kannst das jetzt alles kürzen, aber dann kommen exakt 4 Karten im UHD Rating auf 60+ FPS. Was schon arg mager ist.