Test AMD FSR Redstone im Test: AI Frame Generation auf FPS, Bildqualität & Latenz untersucht

Finde die ganzen FSR FG Tests witzig, irgendwie kommt jeder von den Testern auf etwas unterschiedliche Ergebnisse. Ich glaube das muss man einfach für sich selbst testen.

@Wolfgang sry falls ich das überlesen habe, habt ihr mit Vsync on gestestet?
Ancient Gameplay war bei Arc Raiders z.B. deswegen nicht ganz glücklich mit FSR FG, weil mit aktivierten FG Vsync nicht im Spiel aktiviert werden kann.
 
Marflowah schrieb:
Schön, da wird unglaublich viel Energie (Hirnschmalz und Technik) hineingesteckt, um fehlende Leistung (FPS) und fehlende Bildqualität (z.B. Aliasing) mit Tricks und Kniffen und KI und Logarithmen wegzumogeln - oder weniger drastisch ausgedrückt: wegzuschätzen.
Bezüglich Bildqualität: DLSS und FSR sind einfach klasse. Wir waren schon lange an dem Punkt an dem klassische Verfahren wie MSAA nicht mehr vernünftig greifen (Alpha Texturen etc.) und der bisherige Post-Processing Ersatz wie TAA oder schauder FXAA mal mehr, mal weniger gut funktioniert hat. Für moderne Renderer gibt es schlicht keinen sinnvollen Ersatz, da man selbst mit SSAA nicht alles sauber beruhigt kriegt.

Bezüglich Performance: ich sehe das als Nebeneffekt, der sich nun mal aus den Fähigkeiten der modernen Upscaler ergibt. Muss man nicht mögen, aber ist halt so.
Wobei das teilweise auch einfach mit der Einstellung der Spieler zu tun hat. Es ist noch nicht so lange her, da konnte man neue Spiele auch mit guter Hardware nicht auf maximalen Details spielen und musste ggf. mal ne neue Generation abwarten.
 
  • Gefällt mir
Reaktionen: schneeland, N0Thing und Quidproquo77
Wolfgang schrieb:
Willkommen im Club dann! Ich kann ja nicht der einzige damit in dem Spiel sein :D
Und ja, das gibt es auch in anderen Spielen. Das habe ich so schon mehrmals beobachtet.
Ich habe dauernd gedacht, ich mache etwas falsch, oder, dass es an meiner uralten Windowsinstallation lag. Aber nein, auch mit frischem Windows sehe und spüre ich das Gleiche bei CP2077 und HD2.

Eigentlich verdammt schade, denn in so Spielen wie Space Marine 2 ist FG eine richtig gute Technologie und man profitiert sehr davon, wie in vielen anderen auch.

Ich hoffe, das wird irgendwann mal seitens CD Project Red angegangen.
 
coxon schrieb:
Ich hoffe, das wird irgendwann mal seitens CD Project Red angegangen.

Wäre zu hoffen - allein, wenn ich mir das Verhältnis zwischen CDPR und NVidia so ansehe, fehlt mir der Glaube...
 
  • Gefällt mir
Reaktionen: coxon
Ja mein/e liebe/r @Araska, mir auch. Mir auch.
 
So jetzt habe ich FG (AI) erstmalig ausprobiert...

Expedition 33 Patch 1.5

klassisch/ ohne FrameGen: FSR4 AA + AL2 + inGame Limt 60 FPS + inGame vsync on

FrameGen Setting: FSR4 AA + AL2+ FG AI + Treiber Limit 100 FPS (macht man das so?) an einem 120Hz FreeSync Monitor + vsync off (im Spiel nicht mehr anwählbar)

Tatsächlich ist das Feeling mit 100 FPS leicht besser/ angenehmer. Zur Latenz/ InpuLag kann ich nichts sagen. Steht halt nun 10ms statt 16.66ms im Overlay. Gefühlt alles okay!
 
Northstar2710 schrieb:
Der Ausgangspunkt, war aber Ruckeln/kein Ruckeln.
Ruckeln ist aber nicht Ruckeln.
45FPS können bei sehr gutem Framepacing sich angenehm anfühlen, während 60FPS mit extrem unterschiedlichen Zeiten zwischen den Frames dann wieder unangenehm.
Dann nimmt man zum einen die Darstellung rein als Zuschauer wahr und dann direkt das Verhalten von Eingabe am der Maus zu Ausgabe am Monitor respektive Hand Augen Koordination.
Die reine Darstellung für den "Zuschauer" wird durch VRR bei schlechtem Frame Pacing etwas angenehmer und mit Frame Generation auch etwas flüssiger.
Das hat aber keinen Einfluss auf die Eingabe und selbst wenn es optisch angenehm aussieht kann es dann bei der Eingabe hakelig oder schwammig anfühlen. Anti lag/Reflex verbessert hier unabhängig von der Darstellung, aber kann auch nicht zaubern, wenn das Spiel schlecht läuft oder die Hardware zu schwach ist.
 
petepow schrieb:
@Wolfgang sry falls ich das überlesen habe, habt ihr mit Vsync on gestestet?
Ancient Gameplay war bei Arc Raiders z.B. deswegen nicht ganz glücklich mit FSR FG, weil mit aktivierten FG Vsync nicht im Spiel aktiviert werden kann.
Die Benchmark-Tests sowie die zwei Frame-Pacing-Videos und die Latenz-Tests sind mit VSync Off, VRR An innerhalb der VRR-Range durchgeführt worden. So sollte man mit Frame Gen am besten auch Spielen.

Die Videos sind dagegen alle (außer den zwei Frame-Pacing-Videos) mit VSync On bei 120 Hz aufgenommen worden mit entsprechend auch 120 FPS. Ansonsten zuckeln die Videos nur vor sich her.
Micha_80 schrieb:
FrameGen Setting: FSR4 AA + AL2+ FG AI + Treiber Limit 100 FPS (macht man das so?) an einem 120Hz FreeSync Monitor + vsync off (im Spiel nicht mehr anwählbar)
Kannst du mir vielleicht bestätitgen, dass mit dem neuen Patch von Clair Obscure in dem Spiel wirklich FSR Frame Generation mit AI genutzt wird? Ein Screenshoit vom Treibermenü mit dem Spiel-Profil wäre klasse :)
Ich kann das leider nicht nachprüfen, wir haben das Spiel leider nicht...
 
  • Gefällt mir
Reaktionen: petepow
Wolfgang schrieb:
So sollte man mit Frame Gen am besten auch Spielen.
danke. Ancient Gaming sagt nämlich man soll mit VSync on, auch bei VRR, spielen.

Hast du da einen Unterschied gemerkt zwischen Vsync on und off?
 
Marflowah schrieb:
Schön, da wird unglaublich viel Energie (Hirnschmalz und Technik) hineingesteckt (...)
Viel Energie reingesteckt um sich viel Energie zu sparen, anstatt Brute Force zu betreiben.
Marflowah schrieb:
Vor dem Hintergrund, dass wirkliche Optimierung von Software (und Spielen) in Form von wirklicher effizienter Leistungssteigerung wegen Deadlines und Finanzknüppeln komplett in den Hintergrund gerückt ist, bekommt es zusätzlich einen weiteren bitteren Beigeschmack.
Das war schon immer so und früher waren die Resultate noch deutlich schlechter als heute. Da war man froh wenn etwas auf höchsten Einstellungen zum Release gerade so spielbar war, siehe Crysis, siehe RDR2, siehe GTA5, siehe The Witcher 3 und unzählige mehr.

Heute bekommt man selbst auf Mittelklassekarten in der Regel 4K Ultra Qualität mit DLSS/FSR hin. Luxus ist das heute und mit FG und Latenzreduktion kann man sich das weiterboosten.
Marflowah schrieb:
Das kann doch nicht der Anspruch von uns Spielern sein, das so hinzunehmen.
Doch bitte immer mehr davon.
Marflowah schrieb:
KI sollte nicht hingeschlampte Software optimieren müssen.
Hier fehlt der Beweis und die Analyse für "hingeschlampte Software". Als ob es diese Probleme früher nicht gab.
 
Expedition 33 mit FSR4 AA + AL2 + FSR AI

Screen-E33_AMD_Treiber.png
Screen-E33_inGame2.png
Screen-E33_inGame.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wolfgang und Quidproquo77
Wie bekommt man die neue Frame Generation denn bei ARC Raiders aktiviert? Bei mir wird da im Adrenaline (Treiber 25.12.1) angezeigt: "Upgrade Inactive - Enable FSR 3.1.4+ in-game". Nun hat man im Spiel ja nur die Möglichkeit, den Schalter bei "AMD FSR 3 Frame Generation" auf Aktiviert/Deaktiviert zu stellen.

Bei FSR Upscaling (Upgrade to latest ML-based FSR...) zeigt er unter Adrenaline "Active" an.
 
petepow schrieb:
danke. Ancient Gaming sagt nämlich man soll mit VSync on, auch bei VRR, spielen.

Hast du da einen Unterschied gemerkt zwischen Vsync on und off?
Da gibt es einige unterschiedliche Szenarien, wann was passiert (das ist alles ziemlich komplex und da lege ich auch keine Hand für ins Feuer).

Meine Empfehlung bei Frame Generation ist: VRR An, VSync Off, in allen Lebenslagen. Viele Spiele erlauben gar kein Vsync wenn FG genutzt wird und das halte ich auch für sinnvoll. Auch Nvidia DLSS FG verbietet das grundsätzlich, auch wenn dies per Treiber-Override überschrieben werden kann.

VSync Off kann in dem Szenario nun den Nachteil haben, dass wenn du über die Bildwiederholfrequenz deines Monitors hinaus gehst, du Tearing bekommst.

VSync On sollte in Verbindung mit VRR keinen Unterschied zu VSync Off machen, solange du dich im VRR-Bereich des Monitors befindest. Geräts du aber über diesen hinaus, (also zum Beispiel bei einem 144-Hz-Display kommst auf 144 FPS+) dann greift VSync und limitiert die Framerate. Das gute ist, dass das das Frame Pacing beruhigt. Das schlechte ist aber, dass das die Latenz sehr schnell massiv nach oben schnellen lässt, was das letzte ist, was du mit FG willst.

Ich hoffe, dass das so stimmt. Die Situation ist da leider recht unübersichtlich.
 
  • Gefällt mir
Reaktionen: schneeland und petepow
EasyRider schrieb:
Wie bekommt man die neue Frame Generation denn bei ARC Raiders aktiviert? Bei mir wird da im Adrenaline (Treiber 25.12.1) angezeigt: "Upgrade Inactive - Enable FSR 3.1.4+ in-game". Nun hat man im Spiel ja nur die Möglichkeit, den Schalter bei "AMD FSR 3 Frame Generation" auf Aktiviert/Deaktiviert zu stellen.

Bei FSR Upscaling (Upgrade to latest ML-based FSR...) zeigt er unter Adrenaline "Active" an.
Einfach im Spiel FSR 3 sowie FSR FG aktivieren und im Treiber die beiden Treiber-Schalter aktiv haben (die sind standardmäßig an). Du musst aber richtig das Gameplay starten, bevor die Schalter im Treiber dann aktiv werden. In den Menüs ist es nicht aktiv.
 
  • Gefällt mir
Reaktionen: EasyRider
Wolfgang schrieb:
Meinst du Frame Gen, Ray Regen und Radiance Cache? Ich plane definitiv noch mit mehr Tests zu den 3 Verfahren
Ich meinte eigentlich nur FG. Also FSR Redstone FG, XeLL und DLSS FG (auch bezüglich Bildqualität)
 
Wolfgang schrieb:
Einfach im Spiel FSR 3 sowie FSR FG aktivieren und im Treiber die beiden Treiber-Schalter aktiv haben (die sind standardmäßig an). Du musst aber richtig das Gameplay starten, bevor die Schalter im Treiber dann aktiv werden. In den Menüs ist es nicht aktiv.
Ah, ich hätte es mal in der Pratice Range testen sollen, dort funktioniert alles wie es soll.
Vielen Dank (auch für den ausführlichen Test von Redstone)! :)
 
Obvision schrieb:
Ich sehe das so

  • Effizienz ist die 9070 XT gleich gut bis leicht besser als die 5070 Ti (hier der CB Test)

Bin ich blöd oder blind? Das sind doch gut 80W weniger für die 5070Ti. Damit kannst du schon eine CPU betreiben.
 
Obvision schrieb:
Effizienz ist die 9070 XT gleich gut bis leicht besser als die 5070 Ti (hier der CB Test)
Ich verstehe diesen Hinweis nicht:
Aus diesem Grund ist es ratsam, das Netzteil etwas größer einzuplanen als bei einer 220-Watt und einer 304-Watt-Grafikkarte eigentlich nötig wäre. Um auch diese Lastspitzen problemlos abfangen zu können, sollte man auf Nummer Sicher gehen.
Ein Netzteil mit einer Auslegung von 300 W keine "Lastspitzen" abfangen kann, verletzt die ATX-Spezifikation und ist eine Mogelpackung und kein 300W-Netzteil.

Ja, solchen Schrott gibt es zu kaufen, gerade von den gern beworbenen Marken, deshalb schaut man in der https://zttbuilds.com/pages/psu-tier-list nach.
Ergänzung ()

Conqi schrieb:
Für moderne Renderer gibt es schlicht keinen sinnvollen Ersatz, da man selbst mit SSAA nicht alles sauber beruhigt kriegt.
Die "modernen Renderer" sind wiederum eine Konzession an die Konsolenhardware.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
Zurück
Oben