DLSS Frame Generation defekt nach Treiber-Update? (RTX 4080, AC Shadows & Cyberpunk betroffen)

@Mr. Smith Mehr Takt ≠ mehr FPS, wenn FurMark durch Power- oder Shader-Limit skaliert.
Ich hab mehr Takt, aber der Test skaliert ineffizient.
 
Denke auch, dass da was nicht stimmt. Meine RTX3090:

Unbenannt.png


Und die ist ja normalerweise doch ne ganze Ecke langsamer als ne RTX4080.
 
Mr. Smith schrieb:
Er möchte es ja scheinbar nicht glauben, daher belasse ich es dabei.
Auch wenn das nur die Score einer 6800XT ist... aber halt auf einer 4080 mit 450W BIOS.

Anhang anzeigen 1619687
1747860942830.png


Also nur rein, damit wir uns verstehen...
Smith,
ich hab’s nochmal probiert – Power Limit auf 147 %, 2670 MHz Boost, 451 W Verbrauch.
Ergebnis: 17.015 Punkte bei 282 FPS.


Damit wär ich laut DB über der 4080 SUPER, und 40 FPS über deinem Run.
Scheint also doch an was anderem gelegen zu haben.
 
Ectoplazma schrieb:
ich hab’s nochmal probiert – Power Limit auf 147 %, 2670 MHz Boost, 451 W Verbrauch.
Ergebnis: 17.015 Punkte bei 282 FPS.
70% höherer Score kommt ja nicht aus dem Nichts.
Es muss ja einen Grund geben, warum die Score davor so schlecht gewesen ist..

Und dein eigener Screenshot widerlegt dabei auch sauber deine vorherige Aussage:

Ectoplazma schrieb:
Meine Karte taktet bei Volllast mit 2926 MHz, was FurMark nicht effizient nutzen kann → mehr Takt = nicht automatisch mehr Score, gerade nicht bei OpenGL.
Wenn’s nur um FurMark geht, ist das keine Bench-Marketing-Zahl – sondern ein synthetischer Burn-Test.
 
Stimmt – 70 % höher kommt nicht aus dem Nichts.
Es kommt aus 450 W, deaktiviertem Shadercache, vollen P-States, sauberen NV-DLLs, HAGS aktiv, und einem Treiber, der nicht gerade aus einem Standby-Schlaf erwacht ist.

FurMark misst keine Leistung – es misst Verhalten unter Lastbedingungen, und die können sich nach Treiberwechsel, Powerlimit-Reset, Cache-Inkompatibilität oder einfach einem falsch geladenen DLL-State massiv unterscheiden.

Der Unterschied zwischen 12k und 17k liegt da nicht an der Hardware
Ergänzung ()

Score: 17.230 . 286 FPS . 450 W . 73 °C
Wenn man FurMark versteht, kann man eben auch Punkte farmen.
Oder… na ja – auch nicht. 😉


Der Score kommt nicht aus dem Nichts, sondern aus einem System, das sauber initialisiert, thermisch offen, auf max. Power freigeschaltet und mit korrekt geladenem Shadercache läuft.


FurMark misst keine absolute Leistung, sondern das Verhalten unter synthetischer Dauerlast – wer’s versteht, kann’s kontrollieren.

oder wie Captain America sagen würde:
„I can do this all day.“


1747861448750.png
 
Kann man sicherlich machen. Wenn dann aber Anomalien auftreten, sollte man sich vielleicht nicht wundern. Mit der Leistungsaufnahme könnte auch eine 4090/5090 betrieben werden.

Für 120 FPS in Shadows reichen mit FG ca. 200 Watt bei 0,935V@2.650Mhz.

Aber gut, dass es wieder läuft. Wäre nur gut gewesen, zu wissen, woran es lag.
 
1748360345511.png

Der neue Treiber war so nett, und hat die HAGS deaktiviert. Ich habs getestet, und der letzte Treiber macht das bei mir aus Gründen der nationalen Sicherheit. Wenn ich das aktiviere funktioniert wieder alles.
Vigilant schrieb:
Kann man sicherlich machen. Wenn dann aber Anomalien auftreten, sollte man sich vielleicht nicht wundern. Mit der Leistungsaufnahme könnte auch eine 4090/5090 betrieben werden.

Für 120 FPS in Shadows reichen mit FG ca. 200 Watt bei 0,935V@2.650Mhz.

Aber gut, dass es wieder läuft. Wäre nur gut gewesen, zu wissen, woran es lag.
Stimmt schon, aber mein System bringt in Spielen auch nicht ganz die volle Leistung, die eigentlich möglich wäre.
In Assassin’s Creed Shadows zum Beispiel komme ich mit Frame Generation auf ca. 120–132 FPS, bei etwa 230–260 Watt GPU-Leistung .. solide bei etwa 55 Grad
 
  • Gefällt mir
Reaktionen: Vigilant
Zurück
Oben