@CDLABSRadonP... DLDSR + DLSS sieht schlecht aus im vergleich zu reinem DLSS4, da der Downsampling Schritt unschärfe ins Bild bringt, die du mit reinem DLSS4 welches auf die native Auflösung rekonstruiert, nicht hast.
Außerdem hat DLDSR einen künstlich aussehenden schärfefilter, da dem Bild nen gewissen "AI" einschlag gibt.
DLDSR hatte seinen nutzen mit DLSS3, um die typische TAA unschärfe unter der DLSS3 litt loszuwerden. Die hohe Zielauflösung und das anschließende Downsampling hat viel von der temporalen schärfe eliminiert.
Aber seit mit DLSS4 das Bild stets perfekt scharf ist, ist DLDSR nur kontraproduktiv. Das Bild wird durch den Skalierungsschritt leicht unschärfer and dann wird ein Scharfzeichner drüber gelegt. Das ist alles andere als optimal und mittlerweile nicht mehr sinnvoll.
Ansonsten IST DLSS Supersampling.
Du scheinst davon auszugehen, dass bei DLSS im wahrsten Sinne upscaling geschieht. Das ist aber falsch. Es wird hier kein niedrig aufgelöstes Bild mit AntiAliasing glattgebügelt und dann via AI hochskaliert. Nein.
Das Bild wird in niedrigerer Auflösung vom Spiel gerendert. Also z.B. 1080p. auf einem 4K Monitor mit dem DLSS Performance Preset.
Dann werden ähnlich wie bei klassichem Supersampling eine unmenge an zusätzlichen Samples erzeugt. Bei klassischen Supersampling hat man die Samples noch einzeln und teuer berechnet, so als würde das gesamte spiel in einer viel höheren Auflösung laufen. Mit TAA und genauso auch mit DLSS werden die Samples aber aus vorherigen Frames interpretiert, was im vergleich zu klassischen Supersampling vielfach weniger Leistung kostet (und man bei reduzierter Renderauflösung sogar noch sehr viel performance dazu gewinnt). Man gewinn Samples, also Bilddaten über die Zeit statt über die Berechnung in der 2D Bildfläche. (Deswegen temporales verfahren, statt spatiales)
Das entscheidende ist, der Algorithmus nimmt dann diese Samples aus den alten Bilddaten + die Samples aus denen das aktuelle Bild zusammengesetzt ist (also das 1080p bild) und rekonstruiert daraus ein völlig neues 4K bild. Es wird nicht hochskaliert, sondern aus der Summe der Samples ein neues Bild zusammengebaut, also Resampled. Das ist der kleine aber entscheidende Unterschied.
Und da der Algorithmus idr. deutlich mehr als 8 Mio samples aus den vorherigen Bilddaten sammeln kann um sie in das neue Bild zu stecken, hast du effektiv supersampling und damit AntiAliasing + einen Zugewinn an Details.
Die tatsächliche renderauflösung spielt also praktisch keine große Rolle. Wichtig ist, (schon immer) aus wie vielen Samples das finale Bild zusammengesetzt wurde. Und in dem moment wo die Sampleanzahl die Pixelzahl deines Displays übertrifft, hast du technisch gesehen supersampling. Und da übertrifft DLSS eben idr. selbst klassische SSAA verfahren bei weitem. Nicht in allen Bildaspekten, aber bei den allermeisten.
Das Deep Learning bzw. die "KI" steckt bei DLSS auch nicht in der Bildbearbeitung bzw. einem Upscaling algorithmus, denn wie gesagt passiert ja gar kein Upscaling im klassischen sinne. Stattdessen wird das Deep learning dafür genutzt, um aus vorherigen Frames so viele verwertbare Bildinformationen wie möglich zu extrahieren um sie dann für das aktuelle Bild korrekt zu verwerten. In dem Algorithmus steckt die ganze "Magie" und genau da entscheidet sich wie leistungsfähig das Verfahren ist.