MeisterOek
Captain
- Registriert
- Nov. 2014
- Beiträge
- 3.125
Ich frage mich ja, ob und wie weit DLSS3 der Interpolation bei TVs entspricht. Dort sieht man ja auch Klötzchenbildung und Bildfehler. Umso höher man dies einstellt, umso höher auch die Fehler.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Der Effekt ist nur visueller Natur, und das hat ja auch einen Wert. Aber klar, einen Gameplay-Vorteil hast du dadurch nicht, aber den bekommst du durch die meisten anderen Grafikfeatures auch nicht.leonM schrieb:Naja, das Dumme ist halt, wenn man jetzt 30 Frames hat, so sind es dann 60 in DLSS3 mit einem Inputlag von 33,33ms. Sprich, der Inputlag und somit das Spielgefühl bestimmen die realen Frames. Jetzt z.B bei Shottern bzw. MP-Shootern hab ich kein Mehrwert und bei NextGen-Shootern dann noch weniger und dabei geht es halt um die schnelle Reaktion.
Streng genommen scheint es ja keine Interpolation zu sein sondern eher eine Extrapolation rein aus vorhergehenden Frames. Dass Eingaben oder Engineinput (Physik, etc.) vernünftig extrapoliert werden können, sehe ich aber eher skeptisch. Für Shooter, generell Multiplayer wahrscheinlich eher abzustellen, um lange auf seine Aufbaustrategiesiedlung oder die Szenerie in seinem SingleplayerRPG zu schauen aber ja vielleicht ok. Die Frage ist, ob man in eher ruhigen Szenarien die hohen (Fake) fps überhaupt braucht…MeisterOek schrieb:Ich frage mich ja, ob und wie weit DLSS3 der Interpolation bei TVs entspricht. Dort sieht man ja auch Klötzchenbildung und Bildfehler. Umso höher man dies einstellt, umso höher auch die Fehler.
Nein, man kann meine Aussage auch zwanghaft falsch verstehen wollen. Im Endeffekt wirds Ende des Jahres ne Menge Tests geben um diese Fragen im Detail zu klären.whyme schrieb:Also könnte AMD hingehen und 4x das gleiche Frame ausgeben und behaupten man hätte die vierfache Leistung? Wer die FPS liefert hat ja schließlich recht.
Und bonus gibts noch oben drauf, wenn man 4x das gleiche Frame liefert, leidet auch nicht die Qualität darunter.
fortunes schrieb:Und dann der Stromverbrauch in der aktuellen Zeit... hui.
Hab kein Plan von encodieren aber Nvidia hat ein Video gezeigt in welchen die Qualität deutlich besser ist. Auch bei whqdund dann streaming auf Twitch auch auf 1440 sah das Bild sehr viel besser aus.wern001 schrieb:was bringt das schnellere encodieren von h.256 wenn die Qualität weiterhin schlecht ist.
ein 8 bit cpu codiert sieht genauso aus wie 10 bit nvidia gpu codiert. bei sonst gleichen parametern.
extrem sieht man das bei feinen farbverläufen wie nebel. Bei nvidia/amd GPU gibt es oft so unschöne tonwertabrisse
Nicht immer alles für bare Münze nehmen. Das betrifft ALLE Firmen.Garack schrieb:Hab kein Plan von encodieren aber Nvidia hat ein Video gezeigt in welchen die Qualität deutlich besser ist. Auch bei whqdund dann streaming auf Twitch auch auf 1440 sah das Bild sehr viel besser aus.
Scaler im TV arbeiten mit lokaler Rechenleistung, da wurde nichts mit AI/DL "trainiert".MeisterOek schrieb:Ich frage mich ja, ob und wie weit DLSS3 der Interpolation bei TVs entspricht. Dort sieht man ja auch Klötzchenbildung und Bildfehler. Umso höher man dies einstellt, umso höher auch die Fehler.
Doch, kann man. Ich möchte, dass meine Spiele bestmöglich aussehen. Wenn ich mir die jetzt mit Softwaretricks schneller machen muss, dabei aber dann Bildqualität flöten geht, dann kann ich auch einfach RT abschalten ohne dass mir das wirklich negativ auffällt. Dafür brauche ich keine AI.Daddi89 schrieb:So kann man nicht argumentieren.
Ja, dich. Andere sehe das anders.Daddi89 schrieb:Winzige Bildfehler die dann möglicherweise mal kurz aufflickern stören mich dann weit weniger...
Natürlich, aber wenn dir egal ist, woher die FPS kommen und wie die Qualität ist, dann ist das nur einen Schritt weiter gedacht. Und damit werden die Balken eben auch länger.Humbertus schrieb:Nein, man kann meine Aussage auch zwanghaft falsch verstehen wollen.
Ja, hab ich gelesen und nein, nVidia legt mir sicher keinen Adapter bei den ich direkt an mein vollmodulares Netzteil anschließen kann. Meinen Beitrag überhaupt gelesen?RogueSix schrieb:
HerrRossi schrieb:Ja, dich. Andere sehe das anders.
Capthowdy schrieb:Ja, hab ich gelesen und nein, nVidia legt mir sicher keinen Adapter bei den ich direkt an mein vollmodulares Netzteil anschließen kann. Meinen Beitrag überhaupt gelesen?
Mich hat es zumindest etwas überrascht, da Nvidia somit einen großen Flickenteppich in diesem Bereich schafft und somit indirekt noch stärker FSR und auch Intels XeSS pushed. Wenn das auf Dauer mal nicht nach hinten los geht und evtl. das gleiche Schicksal wie GSync erleidet.Onkel Föhn schrieb:"beschränkt sich DLSS 3 ausschließlich auf die GeForce-RTX-4000-Produkte."
War ja klar ! Weshalb ist meiner einer nur NICHT überrascht ...
MfG Föhn.
Mein Netzteil hat mehrere 12-Pin Ausgänge an die Adapterkabel mit je 2x8-Pin PCIe angeschlossen werden. Wieso soll ich da nicht zwei 2x8 Pin-Adapterkabel gegen eines tauschen können, das aus 2x12-Pin Netzteil 1x16-Pin PCIe macht?RogueSix schrieb:Einen Adapter wie Du ihn Dir vorstellst, wird es da auch nicht geben, sondern nur in die andere Richtung. Wenn ein Netzteil intern keinen PCIe 5.0 Krempel drin hat, wie soll dann ein Adapter in die Netzteilrichtung funktionieren?
Du wirst mit "altem" Netzteil ohne nativen 12VHPWR Ausgang die normalen PCIe Ausgänge nutzen müssen und zwar je nach Karte/OC drei bis vier PCIe 8-pin Kabel, die in einen 12VHPWR Adapater mit 16-pin Ausgang münden, der dann in die Grafikkarte gesteckt wird. Diese Adapter liegen den Karten bei.
Krautmaster schrieb:der Moment, wenn du realisierst, dass DLSS 3.0 nicht vielmehr ist als die TrueMotion Zwischenbildberechnung der neueren TVs
ragnarok666 schrieb:Ich bin hier sehr skeptisch, bin auf Tests gespannt, am besten mit E-Sportlern in einem AB Blindtest.