News AMD FSR: AMD benennt Super Resolution und Fluid Motion Frames um

Ghostfacekalle schrieb:
Auf LAN Party war auch kein Vorteil durch DLSS auszumachen im direkten Vergleich... ;)
Das ist auch der Punkt, wo man die Kirche im Dorf lassen sollte. Extreme Ausreißer wie in Forbidden West, wo die Partikel Schlieren ziehen, habe ich bisher nur in Spiderman optisch wirklich als störend empfunden mit FSR. Extrem war auch Sniper Elite IV, aber das unterstützt auch nur FSR 1. Am Ende war es eine Heilung, auf WQHD umzusteigen und die Renderauflösung damit zu erhöhen. Das hilft auch FSR 3 auf die Sprünge und im hektischen geschehen von MP-Partien oder gemütlich beim Aufbauspiel zu Hause sucht man eben auch nicht mit der Lupe nach den Problemen.
 
  • Gefällt mir
Reaktionen: Wanderwisser, floTTes, daknoll und eine weitere Person
Taxxor schrieb:
Da gibt’s eigentlich nicht viel zu verbessern, es ist ja ein rein spatiales Upscaling ohne Infos vom Spiel, das ist schon Jahrzehnte lang gereift
Ergänzung ()


...
Aber hat Nvidia dieses "Treiber-DLSS" nicht zwischendurch verbessert? Das war mein Gedanke.
 
Upscaler sind inzwischen halt einfach relevant geworden weil sie explizit verwendet werden um in Spielen nix mehr optimieren zu müssen.
Die Dev Kosten werden gesenkt auf Kosten der Spieler.

Und FSR1-3 ist einfach schlecht. Flimmern ohne Ende, Details die mal da sind und mal weg...
Erst jetzt in Hogwarts Legacy damit Probleme gehabt. Optiscaler FSR4 war prima, hat aber aktiviert zwei mal mein Savegame zerschossen. Gefrickel halt.
FSR3 sieht durch die Bank weg katastrophal aus. Haare, Umgebung, Details, alles flimmert störend.
Also Spiele ich halt nativ mit stark reduzierten Details.
Mit ner Nvidia hätte ich das Problem nicht und frage mich immer öfter ob ich nicht am falschen Ende gespart habe.
 
  • Gefällt mir
Reaktionen: GOOFY71 und ProRateX
zeedy schrieb:
Auch sind deren Treiber nicht so toll. Beides Softwareentwicklung. Wahrscheinlich scheiterts auch da an der geringen Priorisierung :lol:
Intel mit Nvidia und AMD hinsichtlich der Grafikabteilung zu vergleichen ist schon wild und dann noch nicht mal zu sehen, dass Intel trotzdem die modernere Architektur und lange Zeit den besseren Upscaler aus dem Stand als AMD hatte.

Wenn überhaupt beweißt das, dass die Überlegungen von Mimir Recht valide sind, vor allem deshalb weil FSR 4 das Ergebnis einer Zusammenarbeit mit Sony ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor
  • Gefällt mir
Reaktionen: Nighteye und Andre83hro
Blackfirehawk schrieb:
Wenn das bei einem Rechner bei einer Person bei einem Spiel passiert ist das eine Sache.. da kann ich das auf User/PC build/Spiel schieben..

aber wenn bei mehreren Leuten einer nach den anderen ständig aus dem Game oder Lobby fliegt / der PC crasht und so kein vernünftiges miteinander Spielen mehr möglich ist dann ist das für mich sehr eindeutig.. vor allem da sich bei jedem einzelnen das Problem mit ner Nvidia Karte erledigt hatte.

Und die meisten davon sind keine Tuner oder Fuddler.. die packen sich die Graka in den Rechner.. installieren den Treiber und dann muss das Ding laufen.. nix oc/uv oder setting gebastel


Und wir reden hier nicht von einem Spiel.. sondern von mehreren.. Diablo3/4.. Battlefield.. diverse CoDs.. ect ect
Und die gesamte Presse schweigt das Thema tot xD.
Vermutlich, weil AMD die mit Geld zuscheisst, sind ja die wertvollste Firma der Welt... Oh.
Ok, dann liegts am roten Blut der ganzen Redakteure!
 
  • Gefällt mir
Reaktionen: Alphanerd, daknoll und Ghostfacekalle
floTTes schrieb:
Das war erstens nicht die Argumentation, und zweitens dürfte XeSS bei Intel tatsächlich keine hohe Priorität haben.
Doch war es erstens und zweitens warum denn nicht?
Mimir schrieb:
Es braucht halt nur die richtigen Leute. Aber auch das ist eine Frage der Priorisierung
Mimir schrieb:
Das alles ist bei AMDs und Nvidias größe absolut keine Budgetfrage, sondern einfach nur eine Frage der Priorisierung. Die Kritik an AMD ist daher zu 100% gerechtfertigt.
Und nochmal: wo bleibt denn die Kritik an Intel, Sony oder Microsoft? :rolleyes:

Im Übrigen habe ich nicht behauptet, dass es an Manpower und Budget scheitert. Auch wenn das Budget beim Setzen von Prioritäten natürlich schon eine Rolle spielt.

floTTes schrieb:
/edit
"Ist beides Softwareentwicklung": Ich bin mir nicht sicher, ob das Polemik oder Unwissenheit ist. :freak:
weder noch :freak:

Quidproquo77 schrieb:
Intel mit Nvidia und AMD hinsichtlich der Grafikabteilung zu vergleichen ist schon wild und dann noch nicht mal zu sehen, dass Intel trotzdem die modernere Architektur und lange Zeit den besseren Upscaler aus dem Stand als AMD hatte.

Wenn überhaupt beweißt das, dass die Überlegungen von Mimir Recht valide sind, vor allem deshalb weil FSR 4 das Ergebnis einer Zusammenarbeit mit Sony ist.
die modernere Architektur, die gerade so mit dem Low End von RDNA3 mithält? Ich vergleiche Intel's Grafikabteilung mit AMD und Nvidia nur dem Kontext entsprechend, was absolut plausibel ist. Auch habe ich nicht bestritten, dass XeSS besser ist als FSR3. Es wäre schön wenn du einmal richtig lesen könntest.

Und was wirklich wild ist, wie du wieder einmal bemüht bist, die Lorbeeren für FSR4 fast schon Sony zuzuschreiben, während Intel, ein Computer Urgestein, von der Kritik in diesem Kontext natürlich komplett verschont bleibt 🤡
 
  • Gefällt mir
Reaktionen: OpenSystemFan und Andre83hro
zeedy schrieb:
die modernere Architektur, die gerade so mit dem Low End von RDNA3 mithält?
Ja, der RT Ansatz bzw. die Leistungsfähigkeit bezüglich RT Berechnungen ist im jeweiligen Leistungssegemt fortschrittlicher gewesen.
zeedy schrieb:
Ich vergleiche Intel's Grafikabteilung mit AMD und Nvidia nur dem Kontext entsprechend, was absolut plausibel ist.
Ja und auch zu diesem Kontext passt Mimirs Aussage, ansonsten wäre es für Intel kaum möglich gewesen einfach so an AMD vorbeizuziehen. Du hast lediglich die Schlagwörter Kritik und AMD gelesen und schon warst du getriggert.
zeedy schrieb:
Auch habe ich nicht bestritten, dass XeSS besser ist als FSR3.
Du hast es nicht bestritten, aber alleine daran hättest du merken können, dass Kritik an AMD legitim ist.
zeedy schrieb:
Es wäre schön wenn du einmal richtig lesen könntest.
Dann solltest du Erkenntnisse aus deinem Nebensatz in die Gesamtüberlegung mit integrieren.
zeedy schrieb:
...während Intel, ein Computer Urgestein, von der Kritik in diesem Kontext natürlich komplett verschont bleibt 🤡
Man kann Intel gerne dafür kritisieren, dass ihr Upscaling momentan rückständig ist, warum denn nicht?
 
  • Gefällt mir
Reaktionen: Schinken42
Taxxor schrieb:
Dort wo RT/PT auch ordentlich genutzt wird, ist der Unterschied An vs Aus deutlich größer als der zwischen Aus mit Ultra Preset vs Aus mit Medium/Low Preset

Anhang anzeigen 1678056


Hier ist sogar der Unterschied zwischen PT und dem rudimentär eingebauten RT noch ziemlich groß, vs komplett ohne RT wäre er logischerweise noch größer.
Anhang anzeigen 1678057
Ich danke dir mich vom Gegenteil überzeugen zu wollen.
Vielleicht fehlt mir die fähigkeit nennenswerte Unterdchiede zu erkennen.
Ich suche mir gerade ne betahlvare 5090 und probiere es dann nochmal aus
Ergänzung ()

Blackfirehawk schrieb:
Also ich hab hier noch n alten Rechner mit ner RTX3060 12GB für n bekannten fertig gemacht..
langt soweit noch für so ziemlich alles

mit DLSS4 transformer sind teils auch 120+fps drin und trotz 1080p@performance sieht's alles noch gut aus..

Also wer vorher FSR3 Nativ/quality hatte der hat jetzt n besseres Bild und mehr FPS mit DLSS4@performance
Wie man ein FHD Bild auch nur ansatzweise mit gutem Bild gleichsetzen kann.
Da ist alles so pixelig und extrem unkenntlich.
Einmall 4k immer 4k
 
Zuletzt bearbeitet:
GreitZ schrieb:
Wie man ein FHD Bild auch nur ansatzweise mit gutem Bild gleichsetzen kann.
Da ist alles so pixelig und extrem unkenntlich.
Einmall 4k immer 4k
Jammern auf hohen Niveau.. ich mag meinen 4k Monitor auch sehr gerne.
Aber manche sind zufrieden das sie in FHD überhaupt spielen können.. und darum geht es
 
  • Gefällt mir
Reaktionen: Boimler
Quidproquo77 schrieb:
Ja, der RT Ansatz bzw. die Leistungsfähigkeit bezüglich RT Berechnungen ist im jeweiligen Leistungssegemt fortschrittlicher gewesen.
Erstens macht das allein die Architektur nicht "moderner". Und zweitens zieht Intel beim RT nicht selten selbst gegen eine 6700XT den kürzeren. Im Leerlauf genehmigt sich die "modernere Architektur" mehr als 5x so viel Leistung und auch beim Youtuben ist es noch das zweifache.

Quidproquo77 schrieb:
Du hast lediglich die Schlagwörter Kritik und AMD gelesen und schon warst du getriggert.
Das ist wieder Quatsch. Ich habe nichts gegen berechtigte Kritik. Mimir's Kritik ist aber einseitig, viel zu simpel und teilweise albern begründet.

Quidproquo77 schrieb:
Du hast es nicht bestritten,
Warum behauptest du dann einen Kommentar davor das Gegenteil? 🤡

Kritik an FSR3 gibt es im Überfluss und sie ist berechtigt. Die fehlende Verbesserung von FSR3 ist ebenso kritikwürdig. Auf der anderen Seite ist es, wie schon gesagt, löblich, dass XeSS idR besser und vor allem auf jeder GPU lauffähig ist.

Quidproquo77 schrieb:
Man kann Intel gerne dafür kritisieren, dass ihr Upscaling momentan rückständig ist, warum denn nicht?
Und warum verteidigst du dann Mimir und stimmst ihm zu, der die Kritik an Intel für nicht angebracht hält? 🤡
 
  • Gefällt mir
Reaktionen: Andre83hro
Bin schon gespannt ob Cyberpunk 2077 diesbezüglich vielleicht noch ein kleines Update bekommen wird.
Zwar eher unwahrscheinlich, aber ich fänds toll.
 
zeedy schrieb:
Erstens macht das allein die Architektur nicht "moderner".
Doch, genau das macht sie moderner.
Auch der KI Ansatz.
zeedy schrieb:
Das ist wieder Quatsch. Ich habe nichts gegen berechtigte Kritik.
Und was berechtigt ist oder nicht, bestimmst alleine du.
zeedy schrieb:
Mimir's Kritik ist aber einseitig, viel zu simpel und teilweise albern begründet.
Auf jeden Fall jemand der im Vergleich zu den meisten Usern auch viel Ahnung von Softwareentwicklung hat. Die Aussagen würde ich dann schon eher für voll nehmen als deine.
 
Mimir schrieb:
AMD sollte auf Augenhöhe mit nvidia konkurieren, was bedeutet, dass mal AMD, mal Nvidia vorne liegt mit neuen Features. Aber aktuell hängen sie immer 1-2 Generationen hinterher. Und dann gibts leute wie du die das auch noch OK finden? Das ist auf Dauer extrem destruktiv für den gesamten GPU Markt und besonders für AMD. Genau so förderst du Nvidias quasi Monopol.
So gesehen gibt es wohl kaum jemanden, der AMD mehr schadet, als die eigene Kundschaft.
Häh?

Also das es wünschenswert wäre wenn AMD weiter wäre, als sie es heute sind. Da sind wir uns einig.
Aber warum ein AMD Kunde destruktiv für den GPU Markt und AMD ist, erschließt sich mir nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ghostfacekalle und Andre83hro
Quidproquo77 schrieb:
Doch, genau das macht sie moderner.
Nein, nur in deinen Augen.

Quidproquo77 schrieb:
Und was berechtigt ist oder nicht, bestimmst alleine du.
Nein, aber Logik und gesunder Menschenverstand.

Quidproquo77 schrieb:
Die Aussagen würde ich dann schon eher für voll nehmen als deine.
Mich interessiert nicht, was jemand wie du, der schwachsinnige Thesen aufstellt und sich selbst zig mal widerspricht ohne es zu bemerken, für voll nimmt und was nicht.
 
  • Gefällt mir
Reaktionen: Andre83hro
zeedy schrieb:
Nein, nur in deinen Augen.
Dass die Architektur von Arc moderner war als die von RDNA3 ist ziemlich unstrittig.
Nicht nur was RT angeht.

Was Schwachsinn ist, ist das anhand der Leistung spezieller Karten zu beurteilen, so wie du es getan hast(„Hält gerade mal mit dem low End Von RDNA3 mit“).

Intels Core Ultra ist auch die deutlich modernere Architektur obwohl sie sich oft nicht von den 14ern absetzen

zeedy schrieb:
Nein, aber Logik und gesunder Menschenverstand.
Die natürlich nur du besitzt^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und incurable
Taxxor schrieb:
Dass die Architektur von Arc moderner war als die von RDNA3 ist ziemlich unstrittig.
Nicht nur was RT angeht.

Was Schwachsinn ist, ist das anhand der Leistung spezieller Karten zu beurteilen, so wie du es getan hast
Was denn sonst außer RT?

Eine modernere Architektur muss auch eine bessere Energieeffizienz haben. Bei Intel ist sie vor allem bei Teillast nicht zeitgemäß. Lass uns auch nicht vergessen, dass Arc B580 2 Jahre nach RDNA3 erschien.

Und was ist daran schwachsinnig? Warum darf man eine RX 7600 nicht mit B580 vergleichen? ^^
Die 7600 ist RDNA3 low end, kleinere GPU trotz älterem Fertigungsprozess als B580. Auch im Computerbase Test wurde sie mit RX 7600 verglichen.

Taxxor schrieb:
Intels Core Ultra ist auch die deutlich modernere Architektur obwohl sie sich oft nicht von den 14ern absetzen
Aha schön. Vielleicht wäre es besser, wenn Intel bessere statt modernere Architekturen entwickelt :lol:

Taxxor schrieb:
Die natürlich nur du besitzt^^
warum?
 
  • Gefällt mir
Reaktionen: Andre83hro
zeedy schrieb:
Was denn sonst außer RT?
Hardwareeinheiten fürs bessere upscaling z.B.
zeedy schrieb:
Eine modernere Architektur muss auch eine bessere Energieeffizienz haben.
okay dann nutzt mein 7800X3D wohl ne modernere Architektur als der 9800X3D ^^

Dinge wie Idle Verbrauch sind auch oft Software/Treiber Probleme, die nicht direkt mit der Architektur zu tun haben.

RDNA3 hatte auch sehr lange sehr hohe Verbräuche bei Teillast, das wurde nach ein paar Treiberupdates dann entschärft, die Architektur an sich kann also effizienter sein als man es bei den ersten Tests gesehen hatte.
 
Zuletzt bearbeitet:
zeedy schrieb:
Was denn sonst außer RT?
ARC A380 respektive die A770 kam ein halbes Jahr, respektive 2 Monate vor RDNA3 nicht nur die höhere RT Leistung, sondern verfügte über 1-2 höhere RT Ausbaustufe(n), dedizierte XMX Kerne für KI gestütztes KI Upscaling und maschinelles Lernen, einen bessere AV1 Support (8K) und noch andere Dinge.
RDNA3 ist dagegen schwach aufgestellt.
zeedy schrieb:
Eine modernere Architektur muss auch eine bessere Energieeffizienz haben.
Nein, eine modernere IP hat nicht unbedingt eine bessere Energieeffizienz.
Kannst die Effizienz ja mal unter fairen Bedingungen (gleiche Bildqualität) XeSS > FSR 3.1 und RT vergleichen, dann ist die Effizienz für Intels erste richtige GPU nicht mehr so schlecht, aber darum ging es eh nicht.
zeedy schrieb:
Nein, nur in deinen Augen.
Nein, das hat ganz objektive Gründe, wie oben erläutert, kannst ja dagegen inhaltlich argumentieren, anstatt ausfällig zu werden.
zeedy schrieb:
Mich interessiert nicht...
Dann schlage ich vor die Diskussion zu beenden, wenn es dich nicht interessiert.
Du kannst gerne erklären warum der 7800X3D die modernere Architektur hat als der 9800X3D und warum RDNA3 moderner sein soll als ARC.

Ich wüsste nur nicht worauf du deine Argumentation aufbauen sollst, außer auf Dingen die in dem Kontext nicht relevant sind.

https://www.pcgameshardware.de/Arc-...-7600-Battlemage-Release-Benchmark-1436321/3/
Hier auch schön auf aufbereitet und erklärt.
 
Zuletzt bearbeitet:
Zurück
Oben