Das ist auch der Punkt, wo man die Kirche im Dorf lassen sollte. Extreme Ausreißer wie in Forbidden West, wo die Partikel Schlieren ziehen, habe ich bisher nur in Spiderman optisch wirklich als störend empfunden mit FSR. Extrem war auch Sniper Elite IV, aber das unterstützt auch nur FSR 1. Am Ende war es eine Heilung, auf WQHD umzusteigen und die Renderauflösung damit zu erhöhen. Das hilft auch FSR 3 auf die Sprünge und im hektischen geschehen von MP-Partien oder gemütlich beim Aufbauspiel zu Hause sucht man eben auch nicht mit der Lupe nach den Problemen.Ghostfacekalle schrieb:Auf LAN Party war auch kein Vorteil durch DLSS auszumachen im direkten Vergleich...![]()
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD FSR: AMD benennt Super Resolution und Fluid Motion Frames um
- Ersteller Wolfgang
- Erstellt am
- Zur News: AMD FSR: AMD benennt Super Resolution und Fluid Motion Frames um
Aber hat Nvidia dieses "Treiber-DLSS" nicht zwischendurch verbessert? Das war mein Gedanke.Taxxor schrieb:Da gibt’s eigentlich nicht viel zu verbessern, es ist ja ein rein spatiales Upscaling ohne Infos vom Spiel, das ist schon Jahrzehnte lang gereift
Ergänzung ()
...
- Registriert
- Mai 2011
- Beiträge
- 22.666
NIS ist mMn schlechter als RSRdeekey777 schrieb:Aber hat Nvidia dieses "Treiber-DLSS" nicht zwischendurch verbessert?
Gaugaumera
Lt. Commander Pro
- Registriert
- Okt. 2016
- Beiträge
- 1.882
Upscaler sind inzwischen halt einfach relevant geworden weil sie explizit verwendet werden um in Spielen nix mehr optimieren zu müssen.
Die Dev Kosten werden gesenkt auf Kosten der Spieler.
Und FSR1-3 ist einfach schlecht. Flimmern ohne Ende, Details die mal da sind und mal weg...
Erst jetzt in Hogwarts Legacy damit Probleme gehabt. Optiscaler FSR4 war prima, hat aber aktiviert zwei mal mein Savegame zerschossen. Gefrickel halt.
FSR3 sieht durch die Bank weg katastrophal aus. Haare, Umgebung, Details, alles flimmert störend.
Also Spiele ich halt nativ mit stark reduzierten Details.
Mit ner Nvidia hätte ich das Problem nicht und frage mich immer öfter ob ich nicht am falschen Ende gespart habe.
Die Dev Kosten werden gesenkt auf Kosten der Spieler.
Und FSR1-3 ist einfach schlecht. Flimmern ohne Ende, Details die mal da sind und mal weg...
Erst jetzt in Hogwarts Legacy damit Probleme gehabt. Optiscaler FSR4 war prima, hat aber aktiviert zwei mal mein Savegame zerschossen. Gefrickel halt.
FSR3 sieht durch die Bank weg katastrophal aus. Haare, Umgebung, Details, alles flimmert störend.
Also Spiele ich halt nativ mit stark reduzierten Details.
Mit ner Nvidia hätte ich das Problem nicht und frage mich immer öfter ob ich nicht am falschen Ende gespart habe.
- Registriert
- Okt. 2023
- Beiträge
- 4.529
Intel mit Nvidia und AMD hinsichtlich der Grafikabteilung zu vergleichen ist schon wild und dann noch nicht mal zu sehen, dass Intel trotzdem die modernere Architektur und lange Zeit den besseren Upscaler aus dem Stand als AMD hatte.zeedy schrieb:Auch sind deren Treiber nicht so toll. Beides Softwareentwicklung. Wahrscheinlich scheiterts auch da an der geringen Priorisierung![]()
Wenn überhaupt beweißt das, dass die Überlegungen von Mimir Recht valide sind, vor allem deshalb weil FSR 4 das Ergebnis einer Zusammenarbeit mit Sony ist.
Zuletzt bearbeitet:
In welcher Auflösung bist du denn unterwegs?Gaugaumera schrieb:FSR3 sieht durch die Bank weg katastrophal aus.
Schinken42
Captain
- Registriert
- März 2021
- Beiträge
- 3.150
Und die gesamte Presse schweigt das Thema tot xD.Blackfirehawk schrieb:Wenn das bei einem Rechner bei einer Person bei einem Spiel passiert ist das eine Sache.. da kann ich das auf User/PC build/Spiel schieben..
aber wenn bei mehreren Leuten einer nach den anderen ständig aus dem Game oder Lobby fliegt / der PC crasht und so kein vernünftiges miteinander Spielen mehr möglich ist dann ist das für mich sehr eindeutig.. vor allem da sich bei jedem einzelnen das Problem mit ner Nvidia Karte erledigt hatte.
Und die meisten davon sind keine Tuner oder Fuddler.. die packen sich die Graka in den Rechner.. installieren den Treiber und dann muss das Ding laufen.. nix oc/uv oder setting gebastel
Und wir reden hier nicht von einem Spiel.. sondern von mehreren.. Diablo3/4.. Battlefield.. diverse CoDs.. ect ect
Vermutlich, weil AMD die mit Geld zuscheisst, sind ja die wertvollste Firma der Welt... Oh.
Ok, dann liegts am roten Blut der ganzen Redakteure!
Doch war es erstens und zweitens warum denn nicht?floTTes schrieb:Das war erstens nicht die Argumentation, und zweitens dürfte XeSS bei Intel tatsächlich keine hohe Priorität haben.
Mimir schrieb:Es braucht halt nur die richtigen Leute. Aber auch das ist eine Frage der Priorisierung
Und nochmal: wo bleibt denn die Kritik an Intel, Sony oder Microsoft?Mimir schrieb:Das alles ist bei AMDs und Nvidias größe absolut keine Budgetfrage, sondern einfach nur eine Frage der Priorisierung. Die Kritik an AMD ist daher zu 100% gerechtfertigt.
Im Übrigen habe ich nicht behauptet, dass es an Manpower und Budget scheitert. Auch wenn das Budget beim Setzen von Prioritäten natürlich schon eine Rolle spielt.
weder nochfloTTes schrieb:/edit
"Ist beides Softwareentwicklung": Ich bin mir nicht sicher, ob das Polemik oder Unwissenheit ist.![]()
die modernere Architektur, die gerade so mit dem Low End von RDNA3 mithält? Ich vergleiche Intel's Grafikabteilung mit AMD und Nvidia nur dem Kontext entsprechend, was absolut plausibel ist. Auch habe ich nicht bestritten, dass XeSS besser ist als FSR3. Es wäre schön wenn du einmal richtig lesen könntest.Quidproquo77 schrieb:Intel mit Nvidia und AMD hinsichtlich der Grafikabteilung zu vergleichen ist schon wild und dann noch nicht mal zu sehen, dass Intel trotzdem die modernere Architektur und lange Zeit den besseren Upscaler aus dem Stand als AMD hatte.
Wenn überhaupt beweißt das, dass die Überlegungen von Mimir Recht valide sind, vor allem deshalb weil FSR 4 das Ergebnis einer Zusammenarbeit mit Sony ist.
Und was wirklich wild ist, wie du wieder einmal bemüht bist, die Lorbeeren für FSR4 fast schon Sony zuzuschreiben, während Intel, ein Computer Urgestein, von der Kritik in diesem Kontext natürlich komplett verschont bleibt 🤡
- Registriert
- Okt. 2023
- Beiträge
- 4.529
Ja, der RT Ansatz bzw. die Leistungsfähigkeit bezüglich RT Berechnungen ist im jeweiligen Leistungssegemt fortschrittlicher gewesen.zeedy schrieb:die modernere Architektur, die gerade so mit dem Low End von RDNA3 mithält?
Ja und auch zu diesem Kontext passt Mimirs Aussage, ansonsten wäre es für Intel kaum möglich gewesen einfach so an AMD vorbeizuziehen. Du hast lediglich die Schlagwörter Kritik und AMD gelesen und schon warst du getriggert.zeedy schrieb:Ich vergleiche Intel's Grafikabteilung mit AMD und Nvidia nur dem Kontext entsprechend, was absolut plausibel ist.
Du hast es nicht bestritten, aber alleine daran hättest du merken können, dass Kritik an AMD legitim ist.zeedy schrieb:Auch habe ich nicht bestritten, dass XeSS besser ist als FSR3.
Dann solltest du Erkenntnisse aus deinem Nebensatz in die Gesamtüberlegung mit integrieren.zeedy schrieb:Es wäre schön wenn du einmal richtig lesen könntest.
Man kann Intel gerne dafür kritisieren, dass ihr Upscaling momentan rückständig ist, warum denn nicht?zeedy schrieb:...während Intel, ein Computer Urgestein, von der Kritik in diesem Kontext natürlich komplett verschont bleibt 🤡
GreitZ
Ensign
- Registriert
- Aug. 2018
- Beiträge
- 186
Ich danke dir mich vom Gegenteil überzeugen zu wollen.Taxxor schrieb:Dort wo RT/PT auch ordentlich genutzt wird, ist der Unterschied An vs Aus deutlich größer als der zwischen Aus mit Ultra Preset vs Aus mit Medium/Low Preset
Anhang anzeigen 1678056
Hier ist sogar der Unterschied zwischen PT und dem rudimentär eingebauten RT noch ziemlich groß, vs komplett ohne RT wäre er logischerweise noch größer.
Anhang anzeigen 1678057
Vielleicht fehlt mir die fähigkeit nennenswerte Unterdchiede zu erkennen.
Ich suche mir gerade ne betahlvare 5090 und probiere es dann nochmal aus
Ergänzung ()
Wie man ein FHD Bild auch nur ansatzweise mit gutem Bild gleichsetzen kann.Blackfirehawk schrieb:Also ich hab hier noch n alten Rechner mit ner RTX3060 12GB für n bekannten fertig gemacht..
langt soweit noch für so ziemlich alles
mit DLSS4 transformer sind teils auch 120+fps drin und trotz 1080p@performance sieht's alles noch gut aus..
Also wer vorher FSR3 Nativ/quality hatte der hat jetzt n besseres Bild und mehr FPS mit DLSS4@performance
Da ist alles so pixelig und extrem unkenntlich.
Einmall 4k immer 4k
Zuletzt bearbeitet:
Blackfirehawk
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.708
Jammern auf hohen Niveau.. ich mag meinen 4k Monitor auch sehr gerne.GreitZ schrieb:Wie man ein FHD Bild auch nur ansatzweise mit gutem Bild gleichsetzen kann.
Da ist alles so pixelig und extrem unkenntlich.
Einmall 4k immer 4k
Aber manche sind zufrieden das sie in FHD überhaupt spielen können.. und darum geht es
Erstens macht das allein die Architektur nicht "moderner". Und zweitens zieht Intel beim RT nicht selten selbst gegen eine 6700XT den kürzeren. Im Leerlauf genehmigt sich die "modernere Architektur" mehr als 5x so viel Leistung und auch beim Youtuben ist es noch das zweifache.Quidproquo77 schrieb:Ja, der RT Ansatz bzw. die Leistungsfähigkeit bezüglich RT Berechnungen ist im jeweiligen Leistungssegemt fortschrittlicher gewesen.
Das ist wieder Quatsch. Ich habe nichts gegen berechtigte Kritik. Mimir's Kritik ist aber einseitig, viel zu simpel und teilweise albern begründet.Quidproquo77 schrieb:Du hast lediglich die Schlagwörter Kritik und AMD gelesen und schon warst du getriggert.
Warum behauptest du dann einen Kommentar davor das Gegenteil? 🤡Quidproquo77 schrieb:Du hast es nicht bestritten,
Kritik an FSR3 gibt es im Überfluss und sie ist berechtigt. Die fehlende Verbesserung von FSR3 ist ebenso kritikwürdig. Auf der anderen Seite ist es, wie schon gesagt, löblich, dass XeSS idR besser und vor allem auf jeder GPU lauffähig ist.
Und warum verteidigst du dann Mimir und stimmst ihm zu, der die Kritik an Intel für nicht angebracht hält? 🤡Quidproquo77 schrieb:Man kann Intel gerne dafür kritisieren, dass ihr Upscaling momentan rückständig ist, warum denn nicht?
grabeskuehle
Lt. Junior Grade
- Registriert
- Okt. 2014
- Beiträge
- 270
Bin schon gespannt ob Cyberpunk 2077 diesbezüglich vielleicht noch ein kleines Update bekommen wird.
Zwar eher unwahrscheinlich, aber ich fänds toll.
Zwar eher unwahrscheinlich, aber ich fänds toll.
- Registriert
- Okt. 2023
- Beiträge
- 4.529
Doch, genau das macht sie moderner.zeedy schrieb:Erstens macht das allein die Architektur nicht "moderner".
Auch der KI Ansatz.
Und was berechtigt ist oder nicht, bestimmst alleine du.zeedy schrieb:Das ist wieder Quatsch. Ich habe nichts gegen berechtigte Kritik.
Auf jeden Fall jemand der im Vergleich zu den meisten Usern auch viel Ahnung von Softwareentwicklung hat. Die Aussagen würde ich dann schon eher für voll nehmen als deine.zeedy schrieb:Mimir's Kritik ist aber einseitig, viel zu simpel und teilweise albern begründet.
Häh?Mimir schrieb:AMD sollte auf Augenhöhe mit nvidia konkurieren, was bedeutet, dass mal AMD, mal Nvidia vorne liegt mit neuen Features. Aber aktuell hängen sie immer 1-2 Generationen hinterher. Und dann gibts leute wie du die das auch noch OK finden? Das ist auf Dauer extrem destruktiv für den gesamten GPU Markt und besonders für AMD. Genau so förderst du Nvidias quasi Monopol.
So gesehen gibt es wohl kaum jemanden, der AMD mehr schadet, als die eigene Kundschaft.
Also das es wünschenswert wäre wenn AMD weiter wäre, als sie es heute sind. Da sind wir uns einig.
Aber warum ein AMD Kunde destruktiv für den GPU Markt und AMD ist, erschließt sich mir nicht.
Zuletzt bearbeitet:
Nein, nur in deinen Augen.Quidproquo77 schrieb:Doch, genau das macht sie moderner.
Nein, aber Logik und gesunder Menschenverstand.Quidproquo77 schrieb:Und was berechtigt ist oder nicht, bestimmst alleine du.
Mich interessiert nicht, was jemand wie du, der schwachsinnige Thesen aufstellt und sich selbst zig mal widerspricht ohne es zu bemerken, für voll nimmt und was nicht.Quidproquo77 schrieb:Die Aussagen würde ich dann schon eher für voll nehmen als deine.
- Registriert
- Mai 2011
- Beiträge
- 22.666
Dass die Architektur von Arc moderner war als die von RDNA3 ist ziemlich unstrittig.zeedy schrieb:Nein, nur in deinen Augen.
Nicht nur was RT angeht.
Was Schwachsinn ist, ist das anhand der Leistung spezieller Karten zu beurteilen, so wie du es getan hast(„Hält gerade mal mit dem low End Von RDNA3 mit“).
Intels Core Ultra ist auch die deutlich modernere Architektur obwohl sie sich oft nicht von den 14ern absetzen
Die natürlich nur du besitzt^^zeedy schrieb:Nein, aber Logik und gesunder Menschenverstand.
Zuletzt bearbeitet:
Was denn sonst außer RT?Taxxor schrieb:Dass die Architektur von Arc moderner war als die von RDNA3 ist ziemlich unstrittig.
Nicht nur was RT angeht.
Was Schwachsinn ist, ist das anhand der Leistung spezieller Karten zu beurteilen, so wie du es getan hast
Eine modernere Architektur muss auch eine bessere Energieeffizienz haben. Bei Intel ist sie vor allem bei Teillast nicht zeitgemäß. Lass uns auch nicht vergessen, dass Arc B580 2 Jahre nach RDNA3 erschien.
Und was ist daran schwachsinnig? Warum darf man eine RX 7600 nicht mit B580 vergleichen? ^^
Die 7600 ist RDNA3 low end, kleinere GPU trotz älterem Fertigungsprozess als B580. Auch im Computerbase Test wurde sie mit RX 7600 verglichen.
Aha schön. Vielleicht wäre es besser, wenn Intel bessere statt modernere Architekturen entwickeltTaxxor schrieb:Intels Core Ultra ist auch die deutlich modernere Architektur obwohl sie sich oft nicht von den 14ern absetzen
warum?Taxxor schrieb:Die natürlich nur du besitzt^^
- Registriert
- Mai 2011
- Beiträge
- 22.666
Hardwareeinheiten fürs bessere upscaling z.B.zeedy schrieb:Was denn sonst außer RT?
okay dann nutzt mein 7800X3D wohl ne modernere Architektur als der 9800X3D ^^zeedy schrieb:Eine modernere Architektur muss auch eine bessere Energieeffizienz haben.
Dinge wie Idle Verbrauch sind auch oft Software/Treiber Probleme, die nicht direkt mit der Architektur zu tun haben.
RDNA3 hatte auch sehr lange sehr hohe Verbräuche bei Teillast, das wurde nach ein paar Treiberupdates dann entschärft, die Architektur an sich kann also effizienter sein als man es bei den ersten Tests gesehen hatte.
Zuletzt bearbeitet:
- Registriert
- Okt. 2023
- Beiträge
- 4.529
ARC A380 respektive die A770 kam ein halbes Jahr, respektive 2 Monate vor RDNA3 nicht nur die höhere RT Leistung, sondern verfügte über 1-2 höhere RT Ausbaustufe(n), dedizierte XMX Kerne für KI gestütztes KI Upscaling und maschinelles Lernen, einen bessere AV1 Support (8K) und noch andere Dinge.zeedy schrieb:Was denn sonst außer RT?
RDNA3 ist dagegen schwach aufgestellt.
Nein, eine modernere IP hat nicht unbedingt eine bessere Energieeffizienz.zeedy schrieb:Eine modernere Architektur muss auch eine bessere Energieeffizienz haben.
Kannst die Effizienz ja mal unter fairen Bedingungen (gleiche Bildqualität) XeSS > FSR 3.1 und RT vergleichen, dann ist die Effizienz für Intels erste richtige GPU nicht mehr so schlecht, aber darum ging es eh nicht.
Nein, das hat ganz objektive Gründe, wie oben erläutert, kannst ja dagegen inhaltlich argumentieren, anstatt ausfällig zu werden.zeedy schrieb:Nein, nur in deinen Augen.
Dann schlage ich vor die Diskussion zu beenden, wenn es dich nicht interessiert.zeedy schrieb:Mich interessiert nicht...
Du kannst gerne erklären warum der 7800X3D die modernere Architektur hat als der 9800X3D und warum RDNA3 moderner sein soll als ARC.
Ich wüsste nur nicht worauf du deine Argumentation aufbauen sollst, außer auf Dingen die in dem Kontext nicht relevant sind.
https://www.pcgameshardware.de/Arc-...-7600-Battlemage-Release-Benchmark-1436321/3/
Hier auch schön auf aufbereitet und erklärt.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 59
- Aufrufe
- 2.022
- Antworten
- 201
- Aufrufe
- 16.967
- Antworten
- 7
- Aufrufe
- 2.490
- Antworten
- 22
- Aufrufe
- 2.566
- Antworten
- 336
- Aufrufe
- 45.542