Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestMafia: The Old Country im Test: Grafikkarten-Benchmarks mit extrem hohen Anforderungen
Wenn genug mediale Aufmerksamkeit entsteht könnte evtl Epic ja die UE5 verbessern? Bessere Tools zur Optimierung auch für kleine Entwickler-Teams rausbringen? Wenn keine Kritik über diesen Zustand öffentlich zu sehen ist, passiert dies wohl mit einer weit geringeren Wahrscheinlichkeit.
Manchmal bin ich entsetzt wie viele Menschen (scheinbar) den Schmerz nicht ertragen können, der nunmal entsteht, wenn man sich mit Problemen beschäftigt, die in der realen Welt halt vorkommen. Und stattdessen sogar öffentlich dafür plädieren, sich selber anzulügen. Krass.
Liegt daran das man heute zu viele alternativen hat die Zeit zu "verbringen" .
Heutzutage sind die Leute so überarbeitet oder depressiv umd haben keine Energie sich zu beschweren und nutzen daher andere Spiele etc, umgehen Probleme. Gibt halt viel auswahl.
Eine der wenigen Entitäten die sich mit dem UE Problem beschäftigen sind ja zb Threat Interactive.
Freu mich wenn ich in einem halben Jahr es für 20 Euro und gefixed kaufe. Ggf. sollte man nach einem halben jahr oder jahr, das gegen den "Startwert" gegenhalten. Was wurde von Developers im Game und von Treiberhersteller noch rausgequetscht. Das ist was mich immer interessiert.
Die (geringen) Leistungseinbußen gegenüber der XTX sind ja aus früheren Tests bekannt, und die theoretischen Angaben begrenzen den Abweichungsspielraum ohnehin sehr stark. Ich sehe da jetzt keinen Grund, diese eine Karte dem Test hinzuzufügen. Nicht jedes Zwischenmodell ist den Testaufwand wert.
FSR4 bzw. Redstone entsteht, bzw. ist entstanden in Zusammenarbeit mit Sony, einem Unternehmen das weltweit über 120 000 Mitarbeiter beschäftigt. Also das Argument, dass dies beeindruckend sei, während andere Dinge in seinem Duktus nicht beeindruckend sind, kostet ziemlich viel Substanz.
Es ist schon erstaunlich sich immer mit einem angeblichen Kontext herauszureden.
Der Kontext war der Qualitätsunterschied und an der Stelle brachtest du den "beeindruckend" Cope und hast den "Kontext" verlassen um klare Unterschiede mit Ablenkungsgefasel zuzudecken. Alleine aufgrund dessen, weil man gerade in einem "Performance Modus" eben nicht mit der Konkurrenz mithalten kann, was gerade bei einem QHD Monitor sehr stark auffällt. Einen "Performance Modus" den man aber braucht, damit das Spiel flüssig läuft. Wir stehen also wieder da, wo man mit DLSS3 vs FSR2 stand.
zeedy schrieb:
Ja absolut beeindruckend, wenn AMD 's erstes KI basiertes Upscaling mit Nvidia's 4. Generation derart gut mithält.
Die Karte hat 88% der ALUs und da diese nicht 1:1 skalieren hat man rund 90 der Leistung, wie erste Tests nahelegen. Die 5050 jedoch hat nur 55% einer 5060 Ti. Soviel zu "hochdämlich". Wenn man selber nicht rechnen kann.
Aber wie wir sehen, spielt diese "Mittelklasse" Karte teilweise sehr gut in NV High End Bereich mit (RTX5080), und das für mittlerweile schon 650€. Davon kann (eine 5080 für 1000-1100€ nur träumen.
Das grafik Preset sagt doch nix über die grafik qualität im vergleich zu anderen Spielen aus. Es ist das maximale was die Entwickler für ihr Spiel einstellbar machen. Wobei dieses Preset in so gut wie jedem spiel einfach maximale performance verschwendung ist bezogen auf den gewinn an Grafik Qualität.
$t0Rm schrieb:
Wozu kauft man sich denn für so viel Geld so teure Hardware, wenn dann so ein "gut" aussehendes Spiel nicht mal mit High Frames läuft?
Sry, da musste ich etwas schmunzeln. WerSoftware und Hardware nicht wirklich trennen kann, hat es einfach nicht verstanden. Die Entwickler haben ein spielkonzept, dieses wird umgesetzt. Und dabei wird erstmal keine Rücksicht auf die Hardware genommen. Das kommt später. Dabei muss Epic ja noch nichtmal mit heutigen Gpu‘s spielbar sein. Das war schon immer so. Software sells Hardware. wer meint mit einer 5090 mit 4k Auflösung die nächsten 5jahre ausgesorgt zu sein mit max settings wird sich wundern. Wie oft wurden Schon gpus und konsolen mit 4k beworben. Das ist immer der stand bis zum release.
Was meinst du warum das feature FG so gepuscht wird. du brauchst nur eine gewisse mindest anzahl an fps, fertig. Diese option ist jetzt fester bestandteil von spielen genauso das upscaling, Und dementsprechend werden die Entwickler dieses auch nutzen. Denn sie Entscheiden wie ihr spiel zulaufen hat. und wenn ihr ziel min 30fps und nicht 60fps sind , dann wird sich jeder damit abfinden müssen.
ich sage mal so. es gibt auch menschen für die 10-15fps flüssig sind und die ihre spiele mit 15fps zocken
meine hardware ist einwandfrei, 60fps sind aber nunmal 60fps und nicht 240. genauso laufen filme mit 24fps und ruckeln sich unglaublich einen ab, aber auch das stört wohl die meisten nicht.
da du aber wie du selbst sagst noch nie ein spiel mit vsync gezockt hast kannst du natürlich nicht beurteilen wieviel flüssiger ein vsync lock im vergleich zu einem framerate lock ist. ein framerate lock ist für DICH ja das maximum was du kennst und somit "flüssig". aber schließ aufgrund von unwissenheit nicht von dir selbst auf andere...
Ergänzung ()
Hotzenplotz45 schrieb:
Ich glaub eher , iwas stimmt mit deinem windows oder deiner Hardware nicht. 60fps sehen für mich heute für mich auf meinem 165hz oled noch genauso flüssig aus wie auf damals auf meinem 17" 60hz siemens nixdorf crt (konnte auch 100hz aber hab ich erst spät gemerkt xD)
Ich hab nie vsync an, immer nur VRR+120fps Limit
Und tendenziell werden die Augen mit dem Alter leider eher schlechter xD
Ich wurd alle hardware uberwachungstools von hardware herstellern (corsair, asus, gigabyte etc) runterschmeissen, die produzieren oft spikes beim pacing. Evtl hast du den berüchtigten AMDip ?
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
nein, es liegt genauso an dir wie deinem vorredner. für euch ist das vllt flüssig aber ihr kennt ja garnicht wies besser sein kann wenn man vsync locked zockt und die framerate nicht schwankt sondern konstant im vync lock liegt.
ähnliches gilt für gsync/vrr, welches in manchen spielen ebenfalls butterweiches framepacing produzieren kann (wenns nur in allen spielen so gut liefe).
das lustige ist du schreibst für dich sähen 60fps heutzutage genauso flüssig aus wie auf deiem alten monitor. gleichzeitig schreibst du aber dein alter monitor konnte 100hz. somit konntest du garnicht wissen wie flüssig vsync locked 60fps auf eiem 60hz panel aussehen im vergleich zu framerate locked 60fps auf einem higher refresh rate monitor. der unterschied ist deutlich sichtbar, aber du hast ihn ja wie du selbst sagst nie gesehen daher kannst du es ganricht wissen. all die unwissenheit mal lwieder und jeder denkt er wüsste es am besten...
naja wie auch immer, ist ja nichts neues hier xD
edit: übrignes an all die jenigen die aufgrund dieses missverständnisses niemals vsync genutzt haben und dachten das ohne vsync die spiele flüssiger laufen (LOL)... ihr habt jahre bis jahrzehnte lang immer ruckeliger gezockt als die leute die immer vsync nutzten
ein simples googlen reihct schon aus und erklärts auch ganz gut...
Strohmannargument, ich habe wenn überhaupt gesagt, dass es keine "Revolution" sei. Denn auf einen Teil der Revolution endlich im RT Game aufzuholen, muss man ja bis in den Herbst oder noch länger warten.
Also etwas was eine RTX 4080 schon vor 3 Jahren angeboten hat.
danyundsahne schrieb:
Aber wie wir sehen, spielt diese "Mittelklasse" Karte teilweise sehr gut in NV High End Bereich mit (RTX5080), und das für mittlerweile schon 650€. Davon kann (eine 5080 für 1000-1100€ nur träumen.
Die 5080 ist mit Schnitt 20-30% mehr Leistung, mit Pathtracing 70% mehr und dem besseren Featureset kein Gegner der 9070XT, das ist die 5070 Ti. Und der Aufpreis wird auch mit einem höheren Wiederverkaufswert relativiert.
danyundsahne schrieb:
Ich nehme sein/ihr übertriebenes Schlechtgerede daher schon gar nicht mehr wahr.
Sry, da musste ich etwas schmunzeln. WerSoftware und Hardware nicht wirklich trennen kann, hat es einfach nicht verstanden. Die Entwickler haben ein spielkonzept, dieses wird umgesetzt. Und dabei wird erstmal keine Rücksicht auf die Hardware genommen. Das kommt später. Dabei muss Epic ja noch nichtmal mit heutigen Gpu‘s spielbar sein. Das war schon immer so. Software sells Hardware. wer meint mit einer 5090 mit 4k Auflösung die nächsten 5jahre ausgesorgt zu sein mit max settings wird sich wundern. Wie oft wurden Schon gpus und konsolen mit 4k beworben. Das ist immer der stand bis zum release.
nein, es liegt genauso an dir wie deinem vorredner. für euch ist das vllt flüssig aber ihr kennt ja garnicht wies besser sein kann wenn man vsync locked zockt und die framerate nicht schwankt sondern konstant im vync lock liegt.
ähnliches gilt für gsync/vrr, welches in manchen spielen ebenfalls butterweiches framepacing produzieren kann (wenns nur in allen spielen so gut liefe).
das lustige ist du schreibst für dich sähen 60fps heutzutage genauso flüssig aus wie auf deiem alten monitor. gleichzeitig schreibst du aber dein alter monitor konnte 100hz. somit konntest du garnicht wissen wie flüssig vsync locked 60fps auf eiem 60hz panel aussehen im vergleich zu framerate locked 60fps auf einem higher refresh rate monitor. der unterschied ist deutlich sichtbar, aber du hast ihn ja wie du selbst sagst nie gesehen daher kannst du es ganricht wissen. all die unwissenheit mal lwieder und jeder denkt er wüsste es am besten...
Bitte lies unsere comments genauer, ich hab nirgends geschrieben das ich ich nur 100hz auf meinem crt genutzt hätte , sondern das ich BEIDES 60 UND 100 hz genutzt habe.
Bitte lenk nicht von deiner falschen aussage ab das 60 fps auf heutigen monitoren schlechter aussieht als auf alten monitoren weil sie mehr hz unterstützen. Das ist grundsätzlich unlogisch.
Die Frametimes (framepacing) KÖNNEN durch vsync sogar schlimmer werden als durch vrr+ fps limit.
Das hängt immer davon ab WO und WIE man es aktiviert. (Treiber, ingame, third party tools)
Und ich weis leider das meine Frametime anzeige genauer misst als deine augen und die sagt das pacing und frametime mit akkurat eingestelltem vrr/ fps limit genauso gut funzt wie vsync bzw tendenziell besser, weil flexibler.
Fps limit sowie vsync können wie oben erwahnt auch beide probleme beim pacing bekommem wenn die graka das eingestellte limit/vsync 60hz NICHT erreicht. Und das potenzial deiner 4070fe bei raytracing games näher an 60fps als an 180hz/fps deines monitors liegt, ist das auch noch ein problem was du beachten solltest.
Digital foundry und plasmatvforgaming sowie Blurbusters.com bieten dir da sehr gute Quellen wo du dich informieren kannst 😉
ja natürlich sieht es das, vor allem bei den Texturen, Beleuchtung und vieles mehr.
Aber gerade die Cutscenes in Crysis sind was Motion Capture und generell die Animationsqualität angeht noch sehr aktuell.
Das drumherum ist schon alt, das sieht man den Titeln auch an, und natürlich ist MTOC wesentlich moderner und besser, jedoch nicht in diesem Grad, dass man sagen könnte, wieso läuft das nur so reudig auf einer 2500 Euro GPU, vor allem - bei 70 FPS Native könnte man sich zwar immer noch ärgern, aber wir reden hier von einer extremen Upscaling Stufe + teilweise Frame Generation.
Tricksereien, die die eigentlich abartig schlechte Performance des Titels nur weiter verschleiern sollen.
Für mich sind DLSS + FG schon wichtige Pfeiler, aber ich bin ehrlich, FG mach ich nur bei >60 FPS an und nutze MFG derzeit nur um meine >100 FPS in 240 für meinen OLED zu verwandeln und etwas weniger Last auf der GPU zu haben.
DLSS bzw. DLAA ist bevorzugt, wegen Kantenglättung und gerade für mobiles Gaming mitm Notebook sind diese Techniken ja gerade extrem Lukrativ.
Die Techniken sind TOP, aber so wie sie gerade missbraucht werden nur um überhaupt eine akzeptable Spielbarkeit zu gewährleisten ist mMn eine Abart und gehört direkt bestraft.
Alles könnte so gut sein, DLSS für besser Bildquali auf starken GPUs, auf langsamen als Boost, FG generell als "mach das mal noch flüssiger, als es schon ist". Und die Welt wäre so schön.
Alles klar, war mir nicht so klar, hab mich in das UE5 Lumen/Nanite Thema nicht so eingelesen, aber Software RT ist doch an sich kein richtiges RT (wie in Hardware) oder?
Ist doch auch nur eine halbgare, schlecht umgesetzt Lösung, die zwar in der UE5 verfügbar ist, läuft, aber eben mit der miesen Performance und eher sollte man, wenn man RT implementiert das ganz als Hardware RT umsetzen oder?
Ergänzung ()
Northstar2710 schrieb:
Denn sie Entscheiden wie ihr spiel zulaufen hat. und wenn ihr ziel min 30fps und nicht 60fps sind , dann wird sich jeder damit abfinden müssen.
Dann wird sich der Entwickler aber auch damit abfinden müssen weniger Kunden zu erreichen.
Diesen Bullshit konnte man sich früher leisten, heutzutage läuft dir ein ganzer Markt quer (PC), wenn du hier mit 30 FPS ankommst, die bringen dich wortwörtlich um. Ich bin ehrlich, bei dem gebotenen würde ich nicht zum Vollpreis zuschlagen. -15 Euro sind ok, der Rest ist pfuschige Arbeit.
Northstar2710 schrieb:
Dabei muss Epic ja noch nichtmal mit heutigen Gpu‘s spielbar sein.
Muss nicht, bei den aktuellen Preisen und Techniken - DOCH.
Mit einer alten GPU, wie einer RX7000 oder RTX4000 meinetwegen, die sind jetzt bald 3 Jahre alt.
Mit einer 6 Monate auf dem Markt befindlichen GPU ala 5090 für 2,5K erwarte ich, alle verfluchten Regler immer nach Rechts stellen zu können.
Ohne WENN UND ABER, ohne Nachzudenken, ohne überhaupt darüber einen flüchtigen Gedanken der absolut flüssigsten Laufbarkeit zu verschwenden.
Northstar2710 schrieb:
Software sells Hardware. wer meint mit einer 5090 mit 4k Auflösung die nächsten 5jahre ausgesorgt zu sein mit max settings wird sich wundern
Ja genau, deshalb muss man das Erlebnis so gut gestalten, dass während der Produktnutzung im Verkaufszyklus des Produkts, Namentlich dem Verkaufszyklus einer RTX5090 alles butterweich läuft.
Sobald die RTX6XXX Reihe draußen ist, darf das dann auch gerne Enden (Q1/27), bis dahin hab ich gefälligst Ruhe als Käufer.
Aber man merkt ja, der Anspruch ist bei jedem etwas anders.
Du hast wie ich der Signatur entnehme in das P/L Segment investiert, jeder der aber extrem viel Geld auf das Problem geworfen hat, geht richtig Steil auf das von dir gesagte, denn es verursacht bei den treuen Cashcows nur eines, Unmut!
Nicht wieder alles im Mundverdrehen...ich schrieb hin und wieder. Nicht im Mittel!
Gerade die min. FPS sind doch ab und an mal auf 5080er Niveau. Siehe zB auch den letzten Test zu Wuchang.
Und diese Fälle mehren sich. Gerade bei der UE5 engine gibt es das zu beobachten.
Ob das an schlechter Optimierung liegt, mh weiß nicht. Jedoch kommt es eben öfter vor das AMD Gerade bei UE5 Engine Titeln doch sehr gut abschneidet. Und die wird ja sehr häufig verwendet Mittlerweile.
Das Featureset wird von den meisten AMD GPU Anhängern meistens nie erwähnt.
Genauso wenig die der fehlende FSR4 Support, der ABSOLUT NOTWENDIG ist für den Erfolg der GPU.
Wenn ich mir anschaue wie wenig Games seit Release nun FSR4 haben (inkl. BF6 - ich sag nur FSR3.1), kann ich - trotz dessen, dass ich die GPU als "sehr geil" empfinde, guten Gewissens zu ihr raten.
Für mich ist das eine Budget Lösung.
Für mich wären allein von den Features immer eine RTX5000 Karte zu bevorzugen, solange AMD seinen Software Bullshit nicht auf die Reihe kriegt, kauf zumindest ich nie mehr eine GPU aus dem roten Lager (und nein ich hatte damals auch eine RDNA2 Karte!).
Ich nehm lieber die grüne Pille, auch wenn sie einen mehr F*.
Alles klar, war mir nicht so klar, hab mich in das UE5 Lumen/Nanite Thema nicht so eingelesen, aber Software RT ist doch an sich kein richtiges RT (wie in Hardware) oder?
Ist doch auch nur eine halbgare, schlecht umgesetzt Lösung, die zwar in der UE5 verfügbar ist, läuft, aber eben mit der miesen Performance und eher sollte man, wenn man RT implementiert das ganz als Hardware RT umsetzen oder?
Lumen (software rt) lauft immer schneller als hardware rt, besonders auf amd karten.
Aber sieht halt teilweise auch dramatisch schlechter aus.
Wir im ug. Vid besprochen.
Epic hat Lumen überwiegend als notlösung wegen amd gebracht, wegen schlechter rt leistung, fehlendem ray recon, schlechterem upscaling.
Zumimndest upscaling ist amd jetzt glücklicherweise on par mit nvidia.
RT und RR müssen aber noch besser werden.
Je mehr hardware rt, desto mehr fallen auch die 9000er amd karten leider noch ab. In spielen mit nur hw rt shadows kann amd schon gut mithalten. Aber Global Illumination ist noch ein Problem und von Pathtracing will ich nicht anfangen :/
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Die 5080 ist mit Schnitt 20-30% mehr Leistung, mit Pathtracing 70% mehr und dem besseren Featureset kein Gegner der 9070XT, das ist die 5070 Ti. Und der Aufpreis wird auch mit einem höheren Wiederverkaufswert relativiert.
nochmsal für dich, hin und wieder schrieb ich, nicht im Mittel. Das ist mir klar. Dir scheinbar nicht.
Und es häufen sich die Momente in UE5 bzw neueren Titeln, dass die Mittelklasse Karten von AMD mit 650€ die superduper 1000€+ Karte von NV ärgern darf.
Quidproquo77 schrieb:
Das erwähnst du aber wie dein Bruder im Geiste zeedy jedoch nie.
Und dass du auch mit Wiederverkaufswerten kommst, zeigt ja auch dass du nach Pro Argumenten suchst um den überteuerten Preis einer NV Karte zu rechtfertigen... viel bleibt ja nicht mehr aktuell für eine RTX50 karte.
Quidproquo77 schrieb:
Wo habe ich denn etwas "übertrieben" schlechtgeredet?
Einfach weil du fast zu jedem positiven Kommentar für AMD eines Community Mitgliedes direkt mit Relativierung und schlechtreden daherkommst...Siehe oben zu deinem Kommentar von Zeedy.
Das fällt nunmal auf. Und das finde ich übertrieben.
Lob für AMD fällt dir extrem schwer.
Auf der anderen Seite sag ich doch auch dass NV noch die besseren Karten hat. Sehe aber nicht mehr den riesen Gap wie letzte Gen, sondern je nach Produkt Klasse auf Augenhöhe (5060-5070ti, mit Tendenz manchmal eben Richtung 5080).
RTX4000 meinetwegen, die sind jetzt bald 3 Jahre alt.
Mit einer 6 Monate auf dem Markt befindlichen GPU ala 5090 für 2,5K erwarte ich, alle verfluchten Regler immer nach Rechts stellen zu können.
In 4K 6! FPS mehr als der Vorgänger. Beim 5000 release haben hier alle rumgetönt wie sie ihre 4090 verkauft haben, noch bevor irgendetwas zur 5090 bekannt war. Die Ernüchterung folgte dann bei Preisen 3500+ wo hier wieder rumgegackert wurde "hab eine Ergattert!!"
Ich hätte auch gekauft, aber 50% Leistungsplus. Aber wer hier von 4090 auf 5090 upgedatet hat...
Ich hab dann folgendes getan: ich hab, als Zahlen zur 5090 bekannt wurden das Geld, was für die 5090 geplant war, wieder in NVIDIA und Palantir Aktien gesteckt. Und jedesmal, wenn ich hier in den Signaturen eine 5090 sehe, kommt ein Lächeln über mein Gesicht.
Dann kuck ich in mein Depot - und sage mir: die ganzen CBEnthusiasten zahlen mir meine 6090ti super ultra plus bei Release for Free 😀
Jo, aber vor allem wegen Schwellen-/ und Entwicklungsländern. Bei der CB-Hardwareumfrage spielt 1080p praktisch keine Rolle mehr, und selbst exotische Ultrawide-Formate sind häufiger vertreten.
Womit du mir ja recht gibst. Sie spielt nicht in der Liga einer 5080, sonst könnte ich auch sagen, die 5070 ist teilweise schneller als die 9070XT oder mit MFG + Reflex schneller und kostet weniger. OC Potenzial erwähnst du dabei auch nie, das ist bei Blackwell generell höher. Die Kombination aller Dinge macht die 5080 zwar deutlich teurer aber auch schlicht überlegen.
danyundsahne schrieb:
Und dass du auch mit Wiederverkaufswerten kommst, zeigt ja auch dass du nach Pro Argumenten suchst um den überteuerten Preis einer NV Karte zu rechtfertigen...
Ja, ich rücke deine einseitige Betrachtung durch eine Gegendarstellung wieder in den Bereich einer Unparteilichkeit. Die Grundsätzliche Aufgabe hier, weil alles was von Nvidia kommt überwiegend irrational abgewertet wird.
danyundsahne schrieb:
Einfach weil du fast zu jedem positiven Kommentar für AMD eines Community Mitgliedes direkt mit Relativierung und schlechtreden daherkommst...