Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAnno 117: Pax Romana im Test: Grafikkarten-Benchmarks, RT- sowie Upsampling-Analysen und mehr
Kann mir jemand von den Profis erklären, was das Markierte auf dem angefügten Bild bedeutet ?
Weil das kann ja gar nicht sein. Da haben sich wohl die Entwickler vertan oder sich nicht vorher mit der Redaktion abgesprochen. Schließlich haben wir das Jahr 2025!
Für die Leute ist das also alles andere als Benchmarkschummelei und Kundenverarschung... Zumal der Einsatz von FrameGeneration in seriösen Benchmarks immer deklariert wird.
Das mag in manchen Fällen so sein, aber ich erinner mich auch an die Auftritte von z.B. Jensenmann, der eine 549 Dollar Grafikkarte mit 4090 Leistung anpries und was für jubelstürme das auslöste.
Und irgendwo ganz klein war bestimmt ein Hinweis auf FG was wie ein Teil von DLSS Upscaling wirkt...
FG ist erfunden worden um die extremen Leistungseinbrüche zu kaschieren die RT und moderne Engines verursachen, nachdem Upscaling nicht genug FPS gewinn einbrachte und bei der 50er Serie hat man FG einfach verdoppelt um sich FPS-mässig stärker gegenüber der 40er Serie abzusetzen.
Zudem kommt noch, das diese interpolierten Frames der FG absolut statisch sind, was jeglichen input angeht, da sie immer auf dem letzen und vorletzten spielengineberechneten Frame basieren.
Eigentlich sollte die potentielle Inputfrequenz ja mit den FPS praktisch linear ansteigen, sie wird aber stattdessen schlechter.
Da solltest du lieber nochmal recherchieren 😅
AMD ist hierbei ganz gut vertreten. Auf Intel Raptor Lake ist der Befehlsatz hardwareseitig vorhanden aber per Microcode deaktiviert
Offenbar sind hier X3Ds von AMD besonders gut.. selbst mein 5800X3D performt besser als jeder! Intel... und alle x3Ds von "alt" bis aktuell ist den anderen ü+berlegen (Test PCGH)
kann ich nicht bestätigen, lief bei mir einwandfrei.
Sehr unterscheiden sich unsere Systeme auch nicht.
Die Beta war zeitlich unbegrenzt, die Demo konnte man unbegrezt hexxen, keine Abstütze.
Unter Linux mindestens ein paar Stunden, unter Windows deutlich zweistellig Stunden.
Ich würde bei dir drauf tippen, dass es am RAM liegen könnte DDR5 CL30 6000? Die @6400 sorgen vielleicht dafür das es instabil(er) wird.
setnumbertwo schrieb:
Schade das keine mobile GPUs/APUs getestet wurden. Hat jemand schon test mit Strix Halo gesehn?
@Ranayna
Seh ich auch so.
Das Raytracing sieht wirklich gut aus. Vorallem die Schatten.
Mal kucken wie das auf meiner 6900XT läuft. Aber ich kann auch ohne ^^.
Offenbar sind hier X3Ds von AMD besonders gut.. selbst mein 5800X3D performt besser als jeder! Intel... und alle x3Ds von "alt" bis aktuell ist den anderen ü+berlegen (Test PCGH)
Haben sie nicht sogar im Test/YT-Video gesagt, dass die gute Ausnutzung des 3D-Caches eigentlich auf durchschnittliche Programmierung zurückzuführen ist? So oder so, hätte auch besser den 5800X3D kaufen sollen damals, aber die Multicore-Performance zum gleichen Preis war einfach zu verlockend
In der Demo, die ich aber nur am Anfang ganz kurz mal gespielt habe war das tatsaechlich noch anders. Da war der Unterschied fuer mich im Spiel nur gering.
edenjung schrieb:
Mal kucken wie das auf meiner 6900XT läuft. Aber ich kann auch ohne ^^.
Schau ich mir die Presets an muss ich ja schon sagen: Mittel wuerds auch tun
Aber letztendlich kann ich das nur in Bewegung entscheiden und merke dann ja auch wie sich das anfuehlt.
Funktioniert Freesync normal im Game? In der Demo hatte ich das Problem, dass Freesync einfach nicht lief und sich das Game dadurch recht ruckelig angefühlt hat, trotz ca. 60 fps. Vsync ging zwar, aber dann würde halt Afmf nicht gehen 😅
Aber hoffe einfach mal, dass das Problem behoben ist
Das mag in manchen Fällen so sein, aber ich erinner mich auch an die Auftritte von z.B. Jensenmann, der eine 549 Dollar Grafikkarte mit 4090 Leistung anpries und was für jubelstürme das auslöste.
Eine bedingte Zustimmung. Features wie DLSS oder halt auch FG wurden sicherlich auch deswegen erfunden, aber nicht nur. Die immer weiter wachsende Verbreitung hoher Auflösungen wie UHD oder DQHD mit dem gleichzeitigen Wunsch nach hohen FPS spielen da auch eine Rolle.
Genauso, wie die Physik "echte" Leistungssteigerungen immer engere und schwieriger zu überwindende Grenzen setzt und Softwarefeatures daher leider nunmal eine immer wichtigere Rolle spielen, um in einem bezahlbaren und sinnvollem Maße dem wachsendem Leistungsbedarf in Spielen gerecht zu werden. Mit Pathtracing und sonst maximierten Einstellungen schafft selbst ne 5090 mit DLSS Q in Cyberpunk nur um die 80FPS, ohne DLSS wäre es substanziell weniger.
Frame Generation funktioniert auch schon echt gut solange...
Norebo schrieb:
Zudem kommt noch, das diese interpolierten Frames der FG absolut statisch sind, was jeglichen input angeht, da sie immer auf dem letzen und vorletzten spielengineberechneten Frame basieren.
... die native Leistung ausreichend hoch ist, damit genau dieses Problem an FG keine Rolle mehr spielt - genau dies wird aber auch in jedem seriösem Review erwähnt.
Bestimmte prinzipbedingte Nachteile wird man mit FG immer haben, weswegen sich die Technik für latenzkritische Spiele bzw. solche mit schnellen Bewegungen eher weniger eignet. Aber ich erinnere da auch gerne mal an die Anfänge von DLSS, das am Anfang auch ziemlicher Schund war und sich mittlerweile zu "Kaum noch feststellbar bzw. teilweise sogar bildqualitätsverbessernd" entwickelt hat.
Haben sie nicht sogar im Test/YT-Video gesagt, dass die gute Ausnutzung des 3D-Caches eigentlich auf durchschnittliche Programmierung zurückzuführen ist?
naja das würde ich in diesem Falle nicht annehmen.
Denn Anno funktioniert im Hintergrund wie eine riesige Excel-Tabelle, das ist wohl seit Jahren ordentlich optimiert. Bei dieser Art der Berechnung hilft einfach der Cache extrem
Bestimmte prinzipbedingte Nachteile wird man mit FG immer haben, weswegen sich die Technik für latenzkritische Spiele bzw. solche mit schnellen Bewegungen eher weniger eignet. Aber ich erinnere da auch gerne mal an die Anfänge von DLSS, das am Anfang auch ziemlicher Schund war und sich mittlerweile zu "Kaum noch feststellbar bzw. teilweise sogar bildqualitätsverbessernd" entwickelt hat.
Bei DLSS gibts halt immer zwingend auch Reflex dazu, heißt selbst mit MFG hat man niedrigere Latenzen als ohne FG und Reflex. Vor allem bei so einem Aufbauspiel wäre es aber sowieso egal, daher umso mehr schade das kein FG nativ dabei ist
Danke für den Test und den Bildvergleich der Presets. So etwas finde ich immer gut.
Mir hat die Präsentation in der Demo auch schon sehr gut gefallen. Dort bin ich auch zu dem Schluss gekommen, dass Nvidia Smooth Motion hier richtig gut funktioniert.
In Cities Skylines II ja leider überhaupt nicht.
also ein grafik-preset vergleich (insbesondere ultra <-> (very) high <-> lowest) wäre mir z.b. inzwischen viel wichtiger als eine rückkehr zur inklusion von 1080p, die ja so oder so nicht kommen wird.
i.d.r. würde auch der preset-vgl. nur für 1440p oder nur für 2160p genügen (so wie hier im test). einfach damit man ein gefühl für den impact der presets bekommt.
meistens ist es ja doch so, dass - abseits des benchmarking - selbst mit top karten die nutzer durch den geringen unterschied zwischen ultra und high/very-high eher auf das zweithöchste preset gehen, gerade wenn sie deutlich mehr flüssige darstellung gegen kaum weniger grafische fidelität einzutauschen bereit sind.
und ein weiterer batzen an anwendern geht meistens direkt auf low, weil ihre karten "zu alt" sind.