• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Anno 117: Pax Romana im Test: Grafikkarten-Benchmarks, RT- sowie Upsampling-Analysen und mehr

scheinbar ließ ich mich verwirren, jo dlss sind natürlich nicht nur texturen, je nachdem wie hoch % die dlss presets eingestellt sind frisst das eben vram auf,100% native und 100% dlss preset sind wohl ein unterschied, das schrieb ich leider verwechselt, ich dachte nur der vram spielt bei dlss presets eine entscheidene rolle, wenn das preset zu hoch eingestellt, ob die fps bei vram armen karten sinken, 100% dlss sind natürlich schneller und besser als 100% native, wenn gleich mir die erinnerung über ein vergleich fehlt :) wo ist denn da der sweetspot oder wie kann man den sweetspot in zukunft vllt besser darstellen wann das bild wirklich 100% native entspricht, 100% dlss preset dürften es ja nicht sein und wenn doch hat das dann kein einfluss auf die fps?

btw sieht mein anno1800 jetzt dank fidelity fx scharf aus und gar nicht so trocken aus wie früher und läuft mit loslessscaling stabil bei 60 zu 120fps komplett smooth im lategame ohne bekannte nvidia framegenpixxelartefakte... haben die was an der renderpipeline gedreht? xd...
 
Zuletzt bearbeitet:
Man testet in einer Einstellung alle gleich ansonsten macht das kein Sinn
Um die dlss fsr xess perf. zu messen brauche ich keinen vergleich.
Das sind Krücken damit etwas läuft. Das es so gut wie kein cpu limit gibt ist erfreulich aber bei anno kommt das erst am ende des spiels und das dauert.
ich werde das spiel irgendwann für benches holen aber diesmal es durchziehen damit ich ein Spielstand habe der fordernd ist.
Aktuell kann das warten 2025 sind nur noch drei spiele über dann geht es endlich los mit dem vergleich der 60tis Serie seit 2009. games von 2004 bis 2025 +- 600 games was mehr als ich dachte.
Es bleibt nur die frage alles auf dem aktuellen system oder dem retro pc inkludieren mit dem 5820k ich ahne das die rtx3060 12gb cpu limitiert sein wird.
 
  • Gefällt mir
Reaktionen: spw
Wäre es denn kein Kompromiss, einmal auch native Benchmarks in einer Auflösung, zB 1440p, durchzuführen. Einfach für den "fairen" GPU Vergleich? Und als AUsgleich für den Aufwand ein paar für UHD irrelevante GPUs wie 9060XT und 5060TI streichen?
Natürlich spielt jeder mit DFSR4, wenn verfügbar. Aber der Technik Test ist in der aktuellen Form auch nur ein Kompromiss. Denn DFSR4 Quality liefert ja immer noch eine bessere Qualität als nativ. Selbst Performance ist doch meist besser als nativ, was allerdings von der Zielauflösung abhängt. Ob 1080p Performance Mode besser als 1080 TAA aussieht, darf bezweifelt werden. D.h. jede Auflösung müsste separat verglichen werden. Was aber natürlich zu aufwendig wäre.

Ähnliches gilt übrigens auch für den FSR4 DLSS4 Vergleich. Es wird ja immer nur UHD Performance bewertet.


Child schrieb:
die Testprozedere sind transparent
nicht so transparent wie es einmal war. Früher lud CB immer auch noch die Testsequenz hoch. Das tut man nun, warum auch immer, schon lange nicht mehr.
 
  • Gefällt mir
Reaktionen: Dark Soul und spw
Aktuell hat Valve aber noch keine Einordnung zur Steam-Deck-Kompatibilität für Anno 117: Pax Romana bekanntgegeben.

Es nutzt Denuvo, steht sogar schon auf der Shop-Seite!

1762883510746.png


1762883535717.png

1762883561572.png
 
syfsyn schrieb:
Um die dlss fsr xess perf. zu messen brauche ich keinen vergleich.
Das sind Krücken damit etwas läuft
Wenn’s besser aussieht und besser läuft , ist es wohl kaum ne Krücke sondern eher ist Nativ+TAA der Backstein den man an ner Kette hinter sich herzieht und DLSS/FSR(4) die Rollschuhe ^^
 
  • Gefällt mir
Reaktionen: DaHell63, Quidproquo77 und Pro_Bro
Tsu schrieb:
Es nutzt Denuvo, steht sogar schon auf der Shop-Seite!
Das hat aber nix mit der Steamdeck Kompatibilitaet zu tun.
Anno 1800 nutzt auch Denuvo, ist aber Deck Playable, vermutlich weil die Controllerunterstuetzung nicht vollstaendig ist.
 
lWllMl schrieb:
wo ist denn da der sweetspot oder wie kann man den sweetspot in zukunft vllt besser darstellen wann das bild wirklich 100% native entspricht, 100% dlss preset dürften es ja nicht sein und wenn doch hat das dann kein einfluss auf die fps?
100% DLSS, also DLAA hat schon Einfluss auf die FPS, diese sinken um ca 10-15%.

Wo der Skalierungsfaktor liegen muss, damit es 100% Nativ+TAA entspricht, hängt vom jeweiligen Spiel und der Implementierung, und natürlich der Zielauflösung ab.
Reden wir z.B. über 4K, kann man mittlerweile in den meisten Fällen sagen, reichen 50%, also DLSS Performance, für eine mindestens gleiche Qualität wie Nativ+TAA. Und ja nach Spiel hat man dann immer noch eine bessere Bewegtbild Schärfe.
Bei 1440p dann eher Balanced(58%)

Insofern ist es gerade in 4K, selbst jetzt immer noch ein Vorteil für die alten Karten, da bei den neuen Karten oft das Quality Preset genutzt wird(67%) und die alten damit immer noch nicht an die Qualität der Neuen ran kommen.
 
Wilfriede schrieb:
Oje, hätte nicht gedacht dass meine Radeon 7900XT so derb in die Knie geht...
Tut sie ja nicht. Die Testparameter sind ja nicht vergleichbar, also sind auch die Ergebnisse nicht vergleichbar. Die einen Karten laufen mit DLSS 4 und FSR 4, der Rest nicht mit Upscaler, müssen also 30-40% mehr berechnen. Ist halt CB, die machen so was.
 
Wolfgang schrieb:
In den letzten Community-Umfragen hat sich immer gezeigt, dass mehr unserer Leser mit DLSS/FSR spielen als Nativ - und die Unterschiede von Jahr zu Jahr immer größer werden. Ja, das sind natürlich denn nur Enthusiasten-Usern, aber von diesen haben wir nun einmal sehr viele. Und anderes Wissen, wer welches Upsampling benutzt, haben wir nicht.

Nativ benchen wir aus folgenden Gründen nicht mehr:
  • Es werden in vielen Spielen selbst mit schnellen Grafikkarten keine spielbaren FPS-Werte mehr erzielt.
  • DLSS 4 und FSR 4 haben oft bis immer eine beserere Bildqualität als Nativ. Nativ ergibt in diesem Augenblick also gar keinen Sinn mehr.
  • Deswegen rate ich jedem der es kann, mit DLSS 4 und FSR 4 zu spielen. So sind dann auch die Benchmarks ausgelegt. Und natürlich kann jeder natürlich doch für sich entscheiden, Nativ zu spielen. Aber da wir davon abraten, sind so auch die Tests ausgelegt - diese sollen ja auch dem Leser darauf hinweisen, was aus unserer Sicht am besten ist.
  • Komplette Vergleichbarkeit gibt es einfach nicht mehr und macht in der heutigen Spielelandschaft keinen Sinn. Was bringen mir denn native Benchmarks, ich kann davon eh nicht gescheit auf FSR 3.1, FSR 4, DLSS 3, DLSS 4 und XeSS "umrechnen". Denn jeder Algorithmus kostet unterschiedlich viel Leistung. Da ist also nichts mit "ebenso mal umrechnen". Da bringen einem komplett vergleichbare Benchmarks nicht weiter.
  • Ein paar Karten werden dann eben doch nativ getestet, da diese ansonsten unfair bevorteilt werden würden. FSR 3 sieht zum Beispiel viel schlechter aus als FSR 3.1, läuft aber zugleich schneller. Dann hätten RX 7000 gegenüber RX 9000 gleich zwei unfaire Vorteile auf ihrer Seite.
  • Ein gutes Upsampling gehört zu einer modernen Grafikkarte einfach dazu. Wer das nicht hat, hat ein ziemliches Problem. Und das wird in den Benchmarks bei entsprechenden Grafikkarten dann auch gezeigt.

Wenn ich einen Spieletest lese, möchte ich vor allem wissen, wo meine Hardware im Vergleich zu anderen steht. Und dazu brauche ich einfach einen Test in Nativ, um das ganze möglichst neutral beurteilen zu können und nicht von der Einschätzung des Testers abhängig zu sein, welcher Prozentsatz von Upscaling XY jetzt dem Upscaling YZ im jeweiligen Game entspricht. Ihre Erklärung liest sich ein bisschen so, als könnten wir die Vergleichstabelle eigentlich auch abschaffen...

Ich betone das noch einmal. Diese Unterscheidung des Testers ist eine sehr subjektive Beurteilung und im Zweifel auch einfach nicht fein genug. Denn wenn man es wirklich genau nimmt, dann müsste es auch noch einmal eine Unterscheidung zwischen FSR4 und DLSS4 geben. Wie viel Prozent ist FSR4 jetzt nun im jeweiligen Titel schlechter/besser? Es ist einfach immer ein krummer Vergleich.

Die Vergleichstabelle ist in der jetzigen Form jedenfalls für mich ziemlich wertlos.
 
  • Gefällt mir
Reaktionen: Tsu
syfsyn schrieb:
Man testet in einer Einstellung alle gleich ansonsten macht das kein Sinn
Und die schlüssige Begründung dafür ist welche? Auflösung ist halt nicht mehr das was es früher einmal gewesen ist.
Mit der Einführung von MSAA haben GPUs auch unterschiedlich schnell gerechnet, Radeons waren mit 8xMSAA deutlich im Vorteil.

Und nun spielen aktuelle GPUs mit KI Upscaling ihre Fähigkeiten aus. Mit deutlich weniger Auflösung bessere Ergebnisse zu erzielen und das muss man auch adressieren.

Eine 7900XTX mit FSR 3 Q gegen eine 9070XT mit FSR4 Q zu testen macht keinen Sinn, da FSR 4 mehr Performance kostet, dafür der Performancemodus in der Regel aber besser aussieht wie FSR3 Native.

Man bestraft folglich moderne GPU sogar 2x. Man nimmt ihnen mit dem TAA Test ihre Architektur- Vorteile bzw. mit FSR 3 vs FSR4 dann die schnellere Berechnung und bessere BQ.
syfsyn schrieb:
Um die dlss fsr xess perf. zu messen brauche ich keinen vergleich.
TAA brauche ich nicht, weil so niemand spielt, außer er versteht es nicht.
syfsyn schrieb:
Das sind Krücken damit etwas läuft.
Nein, das ist der Düsenantrieb während das andere eher am Krückstock gehen darstellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alpirsbacher80
McABC schrieb:
Wenn ich einen Spieletest lese, möchte ich vor allem wissen, wo meine Hardware im Vergleich zu anderen steht.
Genau das siehst du im Test, Grafikkarten mit FSR4/DLSS4 bringen eine bessere Bildqualität und mehr FPS trotz niedrigerer Renderauflösung, Karten die ohne dieses Featureset kommen, weil entsprechende Hardware fehlt (in den Kaufberatungen wurde und wird immer darauf hingewiesen) benötigen eine höhere Renderauflösung um eine ähnliche Bildqualität abzuliefern.

Ist aber ein wirklich altes Thema, seit DLSS3 musste man sich als User selbst ausrechnen was mit ~gleicher Bildqualität etwa an FPS Unterschied raus kam in den Tests, kann man sich nun dankenswerter Weise sparen.
Genaugenommen wurde das aktivieren von DLSS sogar schon bei DLSS2, vor über 5 Jahren, wegen (je nach Spiel) besserer Bildqualität gegenüber Nativ TAA, empfohlen. Einfach mal Tests von damals wie diesen anschauen. Nach all den Jahren mit diesem Wissen macht es wirklich keinen Sinn mehr an Native + TAA festzuhalten wenn man auch mit besserer Qualität und mehr FPS / weniger Verbrauch spielen kann. Ebendso macht das testen so keinen Sinn, wenn man auch nur ab und zu mal einen Spiele-Test gelesen hat weiß man es ja seit Jahren.

Im Grunde müsste man mindestens bei UHD sogar FSR4/DLSS4 Performance Mode mit Native vergleichen, hier empfiehlt es sich bei den FSR4/DLSS4 Karten einfach eine Auflösung niedriger zu schauen, dann kann man sich zusammenreimen welche FPS wirklich bei gleicher Bildqualität gegenüber den 7000ern/Intel raus kommen.
 
zeedy schrieb:
Wäre es denn kein Kompromiss, einmal auch native Benchmarks in einer Auflösung, zB 1440p, durchzuführen.
Das wäre von der Aussagekraft etwa vergleichbar wie CPUs im GPU Limit zu testen. Die Leistung wird nicht mehr von der CPU und ihren Möglichkeiten bestimmt, sondern von der "GPU" hier als metaphysische Gesetzlichkeit eines Auflösungslimits bzw. GPU Bremse dargestellt.

Ergibt bei den modernen Featuresets hin zu KI Upscaling und FG keinen Sinn mehr.
Besser wäre in Zukunft noch Latenz und Frametimes zu messen, da durch Framegenerierung die Methoden hin zu einem flüssigen Bild auch nicht mehr entscheidend sein werden.

Ob Hersteller A nun FG, KI Upscaling, Latenzreduktion, Future Frame Generation usw. einsetzt um auf Framerate X zu kommen und Hersteller B einen anderen Weg wählt ist nicht entscheidend, letztendlich zählt das Ergebnis. Am Ende wird auch die Bedeutung der Metrik FPS/Sekunde als Leistungsbestimmung zurückgehen.
zeedy schrieb:
Einfach für den "fairen" GPU Vergleich?
Was soll denn daran "fair" sein?
Das ist ungefähr so wie einen Sportwagen in der Stadt zu testen und zu sagen: "Sein Turbo zündet nicht, da ich ihn abgeklemmt habe".

Oder Dampfmaschine (FSR3) gegen Elektromotor(FSR4) Die 7900XTX hat einen Dampfkessel und die 9070XT hat einen Elektromotor der auf die Leistung und des Dampfkessels runtergeregelt wird.
zeedy schrieb:
Und als AUsgleich für den Aufwand ein paar für UHD irrelevante GPUs wie 9060XT und 5060TI streichen?
Warum irrelevant? Durch Ki Upscaling können die Karten diese Auflösung bespielen. Einfach Ultra Performance/Performance einstellen.
zeedy schrieb:
Ob 1080p Performance Mode besser als 1080 TAA aussieht, darf bezweifelt werden.
1080p gibt's auch nicht mehr. In Zukunft wird wohl auch QHD wegfallen. Mit den KI Upscalern ist die Native Renderauflösung zunehmend irrelevant und Auflösungen wohl generell eher unwichtig werden, da diese nicht mehr die Leistung bestimmen, wenn Inhalte onthefly generiert werden.
 
Zuletzt bearbeitet:
McABC schrieb:
Wenn ich einen Spieletest lese, möchte ich vor allem wissen, wo meine Hardware im Vergleich zu anderen steht. Und dazu brauche ich einfach einen Test in Nativ, um das ganze möglichst neutral beurteilen zu können und nicht von der Einschätzung des Testers abhängig zu sein, welcher Prozentsatz von Upscaling XY jetzt dem Upscaling YZ im jeweiligen Game entspricht. Ihre Erklärung liest sich ein bisschen so, als könnten wir die Vergleichstabelle eigentlich auch abschaffen...
Das Problem ist doch aber, dass man dann die BQ Differenzen durch Upscaling unter den Tisch fallen lässt.
Letztlich sind diese Tests eh nur vergleichbar unter exakt den Bedingungen wie im Test definiert. Klar kann man als Baseline sagen, max Effekte, 100% Renderauflösung, ... aber dann ist das auch nur darin vergleichbar. Dann kommt wer mit FSR4 oder DLSS4 oder irgend einer wilden Kombination aus Downsampling und Upscaling und hat wieder ne andere Basis.

Letztlich ist es egal was man testet, solange es konsistent ist. Leider ist es das aktuell nicht, das ist mMn schade, aber ein endliches Thema. RTX 2000 und RTX 3000 GPUs sind schon bis auf Ausnahmen nicht mehr vertreten. RDNA3 und älter fallen im nächsten Lineup Update wahrscheinlich dann auch raus. Dann ist es wieder stimmig, weil dann alle FSR4 oder DLSS4 können.

Theoretisch wäre als Alternative denkbar, RDNA kleiner 4 einfach ganz weg zu lassen. Oder anstatt im selben Diagramm eben wie mit RT on und RT off ein drittes, ohne Upscaling zu veröffentlichen. Der Aufwand würde steigen und die Vergleichbarkeit wäre dennoch fraglich - weil was bringt einem der Vergleich, wenn bei allen RTX und RDNA4 GPUs eh immer Upscaling verwendet werden würde? Dann testet man was, was Niemand nutzt, nur damit RDNA3 und älter Besitzer in der Tabelle ihre GPUs weiter oben finden? Ergibt doch irgendwie auch keinen Sinn.
Es lässt sich damit egal wie man es dreht, kein belastbarer Vergleich anstellen. Entweder man verzichtet bei der einen Seite auf BQ und Performance oder man bevorteilt die andere Seite durch diesen Verzicht.

Wenn Aufwand keine Rolle spielt, könnte man einfach alles testen. Das dürfte für lau wie hier auf CB aber auch keine Option sein. Zumindest nicht redaktionell aufgearbeitet. Ein Community Test könnte sowas ggf. abdecken. Also dass die Leser dann DLSS/FSR4 an oder aus in mehreren Auflösungen quasi alle erdenklichen Karten testen und damit dann vergleichbar wird, welches Modell durch welche Technik BQ oder Leistung gewinnt oder verliert.
McABC schrieb:
Wie viel Prozent ist FSR4 jetzt nun im jeweiligen Titel schlechter/besser? Es ist einfach immer ein krummer Vergleich.

Die Vergleichstabelle ist in der jetzigen Form jedenfalls für mich ziemlich wertlos.
Das stimmt natürlich, allerdings sind nach der Einschätzung der Tester FSR4 und DLSS4 so nahe bei der allgemeinen BQ aneinander, dass man das durchaus vergleichen kann und letztlich aber auch hier die Unterschiede auch gar nicht real praktisch relevant sind, weil der User nut FSR4 oder DLSS4 kann, nie aber beides. Je nach Vendor. Der NVler wird DLSS4 nutzen und der AMDler mit RDNA4 eben FSR4 - insofern ist es gut zu sehen, ob/wie das im 1:1 Vergleich performt. Während der RDNA3 Nutzer eben immer auf BQ verzichten muss, da nur FSR3 irgendwas oder das Upscaling von Intel und das im Zweifel sogar noch in langsamer, wenn man bspw. FSR3 Quality gegen FSR4 Performance stellt.

Bei lediglich 50% der Renderauflösung in einigen der Konstellationen spart man teilweise 50-70% an Leistung. Der Rechenaufwand rein für die Auflösung nativ ohne den Mehraufwand des Upscalings liegt zwischen FHD zu UHD in etwa bei 1/2 bis 2/3 FPS Verlust. Ein einfach brauchbar gut funktionierendes Upscaling Feature bringt dir neben dem leichten FPS Verlust durch das Upscaling fast die Performance der nativen Renderauflösung bei teilweise erheblich besserer BQ, häufig sogar besser als bei 100% Skalierung. Als Endkunde der die Hardware hat will ich doch genau das wissen - komme ich in Anno hier mit UHD Screen und irgendeiner x-beliebigen GPU auf spielbare FPS? Ja, Nein, Vielleicht? Wenn da ne 5070 mit DLSS4 Quality an der 40 FPS Marke scheitert, aber intern gerade so WQHD rendert, was hab ich denn dann vom Wissen der 100% Renderauflösung? So spielt wahrscheinlich Niemand, weil es einfach nicht lauffähig wäre. Klar kannst das jetzt alles kürzen, aber dann kommen exakt 4 Karten im UHD Rating auf 60+ FPS. Was schon arg mager ist.
 
  • Gefällt mir
Reaktionen: N0Thing
Fühle mich schlecht.
Hab das Spiel jetzt vorbestellt. Dabei wollte ich das nicht mehr tun. Gerade bei Ubisoft.

Egal, ist Anno. Ihr sagt es wäre gut. Ihr seid schuld! :D
 
  • Gefällt mir
Reaktionen: Dorimil, denbaschu, western und eine weitere Person
@Kommando Das Anno Team sind die Gallier innerhalb Ubisoft, da machst nix falsch, warte auch nur mehr auf Release :D
 
  • Gefällt mir
Reaktionen: Kommando und Wilfriede
Quidproquo77 schrieb:
Am Ende wird auch die Bedeutung der Metrik FPS/Sekunde als Leistungsbestimmung zurückgehen..
Eigentlich wäre exakt das richtig, weil FPS eh viele Dinge verschleiern und zudem nicht zwischen Renderbild und CPU verarbeitetem Bild unterscheiden.

Die Frage ist nur, was stattdessen nutzen? Es ist letztlich ein sehr einfaches Mittel um Leistung zu vergleichen und gleichsam eine Aussagekraft wirklich über alle Titel zu haben. 30 FPS sind quasi immer laggy und fühlen sich rucklig an. 100+ FPS hingegen meist smooth. Keine andere Methode wäre so einfach zu so einer Aussage fähig.
 
TheInvisible schrieb:
Bei DLSS gibts halt immer zwingend auch Reflex dazu
Nope.
20251111224552_1.jpg
TheInvisible schrieb:
Würde ein aktuelles Beispiel nennen und kein Monate altes wo sich noch viel getan hat, CB zb lettzens
Ungefähr 20% höhere Latenzen (40 gegen 49ms) von 2xFG mit DLSS+Reflex gegen die DLSS-Reflex-native Berechnung? Und bei MFG liegt man sogar noch deutlicher drüber.
Quidproquo77 schrieb:
Doch, in der Regel sogar deutlich drunter, vor allem wenn man mit mäßigen FPS startet. Und kommt dann später Reflex 2 dazu ist die Latenz fast irrelevant,
Nope, siehe meinen Beitrag und den von @TheInvisible
Quidproquo77 schrieb:
Nach dem Motto die Latenz ist alles.
Ist halt ein Trugschluss.
Folgende Aussage möge sicherlich jetzt eine Ansichtssache sein - aber was nutzt mir in latenzkritischen Spielen eine flüssigere Darstellung, wenn die nativen Informationen unverändert selten vorliegen und dementsprechend selten auch Reaktionen bzw. Eingaben möglich sind?
DevPandi schrieb:
Allerdings ist Anno 117 wirklich eines der Spiele, bei demen FG/FMF wirklich etwas bringen kann, ohne das man es merkt. Anno 117 ist allerdings auch eines der Spiele, bei denen man - wenn man nicht zu empfindlich ist - auch mit 40 - 60 Frames locker ein tolles Spielgefühl hat.
Genau deshalb verstehe ich es trotz aller Kritik und Zweifel am Sinn von FG/MFG nicht, wieso ausgerechnet in einem Spiel wie Anno, das latenzunkritisch ist und selbst mit niedrigeren Basis-FPS gut spielbar ist, kein FG/MFG integriert wurde.
 
Kommando schrieb:
Fühle mich schlecht.
Hab das Spiel jetzt vorbestellt. Dabei wollte ich das nicht mehr tun. Gerade bei Ubisoft.

Egal, ist Anno. Ihr sagt es wäre gut. Ihr seid schuld! :D
Ubisoft wird zu unrecht so herunter gemacht, welches "grosse" Studio macht denn sonst noch so unterschiedliche Spiele?! Ubisoft ist für heutige Verhältnisse sehr mutig. Sie bringen sogar ein neues Heroes :heilig:
 
fdsonne schrieb:
Die Frage ist nur, was stattdessen nutzen?
AI Response Latency, wie schnell reagiert die KI auf Spielereingaben, wie schnell werden neue Inhalte/Welten generiert, zum Beispiel.

Immersions Scores, Adaptivitätsrankings, Messgrößen wie gut eine KI lernt usw.
Das ist nur Spekulation, aber ich glaube, dass die FPS für zukünftige Inhalte einfach nicht mehr relevant sind, da hoch genug in allen Lebenslagen.
 
Zurück
Oben