• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Call of Duty: Black Ops 7 im Test: Grafikkarten-Benchmarks, Raytracing- & Upsampling-Analyse

@Jagdwurst Guck dir mal den Screenshot von Mu Wupp in Beitrag #55 an da wird das ganz gut beschrieben warum AMD schneller und Nvidia langsamer bei der Engine ist
 
  • Gefällt mir
Reaktionen: danyundsahne, Sennox und therealcola
is ja alles english ☹️
 
crustenscharbap schrieb:
Ich muss noch was nach haken: Wieso wurde bei Intel 100% Renderauflösung und bei Nvidia AMD DLSS/FSR Quality benutzt? Und das Spiel kann sogar XeSS. Wieso nutzt man das nicht? Sollte Intel doch bestimmt ~20fps mehr geben.
Steht doch alles im Text, weil XeSS schlechter aussieht als DLSS und wir dann einen unfairen Vergleich haben bei dem Intel GPUs ihre Mehrperformance durch schlechtere Bildqualität holen
 
Vielen Dank für den Test und vor allem den Vergleichsbildern. Sollte ich das Spiel mal haben wollen und dann auch spielen würde mir die non-RT Variante definitiv reichen. Finde ich durchaus gut aussehend die Grafik. Ich kann so auch nicht die Kommentare über Matschgrafik in den genannten Bildern erkennen. Könnte es besser aussehen? Eventuell. Mir würde die Grafik mit ohne RT aber locker reichen.
 
@Wolfgang

Da Ihr ja eh keine FHD Tests mehr macht, wie sieht es denn aus, wenn Ihr diese als CPU test mit in die Game tests mit einbaut ? Sprich FHD/CPU test maximale Rechenleistung mit dem 9800x3d eben ohne Qualität sondern nur maximale GPU Leistung. DLSS/FSR/XeSS Nativ sowie maximale Details als „CPU“ Test seperat dazu nehmen.
so das man zumindest sehen kann bei welcher GPU das CPU limit einsetzt, Abseits der Optischen Qualität, aber da wäre dann zumindest die GPU Rechenleistung vergleichbar. so das man zumindest sehen kann ob eine Intel/AMD oder Nvidia GPU mehr von einem schnellem Prozessor profitiert, den CPU tests werden immer mit 5090 im CPU limit und 720p erstellt. Ein Test in 1080p Nativ Zeigt dann die GPU Leistung zumindest mit der schnellsten CPU.
DrFreaK666 schrieb:
Bei der Kack-Engine ist alles möglich.
Sagst dann wohl auch zur UE5, oder ? Die engine ist auf AMD optimiert, war sie immer schon, RT ist neu und braucht wohl noch Zeit bis das auch in dieser läuft, die FPS ohne RT ist selbst eine 7600 Nativ noch spielbar, und das AMD mit 8GB schlechter ist wie Nvidia kann eben auch am Upscalling liegen denn das darf die 7600 nicht eine Nvidia aber wohl
 
Jagdwurst schrieb:
is ja alles english ☹️
Eines der wichtigsten Merkmale der Engine, die in den neuen Call-of-Duty-Titeln verwendet wird, ist, dass sie stark „bindless“-orientiert ist. Das bedeutet, dass Shader nahezu jede Textur, jeden Buffer und jede Raytracing-Struktur aus einem großen Descriptor-Pool erhalten. Dieser Ansatz ermöglicht es dem Spiel, eine enorme Menge an Ressourcen schnell und flexibel zu verwalten. Allerdings belastet dieses Design die Descriptor-Verarbeitung der GPU erheblich.


In der neuesten Version der Engine ist diese bindless-Architektur eng mit Upscaling-Technologien verknüpft. Die Engine unterstützt diese nicht nur, sondern integriert sie tief in die Rendering-Pipeline, was eine große Anzahl schneller Ressourcenabfragen pro Frame ermöglicht. Darüber hinaus verwendet die Engine einen hybriden Raytracing- und Raster-Pipeline-Ansatz mit Multi-Level-Culling, um Tausende von Objekt-TLAS/BLAS-Strukturen gleichzeitig zu verwalten. Diese Bindings laufen ebenfalls über die Descriptor-Pools.


Dieses Design ist notwendig, weil die Verwendung eines traditionelleren, weniger bindless-orientierten Ansatzes – wie er in den meisten anderen Engines noch üblich ist – zu erheblich schlechterer Leistung in Black Ops 7 führen würde.


Descriptor-intensive Engines wie Black Ops 7 können auf unterschiedlicher Hardware ungewöhnliches Leistungsverhalten verursachen. Ähnliche Engines gibt es bereits auf dem Markt, wie Ubisofts Anvil-Next-Engine in Assassin’s Creed Shadows. In Zukunft werden wahrscheinlich mehr Engines diesem Ansatz folgen, da es ansonsten schwierig wird, die Grafikqualität weiter zu verbessern. GTA 6 etwa wird ebenfalls als vollständig bindless-orientierter, descriptor-intensiver Titel entwickelt.


Das descriptor-intensive Design hat starke Auswirkungen darauf, wie Hardware Shader ausführt, da ein einzelner GPU-Shader in Subgroups mit bis zu 128 Aufrufen laufen kann. Textur-Instruktionen können bis zu zwei Vec4-Operationen haben, was zweimal 32 Bytes entspricht, kombiniert mit einer 16-Byte-Sampler-Operation. Das ergibt zusammen 80 Bytes, die – bei einer typischen GPU mit 32 oder 64 Lanes – 2560 bzw. 5120 Bytes ergeben. Das ist bereits eine enorme Datenmenge pro Recheneinheit. Auf 64 Lanes übersteigt das Datenvolumen bereits eine 4-KB-CPU-Seite!


Die Hardware verarbeitet dies auf sehr spezifische Weise, da es keine universelle Lösung für die effiziente Verarbeitung solcher Datenmengen gibt. NVIDIA speichert alles in großen Tabellen: eine Tabelle für Bilder und eine weitere für Sampler. Diese Tabellen sind in der Hardware gecacht, und ein 32-Bit-Block wird als 12-Bit-Sampler-Index und 20-Bit-Textur-Index übertragen. Jeder Block enthält also zwei Kontexte, und das Umschalten zwischen diesen Kontexten ist sehr teuer. Das verlangsamt NVIDIA-GPUs, und je mehr eine Engine auf diese Methode angewiesen ist, desto schlechter wird die Leistung.


AMD geht anders vor. Zusätzlich zu ihren Vektor-Einheiten verfügen sie über Scalar-Engines, die es ihnen ermöglichen, den gesamten Descriptor in die Scalar-Register zu laden. Die Hardware greift dann jeweils nur einmal darauf zu, wenn die gesamte Subgroup die Daten benötigt, wodurch Descriptor-Binding praktisch kostenlos ist – ohne teure Kontextwechsel wie bei NVIDIA. Dadurch sind AMD-GPUs weitgehend unempfindlich gegenüber Leistungsabfällen durch diese Art von Engines.


NVIDIA versucht, dies durch zusätzliche Shader-Optimierungen mit weiteren Instruktionen auszugleichen, doch dies kann nicht effizient geschehen, da es Latenz und Wahrscheinlichkeit größerer Frame-Drops erhöht. NVIDIA versucht immer, in diesen komplexen Umgebungen eine Balance herzustellen, um die Leistungseinbußen möglichst gering zu halten (ganz vermeiden können sie diese nicht). Aufgrund der Hardware-Architektur selbst gibt es jedoch wenig Raum für Verbesserungen. Wichtig ist hierbei: Das Binding-Modell von NVIDIA hat sich seit fast 20 Jahren kaum verändert – es stammt aus den 2000ern, um die Probleme der 2000er zu lösen. AMD hingegen hat seine Hardware in den 2010ern entwickelt und sich daher vom veralteten Tabellen-basierten Modell abgewandt.




Ohne Garantie auf Fehler von gpt übersetzt :D
 
  • Gefällt mir
Reaktionen: EcOnOmiC, Jagdwurst, Kadett_Pirx und 2 andere
Die Benchmarks sind zum Vergleich über verschiedene Generationen immer nutzloser.
Jede Generation wird mit anderer Auflösung, Supersampling Methoden getestet
 
  • Gefällt mir
Reaktionen: Beschi, Lord B., Kadett_Pirx und 2 andere
Jagdwurst schrieb:
is ja alles english ☹️
Ich hab dir das mal von ChatGPT übersetzen lassen ist eventuell nicht 100% korrekt aber ich hoffe du kannst das jetzt lesen

Eines der wichtigsten Merkmale der Engine, die in den neuen Call-of-Duty-Titeln verwendet wird, ist, dass sie stark bindless-orientiert ist. Das bedeutet, dass die Shader nahezu jede Textur, jeden Buffer und jede Raytracing-Struktur aus einem großen Descriptor-Pool erhalten. Dieser Ansatz ermöglicht es dem Spiel, eine enorme Menge an Ressourcen schnell und flexibel zu verwalten. Allerdings belastet dieses Design die Descriptor-Verarbeitung der GPU erheblich.

In der neuesten Version der Engine ist diese bindless Architektur eng mit Upscaling-Technologien verknüpft. Die Engine unterstützt diese nicht nur, sondern integriert sie tief in die Rendering-Pipeline, was zu einer großen Anzahl schneller Ressourcenzugriffe pro Frame führt. Außerdem verwendet die Engine eine hybride Raytracing- und Raster-Pipeline mit Multi-Level-Culling, wodurch Tausende von TLAS/BLAS-Objektstrukturen gleichzeitig verwaltet werden. Auch diese Bindings laufen über die Descriptor-Pools.

Dieses Design ist notwendig, weil ein traditionelleres, weniger bindless-orientiertes Vorgehen – wie es bei den meisten Engines noch üblich ist – zu deutlich schlechterer Leistung bei Black Ops 7 führen würde.

Descriptor-lastige Engines wie Black Ops 7 können auf unterschiedlicher Hardware ungewöhnliches Leistungsverhalten erzeugen. Ähnliche Engines existieren bereits auf dem Markt, etwa Ubisofts Anvil-Next-Engine, die in Assassin’s Creed Shadows verwendet wird. In Zukunft werden wahrscheinlich mehr Engines diesem Ansatz folgen, da es schwierig ist, grafische Qualität anders weiter zu steigern. GTA 6 zum Beispiel wird vollständig bindless und descriptor-lastig entwickelt.

Die descriptor-lastige Natur hat große Auswirkungen darauf, wie Hardware Shader ausführt, weil ein einzelner GPU-Shader in Subgruppen mit bis zu 128 Aufrufen laufen kann. Texture-Instruktionen können bis zu zwei Vec4-Operationen haben, also zwei Mal 32 Bytes, kombiniert mit einer 16-Byte-Sampler-Operation. Das ergibt insgesamt 80 Bytes, die — auf eine typische GPU mit 32 oder 64 Lanes projiziert — 2560 oder 5120 Bytes ergeben. Das ist bereits eine enorme Datenmenge für eine Verarbeitungseinheit. Auf 64 Lanes überschreitet das Datenvolumen bereits eine 4-KB-CPU-Page!

Die Hardware behandelt dies sehr spezifisch, da es keine universelle Lösung für die effiziente Verarbeitung solcher Datenmengen gibt. NVIDIA speichert alles in großen Tabellen: eine Tabelle für Bilder und eine für Sampler. Diese Tabellen sind in der Hardware gecached, und ein 32-Bit-Block wird als ein 12-Bit-Sampler-Index und ein 20-Bit-Texture-Index übertragen. Dadurch enthält jeder Block zwei Kontexte, und das Umschalten dieser Kontexte ist sehr aufwendig. Das verlangsamt NVIDIA-GPUs, und je mehr eine Spiele-Engine auf dieser Methode basiert, desto schlechter wird die Leistung.

AMD geht hier anders vor. Zusätzlich zu Vector-Engines besitzen sie Scalar-Engines, die es ermöglichen, den gesamten Descriptor in die Scalar-Register zu laden. Die Hardware greift dann nur einmal darauf zu, wenn die volle Subgruppe die Daten benötigt. Dadurch sind Descriptor-Bindings praktisch kostenlos, da keine teuren Kontextwechsel wie bei NVIDIA notwendig sind. Daher sind AMD-GPUs weitgehend immun gegen Leistungsabfälle durch diese Engine-Arten.

NVIDIA versucht dies durch Optimierungen auf Treiberebene mit zusätzlichen Instruktionen zu kompensieren, was jedoch nicht effizient erfolgen kann, da dies die Latenz und die Wahrscheinlichkeit größerer Framedrops erhöht. Der NVIDIA-Treiber versucht, in diesen komplexen Umgebungen ein Gleichgewicht zu finden, um eine akzeptable Leistung zu erhalten und gleichzeitig Framedrops zu minimieren (was jedoch nicht vollständig möglich ist). Aber aufgrund der Hardwarearchitektur selbst gibt es wenig Spielraum für Verbesserungen. Es ist wichtig zu beachten, dass sich NVIDIAs Binding-Modell seit fast 20 Jahren kaum verändert hat — es stammt aus den 2000ern. AMD hingegen hat seine Hardware in den 2010ern entworfen und sich daher von diesem veralteten tabellenbasierten Modell entfernt.
 
  • Gefällt mir
Reaktionen: Eller, Jagdwurst und Mu Wupp
rocka81 schrieb:
Die Benchmarks sind zum Vergleich über verschiedene Generationen immer nutzloser.
Jede Generation wird mit anderer Auflösung, Supersampling Methoden getestet
Nur dann, wenn die neue Generation eben besseres Supersampling bietet, und dann gehört es eben auch zur „Leistung“ der Karte, dass sie mit weniger Renderauflösung auskommen kann
Ergänzung ()

Icke-ffm schrieb:
DLSS/FSR/XeSS Nativ sowie maximale Details als „CPU“ Test seperat dazu nehmen.
so das man zumindest sehen kann bei welcher GPU das CPU limit einsetzt
Mit 1080p und DLAA hättest du hier auch nicht viel mehr FPS als mit 1440p und DLSS Q, um zu sehen wo das CPU Limit liegt, wird hier 720p + DLSS P nötig sein.

Und dann hast du ne komplette Testreihe mit den ganzen GPUs gemacht, nur um zu sehen wo das spezifische Limit einer einzigen CPU liegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Ja wa ist denn hiiiiier los? 🤣
Die Radeon waren in CoD immer gut dabei aber der Abstand zwischen der 9070XT und der 5080 ist ja mal mehr als auffällig.
Hat Nvidia es nicht geschafft nen gscheiten Treiber früh genug bereit zustellen oder was in Fatalis' Namen geht hier ab!?

Edit: Hab mittlerweile die Erklärung bzgl. der Engine gelesen, höchstinteressant, besonders der letzte Satz!
 
Zuletzt bearbeitet:
Seit 2018 das erste COD das nicht auf meine Platte wandert. BF6 regelt wunderbar 😎
 
  • Gefällt mir
Reaktionen: deuses und Benni16it
therealcola schrieb:
Ja schön auf Konsole optimiert deshalb ist 9070XT Ausnahmsweise mal schneller als ne 5070ti. Wuhu :D
Der absurde Abstand ist eine Ausnahme, dass die 9070XT gelegentlich schneller als die 5070ti ist, ist keine Ausnahme.
 
Wer kauft das eigentlich noch? Die Performance ist nicht gut, die Optik ist nicht gut, das Gameplay wirkt richtig komisch und unrund. Dazu, wie so oft, sieht Raytracing bei schlechterer Performance auch noch schlechter aus.
 
wieso habe ich das Gefühl, dass AMD alles versucht, um zu verhindern, dass ihre aktuell drittstärkste RDNA4-Karte, die 9070GRE, mit der inzwischen fünf Jahre alten drittstärksten RDNA2-Karte, der 6800XT, verglichen wird...
 
Die "billige" 9070 XT zeigt es der 5080 in 1440p aber mal... Sogar mit HW-RT vorne im 1%... Gut, in COD braucht keiner RT :D Diese Engine ist gefühlt 500 Jahre alt... Ein Wunder, das man damit nicht Valorant FPS bekommt, liegt aber vermutlich, das sie bis ins letzte aufgebohrt ist und einfach Resourcen verschwendet ohne Ende...
 
  • Gefällt mir
Reaktionen: Eller
@Wolfgang es stand bei der Preisübersicht auf der 1. Seite; wurde korrigiert.
Ich bin nur wirklich kurz erschrocken, als ich den Preis sah, hätte es aber auch für Möglich gehalten 😂.
 
  • Gefällt mir
Reaktionen: Wolfgang
Wolfgang schrieb:
Warum die Testsequenz nicht mehr hochgeladen wird? Die hat sich quasi nie einer angesehen, es hat aber immer gut Zeit gekostet (ich bin nicht der Video-King). Darum mache ich das nicht mehr und stecke die Zeit lieber in etwas anderes.
Ihr könnt die Testsequenz doch einfach auf euren Youtube Kanal hochladen 🤔

Wolfgang schrieb:
Ich bin da gedanklich hin und hergesprungen, konnte mich aber nie ganz entscheiden. Darum habe ich es so gelassen, wie wir es in den meisten anderen Spielen machen würden.
Ich kann die Begründung nicht nachvollziehen.
Wenn selbst der Performance Mode noch besser aussieht als nativ, warum dann im Quality Mode testen? Wenn ihr euch so unsicher seid, was die "fairste" Testmethode ist, belasst es doch bei den nativen Auflösungen. Im Upscaling Abschnitt des Artikels wird ja ausführlich auf das Thema eingegangen und den kann man um ein Balkendiagramm für die Skalierungsmodi ergänzen.
 
  • Gefällt mir
Reaktionen: Jagdwurst, Wolfgang und Beschi
CastorTransport schrieb:
Die "billige" 9070 XT zeigt es der 5080 in 1440p aber mal... Sogar mit HW-RT vorne im 1%...
Wenn der Entwickler will, dann macht er auch eine 6700XT schneller als eine 5080. Und jetzt?
AMD läuft nun mal bei COD besser als Nvidia. Woanders rasiert Nvidia AMD weg, so ist es nun mal.
 
Icke-ffm schrieb:
@Wolfgang

Da Ihr ja eh keine FHD Tests mehr macht, wie sieht es denn aus, wenn Ihr diese als CPU test mit in die Game tests mit einbaut ? Sprich FHD/CPU test maximale Rechenleistung mit dem 9800x3d eben ohne Qualität sondern nur maximale GPU Leistung. DLSS/FSR/XeSS Nativ sowie maximale Details als „CPU“ Test seperat dazu nehmen.
so das man zumindest sehen kann bei welcher GPU das CPU limit einsetzt, Abseits der Optischen Qualität, aber da wäre dann zumindest die GPU Rechenleistung vergleichbar. so das man zumindest sehen kann ob eine Intel/AMD oder Nvidia GPU mehr von einem schnellem Prozessor profitiert, den CPU tests werden immer mit 5090 im CPU limit und 720p erstellt. Ein Test in 1080p Nativ Zeigt dann die GPU Leistung zumindest mit der schnellsten CPU.

Sagst dann wohl auch zur UE5, oder ? Die engine ist auf AMD optimiert, war sie immer schon, RT ist neu und braucht wohl noch Zeit bis das auch in dieser läuft, die FPS ohne RT ist selbst eine 7600 Nativ noch spielbar, und das AMD mit 8GB schlechter ist wie Nvidia kann eben auch am Upscalling liegen denn das darf die 7600 nicht eine Nvidia aber wohl
Ist folgendes nicht sinnvoller, um festzustellen, ab wann in der Testszene eine CPU-Limit auftritt:

Ich nehme die schnellste Grafikkarte (aktuell die RTX 5090), teste diese in 1.280x720 mit maximalem DLSS und das ist dann (potenziell) mein CPU-Limit. Bzw. so schnell kann die eingesetzte CPU (aktuell der 9800X3D) rendern. Dann kann man theoretisch anhand der Grafikkarten-Benchmarks sehen, wie weit man noch von dem CPU-Limit entfernt ist. Gilt dann natürlich nur für den 9800X3D.
rocka81 schrieb:
Die Benchmarks sind zum Vergleich über verschiedene Generationen immer nutzloser.
Jede Generation wird mit anderer Auflösung, Supersampling Methoden getestet
Jede Generation? Es sind insgesamt 8 GPU-Generationen (3x AMD, 3x Nvidia und 2x Intel) in dem Artikel vertreten und es gibt 2 verschiedene Testverfahren. Da sind wir von "jede Generation testet ihr anders" aber weit entfernt. Davon abgesehen dass man bei verschiedener Bildqualität irgendwann eben zwangsweise anders testen muss, damit es noch halbwegs fair und praxisrelevant ist.
 
  • Gefällt mir
Reaktionen: LiniXXus
Zurück
Oben