• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Battlefield 6 im Test: 21 Grafikkarten im Benchmark, AMDs Preview-Treiber getestet

J3FF schrieb:
Bei mir ruckelt das Game wie sau... in der Beta war's super. Keine Ahnung, was hier nicht passt. Alle Upscaler probiert, überall das Selbe...
aber du hast doch den super tollen 5800X3D der noch ewig hält und mit dem Du alles überspringen kannst bis AM7 ?? Wie kann das denn sein?

Mit meinem AM5 9800X3D rennt das Spiel super
 
Der pcgh CPU Test, wo der 9800x3D 250 FPS packt, haut bei mir ziemlich genau auch im MP hin, die 240 liegen da immer an, nehme ich das Limit raus geht’s bis 270. Von daher wird es wohl nicht am 5800x3D liegen, der schafft in dem Test ja 200 FPS. BF6 ist da echt gut optimiert. Liegt sicher an was anderem als dem Spiel oder der CPU.
 
  • Gefällt mir
Reaktionen: MegaDriver
Könnte wohl an der 12GB Nvidia Gurke, oder mit Pech sogar 10GB Variante liegen. Wobei die bei PCGH immer noch ganz gut abschneidet. Verstehe aber auch nicht warum CB nicht einfach den VRAM Verbrauch für Nvidia&AMD Karten angibt damit man sich ein Bild machen kann.
 
  • Gefällt mir
Reaktionen: BloodReaver87 und MegaDriver
NHEADY55 schrieb:
aber du hast doch den super tollen 5800X3D der noch ewig hält und mit dem Du alles überspringen kannst bis AM7 ?? Wie kann das denn sein?
Das wird auch eher ein VRAM Problem sein als ein CPU. Meint betagter 11900k reicht noch locker für BF6.
 
TheGhost31.08 schrieb:
Könnte wohl an der 12GB Nvidia Gurke, oder mit Pech sogar 10GB Variante liegen. Wobei die bei PCGH immer noch ganz gut abschneidet. Verstehe aber auch nicht warum CB nicht einfach den VRAM Verbrauch für Nvidia&AMD Karten angibt damit man sich ein Bild machen kann.
Weil das eben kein VRAM-Verbrauch, sondern schlicht die VRAM-Allokierung ist. Die Tools haben keine Ahnung, wie viel VRAM das Spiel wirklich benötigt, das geht nur mit Hilfe komplexer Developer-Debugging-Tools. Dieser Wert kann eine Aussagekraft haben, in 90 Prozent aller Fälle handelt es sich aber einfach nicht darum, was wirklich benötigt wird.
 
  • Gefällt mir
Reaktionen: Grestorn, NguyenV3, Otsy und 3 andere
Habe ein seltsames Problem. Spiele ich normales matchmaking auf großen Karten habe ich die ganze Zeit in der Runde ein ruckeln. Kaum spielbar. Spiele ich aber über den Server Browser ist es smooth ohne irgendwelche Probleme. Ein wenig googlen brachte mich zu dem Begriff "Time Nudge". Laut einigen Einträgen laufen die Server mit 60 Hz, bzw 30hz. Dies führt dann zu geringerer CPU Usage und dieses Phänomen tritt dann nicht auf. Dieses Problem soll wohl seit BF 2042 bestehen. Keine Ahnung wie das alles so zusammenhängt und ob es stimmt. Aber ich hoffe auf einen Patch.
 
Hardware Vergleiche mit Upsampling ist halt schon irgendwie "schwierig".

Benchmark Vergleiche könnte man doch eigentlich nur wirklich zeigen, wenn alle 3 GPU Hersteller mit dem gleichen Upsampler laufen.

Ansonsten grätscht hier doch nur eine Software + KI dazwischen, die natürlich besser aussehen kann, aber für reine Hardware Tests absolut ungeeignet ist.

Zumindest so lange diese auf einen Hersteller begrenzt ist.

Läuft FSR4 auf GeForce?
Ansonsten halt mit XeSS oder Nativ.

Dann hat man zumindest die Hardware verglichen. Nicht irgendwelche angepasste Schnittstellen Software.
 
  • Gefällt mir
Reaktionen: Sennox
Ryzen 5600, 4070Ti, UHD, Ultra bzw. hoch und DLSS Qualität zwischen 60 und 90FPS.
Läuft perfekt für mich.
 
  • Gefällt mir
Reaktionen: Player49
So als kleiner Tip:
Ich habe mal spaßeshalber alles auf LOW gestellt und nur die Texturen, Licht und Schatten auf Hemmungslos gestellt. Man sieht wärend des Spiels keinen Unterschied, zum alles auf Ultra und es kostet kaum Leistung und nur sehr viel VRAM. Wenn man eh min. eine 16GB Karte hat geht es aber klar ;)
 
macbort schrieb:
Man sieht wärend des Spiels keinen Unterschied, zum alles auf Ultra und es kostet kaum Leistung
Ist doch immer so, manche Sachen bringen optisch etwas, andere garnicht, oder kaum, kosten aber ordentlich Performance.
 
Sollte ich bei WQHD und einer 9070XT FSR4 aktivieren obwohl ich auch so keine FPS-Probleme habe? GIbt es dadurch Vorteile in Sachen Bildqualität?
 
@Bmob2k Nun die Details werden wegen der Bildnachbearbeitung mehr herausgearbeite und damit schärfer.

Aber brauchen tust du das mit WQHD und 9070XT nicht, für ca. 140 fps
 
TheGhost31.08 schrieb:
Verstehe aber auch nicht warum CB nicht einfach den VRAM Verbrauch für Nvidia&AMD Karten angibt damit man sich ein Bild machen kann.
Weil du mit einer 4090 dann 17GB stehen hast während eine 4070 10GB anzeigt und beide laufen ohne Probleme mit der gleichen Qualität.

Die GPUs nehmen sich was sie brauchen und dann zusätzlich noch, was sie irgendwann mal brauchen könnten, so lange sie noch genug VRAM frei haben.
 
Inxession schrieb:
Benchmark Vergleiche könnte man doch eigentlich nur wirklich zeigen, wenn alle 3 GPU Hersteller mit dem gleichen Upsampler laufen.
Du siehst welches Setting du bei welcher Karte für ungefähr identische BQ brauchst und wo du dann landest. Sonst könnte man ja genauso bei der einen Karte die Details runter stellen und bei der anderen hoch und dann die FPS vergleichen, macht doch wenig Sinn unterschiedliche Qualität zu vergleichen.
Ergänzung ()

Bmob2k schrieb:
GIbt es dadurch Vorteile in Sachen Bildqualität?
Das ist doch ein Teil des Test, schau nochmal kurz rein.
 
Zuletzt bearbeitet:
macbort schrieb:
@Bmob2k Nun die Details werden wegen der Bildnachbearbeitung mehr herausgearbeite und damit schärfer.

Aber brauchen tust du das mit WQHD und 9070XT nicht, für ca. 140 fps
FSR4 ist keine Nachbearbeitung.

Warum es besser aussieht, ist im CB Artikel dazu erklärt
Anstatt einfach nur den aktuellen Frame einer Skalierung zu unterziehen, nutzen DLSS, FSR und XeSS temporale Daten aus mehreren vorherigen Frames. Das bedeutet, dass jedes Pixel auf Grundlage von mehr Details entsteht als bei der nativen Berechnung eines einzelnen Frames möglich wären. Tatsächlich fließen in einen beispielsweise mit DLSS SR Quality auf UHD gehobenen Frame mehr „echt gerenderte“ Pixel ein als in einen nativ in UHD berechneten Frame.

FSR4 ist davon ab immer TAA vorzuziehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RedDragon83
Pro_Bro schrieb:
Du siehst welches Setting du bei welcher Karte für ungefähr identische BQ brauchst und wo du dann landest. Sonst könnte man ja genauso bei der einen Karte die Details runter stellen und bei der anderen hoch und dann die FPS vergleichen, macht doch wenig Sinn unterschiedliche Qualität zu vergleichen.
Ergänzung ()


Das ist doch ein Teil des Test, schau nochmal kurz rein.

Im Test ist die Rede von Ultra HD, deshalb bin ich davon ausgegangen dass es hier im Vergleich zu WQHD eine andere Besonderheit gibt.
 
Inxession schrieb:
Benchmark Vergleiche könnte man doch eigentlich nur wirklich zeigen, wenn alle 3 GPU Hersteller mit dem gleichen Upsampler laufen.

Ansonsten grätscht hier doch nur eine Software + KI dazwischen, die natürlich besser aussehen kann, aber für reine Hardware Tests absolut ungeeignet ist.
Software + KI gehört eben zu den Karten dazu, ist ja auch zum Teil in Hardware eingebettet.
Und wenn angenommen DLSS4 die gleiche Qualität wie XeSS hinbekommt, aber bei halber Renderauflösung, warum sollte man dann die Karten die DLSS4 können, benachteiligen, indem man alle mit XeSS testet?
 
Zuletzt bearbeitet:
Taxxor schrieb:
FSR4 ist keine Nachbearbeitung.

Warum es besser aussieht, ist im CB Artikel dazu erklärt
Nun mit Nachbeabeitung ist z.B. gemeint das du mehr Dateils hast ;)

Man hat ja auch etwas höhere Latenzen und damit Arbeiten die vorher passieren, um das Bild nachher, mit mehr Details anzuzeigen.
 
Zuletzt bearbeitet:
Hallo zusammen

Ich zocke auf 1440p mit einer 5070 TI sowie einem Ryzen 9 5900X. Die meiste Zeit läuft das Game flüssig bei so 120 FPS, sehr oft droppen die FPS jedoch auf ca. 80-90. Dabei habe ich festgestellt, dass die GPU sowie CPU konstant kaum ausgelastet sind (siehe Screenshot), woran könnte das liegen?

Evtl. an der Leistung des Netzteils?
10-10-2025_16-14-32.jpg
 
Liegt die GPU unter 99% bist du im CPU Limit. Da für das CPU Limit ausreicht dass einer der 24 Threads deines 5900x am Limit ist. Du wirst da keine 100% bei der CPU sehen.
Wenn ich die 240 FPS Begrenzung bei mir raus nehme bin ich bei 255-300 FPS (je nach Szene) auch im CPU Limit, obwohl die Auslastung der CPU bei 66% liegt.
 
Zurück
Oben