• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Borderlands 4 im Test: Grafikkarten-Benchmarks, Analysen und Empfehlungen

mibbio schrieb:
Sie sind halt nur noch auf Basis von Fotos realer Oberflächen erstellt, sondern eher im Cartoonstil handgezeichnet.
Es böte sich doch bei diesem Stil aber gerade zu an, auf Texturen zu verzichten und stattdessen auf viele "einfarbige" Oberflächen mittels Nanite zu setzen. Oder sehe ich das falsch?

Mir fällt da Jusant ein. Die haben wohl kaum mit Texturen gearbeitet.
 
Wolfgang schrieb:
Die PS5 Pro hat keine NPU, das läuft alles über WMMA-Instruction auf den ALUs. Die wurden gegenüber RDNA 3 aufgebohrt.
Gibt es dazu eine Quelle?
PCGH schreibt z.B. dass eine XDNA-NPU wie bei den Mobile-SoCs verbaut ist (entsprechend angepasst):
https://www.pcgameshardware.de/Play...9/Tests/FAQ-Infos-Thermal-Noise-Sone-1458951/

Wolfgang schrieb:
NPUs scheinen sich nicht für Upscaling in PC-Spielen zu eignen, zumindest geht den Weg keiner.
Dabei vergisst du NVIDIA (Tensor Kerne), Intel und Apple. Das auf den Shadern zu berechnen, ist schon eher die Ausnahme bei herstellereigenen Lösungen.
 
Clark79 schrieb:
Da hast Du schon 'Dein' Testergebnis :-) Eine handvoll FPS Genauigkeit durch einen Einzeltest machen Dich auch nicht schlauer.
Mir geht es nur darum zu wissen, ob die Karte 4k @ 60 Hz schafft. Der Rest ist mir ziemlich egal. Das kann man zwar anhand der 4070 (non TI) mit 30% mehr Leistung grob überschlagen aber in einer Übersicht wäre schon schöner, dann spart man sich jedes mal das hochrechnen. Zudem ist die Karte ja alles andere als alt oder irrelevant. Aber seis drum, bei CB wächst das Geld ja leider auch nicht an den Bäumen und günstig ist die Karte ja auch nicht gerade. Passt also schon, gibt ja noch andere Benchmarking-Seiten.
 
floTTes schrieb:
Mir fällt da Jusant ein. Die haben wohl kaum mit Texturen gearbeitet.
Das Spiel verwendet beim Grafikstil aber auch keinen Comic-Look mit Konturlinien um und auf den Objekten. Letzteres ist bei Borderlands in die Texture gemalt. Mit einfarbigen Fächen bekommt man den Grafikstil von Borderlands schlicht nicht hin.

1759059515620.png

1759059560919.png


Diese ganzen Details mit Strichen, Schattierungen und Dreck/Flecken sind Teil der Textur. Mit einfarbigen Texturen oder direkt die Polygone an sich ohne Textur eingefärbt, würde das Spiel komplett anders aussehen.

Das bekommt man auch mit Nanite nicht hin. Würde man das über entsprechend viele Polygone im Modell lösen wollen, bräuchte man so viele, dass es selbst auf einer RTX 5090 zur Diashow wird. Denn Nanite sorgt nicht dafür, dass man mehr Polygone rendern kann. Nanite bewirkt lediglich, dass man nicht mehr von einem Modell mehrere LOD-Modelle mit unterschiedlich vielen Polygonen erstellen muss. Stattdessen kann man das Modell aus dem 3D-Editor mit millionen Polygonen in die Engine kippen und Nanite generiert dann im Spiel entfernungsabhängig dynamisch und stufenlos daraus die Modelle mit sinnvoller Polygonanzahl, die flüssig renderbar ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fika
dedication schrieb:
Mir geht es nur darum zu wissen, ob die Karte 4k @ 60 Hz schafft
Mit den Settings aus dem CB Test? Nein. Aber es ist ja auch 'nur' eine Benchmark Szene. Hier solltest Du bei +/- 54 FPS avg. landen. Min. eher niedrige 40er. Aber dafür gibt es ja noch die Regler. Preset auf hoch / DLSS eine Stufe aggressiver, dann hast Du die 60.
 
  • Gefällt mir
Reaktionen: dedication
Unabhängig ob man Cel Shading mag oder nicht, Borderlands 3 sah damals im Vergleich zu anderen Spielen auch nicht herausragend gut aus, das gleiche ist aber bei Borderlands 4 der Fall.

Was für mich wirklich gut aussah waren die Effekte hier in einem Video von CB, aber auch nur bei entsprechend hoher Grafikeinstellung, davon hat man aber nichts mehr in den Streams gesehen weil alle Streamer, zumindest die ich sah, die Grafikeinstellungen zu Gunsten höherer FPS niedriger eingestellt hatten.^^
 
Blebs schrieb:
Gibt es dazu eine Quelle?
PCGH schreibt z.B. dass eine XDNA-NPU wie bei den Mobile-SoCs verbaut ist (entsprechend angepasst):
https://www.pcgameshardware.de/Play...9/Tests/FAQ-Infos-Thermal-Noise-Sone-1458951/


Dabei vergisst du NVIDIA (Tensor Kerne), Intel und Apple. Das auf den Shadern zu berechnen, ist schon eher die Ausnahme bei herstellereigenen Lösungen.
Ich vergesse nicht die Tensor-Kerne, diese sind für mich regulärer Teil der GPU. Das wird aber nicht als NPU bezeichnet. NPU ist normalerweise ein separater Chip (optional auf demselben Package) und völlig unabhängig, aber eben auch getrennt von der GPU. Siehe Intel Lunar Lake: Das Ding hat Tensor/Matrix-Kerne innerhalb der GPU und auch eine separate GPU.

Die PS5 Pro hat keine separate NPU, nutzt also kein XDNA. Dafür lege ich keine Hand ins Feuer, ist aber meine Info und darauf deuten auch die meisten anderen Artikel hin.
 
Wolfgang schrieb:
NPU ist normalerweise ein separater Chip (optional auf demselben Package) und völlig unabhängig, aber eben auch getrennt von der GPU.
Dann existieren quasi keine NPUs. Als separaten Chip gibt es die fast gar nicht. Auch nicht im selben Package. Das ist exotisch. Eine NPU ist einfach ein Rechenkern mit Spezialisierung auf Datentypen kleiner 32-b und Vektor-/Matrix-/Tensoroperationen. Die haben sich ja bei vielen Anbietern auch aus ihren DSP-Kernen entwickelt.

Das sind IP‑Blöcke. Ähnlich wie ein CPU-Kern oder ein GPU-Shaderblock.
Die kann man auch so als fertige IP‑Blöcke von ARM, Synopsys,... lizenzieren und ist erst mal komplett unabhängig von der GPU. In der Praxis teilt sich das meist einen System-Level-Cache und den Bus mit der GPU/dem Rest des SoCs, aber das ist ja nichts Ungewöhnliches. Bei den meisten Anbietern hat man sogar die Wahl, ob man einzelne NPU-Recheneinheiten als IP-Block integriert (und dann gegebenfalls dezentral verteilt) oder ob man einen großen Block bildet.

Bei den Tensor-Kernen von NVIDIA weiß ich z.B. durch Orin, dass diese komplett unabhängig von den Shadern genutzt werden können. Die sind von der eigentlichen GPU erst einmal komplett unabhängig. Ähnlich wie die Video-Encode und Decode-Kerne. Das ist technisch auch kein Bestandteil der GPU, aber on die. Das liegt auf unterschiedlichen Power-Gating-Nodes und teilt sich nur das Interconnect-System (was je nach Workload natürlich auch zu einem Problem werden kann).

"Intel Lunar Lake: Das Ding hat Tensor/Matrix-Kerne innerhalb der GPU und auch eine separate GPU."

Ich nehme mal an, dass das letzte Wort NPU sein sollte.

Auch hier ist der dedizierte NPU-Block innerhalb des DIEs und kein separater Chip.
Gerade Lunar Lake ist dafür doch ein klares Beispiel. XESS läuft hier auf den Matrix-Kernen im NPU-Block. Zumindest zeigt Windows NPU-Auslastung an, sobald ich XESS auf meinem Lunar-Lake-Notebook anschalte.

Ein anderes und klareres Beispiel ist Apple mit MetalFX Upscaling.

Aber bei der PS5 Pro scheinst du recht zu haben. Das war wohl eine Falschmeldung von PCGH.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Randalizer
Gravlens schrieb:
Unabhängig ob man Cel Shading mag oder nicht, Borderlands 3 sah damals im Vergleich zu anderen Spielen auch nicht herausragend gut aus, das gleiche ist aber bei Borderlands 4 der Fall.

Irgendwer hatte hier schon das Video von Hardware Unboxed verlinkt, das war im wahrsten Sinne
des Wortes ein Augenöffner.
In etlichen Punkten wie z. B. der Beleuchtung sieht B4 selbst auf low deutlich besser aus.

Hab gerade nochmal B3 installiert und muss sagen...ja...das stimmt. :freak:
Und da fehlt dann auch der Nostalgie Bonus wie bei Teil 1.
 
  • Gefällt mir
Reaktionen: Crifty und meckswell
akuji13 schrieb:
Video von Hardware Unboxed
Da is mir aufgefallen bei der 5060Ti, dass die Auslastung und Leistungsaufnahmen in BL3 höher ist als in BL4. BL4 97% vs BL3 100% und BL4 130 Watt vs BL3 160 Watt, das find ich seltsam.
 
MaverickM schrieb:
@megaapfel
Ja, das ist sehr weit aus dem Fenster gelehnt, weil wie gesagt sämtliche Vorgänger diese Optik hatten, inklusive aller Spin-Offs zu dem Franchise.
Ach, wirklich? Wusste ich ja gar nicht. Ändert trotzdem nichts an meiner Aussage. Die Grafik nervt mehr als genug Spieler, sodass viele gar nicht erst das Spiel kaufen. Dass hier dann viele Fans das Gegenteil behaupten, ist selbstverständlich.
Ergänzung ()

Loopman schrieb:
Und schon bist du aus dem Fenster gefallen...
Klar, dass die Fans der Grafik das anders sehen, aber die meisten, welche die Grafik stört, werden hier erst gar nicht kommentieren. Heißt nicht, dass nicht sehr viele potentielle Spieler davon abgeschreckt werden.
Ergänzung ()

KamfPudding schrieb:
Ich wünsche dir einen sanften Aufprall.
Ich denke du bist bei CoD etc. besser aufgehoben.
Die Optik IST Borderlands. Das gehört zur DNA der Spielreihe.
Das Spiel sollte bis kurz vor Release gar nicht diese Grafik haben, das war nur eine Hauruck-Entscheidung, weil man Angst hatte, dass das Spiel nicht genug hermacht durch das Gameplay und zu unauffällig ist.
 
bogge101 schrieb:
Da bin ich grad mal froh, dem ständigen Kaufreiz widerstanden zu haben

bei mir ist das Spiel ziemlich CPU lastig
Du hast das Spiel nicht, aber den Benchmark :-)
 
Die Performance ist ja mal absolut erbärmlich für die Optik, unglaublich.
 
megaapfel schrieb:
Klar, dass die Fans der Grafik das anders sehen, aber die meisten, welche die Grafik stört, werden hier erst gar nicht kommentieren. Heißt nicht, dass nicht sehr viele potentielle Spieler davon abgeschreckt werden.

Das gilt für andere Spiele mit einer anderen Optik ebenso.
 
  • Gefällt mir
Reaktionen: jimmy13
Wolfgang schrieb:
Entsprechend hat man Borderlands 3 so betrachtet, wie man es damals gespielt hat
OK klär mich auf: Ich persö. sah' eine RTX2060 nie als 1440p Grafikkarte an, sondern 1080p. Kann mich natürlich täuschen.
 
  • Gefällt mir
Reaktionen: EntelodonX und Anderster
mibbio schrieb:
Aber dann zumindest keinen besonders guten.
Das ist wie immer Einstellungssache. Lumens Denoiser ist flexibel.

RR als Denoiser ist übrigens nur selten eine gute Idee. RR wurde für Full PT Games wie Cyberpunk und Alan Wake 2 entwickelt und denoised dementsprechend sehr stark - zu stark für Lumen basierte UE5 Titel. Hab nun schon mehrfach RR in UE5 Titeln ausprobiert, auch Borderlands 4. Mein Fazit war immer gleich: es denoised zu stark weshalb insbesondere feine Details deswegen verschluckt werden. Auch Schrift auf Texturen wird von RR gerne mal verfälscht.

Ein optimierter Lumen Denoiser ist RR mMn. immer vorzuziehen.
 
megaapfel schrieb:
Die Grafik nervt mehr als genug Spieler, sodass viele gar nicht erst das Spiel kaufen.

Tja, dann... ist es halt kein Spiel für sie...!?
Shocking! :evillol:

Ich bin kein Borderlands Fan. Wurde mit der Serie nie so richtig warm. Und nein, das liegt nicht an der Optik, im Gegenteil.
 
  • Gefällt mir
Reaktionen: Alphanerd
megaapfel schrieb:
Das Spiel sollte bis kurz vor Release gar nicht diese Grafik haben, das war nur eine Hauruck-Entscheidung, weil man Angst hatte, dass das Spiel nicht genug hermacht durch das Gameplay und zu unauffällig ist.
Gute Entscheidung. Ich hätte es sonst nicht gekauft.
 
  • Gefällt mir
Reaktionen: MaverickM und jimmy13
Zurück
Oben