Bericht Indiana Jones und der Große Kreis: Nvidia RTX Hair im Test mit Benchmarks und Vergleichen

Ach herrjeh, ich könnte jetzt hier ein seitenlanges Referat zu dem Thema halten, mache ich aber nicht. 😏

Ich versuche es mal auf einen kurzen Nenner zu bringen.

Ja die Funktion stellt die Haare etwas realistischer da!, das macht in diesem Spiel aber keinen Sinn!.
Da das Spiel von vornherein eine "Gemalten" Grafikstil hatte.

Und das erste was man als Maler / Zeichner lernt, ist das es beim Malen nicht immer Sinn ergibt zu versuchen möglichst Realistisch zu Malen/ Zeichnen.
Den es wirkt dadurch nicht unbedingt überzeugender, da niemand Perfekt ist.

Sieht man ja auch an den Reaktionen vieler hier.
Da hier nur die Haare entsprechend verbessert würden.

Um es wirklich überzeugend zu machen müsste auch der Rest entsprechend angepasst werden, das es wieder zueinander passt.

Und zum Thema Performance äußere Ich mich jetzt mal nicht, das muss jeder für sich entscheiden, ob es ihm das wert ist. 😏
 
  • Gefällt mir
Reaktionen: Melmoth, Celinna, Abexa und eine weitere Person

Ein High-End-Feature für High-End-GPUs​

Zumindest die erste Umsetzung in Indiana Jones und der Große Kreis deutet darauf hin, dass RTX Hair ein High-End-Feature für High-End-Grafikkarten ist. Und dann eben auch RTX-5000-exklusiv, sodass nur wenige Modelle überhaupt gut genug für RTX Hair sind. Der Grafikgewinn durch das Feature ist aber zugleich groß, RTX Hair hat in der ersten Umsetzung qualitativ einen richtig guten Eindruck hinterlassen. Ein realistischeres Haar, das so gut auf die Beleuchtung reagiert, hat es vermutlich noch nie zuvor in einem Spiel gegeben.

Ach komm, das hat damals schon niemanden interessiert und das wird es auch jetzt nicht.....was war nun noch einmal mit der 5000er Generation und PhysX? Das hätte man redaktionell viel besser unter die Leute mischen können.

1757077044284.png


1757077064236.png
 
  • Gefällt mir
Reaktionen: Redundanz
Spart immerhin VRAM :D Weniger FPS für kaum optischen Unterschied? Nein danke
 
Persöhnlich sieht es für mich mit RTX off besser aus. Auf jeden Fall nicht besser. Aber meine Meinung.
 
  • Gefällt mir
Reaktionen: Orok91 und Sacky
Hmmm ob es das wirklich braucht? 😂

Es mag zwar hier in dem Spiel beim Gameplay keine große Performance kosten, aber wie sieht es dann bei Spielen die in 3rd Person gespielt werden aus? Da ist der Charakter meistens sehr nah an der Kamera und dann verballert man mal eben 25% Leistung nur damit die Haare schöner sind.
Also für mich wäre das ein Feature, was ich sicherlich ausschalten würde.

Ich bin aber eh der Meinung, dass mal wieder mehr Fokus auf reaktivere Umgebungen, korrekte Physik etc. gelegt werden sollte, als Unmengen an Leistung zu verballern, für irgendwelche Grafikfeatures, die man dann am Ende meistens mit der Lupe suchen muss, oder beim aktiven Gameplay kaum auffallen. Dafür wirken Umgebungen etc. oft so extrem künstlich, kaum was reagiert auf den Spieler. Physik und so ist extrem limitiert auf einige wenige Dinge.
 
  • Gefällt mir
Reaktionen: Venora Valyria, Redundanz und Celinna
Endlich mal ein geiles neues Feature !! Wowww....DIESE HAARE 😍😍😍
Freu mich schon auf Duke Nukem Hair 3D 😂
 
  • Gefällt mir
Reaktionen: Venora Valyria
@Sacky Ja und dann erst das neue iPhone hair. Da sind die Spaltmaße zwischen Rückseite und Glas so gewählt, dass man sich beim Telefonieren die Haare einklemmt.
 
  • Gefällt mir
Reaktionen: Venora Valyria
Uff, anhand der Screenshots sieht es für mich "off" subjektiv besser aus als mit dem Feature.
 
  • Gefällt mir
Reaktionen: Marius
Würde gerne mal ein Review zum DLC lesen, selbst international ist absolut nichts zu finden. Metacritic ist völlig leer.
 
Quidproquo77 schrieb:
Oder ein flimmerndes Bild, statt AA zu aktivieren. Das nennt man Gewöhnungseffekt.
Ich hab über 10 Jahre immer AA benutzt, aber jetzt wo TAA das Bild unscharf af macht, hab ichs lieber aus und ein scharfes Bild. Das flimmern muss ich tolerieren. Die Unschärfe mit TAA find ich schlimmer als Flimmern ohne TAA.
 
  • Gefällt mir
Reaktionen: Marius
Boulettendieb schrieb:
wo es schwierig wird objektiv einzuschätzen.
Objektiv kannst du, sobald Menschen eine Bewertung vornehmen, sowieso direkt in die Tonne kloppen. Und wenn ich mir jetzt die Bilder ansehe - und das ist da allgemein ein Problem - könnte ich auf Anhieb nicht sagen, was mir wirklich besser gefällt und was auf mich natürlicher wirkt. Man sieht bei den Nahaufnahmen erst einmal, dass es "anders" aussieht. Je nach "Beleuchtung" sieht mal das eine, dann auch mal das andere besser aus für mich. Kann für dich oder jemand anderen schon wieder anders sein.

Müsste ich am Ende mal "live" im Spiel sehen, dann könnte ich es besser beurteilen, am Ende ist das allerdings auch so eine Sache. Vielleicht ist das Spiel an der Stelle aber wirklich das falsche Spiel um diese Funktion zu demonstrieren und deren Vorteile.
Gullveig schrieb:
Ist ja auch ne Elfe. Frag mal Frau Galadriel, wie das so ist mit leutendem Haar. Oder Rapunzel....
Ach, was, da gehört nur einer gefragt: PUMUCKL!
aspro schrieb:
dass es weniger um einen praktischen Nutzen geht, sondern einfach nur darum künstlich die Grafikanforderungen zu erhöhen
Das Problem bei der Grafik allgemein ist, dass jedes Quäntchen an zusätzlicher Grafikpracht immer mehr Ressourcen benötigt.

Und gerade Haut, Augen, Haar sowie Hände und Füße sind in der Darstellung - auch mit Nägeln - quasi eine Königsdisziplin, was die Darstellung angeht. Ich bin an der Stelle gespannt, was hier noch kommt.
 
  • Gefällt mir
Reaktionen: Celinna und Boulettendieb
Hmm muss mir grad verkneifen viel denglisch zu reden, aber auf deutsch:

To be ehrlich :D gebt mir einfach FSR2 mit genug frames ohne lag oder XSRR alles performance gibt mir genug frames in 1440p und scheiss auf Bildqualität...

Ich kanns nimmer hören ich hab nicht mehr Spaß an spielen wenn sie die Realität bisschen glaubhafter faken... was ich nicht kann ist Ausgabe-Auflösung unterhalb der nativen, also ist das dann der Monitor der die Auflösung irgendwie umrechnet, also ne extra beschissene Version von Upscaling per Hardware.

Und ob die Haare dann besser oder schlechter aussehen ist mir auch egal, hab noch nie gedacht, bohh ich kann 99% der Games nicht ab, wenn deren Bildqualität nur bisschen besser wäre würde ich die lieben, was ich aber schon hab ist wenn Spiele ruckelnd waren oder Laggy wie z.B. nen Anno 1800, heck selbst wenn die Games 50-100gb groß sind ist die Chance das ich sie mag geringer oder wenn das Game 10 Sekunden länger zum starten braucht.

Man muss den ganzen Hype um die Optikverbesserungen mal bisschen einordnen, ja Spielefirmen setzen alle auf Realitäts-simulatoren statt Spielen, werde ich ein Eldenring mögen oder nicht mögen weil ich DLSS4 oder FSR2 hab? Nein. Das Hauptproblem von Spielern heute ist Spiele zu finden die einem Spaß machen, dann genügend FPS irgendwie kriegen (ohne 1080p wobei selbst das manche ertragen), und gut, und genug heißt oft schon 60fps die 144 kriegt man ohne teuren PC eh selten selbst auf 1440p außer in Spielen die aussehen wie von vor 15 Jahren gemacht wie Counterstrike oder sowas.

Wird irgendwer sagen er spielt Leage of Legends oder WOW nimmer weil FSR2 zu schlecht aus sieht oder weil dort keine Hairworks drin sind?

Ja es sind nette Spielereien ein kleiner Luxus aber man sollte nicht Bildquali höher bewerten wie FPS, klar FPS muss bei nem Grafikkartentest vergleichen und ja im Text sollte die Bildquali auch bewertet werden, aber ja es sollte auch eingeordnet werden, nach dem Motto wenn FPS / Euro gleich ist, ist Bildquali der Tiebreaker wenn nicht sicher manchmal auch aber meistens/oft auch nicht, aber alleine das wir hier künstlich ne Nvidia News haben wegen einem irrelevanten Haarfeature... zeigt wie leicht man die Presse beeinflussen kann den Newscycle zu steuern.

Und ja das ist ein Rant und nehmt es nicht zu ernst, ich bin hier bisschen Polemisch, und ja hätte das vermutlich besser unter nen Hardwaretest geschrieben, aber musste mal raus :D

Was mir persönlich besser gefallen würde wäre mal typsiche PC Systeme ohne Ryzen 9800x3d mit Grafikkarten im Midrange bei verschiedenen Spielen in 1440p aber gerne auch 4k und 1080p zu testen und vielleicht auch mal bisschen cherry picken um sich arbeit zu sparen, einfach mal ein paar CPU Fresser Spiele testen (Anno große Stadt, Kingdom Come Deliverance, Fatorio glaub auch...) , es bringt mir nichts wenn 100 Shooter super toll mit schrott cpu und starker GPU auch von Nvidia gut laufen, wenn die CPU Hungrigen Spiele meist eh die besseren sind oder es auf die ankommt.

Das Problem bei nem Bottleneck ist das das schwächste Glied das Entscheidende ist, und der CPU Hunger in Games misst sich halt an den CPU hungrigsten Games und Settings.

Und falls nicht klar ist warum ich hier bei Grafikgeschichten ne CPU Test erwähne weil Nvidia Arbeiten in die CPU auslagern die die AMD GPU macht, wenn die CPU also knapp wird steigt die CPU Belastung (oft) mit Nvidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thom_cat und Yamai
DrFreaK666 schrieb:
Das ist doch überhaupt nicht vergleichbar.
Warum nicht? Ne 8GB 4060 kann auch in Indi kein PT aktivieren, also genau das gleiche, die höchsten Details in Settings gehen halt damit nicht
 
@Taxxor Das ist eine Engine-Sache, bei anderen Spielen kann man PT schließlich aktivieren.
Da wird man nicht durch "min. 16GB" ausgeschlossen.
 
DrFreaK666 schrieb:
Das ist eine Engine-Sache, bei anderen Spielen kann man PT schließlich aktivieren.
Und hätten diese Spiele RTX Hair, könnte man es dann dort genauso mit ner 5050 nutzen. Mit der entsprechenden Performance, die man dann mit PT mit der Karte erreicht.
Und da ihr dann trotzdem der VRAM ausgehen wird, wäre das entsprechend eben Daumenkino und wir sind wieder beim gleichen Bild wie wenn man mit der 4060 in anderen Spielen Pathtracing in 4K aktiviert
 
Taxxor schrieb:
Und hätten diese Spiele RTX Hair, könnte man es dann dort genauso mit ner 5050 nutzen
Könnte sein, muss aber nicht. Schließlich hatte die 5070 genug VRAM für PT, aber nicht mehr genug für RTX Hair
 
@DrFreaK666 Man kann ja auch andere Settings reduzieren um wieder mehr VRAM für RTX Hair übrig zu haben.

Davon zu sprechen dass ein bestimmtes Feature die "Geringverdiener" außen vor lässt, ist doch Unsinn, wenn es nur eines von vielen Features ist, die in den VRAM Bedarf reinspielen
 
Taxxor schrieb:
Man kann ja auch andere Settings reduzieren um wieder mehr VRAM für RTX Hair übrig zu haben.
Also kann man bei Indiana Jones 8GB freischaufeln und das Feature funktioniert dann? I don't think so.
Warten wir am besten weitere Games ab
 
Sind die Bilder vertauscht worden? RTX Hair Off sieht komischerweise besser aus, als RTX Hair On???
 
  • Gefällt mir
Reaktionen: Marius und Muntermacher
Gehts nur mir so, oder ist es ohne besser? Ich sah das Video an und fand fast immer das rechte Fenster schöner bei den Haaren und ich dachte, daß wäre on, dabei ist es off.
@TheCounter
gleicher Gedabke zur gleichen Zeit.
 
  • Gefällt mir
Reaktionen: Marius und Orok91
Zurück
Oben