News Nvidia GeForce 581.15: Indiana Jones bekommt mit RTX Hair die Haare schön

eh spannend auf technischer ebene. für mich persönlich wird das interessant, wenn die nächste gpu generation die vor-vorletzte ist und es mehr spieleauswahl dazu gibt.
 
TheInvisible schrieb:
Die Nvidia bashing Witze waren auch schon mal besser hier...
Besser als "Noch immer besser als AMD die gar nix neues bringen und alle Features von Nvidia nachbauen." ist es allemal :D
 
N0Thing schrieb:
Natürlich hat das keiner so verlangt, aber es ist doch besser die Option zu haben, als zwangsweise nicht richtig beleuchtete Haare zu haben.

Ich habe mich damals bei Tomb Raider auch über die verbesserten Haare gefreut und mir war es egal, dass es bis zu 10% Performance kostet.
Der Unterschied ist, dass AMDs TressFX damals wie heute (TressFX 5.0 hat gerade erst UE5.4 Support bekommen) auf jeder Hardware gut lauffähig sein dürfte - glaub PCGH hatte damals bei Tomb Raider auf allen Karten die gleichen 25% weniger gemessen. Bei "RTX Hair" bezweifle ich das mal, da das Teil deren proprietären "Neural Rendering"-Features ist. Nvidia Hairworks war wenigstens auf allen Karten nutzbar, wenn auch weitaus weniger performant. Ich begrüße es, dass Haare besser gerendert werden, aber das sollte dann auch für jeden Spieler gleich aussehen und nicht hardwareabhängig sein.
 
  • Gefällt mir
Reaktionen: LDNV
habla2k schrieb:
Das ist ja schön, ich habe also die Wahl zwischen 2.000€ damit Haare schön sind oder 400€ und ich muss alles auf Mittel stellen?
Man hatte immer schon die Wahl Spiele auf einem geringeren grafischen Niveau zu genießen und dafür weniger Geld auszugeben, das ist doch in jedem Spiel so. Mal mehr, mal weniger fordernd. Was ist das für ein Argument?
Ich habe Indy auf einer 4070 gespielt, mit PT, 2000 Euro sind gar nicht notwendig.

Der Unterschied zu damals besteht einfach darin, dass heutzutage viele schon mit den kleinsten technischen Neuerungen überfordert sind und in einem repetitiven negativen Denken gefangen grundsätzlich alles abzulehnen und einem idealisierten Vergangenheitsbild nachtrauern.
habla2k schrieb:
Du verstehst nicht was ich meine.
Das ist auch nicht zu verstehen, da die Kritik inhaltlich nicht valide ist, denn LSS Primitive sparen Rechenzeit ein und ermöglichen eine effiziente Darstellung von komplexen Geometrien und wiederum eine realistische Beleuchtung derer. Man spart somit Speicher und Rechenzeit ein und verschwendet sie nicht.

Es ist auch schon längst als vendor spezifische Vulkan Erweiterung verfügbar. irgendjemand muss ja einmal den Anfang machen und das auf seine Hardware spezifizieren und danach kann das der Khronos Group vorgeschlagen werden, damit es plattformübergreifend implementiert werden kann. Der Vorwurf es wäre proprietär ist leicht einzukassieren.
habla2k schrieb:
Anstatt Haare wieder glänzen zu lassen sollte der Fortschritt in andere Dinge fließen.
Damit Haare vorher "geglänzt" haben, mussten eine ganze Reihe von Tricks angewandt werden und das Ergebnis war schlecht. Lichtreflektionen wurden nur Wischi-Waschi unabhängig von der tatsächlichen Haarstruktur hingefaked. Man macht jetzt also etwas völlig anderes, viel besseres als den früheren Blödsinn.

Und das lässt sich auf viele andere Strukturen übertragen. Zäune, Nebel, Stoff, sogar einzelne Fäden oder Kleidungsstücke die herunterhängen, ohne da Millionen an Polygonen reinzupumpen und dann realistisch zu beleuchten.
habla2k schrieb:
Nämlich, dass WQHD Qualität günstiger zu haben ist, anstatt am oberen Ende immer noch mehr Firlefanz einzubauen.
Solche Techniken sind genau dafür da. Etwas günstiger zu machen, weniger Leistung zu beanspruchen.
Ein zentraler Hebel der Hardware/Softwareentwicklung wie DLSS bzw. FG um komplexer und teurere Fertigungsprozesse und damit verbundene Wartezeiten bis ein neuer verfügbar ist abzufedern.

Du hast dich einfach kein Stück mit dem Thema beschäftigt. Pure Reaktanz.
Boulettendieb schrieb:
Doch, ich versteh dich, deine Meinung ist FPS vor Optik, und meine ist Optik vor FPS.
Ich verstehe ihn nicht, denn man hat ein ganzes Grafikmenü + DLSS/FSR zur Hand um ein Spiel an seine eigenen Bedürfnisse anzupassen und solche Dinge dann abzuschalten.

Bis Dinge wie PT nicht mehr abschaltbar sind, dauert es eh Ewigkeiten (5 Jahre?!) und solange kann man in der Vergangenheit schwelgen und wenn man nichts neues braucht, gibt es jede Menge alte Perlen die man zocken kann.
Ich sehe das Problem nicht, vielmehr existiert einfach keines.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DNS81, Boulettendieb, MalWiederIch und eine weitere Person
Svennc schrieb:
Weird, Update 3 ist vom April, Update 4 vom Mai, das dürfte eigentlich nicht sein (danach nur nochn Hotfix). Eventuell Bug der Nvidia App? Auch sonst versprechen Machine Games weiter in den Specs ordentliches SPiel auf ner sechs Jahre alten 2060 Super -- und hieltens damals auch ein (auch deshalb, weil der Texturpool in id Tech kein Detailsetting ist, sondern ein Streamingcache, mit meist sehr eingeschränktem Einfluss auf die Bildquali).
Du darfst dabei nicht vergessen, das eine Laptop GPU weitaus nicht so viel Leistung mitbringt wie eine Desktop Graka. Der ganze Gaming Laptop nimmt insgesamt 200 Watt auf. Da muss man leider Abstriche machen.

Auf meinem Gaming PC läuft das Spiel butterweich in 3440x1440p. Allerdings muss ich trotzdem einige Abstriche machen da eine RX 7900XT verbaut ist.
 
habla2k schrieb:
Und wegen sowas braucht man dann ne 5090 oder muss mit DLSS Performance spielen, anstatt mehr FPS bei WQHD zu haben. Irgendwie geht das alles in eine falsche Richtung. Im Spiel sieht das doch niemand, erst recht nicht in Bewegung.

60 FPS bei hohen Details in WQHD ab der XX60er Reihe, das wäre mal ein Ziel.
Habe ich was verpasst und bessere Grafikoptionen werden zur Pflicht? Schalte es doch einfach ab wenn deine Hardware zu schwach ist? :confused_alt:

Immer wieder befremdlich wie hier ein paar wenige ewig gestrige immer direkt versuchen gegen neue Technik versuchen zu schießen - so schwer alles auf Low zu stellen wenn es mit der eigenen, alten Hardware nicht anders geht?

Die Entwicklung was realistischere Grafik angeht hört wegen euch doch nicht auf, Spiele ohne RT sind mittlerweile eher die Ausnahme, auch die Konkurrenz hat das mit der 9000er Reihe erkannt und einen großen Leistungssprung in dem Bereich hingelegt :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DNS81
Nscale schrieb:
Wenn ich in einem Spiel mehr auf die Haare als auf die Welt und die Story achte, dann hat das Spiel wohl keinen guten Inhalt...
Wie gut, dass die Disziplinen in der Spieleentwicklung auf mehrere spezialisierte Bereiche verteilt sind also Grafikdesign, VFX, Storytelling, Movement, Timing, Emotionale Tiefe, Dialoge, Inhalt usw.

Ein Partikelsystem mit physikalischer Tiefe oder ein Charakter mit korrekt beleuchteten, wehenden Haaren der von einem VFX Artist weiterentwickelt wird, hat wenig mit dem restlichen Spiel unnd den Game Designern zu tun.
Nscale schrieb:
Die Entwickler wären gut Beraten sich nicht auf so ein Klein-Klein zu versteifen sondern ein vernünftiges Komplettpaket abzuliefern indem sie die Engine aufräumen bevor sie ihr Werk durch den Compiler jagen.
Warum Klein-Klein? Die Simulation/Beleuchtung der Haare wird ja durch diese Ansätze effizienter, Kollisionsprobleme abgemildert und da ich Haare sowieso für meinen Charakter benötige wird auch der Aufwand nicht größer, nur die Methode ändert sich. Gut, wenn ich das mit statischen meshes vergleiche wird der Aufwand höher ausfallen, aber eine gewisse Animation oder einfache AMS Physik muss man heutzutage dennoch integrieren. Also ist es ja egal.

Ich kann dann die typischen Haarsimulationen moderner Spieleengines mit LSS kombinieren und habe weniger Rechenaufwand.
Nscale schrieb:
Dann klappt das auch wieder mit der Performance und Grafikqualität.
Nö.
Nscale schrieb:
Bester Vergleich für mich bis heute Battlefield 4 und Battlefront 2. Beides Frostbite 2. Das eine musste an allen Ecken gesund gepatched werden, das andere lief bei Launch auf UHD noch auf Midrange Hardware so flüssig, wie es bei Battlefield 4 versprochen wurde. Und das seltsamerweise ohne DLSS, FSR und XeSS, ohne KI und sonstigem Kram.
Und wie genau soll das ein passsender Vergleich zu der Nutzung von Pathtracing mit Linear Swept Spheres sein?:confused_alt:
Nscale schrieb:
Ohne die Technik schlecht reden zu wollen, aber Frame Generation etc. als Fix für Entwicklerversäumnisse heran zu ziehen ist halt mittelfristig der falsche Weg.
Entwicklerversäumnisse sind Resultat von Zeit/Geld, das gab es früher genauso wie heute.
FG/DLSS machen in dem Kontext nichts schlimmer, sondern erlauben wenn überhaupt deutlich mehr Eye Candy und Spiele die es ohne die Techniken in der dargebotenen Form einfach nicht geben würde.
Bright0001 schrieb:
Stimmt schon, hatte aber nie so viel Beachtung gefunden wie Haare, zumindest gefühlt nicht. Zudem hatte Nvidia Gras eigentlich schon vor zehn Jahren "gelöst", aber wirklich Einzug hat das nirgends gehalten.
Naja, Turf Effects waren extrem ressourcenintensiv und hatten zuviel Rechenzeit gezogen .Wenn dort jeder Halm ein 3D Objekt statt eine Textur ist, dann explodiert die Polygonanzahl. Wäre eher was für gebündelte Spheres mit weniger Transparenzproblemen durch Volumen und das ganze dann halbwegs realistisch beleuchtet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, DNS81 und TheInvisible
DrFreaK666 schrieb:
Besser als "Noch immer besser als AMD die gar nix neues bringen und alle Features von Nvidia nachbauen." ist es allemal :D
Das ist ja auch kein Witz sondern wahr, kannst ja gern das Gegenteil beweisen was AMD so neues an Features gebracht hat
 
Mimir schrieb:
Was soll denn "laut Nvidia App" bedeuten?
Die sagte mir nach dem Patch 3 das es nicht mehr gespielt werden kann.
Mimir schrieb:
Die App gibt nur Vorschläge, welche ingame grafiksettings du mit deinem system nutzen könntest (diese Vorschläge können sich auch ändern, Nvidia aktualisiert sie immer wieder mal).
Wenn die Spiele von der App gescannt werden wurden bestimmte Settings gesetzt und mir werden laut Balkenskala angezeigt, welche Einstellungen einen guten Mix für die VRAM Auslastung der RTX 4060 ergaben
Mimir schrieb:
Du kannst auch oben mit dem Regler in der App anpassen, ob du eher mehr FPS oder mehr Bildqualität willst und enthäkst entsprechend Vorschläge.
Das ging Anfangs auch noch, doch mit jedem Graka Treiberupdate ab der Raytracing Optimierungen und nach dem zweiten Patch konnte ich es nicht mehr spielen.
Mimir schrieb:
Praktisch ist die "Optimierung" via Nvidia App sinnlos und eher ein Gimmick. Du kannst auch weiterhin im Grafikmenü des spiels einfach die gleichen Settings nutzen, die du vorher genutzt hast. Das performance sollte dann auch genauso sein, wie zum Release.
Hätte die Nvidia App vielleicht nicht mitinstallieren sollen.
Mimir schrieb:
Und ja, das Spiel ist ein sehr extremer VRAM fresser. Völlig unnötig, weil das andere Spiele deutlich besser hinbekommen. Dass es besser geht, zeigt z.B. Doom The Dark Ages. Selbe Engine (aber neuere Version) und deutlich fähigeres Entwicklerstudio.
Am Anfang war es weitaus weniger VRAM fressend. Wie gesagt kann nur von meinen Laptop Erfahrungen berichten. Ich konnte den Indianer Anfangs auf dem Laptop in 1080p mit mittleren und teils hohen Settings trotz nur 8GB Grafikspeicher ohne Probleme spielen. Alles was danach an Optimierungen kam verschlechterte die Performance.

Aber was willst du auch von einem Gaming Laptop erwarten der maximal 200 Watt insgesamt aufnehmen kann ?

Das hier war übrigend das Gerät.

https://www.amazon.de/dp/B0BV9BZ9VB?psc=1

Ich habe ihn mittlerweile verkauft, weil ich mich über die Kaufentscheidung 3 Monate später geärgert habe. Wie gesagt was will man grafisch erwarten, wenn die Laptop Graka maximal 105 Watt aufnehmen kann ?

Für einen richtig guten Gaming Laptop musste locker noch 1000 bis 1500€ mehr ausgeben. Kommt halt drauf an welche Ansprüche man hat.

Upps eher 3000€ mehr 😳😳😳😱😱😱

https://www.amazon.de/MSI-Crosshair-Gaming-Laptop-Tastatur-D8WGKG-010/dp/B0DWZRYK3T?refinements=p_36:150000-200000&s=computers

 
Zuletzt bearbeitet:
groink19 schrieb:
Ich denke auch nicht, dass das eine Baustelle ist, an der viele Entwickler interessiert sind. Der praktische Nutzen wird für viele Spiele nicht hoch sein, die Kosten für die Physikberechnung dafür umso höher.
Die Nischenspiele, die voll auf Zerstörung setzen, zeigen ja gut auf, wie schnell man ein Spiel zu einer Diashow machen kann (Teardown als Paradebeispiel).
Geht ja nicht Mal um komplette zerstörung sondern partial. Zuletzt zb beim neuen Mafia hat es sich alles angefühlt als wär alles aus Stahlbeton.
Wärs nicht geil wenn man die Wand mit einer Granate einreißen könnte oder sich mit schwerem geschütz durch wände durcharbeiten könnte?
Und sorry, wir haben heute 16kerner, da wird's langsam an der Zeit
Ergänzung ()

Quidproquo77 schrieb:
Und wie genau soll das ein passsender Vergleich zu der Nutzung von Pathtracing mit Linear Swept Spheres sein?
Tja über so neue Technologien kann man hier ja nicht mehr diskutieren, da wird einfach der bashing Hammer ausgepackt und gut ist.
 
Epistolarius schrieb:
Der Unterschied ist, dass AMDs TressFX damals wie heute [...] auf jeder Hardware gut lauffähig sein dürfte - glaub PCGH hatte damals bei Tomb Raider auf allen Karten die gleichen 25% weniger gemessen. Bei "RTX Hair" bezweifle ich das mal, da das Teil deren proprietären "Neural Rendering"-Features ist. Nvidia Hairworks war wenigstens auf allen Karten nutzbar, wenn auch weitaus weniger performant. Ich begrüße es, dass Haare besser gerendert werden, aber das sollte dann auch für jeden Spieler gleich aussehen und nicht hardwareabhängig sein.
Ja, da bin ich auch immer etwas zwiegespalten, wenn eine neue Technik nur auf Hardware einer Firma läuft und ich begrüße es immer, wenn alle Spieler davon gebrauchen machen können, egal von welchem Hersteller die Hardware ist.

In den meisten Fällen sind ähnliche Techniken zu RTX Hair, wie TressFX, Hairworks, Turf und Physikeffekte via GPU-PhysX optionale Effekte, die auf den Konsolen z.B. generell nicht vorhanden sind und das Grundspiel, wenn man es so nennen will, erweitern.
Und da entscheide ich dann für mich, wie wichtig mir diese Effekte sind und ob ich dafür die Hardware wechseln will, das Spiel auf die lange Bank schieben, bis ich entsprechende Hardware habe, oder ob es mir nicht so wichtig ist und ich es ohne diese Effekte / Techniken spiele.

Als Beispiel von meiner Seite, Nvidia HairWorks hat mich überhaupt nicht interessiert, weil für mich der Performance-Nachteil den Effekt nicht wert war.
Für GPU-PhysX in Batman Arkham Asylum, Mafia 2 und einige andere hätte ich mir wohl extra eine Nvidia-Karte besorgt, wenn ich zu dem Zeitpunkt nicht sowieso schon eine gehabt hätte.

Thema Neural Rendering: Dies wird in Zukunft Teil von DirectX, sicherlich auch später allgemeiner Bestandteil von Vulkan. Also stehen die Chancen nicht schlecht, dass mit AMDs nächster Generation Neural Rendering und Cooperative Vectors ebenfalls in Hardware unterstützt werden.
 
Painkiller72 schrieb:
Am Anfang war es weitaus weniger VRAM fressend. Wie gesagt kann nur von meinen Laptop Erfahrungen berichten. Ich konnte den Indianer Anfangs auf dem Laptop in 1080p mit mittleren und teils hohen Settings trotz nur 8GB Grafikspeicher ohne Probleme spielen. Alles was danach an Optimierungen kam verschlechterte die Performance.

Hmm, na gut, ich hab damals mit Max Settings gespielt, musste mit Pathtracing aber die Texturen auf "Hoch" runter setzen, damit die 16 GB nicht voll laufen. Und da hat sich eben vom Release bis zum letzten Patch nichts geändert, Ich hatte immer ca 15,2 GB VRAM Auslastung. Deswegen hat es mich gewundert, dass du von höherem Speicherverbrauch sprichst. Das hätte auch meiner Karte bei den Settigns das "genick" gebrochen. Aber vielleicht ist es abhängig von den Settings die man nutzt.

Painkiller72 schrieb:
Für einen richtig guten Gaming Laptop musste locker noch 1000 bis 1500€ mehr ausgeben. Kommt halt drauf an welche Ansprüche man hat.

Upps eher 3000€ mehr 😳😳😳😱😱😱

https://www.amazon.de/MSI-Crosshair...3T?refinements=p_36:150000-200000&s=computers


Öhm.. ja. Gaming Laptops sind so eine Sache. Extrem teuer, teilweise extrem laut und schlecht gekühlt, im gegensatz zum Desktop natürlich abgespeckte Hardware, selbst wenn sie den gleichen Namen trägt, keine Möglichkeit auf Hardwaretausch.

Würde ich maximal als Zweitgerät neben dem Desktop PC kaufen, wenn es unbedingt sein muss. Aber selbst wenn ich viel auf Reisen wäre, würde ich dann eher ein schlankes und leises Gerät wählen und die fordernden Spiele über cloud streaming spielen - oder zu nem Handheld wie dem Steamdeck greifen.
 
  • Gefällt mir
Reaktionen: guillome und Painkiller72
Epistolarius schrieb:
Glaub PCGH hatte damals bei Tomb Raider auf allen Karten die gleichen 25% weniger gemessen.
Und das nur für die Haardarstellung der Hauptfigur, ziemlich vergleichbar zu Hairworks in Witcher 3 mit genügend Tesselationsleistung oder Faktor 16-32, statt 64.
Epistolarius schrieb:
Bei "RTX Hair" bezweifle ich das mal, da das Teil deren proprietären "Neural Rendering"-Features ist.
Wenn AMD die gleichen Hardwarevoraussetzungen in Zukunft besitzt, sprich dedizierte hardwarebeschleunigte Primitive, dürfte es wie bei Compute Shadern keine großen Unterschiede zwischen AMD und Nvidia geben. Aktuell wird AMD das vermutlich nicht sinnvoll in Verbindung mit Pathtracing ausführen können. Dafür wäre dann UDNA nötig, wie bei einigen anderen Dingen auch.
Epistolarius schrieb:
Nvidia Hairworks war wenigstens auf allen Karten nutzbar, wenn auch weitaus weniger performant.
Ja, weil beide Hersteller damals Tesselation unterstützten, und mit Faktor 16-32 statt 64 kostet es halt auch nicht mehr als Tress FX in Tombraider. Aber durch Unreal Groom was TressFX weit überlegen ist, ist es eh hinfällig, da brauche ich auch keine externen Tools, sondern kann alles in der UE5 simulieren. Openn Source, gut und schön, aber zu aufwändig, deshalb nutzt es auch niemand. Proprietäre Lösungen haben den Vorteil, dass sich jemand drum kümmert und es nicht verschimmeln lässt.
Epistolarius schrieb:
Ich begrüße es, dass Haare besser gerendert werden, aber das sollte dann auch für jeden Spieler gleich aussehen und nicht hardwareabhängig sein.
Naja, Grafik ist immer hardwareabhängig, das war nie anders. Es geht ja um Skalierbarkeit nicht um irgendetwas gleich aussehen zu lassen. Wenn jemand mit einer IGPU spielt, dann sieht das Spiel mangels LoD, Assetttiefe usw. auch anders aus. Dein Wunsch ist schön und gut, aber der Spiele bzw. Hardware Markt könnte sich nur langsam weiterentwickeln und würde jede Dynamik verlieren.

Warum gibt es so viele Forenuser die keinen Fortschritt wollen? Was ist da los?😕
Man kann sich doch nicht für jeden Furz am schwächten System oder an der weniger fortschrittlichen Hardware orientieren nur um der Gleichmacherei willen.
DrFreaK666 schrieb:
Besser als "Noch immer besser als AMD die gar nix neues bringen und alle Features von Nvidia nachbauen." ist es allemal :D
Im Gegensatz zur dir würde ich mich freuen, wenn sich andere IHVs mal mit neuen Dingen in die Entwicklung einbringen würden, damit wir (die Spieler) oder auch Entwickler langfristig was davon haben.
 
Zuletzt bearbeitet:
Zornica schrieb:
also mir wurde damals erzählt, dass man für schöne Haare PhysX braucht
danach kräht irgendwie auch kein Hahn mehr
Warte mal… Die 5000er haben doch kein Physx mehr. Läuft dann Hair Works dann nicht? Brauche ich dann noch ne 2. GPU für die Physx Sachen?
 
TempeltonPeck schrieb:
Es lenkt ab von der Tatsache das der Leistungssprung von Generation zu Generation bei Nvidia immer mehr abnimmt. Insbesondere von RTX 4000 auf 5000.
Wenn man sich nicht nur einen einzigen Generationssprung herauspickt, sondern das über einen längeren Zeitraum (4 Generationen) vergleicht, ist der Leistungszuwachs beim Rasterizing nur wenige Prozentpunkte höher bei AMD.

Gleichzeitig war die Kostensteigerung von RTX 2070 auf 5070 nur 10 Prozent, von RX 5700 XT auf 9070 XT hingegen satte 50 Prozent. Diese Kostensteigerung "eingepreist" steht Nvidia deutlich besser da:

leistungszuwachs.png

Und beim Raytracing hängt AMD immer noch eine Generation zurück, so dass mangels der RT-Kompatibilität nur ein 3-Generationen-Vergleich möglich ist: RTX 2070 -> 4070 und RX 6700 XT -> 9070 XT. Hier ist der Leistungszuwachs auch nur wenige Prozentpunkte höher bei Nvidia (200% Leistungssteigerung gegenüber 175% Leistungssteigerung).

Gleichzeitig war die Kostensteigerung von RTX 2070 auf 4070 nur 20 Prozent, von RX 6700 XT auf 9070 XT hingegen 125 Prozent. Diese Kostensteigerung "eingepreist" verbleibt bei Nvidia eine "Leistungssteigerung pro Dollar" von +150%, bei AMD nur +120%.

TempeltonPeck schrieb:
Die Effizienz kommt auch nicht voran. Da macht AMD größere Fortschritte im Vergleich.
Auch hier betrachtest du nur einen einzigen Generationssprung. Nvidia hatte einen riesigen Effizienzzuwachs von RTX 20x0 zu RTX 30x0 und von RTX 30x0 zu RTX 40x0, AMD hatte bei manchen Generationswechseln höhere und bei manchen Generationswechseln niedrigere Effizienzzuwächse... stark davon abhängig, ob die aktuellste Fertigungsstufe genutzt werden konnte oder nicht.

effizienzzuwachs.png

Langfristig gleichen sich die Effizienzzuwächse von Geforce und Radeon sehr stark an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor und Quidproquo77
Naja mal schauen, ich bin eher auf RTX Sound und RTX Movement gespannt, ich mache jetzt erstmal mein RTX BIOS Update.
 
DrFreaK666 schrieb:
Ich hätte gerne Nägel die realistisch nachwachsen und die man regelmäßig schneiden muss.
Wenn etwas schweres auf ihn fliegt, dann wird er dunkel und fliegt ab :D
Diese Idee bitte von Chris Roberts fernhalten, sonst verlängert sich die Entwicklungszeit von Squadron 42 noch um weitere ein bis zwei Jahre.

Nscale schrieb:
Wenn ich in einem Spiel mehr auf die Haare als auf die Welt und die Story achte, dann hat das Spiel wohl keinen guten Inhalt...
Den guten Inhalt (Welt, Story, Gameplay) haben sie doch bereits abgeliefert.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Ich freue mich auf Vergleichsvideos mit den neuen Treibern.
Befürchte jedoch Titel wie "Die Vorhair Nachhair Show"...
 
Quidproquo77 schrieb:
Naja, Turf Effects waren extrem ressourcenintensiv und hatten zuviel Rechenzeit gezogen .Wenn dort jeder Halm ein 3D Objekt statt eine Textur ist, dann explodiert die Polygonanzahl. Wäre eher was für gebündelte Spheres mit weniger Transparenzproblemen durch Volumen und das ganze dann halbwegs realistisch beleuchtet.
So rechenintensiv kanns nicht gewesen sein, wenns entspannt auf einer 670 in Wildlands lief:


Dazu ist moderne Hardware 10x bis 20x schneller, und der VRAM 8x bis 16x größer - heute kann Performance also nicht das Argument dagegen sein. :D
 
  • Gefällt mir
Reaktionen: Quidproquo77
crustenscharbap schrieb:
Warte mal… Die 5000er haben doch kein Physx mehr. Läuft dann Hair Works dann nicht? Brauche ich dann noch ne 2. GPU für die Physx Sachen?
Nur 32bit physx läuft nicht, das sind >10 Jahre alte Games die man an einer Hand abzählen kann und wo ein Aufstand dafür gemacht wurde...
Ergänzung ()

MalWiederIch schrieb:
Habe ich was verpasst und bessere Grafikoptionen werden zur Pflicht? Schalte es doch einfach ab wenn deine Hardware zu schwach ist? :confused_alt:

Immer wieder befremdlich wie hier ein paar wenige ewig gestrige immer direkt versuchen gegen neue Technik versuchen zu schießen - so schwer alles auf Low zu stellen wenn es mit der eigenen, alten Hardware nicht anders geht?

Die Entwicklung was realistischere Grafik angeht hört wegen euch doch nicht auf, Spiele ohne RT sind mittlerweile eher die Ausnahme, auch die Konkurrenz hat das mit der 9000er Reihe erkannt und einen großen Leistungssprung in dem Bereich hingelegt :rolleyes:
So ist es, man regt sich über ein gratis Feature auf das man nicht benutzen muss. Der PC war immer dafür bekannt bleeding edge zu sein und hier kommt man sich immer öfter wie im Rentnerforum vor.
 
Zuletzt bearbeitet:
Zurück
Oben