Bericht Indiana Jones und der Große Kreis: Nvidia RTX Hair im Test mit Benchmarks und Vergleichen

12nebur27 schrieb:
Ich sagte das Bild. Nicht die Haare. Und dann habe ich in dem lezten Bild die Haare besonders hervorgehoben. Lesen hilft.
Nope, das hast du nicht gesagt:
12nebur27 schrieb:
Also sorry aber im Vergleich zu den Bildern vorher sehen diese in jeder Hinsicht dramatisch viel schlechter aus. Besonders im letzten Bild sehen die Haare wirklich nicht gut aus.
Alzheimer-Vorsorge hilft auch. :p

12nebur27 schrieb:
Der Unterschied ist, dass wie wir ja sehen der eine Ansatz ernsthafte Probleme hat und alles was Raster ist typischerweise nur bei direkter Beleuchtung glänzen kann.
Also für die These, dass das bei RTX Hair anders ist, bräuchten wir einen Vergleich aus Indianer Jones in ähnlicher Beleuchtung, da die Beispiele im Artikel auch alle direkt angeleuchtet sind.
 
Bright0001 schrieb:
Nope, das hast du nicht gesagt
Ich bezog mich zuerst auf die Bilder insgesamt und dann habe ich die Haare im letzten Bild hervorgehoben. Sorry wenn du den satz so nicht lesen kannst aber so ist er gemeint und grammatikalisch müsste das nach allem was ich weiß auch richtig sein. Falls nicht kannste mich ja belehren. Ansonsten würde ich aber sagen wir hören damit auf denn es wird so langsam lächerlich ^^


Bright0001 schrieb:
Also für die These, dass das bei RTX Hair anders ist, bräuchten wir einen Vergleich aus Indianer Jones in ähnlicher Beleuchtung, da die Beispiele im Artikel auch alle direkt angeleuchtet sind.
Es ist be RT und Pathtracing inhärent so. Dafür haben wir doch RTGI. RTX Hair ist jetzt einfach nur eine genauere darstellung davon wo wir auch noch die einzelnen Haare selbst mit einbeziehen. Und der Grund warum wir das machen ist, wie @Taxxor korrekt sagte nicht wegen der Haarw sondern wegen der vielen anderen Dinge worauf wir dies auch noch anwenden können.
Die Haare sind der Anfang. Das ist ja auch mein Hauptkritikpunkt. Ich hätte mir gewümscht, dass sie das auf etwas anderes im ersten Showcase anweden um besser zu erklären wofür das sonst noch alles gut ist, da so die technik sehr leicht unnötig in verruf kommt.
 
Taxxor schrieb:
Und in Indiana Jones reagieren die Haare nun eben realistisch auf Beleuchtung, egal ob in einer Cutscene oder im normalen Spiel.
Bei FF16 hast du immer einen extrem harten Cut was die Beleuchtungsqualität angeht, sobald eine Cutscene vorbei ist
Ich kann die Mehrheitsmeinung im Forum einmal mehr nicht nachvollziehen.
Wie man eine flach beleuchtete, von der Umgebung völlig entkoppelte Haartextur als „besser“ empfinden kann, entzieht sich mir völlig.

Das gleiche Unverständnis herrschte schon bei der HL2 Demo mit RTX Skin auch dort wollte man die Fortschritte nicht sehen. Dabei lösen diese Technologien endlich die fundamentalen Probleme der Lichtinteraktion in Echtzeitgrafik und schaffen den Sprung zu glaubhaftem Fotorealismus.

Man sieht es hier ganz deutlich:
Die Haare des Pfarrers sind links nicht nur feiner, sondern reagieren sichtbar auf die Lichtstimmung im Raum.

Rechts hingegen liegt eine starre Textur auf den Polygonen, ohne jede Rückkopplung zur Szene.
Ich erkenne den Unterschied schon beim Betreten des Raums: Links wirkt organisch, atmosphärisch, rechts bleibt es flach und künstlich. Das Lichtverhalten/Glanz mit irgendwelchen specular oder gloss maps zu approximieren ist veraltet. Dass man den Kauderwelsch auf der rechten Seite schöner findet, muss man wirklich jahrelang von falscher Beleuchtung beeinflusst sein.
RTX Haír.jpg
 
  • Gefällt mir
Reaktionen: groink19, ElliotAlderson, Taxxor und eine weitere Person
Quidproquo77 schrieb:
Ich kann die Mehrheitsmeinung im Forum einmal mehr nicht nachvollziehen.
Ich habe das Gefühl, dass Wut auf Unternehmen im Moment einfach Mode ist. Besonders Nvidia ist da glaub ich ein gutes Ziel. Ich freue mich einfach, dass wir tech Fortschritt haben. Ich erinnere mich noch wie ich auf meinem letzten Mehrtageswanderurlaub mit nem Kollegen höchst erfreut gefeiert habe, dass FSR4 jetzt da ist und wie gut AMDs Fortschritte langfristig für die Spielegrafik sein wird. Warum man sich bei Tech Showcases sich überhaupt Gedanken über das hier und jetzt macht werde ich nie verstehen.
Das hier und jetzt ist völlig irrelevant. Was zählt ist, was daraus in der Zukunft wird und, dass der Weg dahin nicht auf Kosten der Spiele ist (ist selten der Fall weils ja eigentlich immer config Möglichkeiten gibt.
Gute Arbeit übrigens mit dem Vergleichsbild. Zeigt nen schönen Unterschied.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Quidproquo77 schrieb:
Das gleiche Unverständnis herrschte schon bei der HL2 Demo mit RTX Skin auch dort wollte man die Fortschritte nicht sehen.
Die sehen das, aber die wollen ihre alten Kartoffeln nicht upgraden, deshalb wird solange mimimi gemacht, bis Entwickler einknicken und die Grafik nicht mehr pushen, was aber nicht passiert. Man erhofft sich technologischen Stillstand, anders kann ich mir das nicht erklären.
 
Bei stellst Blade gab es eine wunderschöne Hauptfigur mit tollen Haaren und alle haben gemeckert. Manche haben echt keine Probleme…

Ich befürchte bei so einer Technologie wird wieder gemeckert, wenn man es bei Frauen einsetzt.
 
Ostfriese schrieb:
Habe momentan über 50 neue und neuere Spiele installiert und die Vielfalt an Grafik-Einstellungen macht mich madig, denn wirklich nie gefällt mir etwas ABSOLUT besser, als eine alternative Einstellung...

Mir taugt auch vieles von dem Kram nicht.

Ich fahre Games schon lange, soweit möglich nur nativ.

Bloom, Glare, Sonnenstrahlen, Bewegungsunschärfe, Vingnettierung, Chromatic Abberation, DOF, Filmkörnung...alles aus.
DLSS auch aus.
Schatten ca. medium.
Der Rest möglichst hochgedreht mit Schwerpunkt auf Texturen, Details und AA.
Das Ziel ist immer 4K, 120FPS+, jederzeit.
Sollte die Leistung nicht reichen, hohe statt Ultra Settings, nur im Notfall DLSS anmachen.
Nur wenn ich massig Leistung übrig hätte, würde ich RTX anmachen.

Das Problem von Raytracing ist für mich der starke Leistungsbedarf bei nur kleinem Benefit.
Schön, wenn wenn Wasser etwas besser aussieht und Refelxionen realistischer sind.
Aber ich würde dafür niemals die Framerate unter die des Monitors fallen lassen oder Bildschärfe dafür hergeben.

RTX Hair ist ein Witz. Nvidia zweifelt scheinbar an der geistigen Gesundheit seiner Kunden.
 
  • Gefällt mir
Reaktionen: Dittsche
Dittsche schrieb:
Anhang anzeigen 1654565

hier mal Rise of the Tomb Raider (2016) original screenshot von mir. Lief auf 2x RX580 Red Devil im Crossfire. Die Haarsträhnen sind einzeln entsprechend Laras Bewegungen über die Schultern geperlt. Da nutzt bei Indy die beste Beleuchtung nix, wenns maximal wie dünn vs dickes Haar aussieht oder wie mit noch etwas Pomade hinzu. Zusätzlich sind die Haare von Indies Perle komplett steif, die sollte entsprechend der Länge sanft und gedämpft mitwippen, wenn sie den Kopf dreht.

Absolut ! Das was AMD vor 10 Jahren schon gezeigt hat sah besser aus als diese Nvidia Kopie.
 
  • Gefällt mir
Reaktionen: Celinna, einJojo und Dittsche
Quidproquo77 schrieb:
Man sieht es hier ganz deutlich:
Die Haare des Pfarrers sind links nicht nur feiner, sondern reagieren sichtbar auf die Lichtstimmung im Raum.
Auf dem Bild ist das dann auch mal wirklich so! Bei vielen Bildern, auch die ich hier gepostet habe, ist das dann allerdings, warum auch immer, anders herum. Da sieht RTX off "feiner" etc auf.
 
Wenn es wenigstens mehr Performance bringen würde dann könnte man sagen nur für die blöden Haare lohnt sich das zu aktivieren, aber es kostet Performance und sieht dazu auch noch schlechter aus.

Bei Witcher 3 habe ich auch immer die verbesserte Haaroption für bessere Performance deaktiviert, fällt einem sowieso nicht wirklich auf, aber hier schon nur ungewollt im negativem Sinne.^^
 
hab das game mal rausgeholt wegen dem dlc und alles in den einstellungen hochgeknallt (gibt es zwei neue grafikkeinstellungen?).
für das hair gedöns braucht man volles raytracing, wo schon mal bei 16gb vram ne speicherwarnung kommt:)

läuft trotzdem 1a bei ca. 15-16gb vraum verbrauch. mal gucken wie sich das nach paar stunden zocken entwickelt.
das haar hat schon seine momente. nur sieht man es kaum, da entweder first person ansicht oder hut auf.

werde jetzt das dlc durchspielen und lasse alles aktiviert. auf meinen system habe ich so round about 100fps (2xfg) und das reicht mir aus für ein flüssiges spielerlebnis.

grüße
 
Pisaro schrieb:
Auf dem Bild ist das dann auch mal wirklich so! Bei vielen Bildern, auch die ich hier gepostet habe, ist das dann allerdings, warum auch immer, anders herum.
Ja, aber das liegt nicht an der Technik selbst, sondern vielmehr an der spezifischen Lichtsetzung genau an jener Stelle, an der das Video angehalten wurde.

Wenn ich mit einem Confirmation Bias an eine Szene herangehe, suche ich mir unbewusst genau die Elemente heraus, die meine vorgefasste Meinung bestätigen. Dabei neigt man dazu, oberflächlich zu urteilen und sich auf vermeintlich irrelevante Details zu konzentrieren, etwa darauf, ob die Haartextur Spielfreude erzeugt bzw. das Spiel inhaltlich aufwertet oder nicht. Das lenkt vom eigentlichen Kontext ab und verengt den Blick auf das Wesentliche.

Ein ähnliches Phänomen wurde bereits im letzten Jahr beim Indiana Jones PT Test beobachtet.
Auch dort zeigte sich exemplarisch, wie stark subjektive Erwartungshaltungen, Gewohnheiten die Wahrnehmung und Bewertung beeinflussen können, völlig unabhängig von der tatsächlichen technischen Umsetzung und der Darstellungsqualität.
shoKuu schrieb:
Mir gefällt fast durchgehend das normale Bild besser. Völlig absurd, wenn man bedenkt was für Nachteile Raytracing, Forced TAA und DLSS mit sich bringen. Dabei reden wir noch nicht mal von dem Performance unterschied.
Das ist zwar eine Meinungsäußerung die man jemandem nicht absprechen kann, denn subjektive Wahrnehmung bleibt ja ein zentraler Bestandteil jeder visuellen Erfahrung.
Aber gerade solche Dinge wie RT/PT oder realistische Haardarstellungen kann man mathematisch und technisch quantifizieren. Wichtig wäre halt zwischen persönlicher Meinung und und messbarer Qualität zu unterscheiden.

Ich kann auch eine texturbasierte Grasfläche mit lightmaps, normal maps oder vertex lighting, SSAO usw. halbwegs glaubwürdig hinfaken, aber im direkten Vergleich ist es eben nicht konkurrenzfähig.
Nun kann halt jeder Grashalm mit einem Volumenkörper geformt werden und die Strahlen werden absorbiert und korrekt gestreut, was halt vor dem LSS Update mittels RT/PT bei weitem nicht so effizient möglich war.
Und bei den Haaren/Gras/Äste brauch ich tausend oder millionen Dreiecke, während man mit LSS nur Punkte und Radien hat, theoretisch x mal dieselben Radien. Ray traversal und intersection Tests arbeiten dadurch viel schneller.
Polygonblöcke.jpg


Weiteres Beispiel: Der Schattenwurf ist in der früheren Darstellung grob und blockig, da die Polygonstruktur evtl. auch mit alpha texturen aufgehübscht, nicht fein genug war und jetzt hat man effiziente RT Schatten+ bessere Haare + die tiefere volumetrische Beleuchtung derer, weil das PT Sonnenlicht vorher ja nur äußere Polygone traf. Keine Streuung innerhalb der Haare/Strähnen, keine organische Tiefe. Jetzt hat man das halt alles zusammen.

Die ganzen Hinweise auf TressFX was ja auf einer polygonalen Darstellung basiert würde hier halt einfach nicht greifen mit PT/RT, auch keine Lichtdurchlässigkeit und man hätte noch mehr Performanceprobleme mit der Beleuchtung. Deswegen ist der Vergleich auch unpassend.
IBISXI schrieb:
RTX Hair ist ein Witz. Nvidia zweifelt scheinbar an der geistigen Gesundheit seiner Kunden.
Ist halt einfach schade sowas immer in einem Techforum lesen zu müssen. Könnte man sich auch einfach mal verkneifen. DLSS ausschalten, Native Auflösung fahren, Schatten medium, naja ich weiß nicht ob du wirklich weißt was du da tust.
IBISXI schrieb:
Das Problem von Raytracing ist für mich der starke Leistungsbedarf bei nur kleinem Benefit.
Das haust du mal eben so heraus und butterst aber gleichzeitig extrem viel deiner GPU Leistung in eine native Auflösung, obwohl DLSS Performance, fast doppelt so flott läuft und besser aussieht. 😕
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson und groink19
Und ich kann diese Meinung nicht verstehen:
Quidproquo77 schrieb:
Ich Dabei lösen diese Technologien endlich die fundamentalen Probleme der Lichtinteraktion in Echtzeitgrafik und schaffen den Sprung zu glaubhaftem Fotorealismus.
Anhang anzeigen 1654603
Ich will gar keinen Fotorealismus! Wie irgendwas in Computerspielen "glaubhaft" sein soll hab ich sowieso noch nie kapiert.
Ich will SPASS haben. Den habe ich gerade weil es NICHT realistisch ist was ich in Spielen tue und sehe.

Klar soll es ästhetisch toll sein. Aber dafür braucht man keinen Fotorealismus.
Technik ausreiten. Gerne. Neue Technik her. Gerne.
Aber was mit Dir und anderen Gamer passiert ist, verstehe ich nicht. Selbst mit Developern. So oft in so vielen Industrien wird vergessen, worum es eigentlich geht und damit irgendwo irgendwelche Verkaufszählen weiter laufen können, redet man sich und anderen ein, dass ein HILFSMITTEL zum eigentlichen Zweck wird.

Silksong ist deshalb sehr erfolgreich weil es eine tolle Ästhetik und ein in seiner anvisierten Spielmechanik tollen Spass bietet.

Davon will ich mehr!
Wenn Grafikenthusiasten sich über Grafik begeistert auslassen, ist das auch OK. Aber bitte ein bisschen mehr Einordnung! Ein Hauch Selbst-Kritik und Verständnis dass Grafik nur eines von vielen Mitteln ist um Spaß in Spielen zu bieten.

Ich finde es OK wenn man sich diese Mechanik voll drauf schmeißt und sagt "mir ist Grafik am wichtigsten". Aber dann irgendwann aufzuwachen und sich zu wundern dass da draussen Mio von Gamern diese Detailstiefe nichtmal verstehen, geschweige denn brauchen... ist dann weltfremd. Aber genau das wird natürlich von Nvidia, Epic und anderen stark gepusht weil die damit Kohle machen. Was ja auch OK ist.

Aber das ändert nix daran dass viele Gamer sich wirklich nicht dermassen für Grafikdetails interessieren. Logisch! Es geht um Spielspaß. Und der braucht gar keinen möglichst grossen Realismus.

Mit einer anderen Attitüde wär der Artikel und dieses Tech-Bonbon gut geworden. Mehr Selbst-Kritik und sogar Selbst-Ironie. Nach aussen zeigen, dass man weiss dass es hier um das optimieren einer völlig unwichtigen Detailsgrafik geht. Sich selber etwas auf die Schippe nehmen, aber trotzdem auch zeigen, dass man sich viel Mühe gegeben hat, weil man selber SPASS dran hat.

Der Artikel, die Quelle beim Entwickler, diese Diskussion ... das ist so unfassbar ernst. Da fehlt ein gehöriges Mass an Selbst-Einordnung. Und das macht es ehrlich gesagt schon etwas gruselig.
 
  • Gefällt mir
Reaktionen: Celinna, muvmend, thom_cat und eine weitere Person
Ich finde wir sind seit Jahren schon auf einem Hardware level wo wir einfach nur noch auf der Stelle treten.
Ich finde auch das die Hardware nicht das Problem ist, man schaue sich die Diskussion hier um Haare an. Man muss wirklich Standbilder analysieren und sich um Unterschiede streiten.

In meinen Augen liegt das Problem das Game Developer Studios zuviel Macht an die Finance und Marketing und andere Abteilungen abgetreten haben. Menschen mit beschränkten technischen Verständnis entscheiden wie wenig Zeit noch für die Entwicklung bleibt, das Spiel muss in 4 Monaten bereit sein.
Marketing will politische Interessen vertreten haben um ihre speziellen Kampagnen durchzuziehen.

Die Hardware ist nicht das Problem. Darum sind auch viele Indie Spiele so erfolgreich die kaum Hardware Anforderungen haben, man schaue sich Path of Exile an.
 
  • Gefällt mir
Reaktionen: Celinna
Quidproquo77 schrieb:
Man sieht es hier ganz deutlich:
Die Haare des Pfarrers sind links nicht nur feiner, sondern reagieren sichtbar auf die Lichtstimmung im Raum.

Natürlich ist es "realistischer", wie hier Licht simuliert wird, heißt Fortschritt. Ich würde interessehalber aber trotzdem mal gerne ne Umfrage sehen der Marke: "100 Leute auffer Straße hamwer gefragt: Welche dieser Szenen ist mit Hairbehandlung und welche ohne?" Das nicht als "Kritik" per se. Ich fänds wirklich spannend. Und vermute eine eher mäßige Trefferquote -- so ca. Hamburger SV. : D

Weil je nach Szene selbst die "falsche" Beleuchtung "komplexer" aussehen kann, hatte ich auch schon. :D Und weil man solche Details auch in der Realität nicht zwingend beachtet -- kommt zum Beispiel auch nicht oft vor, dass ich mich via WASD im Badezimmer bis'n Milimeter vor die Wand bewege, um zu sehen, ob die Texturen noch pixeln. :D Auffalender wäre es, wenn irgendwas grundsätzlich nicht im Bild stimmt. Grundsätzlich sieht auch Indiana Jones einfach wie ein Computer-Animationsfilm aus. Von Fotorealismus ist man da noch weit weg.

Wenn man mal mehr, mal weniger realistischere Haare über echte Schauspieler legen würde, wärs vielleicht "störender". Man würde sofort sehen: "Das sieht irgendwie künstlich aus." Wobei das m.E. bei beiden Versionen der Fall wäre. Einmal mit und einmal ohne RTX. Weil: "Computer-Animationsfilmniveau". Wenn man sich die ersten animierten Kinofilme wie Final Fantasy anschaut, ist man natürlich schon ne Ecke weiter. Und das war ja nicht mal Echtzeit, sondern vorgerendert, Spielfilm halt. Damals hat das die Leute aus den Socken gehauen, wie echt die Figuren seien.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
IBISXI schrieb:
Das Ziel ist immer 4K...
IBISXI schrieb:
Das Problem von Raytracing ist für mich der starke Leistungsbedarf bei nur kleinem Benefit.
4K frisst auch extrem viel Leistung ;)

Reisegewohnheit schrieb:
Ich finde wir sind seit Jahren schon auf einem Hardware level wo wir einfach nur noch auf der Stelle treten.
Ich finde auch das die Hardware nicht das Problem ist, man schaue sich die Diskussion hier um Haare an. Man muss wirklich Standbilder analysieren und sich um Unterschiede streiten.
Naja, weil wir uns auch schon auf einem hohen Niveau befinden. Das kannst du nicht mehr verdoppeln, sondern näherst dich mit im kleiner werdenden Schritten dem Maximum an. Möchtest du Stillstand oder was ist dein Punkt?

Texturen sind heute idR. bei 4K. Den Unterschied zu 8K nimmst du bei vielen Objekten nur aus der Nähe wahr, sollen wir also jetzt bei 4K bleiben, selbst wenn 8K möglich ist? Was ist das für ein Argument? :D

RTX Hair ist ein optionales Feature. Wenn ihrs nicht nutzen wollt, lasst es halt aus, aber deshalb muss man sich doch nicht dagegen wehren?! Ist doch schön, dass es drin ist und von Leuten genutzt werden kann, die es wertzuschätzen wissen.

Reisegewohnheit schrieb:
In meinen Augen liegt das Problem das Game Developer Studios zuviel Macht an die Finance und Marketing und andere Abteilungen abgetreten haben. Menschen mit beschränkten technischen Verständnis entscheiden wie wenig Zeit noch für die Entwicklung bleibt, das Spiel muss in 4 Monaten bereit sein.
Marketing will politische Interessen vertreten haben um ihre speziellen Kampagnen durchzuziehen.
Die Entwicklung von Spielen dauert mehrere Jahre und nicht nur 4 Monate. Zur PS1 Ära hat man mit einem kleinen Team ein paar Wochen an einem Spiel gesessen, heute sind es tausende Menschen die mehrere Jahre daran werkeln. Vielen scheint hier gar nicht bewusst, wie Komplex das ganze ist.

Reisegewohnheit schrieb:
Die Hardware ist nicht das Problem. Darum sind auch viele Indie Spiele so erfolgreich die kaum Hardware Anforderungen haben, man schaue sich Path of Exile an.
PoE als Beispiel zu nehmen, dass die HW reicht ist auch harter Tobak. Dein Beispiel hatte nie den Anspruch maximale Grafik zu liefern.

Booth schrieb:
Ich will gar keinen Fotorealismus! Wie irgendwas in Computerspielen "glaubhaft" sein soll hab ich sowieso noch nie kapiert.
Warum ist das dann dein Hobby? Seit Anbeginn der 3D Grafik, war dass das Ziel auf das man hingearbeitet hat. Jedes Jahr wurde die Hardware potenter und die Grafik besser, aber heute wehren sich auf einmal etliche dagegen, die es früher begrüßt und genutzt haben. Woher auf einmal dieser Sinneswandel?

Crysis wurde nur schon wegen der Grafik und des Fortschritts so gehypet und jetzt haben wir RT und man wehrt sich dagegen. Ergibt für mich keinen Sinn, außer es liegt nicht am Fortschritt/der Grafik, sondern an was anderem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
ElliotAlderson schrieb:
Naja, weil wir uns auch schon auf einem hohen Niveau befinden. Das kannst du nicht mehr verdoppeln, sondern näherst dich mit im kleiner werdenden Schritten dem Maximum an. Möchtest du Stillstand oder was ist dein Punkt?
Also wenn ich einen Zauberstab hätte würde ich mir kleinere, sparsamere gpus wünschen die nicht zu viel Kühlung brauchen.
Ich arbeite selbst in einem E-Commerce Unternehmen und auch wir haben sehr wenig On-Prem und haben ansonsten sehr viele Virtuelle Maschinen bei Azure oder AWS. Ich glaube wirklich irgendwann ist 99% in der Cloud, vorallem wenn man viel Leistung braucht.
ElliotAlderson schrieb:
Die Entwicklung von Spielen dauert mehrere Jahre und nicht nur 4 Monate. Zur PS1 Ära hat man mit einem kleinen Team ein paar Wochen an einem Spiel gesessen, heute sind es tausende Menschen die mehrere Jahre daran werkeln. Vielen scheint hier gar nicht bewusst, wie Komplex das ganze ist.
Das ist mir klar. Doch habe ich den Eindruck das die IT oft noch gerne paar mehr Sprints machen würde um noch Sachen zu implementieren oder um einfach nur die essentiellen Anforderungen zu erfüllen.
Doch dann kommt Finance und sagt: In 4 Monaten ist Release wir werden nichts verschieben.
Und was dann passiert ist das den Entwicklern klar wird das in 4 Monaten das Produkt nicht Produktionsreif ist, und dann werden die letzen Sprints dafür verwendet irgendwie ein fertiges Produkt zu haben, und oft werden dann viele „Halbfertige Sachen“ gestrichen und man hat super viel Arbeit „weggeschmissen“. Ein Areal war halb fertig und wird nun gestrichen, die Hauptstory muss verändert werden, es muss irgendwie fertig werden.
 
ElliotAlderson schrieb:
4K frisst auch extrem viel Leistung ;)

Warum ist das dann dein Hobby?
Ich hatte es explizit mehrfach geschrieben. Unfassbar, dass Du das nicht verstanden hast. Zumal es das ESSENTIELLE Motivationsprinzip vom SPIELEN ist.
ElliotAlderson schrieb:
Seit Anbeginn der 3D Grafik, war dass das Ziel auf das man hingearbeitet hat
Computerspiele ungleich 3D Grafik.
Da liegt Dein Fehler. Du verstehst offenbar gar nicht, dass 3D Grafik EIN (!!!!) Hilfmittel für ComputerSPIELE sind. Auch das hatte ich geschrieben.

ElliotAlderson schrieb:
aber heute wehren sich auf einmal etliche dagegen
Quatsch - niemand "wehrt" sich, aber wir weisen darauf hin, dass es nur EIN (!!!!!!!) Hilfsmittel ist, um das Hauptziel von Computerspielen zu erreichen.

Falls Du es immer noch nicht verstanden hast, welches das Hauptziel von (Computer-)Spielen ist:
SPASS!
Ja wirklich. Freude. Spass. Fun. Schöner Zeitvertreib.
Wenn man zusätzlich noch was lernen kann, und dabei dann noch Spass hat... wunderbar.

Und nun ein krasser Spoiler für Dich:
Es gibt sogar 2D-Spiele. Ja wirklich. Ich weiss. Der totale Irrsinn. Wie kann man nur. Wo es doch 3D-Spiele gibt! Aber stell Dir vor... es gab schon jahrelang Computerspiele bevor es überhaupt die ersten 3D-Spiele gab. Ich weiss. Unfassbar.

Was wirklich gruselig bei Dir ist, wie sehr Du versuchst, Deine Ernsthaftigkeit umzudrehen und anderen zu unterstellen.
Wir sind nicht GEGEN bessere, schönere Grafik. Aber wir sind dagegen, dies zur wichtigsten Maxime zu machen - so wie Du das zu tun scheinst. Und das ist aus mehreren Gründen unfassbar traurig.

Komm wieder runter. Akzeptiere, dass man Spass ohne Wahnsinns-Grafik haben kann. Tolle Grafik toll zu finden, ist nichts Schlechtes. Dass Du Dich dafür begeisterst ist wirklich toll. Das Du anderen aber Deine Begeisterung soweit einreden willst, dass Du ihnen quasi ne Art Feindlichkeit gegenüber Grafik zuweisen möchtest, nur weil die sagen "ey - so wichtig ist (mir/uns) das echt nicht - ich erkenne hier nichtmal große Unterschiede" ... das ist einfach nicht richtig.

Und wie schon andere darauf hingewiesen haben. Es gibt ANDERE Bereiche in Computerspielen, die wichtiger sind. Spielmechanik(en). Story. Atmosphäre. Umfang. Und noch so einiges.
Was zum Beispiel in Cyberpunk an Entwicklung in Grafik-Gedöns investiert wurde, hätte ich viel lieber in mehr Sidequests investiert gesehen. Dafür, dass die Stadt so riesig ist, gibts da leider wenig zu tun und es gibt nur wenig Sidequests. Ich hätte gern zig mal mehr Sidequests dort gesehen, um noch viel mehr von der Welt zu erleben. Mehr über die Konzerne kennenlernen. Mehr über den Struggle "normaler NPCs" kennenlernen. Mehr über die Banden kennenlernen.
Dasselbe sehen viele im Indy Spiel.

Schönere Haare macht eine Story-intensive Welt nicht intensiver. Wirklich nicht. Tut mir leid, wenn Du das ungerne liest. Aber diese Haare sind für Euch Grafik-Enthusiasten ein toller Spass. Das kann man respektieren. Aber: Das Spiel selber wird dadurch aber kein bißchen besser. Und damit scheinst Du so Deine Probleme zu haben, das zu verstehen.
Schade. Wirklich.
 
  • Gefällt mir
Reaktionen: Melmoth
Ich muss zugeben, dass für mich einige Sequenzen aussehen, als wäre das Haar sehr dünn und in anderen sieht es fettig, dick aus.
Wenn man es nicht etwas übertreibt mit den dünnen Haaren, sieht man den Unterschied vermutlich noch weniger.
Als jemand, der mit einem N64 aufgewachsen ist, ist es natürlich toll, dass die Haarphysik noch besser wird. Aufgefallen sind mir in dem video aber eher die Zähne ^^
 
Zurück
Oben