• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Doom: The Dark Ages im Test: Benchmarks mit 25 Grafik­kar­ten und zwei Überraschungen

@AYAlf In Keystores ab 44€ zu haben. In einem Monat dann für max. 35 € ;)

Ausreden über Ausreden. 😂
 
  • Gefällt mir
Reaktionen: LBB
ThirdLife schrieb:
Selbst mit teurem Kühlsystem ist VRAM drecksbillig. Die Karte wird total keine 800$ in der Fertigung kosten und wurde hier für 2200€+ in den Markt gedrückt. Das ist absurd.
Absurd ist deine Rechnung. Fertigungskosten sind nur ein Teil, neben vielen weiteren Kosten.
 
ElliotAlderson schrieb:
Dabei wurde die id Tech Engine immer so gelobt, weil sie so optimiert und performant ist :freak:
Ist sie doch ! Ansonsten würde doch nie und nimmer eine 9070XT vor der RTX 5080 landen ;)
 

Anhänge

  • Bench Doom.jpg
    Bench Doom.jpg
    235,2 KB · Aufrufe: 74
HerrRossi schrieb:
Oder man kritisiert die Spielehersteller einfach mal, dass sie total unoptimierten Scheiß auf den Markt bringen und sich auf immer mehr Rechenleistung der Grafikkarten und immer mehr "AI"-Tricksereien verlassen.
Oder man kritisiert die Poster hier im Forum, die scheinbar überhaupt keine Ahnung von dem haben, wovon sie da eigentlich philosophieren...
 
  • Gefällt mir
Reaktionen: Samuelz
Loopman schrieb:
Absurd ist deine Rechnung. Fertigungskosten sind nur ein Teil, neben vielen weiteren Kosten.
Mach ne bessere auf. "Mimimi, das ist doof" ist eher wenig Gehaltvoll.
 
  • Gefällt mir
Reaktionen: Samuelz, Alphanerd und SweetOhm
Mrbrill schrieb:
Es gibt Doom TDA bei verschiedenen Händlern mit dazu, wenn man eine nvidia RTX 50xx Karte kauft.
Da zahle ich lieber 100 € für das Game OHNE 50xx Karte ! :cool_alt:
Ergänzung ()

ElliotAlderson schrieb:
Abgesehen davon haben AMD User gar kein Reflex.
Weil sie auch keines brauchen/wollen ! Dafür mehr Geld für den Urlaub (Real Life) ... ;)
Ergänzung ()

Taxxor schrieb:
Man hat als Spieler also die freie Auswahl, mehr FPS bei etwas niedrigerer Latenz oder gleiche FPS bei viel niedrigerer Latenz.
Das berüchtigte „mehr FPS bei höherer Latenz“ gibts nur, wenn man es nicht vom Ausgangszustand aus vergleicht und der ist nun mal weder FG noch Reflex aktiv
Und wenn die FPS nicht reichen und schaltet MFG hinzu, erhöht sich die Latenz und Grund FPS werden weniger ... :freak: (siehe Anhang)
Ergänzung ()

ElliotAlderson schrieb:
aber FG "verdoppelt" die Bildrate ohne die Latenz signifikant zu verschlechtern.
Tut sie (siehe Anhang).
 

Anhänge

  • MFG Latenz.png
    MFG Latenz.png
    610 KB · Aufrufe: 73
Zuletzt bearbeitet:
ThirdLife schrieb:
@AYAlf In Keystores ab 44€ zu haben.
„This is not a key. The game will be gifted to you via the Battle.net system. You will need to provide your BattleTag in order to receive this product.“

Also eventuell mit gestohlenen Kreditkarten gekauft und dann verschenkt. Solche Keys kann man entzogen bekommen. Das wäre mir zu unsicher.
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
und User wie du haben einfach realitätsfremde Ansprüche, die physikalisch nicht erfüllbar sind? Kann das vielleicht sein? ;)
Eher kann sein, dass Du mit Deiner Exklusiv Meinung der Minderheit angehörst ;)
ElliotAlderson schrieb:
Wenn man KI/Datacenter rausnimmt, trifft das nicht zu, also nein.
Doch ! Einfach die Scheuklappen weiter öffnen und Berichte/NEWS im Internet dazu lesen.
Ja ich weiß, alles "Cherry/Fake" ... :freaky:
Ergänzung ()

Czk666 schrieb:
Bist du gut drauf? 1. Sorry, ich dachte du meinst es gibt von AMD allgemein keine Alternative und nicht auf das Spiel bezogen.
Hab es auch genau so gelesen/verstanden (wie es ja auch geschrieben war).
Aber er "versteht" auch alles anders, wie geschrieben/gemeint wurde. :lol:
 
Zuletzt bearbeitet:
HerrRossi schrieb:
Komischerweise kann man es für die Konsolen aber so hinbekommen, dass es flüssig läuft und hübsch aussieht. Beim PC braucht man dann schon mindestens die 500 EUR Grafikkarte...

Kann man nicht verallgemeinern.

Bin mal gespannt, ob Digital Foundry hier wieder vergleichen. Indiana Jones läuft selbst z.B. auf der PS5 Pro u.a. mit einer einfacheren globalen Beleuchtung, als man es mit dem Setting am PC auf "low" hinbekommt, die globale Beleuchtung wurde nämlich von der Xbox übernommen. Ich finde deren Ansatz sowieso oft spannender als einen reinen Benchmark: Welche Specs reichen, um etwa in Konsolenqualität zu zocken bzw. sind die Minimumspecs am PC mit dem Basis-PS5-Erlebnis vergleichbar? Ein kompletter PC als reines Spielgerät wird IMMER teurer sein als eine Konsole. Trotzdem immer sehr interessant.




Indy kann man auf einer 3060 oder 4060 zuminest in 1080p spielen, ohne Upscaler hinzuzuschalten und alles auf low zu stellen. (Mit geht auch 1440p). Der Schlüssel ist hier, wie oft erwähnt, die richtige Texturpool-Einstellung (ein STREAMINGCACHE, der grundsätzlich auch auf niedrigen Einstellungen die bestmöglichen Texturen anzeigt, bloß nicht durchgehend -- der Mehrwert ab "high", dem drittniedrigsten Setting, wird zunehmend magerer). Zum Glück haben Machine Games dieses Setting auf Steam Deck gelockt mit einem eigenen Steam-Deck-Setting, k.A. warum man das überhaupt tweaken kann statt eine Autoerkennung einzubauen. Da gibts nur Probleme, wie man hier auch bei CB sieht mit unter 25 fps (!) Lows auf einer RTX 3080, 1080p, Jesus. Und im späteren Spielverlauf: Crashes.



Pathtracing ist was anderes -- aber das ist ja zu erwarten. :D
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Mach ne bessere auf
Addiere einfach zusätzlich noch die folgenden Dinge: Entwicklung, Marketing, Gehälter, Mieten, Energie, Steuern, etc.

Und dann hast du in etwa die Gesamtkosten, von denen du dann die Marge bestimmen kannst.

Oh, wait? Du kennst die Werte oben alle nicht? Das ist natürlich blöd - vor allem wenn man dann über die Preise und das "gierige" NV in irgendwelchen Foren poltert.
Hauptsache man hat erst mal Stammtischmäßig seinen unqualifizierten Mumpitz losgelassen.
Ergänzung ()

RAZORLIGHT schrieb:
Dazu noch die katastrophalen Treiber der letzten Zeit die sicher auf von KI geschrieben wurden.
So Aussagen kann man sich kaum ausdenken 😂

SweetOhm schrieb:
Da zahle ich lieber 100 € für das Game OHNE 50xx Karte
Hauptsache die eigenen Feindbilder kommen einem nicht abhanden 😁

SweetOhm schrieb:
Weil sie auch keines brauchen/wollen ! Dafür mehr Geld für den Urlaub (Real Life) ..
Hmm, ich habe genügend für neue Hardware UND Urlaub - muss weder beim einen, noch anderen sparen. Und nu?

SweetOhm schrieb:
Falsches Spiel 😉

SweetOhm schrieb:
Eher kann sein, dass Du mit Deiner Exklusiv Meinung der Minderheit angehörst
Weder exklusiv aber vielleicht die Minderheit, ja.

Aber wenn die Geschichte uns eins gelehrt hat: Die Mehrheit hat nicht immer recht ☝️

Gerade bei so Themen, wo der Stammtischlevel extrem hoch ist und die "Mehrheit" eigentlich keine wirkliche Ahnung hat, wovon sie spricht.
Trotz Technikforum ist die Mehrheit hier nämlich leider in vielen Dingen im absoluten Blindflug unterwegs.

SweetOhm schrieb:
Ja ich weiß, alles "Cherry/Fake" ...
Wenn du es weißt, wieso postest du dann weiterhin Falschinformationen? 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
Loopman schrieb:
Aber wenn die Geschichte uns eins gelehrt hat: Die Mehrheit hat nicht immer recht ☝️
Yup, sieht man immer bei der tollen Steam GPU Anteilsliste :daumen:
 
@SweetOhm Ich will jetzt nicht unken, aber: Die meisten Games kann man durchaus zocken mit den aktuellen Steam-Darlings, siehe Indiana Jones oben. Und das zu einem Bruchteil des Investments in aktuelle Midrange-GPUs. Zumindest in der aktuellen Situation wäre es eine Diskussion wert, wer hier cleverer agiert: die Masse. Oder der Enthusiast. :D

Ich meine: Wir sind halt nahe am Ende einer aktuellen Konsolen-Generation. Deren Hardware matcht man entsprechend auch in etwa mit aktueller Einstiegs-PC-Hardware. Und PC-Exclusives sind nach dem Heldentod von Wing Commander und Co. noch bedrohter als 8GB VRAM. Bin schon gespannt, wie die PS6 überhaupt aussehen wird -- der Chipmarkt hinterlässt auch hier seine Spuren. Siehe Preis der PS5 Pro, keinerlei substanzielle Preissenkungen mehr für die PS5 -- PreisERHÖHUNGEN neulich für die Xboxen -- und eine Switch 2 für 500 Tacken...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
SweetOhm schrieb:
Und wenn die FPS nicht reichen und schaltet MFG hinzu, erhöht sich die Latenz und Grund FPS werden weniger ... :freak: (siehe Anhang)
Nein, das ist doch genau das was ich geschrieben habe. In deinem Anhang wird mit Reflex On auch ohne FG verglichen.
Im Vergleich zu alles Aus sinkt aber die Latenz und die Bildrate steigt
Ergänzung ()

SweetOhm schrieb:
Tut sie (siehe Anhang).
Im oberen Fall hätte man ohne FG und ohne Reflex 78 FPS bei ~50-55ms.

Im unteren Fall wird FG dann zusätzlich noch dadurch limitiert, dass man ein 120FPS Limit gesetzt hat.
Natürlich ist es nicht gut für die Latenz wenn sich die Grund FPS dadurch von 120 auf 30 verringern.
Das ist ein Sonderfall in dem es nur ums Stromsparen geht. Ohne das Limit würden sie aber Richtung 360+ gehen mit Grund FPS von 80+ und die Latenz wäre niedriger als bei 120FPS OHNE Reflex
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und ElliotAlderson
DJMadMax schrieb:
@Wolfgang
Hat sich das Titelbild auf der Startseite wie von Zauberhand geändert? Das war doch vorher nicht so eine grelle Explosion, oder?! Ich frag nur, weil ich sonst an meinem Verstand zweifle :D
Keine Sorge, Jan hat den teaser geändert - ich vermute mal, meiner war ihm zu dunkel, jetzt gibts das krasse Gegenteil :D
HerrRossi schrieb:
Warum steht der Thread eigentlich unter "Foren - Betriebssysteme - macOS und Mac-Apps"?
Das ist eine gute Frage...das sollte so natürlich nicht sein.
 
  • Gefällt mir
Reaktionen: SweetOhm und DJMadMax
Taxxor schrieb:
Nein, das ist doch genau das was ich geschrieben habe. In deinem Anhang wird mit Reflex On auch ohne FG verglichen.
Im Vergleich zu alles Aus sinkt aber die Latenz und die Bildrate steigt

Zum einen das.
Zum anderen, vergleiche mal die Latenzen von AMD und Nvidia,

Die 5070ti hat bei 2xFG mit 106 FPS (53 FPS als basis) BESSERE Latenzen als die 9070 XT OHNE Frame gen bei 73 FPS.

Und das obwohl die 5070ti selbst ohne FG schon 11% langsamer als die 9070 XT ist und mit aktivier FG weiter performance verliert (FG kostet ja Leistung) und die Latenzen erhöht werden. Und trotzdem hat die langsamere Nvidia Karte am Ende mit FG die besseren Latenzen, als die schnellere AMD Karte ohne FG.

Würde man zwei in diesem Spiel gleich schnelle Karten vergleichen, wäre der Vorteil für Nvidia noch größer.

Leute die wegen der Latenz FG nicht nutzen wollen kann man bei diesen Daten einfach nicht mehr ernst nehmen. Es ist ja richtig, dass mit Reflex ohne FG nochmals bessere Latenzen möglich sind, da wird AMD dann völlig abgehängt. Aber wenn man dann selbst mit FG immer noch bessere Latenzen hat, dann wird FG doch zum absoluten nobrainer. Zumindest für Nvidia Karten.
 
  • Gefällt mir
Reaktionen: Pro_Bro und ElliotAlderson
SweetOhm schrieb:
Eher kann sein, dass Du mit Deiner Exklusiv Meinung der Minderheit angehörst ;)
Volles Echtzeit-Raytracing ist nach wie vor wesentlich zu fordernd für aktuelle Grafikkarten, zB. ohne den AI-Denoiser ginge rein gar nichts. Das alles ist von "native" weit entfernt und deswegen gibt es auch keinen "Fotorealismus", erst recht nicht in flüssigen 60fps.
Jensen und seine Marketingabteilung haben aber ins Schwarze getroffen, von jetzt auf gleich wurde ein neuer Hype kreiert, der ganz neue Grafikkarten nötig machte und für den die Leute bereit sind, viel mehr Geld auf den Tresen zu legen. Chapeau.
Nur blöd, dass die gleichen Grafikkarten bzw. Chips auch den AI-Hype in den Rechenzentren befeuern und so die Grafikkarten noch teurer werden, was unser Hobby noch exklusiver macht.
Ergänzung ()

Svennc schrieb:
Indiana Jones läuft selbst z.B. auf der PS5 Pro u.a. mit einer einfacheren globalen Beleuchtung, als man es mit dem Setting am PC auf "low" hinbekommt, die globale Beleuchtung wurde nämlich von der Xbox übernommen.
Warum baut man solche Settings denn nicht ins PC Spiel ein? Warum kann man bei Doom RT nicht abschalten? Mir könnte es mit meiner 4090 ja egal sein und ich spiele Doom sowieso nicht mehr, aber ich denke eben auch an die Leute, die unser Hobby teilen, aber nicht so viel Geld ausgeben können oder wollen.
Aber vllt. ist die Konsole ja auch der bessere Weg, durch die teuren Spiele kommt sowas wie ein Pile of Shame gar nicht erst auf, ich habe noch massig Spiele auf Halde liegen, die ich immer noch nicht gezockt habe, Steam- und anderen Sales sei Dank, Epic hat so viele Games verschenkt, da hab ich nur ein paar Spiele gekauft, der Rest war kostenlos.

Danke für das Video gucke ich gleich rein.
Ergänzung ()

Svennc schrieb:
Pathtracing ist was anderes -- aber das ist ja zu erwarten. :D
Siehe wie vor: die Grafikkarten sind dafür noch viel zu schwach. Wären wir an einem Punkt, wo das auch Budgetkarten könnten, wäre die Spieleentwicklung auch einfacher, dann könnte man auch ohne KI-Krücken komplett auf Raytracing setzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Free Radical und SweetOhm
Svennc schrieb:
Kann man nicht verallgemeinern.

Bin mal gespannt, ob Digital Foundry hier wieder vergleichen. Indiana Jones läuft selbst z.B. auf der PS5 Pro u.a. mit einer einfacheren globalen Beleuchtung, als man es mit dem Setting am PC auf "low" hinbekommt, die globale Beleuchtung wurde nämlich von der Xbox übernommen.
Xbox hat später einen Patch erhalten und das Setting etwas höher gedreht als zu Anfang. Nur was bringt es dem Casual PC Gamer dann wenn er nicht unter Low einstellen kann und es dann auf seiner unter 500,- Karten dann nicht sauber läuft?
Nicht Jeder beherrscht es in der ini-Datei rumzufummeln. Wer es zudem im Game Pass zockt hat es noch schwieriger da auf die Spieldatei zuzugreifen.

Letzten Endes zockst dann auf Konsole doch gleich los nur weil der Entwickler nicht die gleichen Optionen von Anfang an in der PC Version einbaut.

Ist kein Geheimnis dass es immer Zusammenspiel von Software und Hardware darauf an kommt. Nennt man halt Optimierung.
 
HerrRossi schrieb:
Siehe wie vor: die Grafikkarten sind dafür noch viel zu schwach. Wären wir an einem Punkt, wo das auch Budgetkarten könnten, wäre die Spieleentwicklung auch einfacher, dann könnte man auch ohne KI-Krücken komplett auf Raytracing setzen.


Nö, sind nicht zu schwach.

Also theoretisch ja. Um Pathtracing so wie bei offline CGI durchzuführen, würden wir wahrscheinlich noch weitere 50, wenn nicht 100 Jahre warten müssen, bis GPUs das in echtzeit schaffen, weil man irrsinnig viele Rays bzw. Samples braucht.

Mit den aktuell genutzten techniken kommt man aber bereits jetzt extrem nahe an ground truth heran.

Siehe hier: https://research.nvidia.com/labs/adlr/DLSS4/

To start, we highlight the transformer model's ability to produce outputs that are remarkably close to the reference ground truth images, which are rendered using tens of thousands of samples per pixel. This fidelity ensures that the transformer model's output is less painterly and significantly more faithful to the path-traced reference obtained through pure accumulation. The following image comparison illustrates this closeness to the reference image in a static scene, the left side of the swiper is ray reconstruction output while the right side is ground truth:

Ground truth reference:
aw2_static_reference.png



DLSS Ray Reconstruction:
aw2_static_rr.png



Natürlich gilt das noch nicht für alles, wie z.B. hochkomplexe Materialien. Aber dafür wird es dann eben die Neural materials und weitere neural shader geben.

Auf konventionellem Wege wäre Pathtracing sonst niemals zu unseren Lebzeiten realisierbar. Man braucht diese Abkürzungen über Machine Learning und co... Die samplerate so wie im Referenzbild auf "tens of thousands of samples per pixel" zu erhöhen ist jedenfalls völliger nonsense. Das wäre das, was auf konventionellem wege nötig wäre. Wie das zweite Bild aber zeigt, geht es auch anders.


Ich denke, spätestens wenn RTXDI (jede lichtquelle ist raytraced, nicht nur die golbale) mit neural Radiance Cache kombiniert wird (quasi KI bounce light), wird das zusammen mit Ray Reconstruction (was nicht nur das denoising verbessert, sondern auch den Detailgrad des Pathtracings deutlich erhöht) wahrscheinlich schon zu 95% perfekt sein und von einem referenz render nicht mehr unterscheidbar sein. Dass es Spielegrafik ist wird man dann nicht mehr an der Beleuchtung erkennen, sondern hauptsächlich daran, wie detailliert die Assets und Materialien sind. Letzteres ist auch bei den beiden Bildern oben noch bei weitem nicht gut genug für fotorealismus, da die Assets eben aus AlanWake2 stammen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
SweetOhm schrieb:
Yup, sieht man immer bei der tollen Steam GPU Anteilsliste :daumen:
Stimmt aber mit dem marketshare überein, kannst ja eine bessere Quelle nennen. Aber bitte nicht "meine Kumpels haben alle Radeon" lol
 
  • Gefällt mir
Reaktionen: Loopman und ElliotAlderson
Zurück
Oben