Svennc schrieb:
TRIGGERALARM*!
https://www.techradar.com/computing/gpu/gpu-prices-arent-actually-that-expensive-no-really
Anhang anzeigen 1648123
Anhang anzeigen 1648126
* Ich wäre aber an einer seriösen Rechnung interessiert, etwa von Computerbase.
Testarchive sind vorhanden. 
Denn historische Preise 1:1 an eine Inflation anzupassen, ist schwierig. Und erledigt tendenziell PR-Arbeit für Hersteller. Denn gerade in der Technik gilt: Bessere Produkte zu näherungsweise stabilen (oder im Falle TVs günstigeren) Konditionen sind kein Einzelfall (siehe auch CPUs, wo ein 2024er Ryzen X3D günstiger ist als ein Athlon 64 FX-55 von 2004). Der Fortschritt in der Fertigung regelt das.
Absolut "seriös" und absolut kein Zufall ist jedenfalls, dass im reinen Anschaffungspreis (noch mal:
´nicht gleich Kosten!) relativ preisstabile Konsolen
bis heute 30, 40 und 60 fps "beliefern". Das sind schließlich noch immer Bilder, gerendert
in jeder einzelnen Sekunde -- und nach wie vor stetig komplexere. Während Nvidia bereits kräftig die Werbetrommel für 1000Hz-1000fps-PC-Bildschirme rührt. 60, 120, 144, 240Hz?
ALles Rookie Numbers. $$$You gotta pump them up!$$$
Anhang anzeigen 1648121
Svennc schrieb:
Die interessante Frage bliebe ja stehen: Wann gabs mehr Frames pro Euro? Damals, als auch die Computerbaser ihren Lesern noch mitteilen durften oder mitunter mussten (siehe Fließtext):
Hey, auch 40 Bilder sind hmkay? Oder heute, wo jeder Artikel
für Entry-Hardware der letzten Generation einen Tweakingtipp für 60 Bilder die Sekunde minimum hat? Auf "bezahlbaren" Konsolen sind 30 Bilder die Sekunde (Quality-Modus), 40 (Balanced-Modus) und 60+ (Performance-Modus) mitunter noch heute die Standards. Aber womöglich sind diese Konsolen das deshalb bis heute: vergleichsweise preisstabil. Denn bislang hat sich niemand im Grafik-getriebenen AAAA-Markt hingesetzt und gesagt: "So, ist mal gut jetzt." Sondern jedes dieser Bilder wird im Mittel noch immer komplexer.
Aber eigentlich deckt auch das nicht die kompletten Kosten. Der erwähnte Wertverlust, der ist heute um ein Vielfaches geringer. Da muss man gar keine großen Daten bemühen, das regelt sofort sichtbar an den stabilen Preisen der Markt. Und der ist bestimmt durch stark entschleunigten Fortschritt. Übrigens auch an der Software-Front, denn 3-5+ Jahre Entwicklungszeit sind längst die Norm. Verlaaaaaaaangsamter Fortschritt: Ein Faktor, den man aus Enthusiastensicht natürlich auch negativ auslegen kann.
Ich halte es für eine der absurdesten Ideen überhaupt, Fortschritt bei Graka-Preisleistungsverhältnissen daran zu messen, wie viele FPS sie in
zeitgenössischen Spielen bei gleichem monetären Einsatz erreichen konnten. Das ist so absurd, wie wenn man Preis-Leistungsverhältnisse von Automobilen messen würde, indem man ihre Höchstgeschwindigkeit ins Verhältnis zu den in Ortschaften erlaubten maximalen Geschwindigkeiten und ihrem Preis setzten würde.
Oder, wenn man anfängt, das intellektuelle Niveau verschiedener Jahrgänge von Kindern mittels des Abschneidens in unterschiedlichen Tests zu messen. Whuups, das letzte passiert ja, stellt nichts als Wahnsinn dar und wird entsprechend auch andauernd kritisiert!
Was ist ein richtiger Kern der Beobachtungen: Über die Jahre haben sich Ansprüche an Framerates und Auflösungen in 3D-Spielen deutlich nach oben verschoben. (beim Sprung ins dreidimensionale gingen sie kurz drastisch und sehr absurd zurück) Gegenüber Grafik haben Bildqualität und Flüssigkeit definitiv Boden wett gemacht und das trotz einzelner Verirrungen, wie z.B. dem FXAA-Hype. Oh du meine Güte, der Bullshit von wegen in UHD braucht man kein AA mehr war fast so schlimm wie das Auge sieht nicht mehr als 24 Bilder pro Sekunde...
Aber die Methodik, die daraus etwas bzgl. P/L basteln soll, ist völliger Blödsinn. Unter anderem lässt sie auch außer Acht, dass Grakas nicht nur für neue Spiele gekauft werden, sondern eben gerade auch dafür, dass alte Spiele nun anständiger laufen sollen. Im Endeffekt schießt sie sogar der eigenen Beobachtung ins Bein.
Wenn man etwas in der Richtung basteln wollen würde, dann sollte man mindestens stets beides haben: Einen Titel der alten Karte, einen Titel der neuen Karte. Auch da wäre immer noch massig Raum für Verzerrungen drinne.
Persönlich bin ich sehr für Retrotests zu haben und zwar insbesondere auch für solche, bei denen moderne Methodik und moderne Vorteile genutzt werden können. Platt gesprochen: Eine 8800 GTX läuft auch zusammen mit einem 9800X3D, in der Kombi hat man dann sicherlich idR. keine CPU-Limits mehr. Und heute kann man auch besser die echten Leistungsaufnahmen testen und so weiter.
Bzgl. des Konsolenabstechers: Tatsächlich zeigen sie am Meisten von allem auf: Zum Ende der Lebenszeit von 360 und PS3 war dort nahezu alles in Punkto Auflösung und Framerates ein Graus, bei XBONE und PS4 sah es schon viel besser aus.