Taxxor schrieb:
von daher würde ich da lieber mal die testbedingungen prüfen.
Ja und nein.
Ja, aber wieso genau muss man jetzt nur da die Testbedingungen prüfen, wo AMD besonders gut abschneidet? Natürlich muss man sie bei
allen Publikationen überprüfen. Letztendlich macht keine wirklich alles richtig. Bei einigen kann man gegen zu lahmen RAM wettern, bei einigen über 1080p statt 720p, bei einigen über zu lahme GPUs, bei einigen über viel zu wenig getestete Titel, und selbst die 12 Titel Maximum in der Tabelle sind eigentlich noch zu wenig.
Und nein, denn diese immer mal anderen Testmethoden sind für den Endanwender irgendwie auch genau richtig. Die Nutzer haben auch nicht immer den schnellsten RAM oder die beste GPU. Das Aggregieren vieler
verschiedener Messungen macht ja gerade erst den Wert dieser Metrik aus. Und man kann es als Einstieg in die Einzeltests nehmen, und sieht dort auch, dass es mitunter sehr interessante Effekte geben kann.
Bei PCGH ergibt sich zum Beispiel die Situation, dass Zen 4 mit einer 6950XT 6,6% besser in Relation zu Raptor Lake abschneidet als mit einer 3090 Ti, bei ansonsten identischen Testsystemen. Das zeigt, dass Tests mit irgendwas anderem als der gerade schnellsten GPU durchaus ihre Berechtigung haben. Insbesondere wäre häufiger Testen nicht nur mit Nvidia durchaus angebracht.
Bei Golem findet man Zen4 mit 5200er Speicher (Raptor +23,4%) und mit DDR5-6000 (Raptor +11,5%) gegen Raptor Lake mit DDR5-5600. Da ist sofort wieder zu sehen, dass schneller Speicher wichtig ist, denn der Vorsprung wird halbiert. Intel würde mit 6000er-RAM auch noch etwas zulegen, aber das ist im Vergleich deutlich weniger ausgeprägt.
Mal sehen, wie morgen die Tests aussehen, zum Beispiel ob TechPowerUp mal wieder mit einem Monsterduell mit sehr vielen Titeln kommt.