Hovac schrieb:
Die Speicherbandbreite sagt bei verschiedenen Architekturen eigentlich wenig, deshalb gibt es ja Tests wie diesen, die über die damit erreichte Leistung aufklären.
Ihr müsst die Erklärung an dieser Stelle nicht wirklich versuchen. Manche Leute werden nicht darauf hören, weil sie nicht verstehen, dass die Bandbreite nur einen Teil einer GPU ausmacht. Die Diskussion GDDR6 gegen GDDR7 und die Bandbreite ist fast genauso gut wie, dass viel Speicher ja nur sinnvoll ist, wenn er schnell an die GPU angebunden ist.
Ich weiß, dass ich jetzt etwas "teasere", aber an der Stelle ist es mal angebracht, um die Sache zu veranschaulichen:
RTX 2070 und RTX 3070:
Beide Grafikkarte haben eine Bandbreite von 448 GB/s, bei der mittleren Leistung:
Und wir reden hier noch von zwei Grafikkarten, die keinen mega großen L2-Cache oder Vorgelagerten L3-Cache haben, sondern nur ihre Bandbreite.
gustlegga schrieb:
Der langsamere GDDR6 ist nicht die Bremse bei den Karten.
Zumal sowohl bei Blackwell als auch bei RDNA 4 durch den großen L2-Cache als auch Infinity-Cache die Bandbreite etwas an Bedeutung verliert, da mehr Daten in den Caches vorhanden ist.
Noch ein anderes Beispiel, wieder ein bisschen Teasern, jetzt zu RDNA:
Und hier mal das, was im Mittel dabei herumkommt:
WAS? Wie kann das denn sein? Hier sinkt sogar die Bandbreite um 15 % und trotzdem kann die Grafikkarte um 41 % schneller sein! WTF, wie kann das denn nur sein? Ist halt die Einführung des Infnity-Caches.
Für GPUs, egal ob jetzt professionell oder eben für uns Spieler: Die Bandbreite muss der Rechenleistung entsprechen. Zu langsamer Speicher kann eine GPU ausbremsen, zu schneller Speicher kann von der GPU nicht in Leistung umgesetzt werden.
Und die Speichermenge ist davon weitgehend entkoppelt. Speichermenge braucht man für die Assets und für die Zwischenschritte. Die meisten Texturen - ja ich bin lernfähig - haben nur eine sehr kleine bis keine Auswirkung auf die Leistung. Ob man jetzt 1k, 2k, 4k oder 8k Texturen verwendet, wirkt sich minimal auf die FPS aus. Die Texturen, die eine Auswirkung haben könnten, die wiederum sind in der Regel direkt an die Shader gekoppelt und der Impact auf die FPS hängt primär vom Shader ab, nicht von der Texture - Mip, Normalmaps usw.
Es ist daher auch vollkommen egal, ob hier jetzt GDDR6 oder GDDR7 verwendet wird. Die Bandbreite muss passen. Wir sehen aktuell bei Nvidia bei allen Grafikkarten, dass sie massiv an Bandbreite zugelegt haben, gleichzeitig sind sie allerdings in der Regel nur um die gestiegene TBP sowie Shader/Takt schneller als ihre Vorgänger.
Und bei der RX 9070 XT haben wir sogar die Situation, dass die Grafikkarte sich auf dem Niveau der 7900 XT und 7900 XTX bewegt und dennoch wieder stark an Bandbreite eingebüßt hat.
ReactivateMe347 schrieb:
AMD ist doch wesentlicher Treiber von OpenCL, das im Gegensatz zu CUDA offen ist und Softwareentwicklern die Unterstützung beider GPU-Typen emöglicht?
Nein, nicht mehr und OpenCL hat eigentlich keine wirkliche Bedeutung mehr. AMD hat hier - und so kritisch muss man sein - seit 2006 richtigen Mist gebaut.
Mit der Radeon X1-Generation war man quasi Vorreiter des HPC-Marktes, hat 2006 dann mit Firestream sogar eine erste API für HPC-Markt vorgestellt und die Firestream-GPUs auf den Markt gebracht. Nur hat ATi dann durch die Übernahme von AMD hier alles schleifen lassen und Firestream stiefmütterlich behandelt. Führe dazu, dass Nvidia mit CUDA ihr heutiges Monopol aufbauen konnten im HPC-Markt. Apple hat dann OpenCL initialisiert und AMD zwar passende Treiber dazu angeboten, nur während Nvidia Entwicklungshilfe leistet, hat AMD diese Ressourcen nicht gehabt. OpenCL war von dem Zeitpuntk eine "Verlegenheitslösung", da selbst in vielen OpenSource-Projekten lieber CUDA implementiert wurde.
Die Dominanz von CUDA zu brechen, versucht AMD auch erst seit 2016 mit ROCm und da auch primär für den HPC-Markt anfangs. Erst "jetzt" geht AMD auch so weit, dass sie selbst im "Consumer"-Markt CUDA angreifen.