w0mbat schrieb:
Ich habe mich damit intensiv auseinander gesetzt, weil ich genau die gleichen Frage hatte wie du. AMD ist da nicht so offen wie man es sich wünscht. Du kannst es ja mal selber mit VKpeak testen.
Es ist schön, dass du dich damit befasst. Ändert allerdings nichts an der Tatsache, dass du hier erst mal eine Aussage tätigst, die sich weitgehend überhaupt nicht mit den Informationen deckt, die AMD selbst kommuniziert und die auch auf anderen Seiten so weiterhin bestätigt werden, dass der AI-Accelator ein Bestandteil der Vector-ALU ist und auch auf dessen Rechenwerke zurückgreift.
w0mbat schrieb:
Ich habe auch direkt mit AMD gesprochen und nach einigem hin- und her (u.a. mit dem Verweiß, dass wir auch ohne dual-issue fähige Ausführungen full-rate performance sehen, anders als noch bei RDNA3) hat AMD bestätigt, dass RDNA4 extra Transistoren für Tensor-Kerne hat.
Es ist schön, wenn du direkt mit AMD gesprochen hast. So lange AMD auf gpuopen.com und Co jedoch nichts weiter veröffentlicht zu der genauen Implementation der AI-Accelatoren und was sich alles genau geändert hat, ist das, was du schreibst, nichts weiter als Hörensagen.
Und ich weiß, dass es die entsprechenden Diskussionen auch auf Reddit und Co gibt, genauso dass sich einige andere Webseiten, Entwickler und Co damit bereits befasst haben. Das Bild geht da allerdings auch in die Richtung, dass es keine dedizierten Matrix-Kerne gibt, sondern dass der AI-Accelator weiterhin Bestandteil der VecALU ist, jedoch weiter verbessert wurde.
AMD spricht weitgehend nur davon, dass man "additional math pipelines" hinzugefügt hat und das kann an der Stelle vieles bedeuten. Das kann für wirklich dedizierte Matrix-Kerne sprechen, oder dass man die bereits bestehenden Vektor-Pipelines erweitert hat.
Es kann genau so ein Hybrides-Design sein. So lange AMD hier jedoch nichts sagt und die Karten offen legt, bleibt es erst mal bei der Aussage.