Test AMD-Generationen­vergleich: Radeon RX 9070 XT, 7800 XT, 6700 XT und 5700 XT im Duell

Moritz Velten schrieb:
Danke für den Test.

Ich würde auch sagen, dass die 7700 XT die Nachfolgerin der 6700 XT ist
Das habe ich ursprünglich auch gedacht, dem ist aber nicht so. Mit RDNA3 hat sich die Einordnung verschoben. Bestes Beispiel: Die 7800 XT war genauso schnell und in Teilen sogar langsamer als die 6800 XT. Ich hatte vor meiner 9070 XT eine 6800 XT und hab so ziemlich jede 7800 XT in Vergleichsbenchmarks platt gemacht; bis auf neuere Titel.
Und die 9070 XT reiht sich etwa ein; kann man mit zugedrücktem Auge so stehen lassen.
 
  • Gefällt mir
Reaktionen: SFFox und serve1chilled
@w0mbat Du musst für eine solche Behauptung eben schon eine klare Quelle angeben. Was du mit AMD besprochen hast und was da in welchem Wortlaut gesagt wurde ist uns ja so nicht klar. Ich habe den RDNA4-Launch so in Erinnerung, dass es keinen klaren Hinweis auf eigene Tensor-Kerne gab. Würde auch zu AMDs Ansatz passen, dass man nur Teile der Spezialberechnungen beschleunigt und nicht die komplette Berechnung in einen eigenen Kern auslagert. So machen sie es bei RT ebenfalls.
 
  • Gefällt mir
Reaktionen: Sweepi, zhompster, TomH22 und 5 andere
w0mbat schrieb:
Ich habe mich damit intensiv auseinander gesetzt, weil ich genau die gleichen Frage hatte wie du. AMD ist da nicht so offen wie man es sich wünscht. Du kannst es ja mal selber mit VKpeak testen.
Es ist schön, dass du dich damit befasst. Ändert allerdings nichts an der Tatsache, dass du hier erst mal eine Aussage tätigst, die sich weitgehend überhaupt nicht mit den Informationen deckt, die AMD selbst kommuniziert und die auch auf anderen Seiten so weiterhin bestätigt werden, dass der AI-Accelator ein Bestandteil der Vector-ALU ist und auch auf dessen Rechenwerke zurückgreift.
w0mbat schrieb:
Ich habe auch direkt mit AMD gesprochen und nach einigem hin- und her (u.a. mit dem Verweiß, dass wir auch ohne dual-issue fähige Ausführungen full-rate performance sehen, anders als noch bei RDNA3) hat AMD bestätigt, dass RDNA4 extra Transistoren für Tensor-Kerne hat.
Es ist schön, wenn du direkt mit AMD gesprochen hast. So lange AMD auf gpuopen.com und Co jedoch nichts weiter veröffentlicht zu der genauen Implementation der AI-Accelatoren und was sich alles genau geändert hat, ist das, was du schreibst, nichts weiter als Hörensagen.

Und ich weiß, dass es die entsprechenden Diskussionen auch auf Reddit und Co gibt, genauso dass sich einige andere Webseiten, Entwickler und Co damit bereits befasst haben. Das Bild geht da allerdings auch in die Richtung, dass es keine dedizierten Matrix-Kerne gibt, sondern dass der AI-Accelator weiterhin Bestandteil der VecALU ist, jedoch weiter verbessert wurde.

AMD spricht weitgehend nur davon, dass man "additional math pipelines" hinzugefügt hat und das kann an der Stelle vieles bedeuten. Das kann für wirklich dedizierte Matrix-Kerne sprechen, oder dass man die bereits bestehenden Vektor-Pipelines erweitert hat.

Es kann genau so ein Hybrides-Design sein. So lange AMD hier jedoch nichts sagt und die Karten offen legt, bleibt es erst mal bei der Aussage.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, LanMandragoran, Sweepi und 9 andere
Für mein "review" bin ich zuerst auch davon ausgegangen, dass RDNA4 weiterhin die vALUs nutzt. Nach Rücksprache mit den Jungs von Chips & Cheese (die haben mich auf ihre Testergebnisse verwiesen) habe ich mir das ganze genauer angeschaut. AMD hat mir gegenüber, nach mehrmaligem Nachfragen, geschrieben, dass RDNA "dedicated tensor core transistors" hat.

Das ganze Thema ist insg. komplex. Nvidia hat - das bestreitet niemand - dezidierte Tensor-Kerne. Aber trotzdem blockieren Berechnungen auf den Tensor-Kernen für die Taktschritten die dazugehörige ALU sub-partition. Also geht vALU + Tensor gleichzeitig auch nicht wie man vielleicht denken würde. D.h. auch bei Nvidia ist der Tensor-Kern dem vALU register untergeordnet. Das ist im Diagram nicht anders.

In den SMs/CUs wird sehr viel geteilt. Auch wenn es "echte" Tensor-Kerne gibt. Nach allem was ich weiß gehe ich aber davon aus, dass RDNA4 - anders als RDNA3 - nicht mehr WMMA via vALUs nutzt, sondern eben Tensor-Kerne hat. Vor allem full-rate ohne dual-issue ist quasi der Beweis dafür.
 
  • Gefällt mir
Reaktionen: Innocience
Alles andere außer Acht, aber bei
251mm² N7 -> 335mm² N7 -> 350mm² N5/N6 -> 357mm² N4
muss man auch eingestehen, dass die Produktionskosten von Karte zu Karte gestiegen sind.

Immer mehr Fläche bei immer teureren Nodes kann leider nicht funktionieren bei gleichbleibendem Preis.

Das schmeckt uns als Kunde natürlich nicht, aber ändert nicht die Tatsachen.


Dazu noch, dass laut Inflationsrechner die 449 USD von 2019 ca. 550 USD in 2025 wären... die Inflation zwischendurch war heftig.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, TomH22 und Knut Grimsrud
Danke für den Test. Jetzt habe ich Gewissheit, dass ich meine 5700 XT bedenkenlos ablösen kann 😉
 
  • Gefällt mir
Reaktionen: 4lter5ack, Slim.Shady, Veitograf und 4 andere
theGucky schrieb:
Wenn man großzügig ist und den Kurs im März von 0,93€ pro Dollar nimmt, hat die 9070XT noch immer kein Launchpreis von 599$ erreicht.
Selbst wenn man mal bei MIcrocenter oder Newegg in den USA schaut, ist die aktuell günstigste 9070 XT bei Newegg für 699 USD zu finden und das ist noch vor Steuern.
 
w0mbat schrieb:
Nach allem was ich weiß gehe ich aber davon aus, dass RDNA4 - anders als RDNA3 - nicht mehr WMMA via vALUs nutzt, sondern eben Tensor-Kerne hat. Vor allem full-rate ohne dual-issue ist quasi der Beweis dafür.
Dann einigen wir uns an der Stelle doch darauf, dass wir aktuell den Schrödinger-Tensor-Kern haben bei RDNA 4.

Wenn du irgendwann die passenden Papers hast, ändere ich das gerne dann auch ab, auch mit dem passenden Hinweis. Solange muss ich aber nach den offiziellen Dokumentationen gehen.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, Schwobaseggl, LanMandragoran und 14 andere
Bei mir ist AMD, seit der 5500XT Blackscreenserie, unten durch. Ich kaufe keine AMD Grafikkarte mehr.
 
Danke für den Generationenvergleich. Spannend zu sehen, was sich seit RDNA 1 getan hat.

Ranayna schrieb:
Passt also, auch wenns bis dato meine teuerste Grafikkarte war. Wie laecherlich sich diese Aussage anhoert, wo nVidia die 1.000 Euro GPU schon fast ans untere Ende gestellt hat :D

Es kommt darauf an, wann die gekauft worden ist.
Zu den damaligen „Corona-Kampfpreisen“ als Custom-Modelle der RX 6800 schon um die 1.200€ gekostet haben, war die RX 6900 XT für 1.000€ direkt bei AMD schon „Schnapper“. 😉
 
  • Gefällt mir
Reaktionen: -=:Cpt.Nemo:=-
Wieso wird bei solchen Tests eigentlich die RX 7700XT konsequent ignoriert? Sowohl hier als auch auf PCGH ist mir das aufgefallen... da ich eine 7700 XT besitze wäre es für mich halt interessant diese in den Tests zu haben.
 
Toller ausführlicher Test, danke dafür. Gerade den technischen Vergleich finde ich auch sehr interessant. Hätte AMD die 7800XT entsprechend ihrer Vorgängerin, der 6700XT genannt, wäre die GPU ein sehr guter Nachfolger gewesen. Stattdessen hatte sich AMD 's Marketing Abteilung mal wieder ein Eigentor geleistet mit der Benennung. :rolleyes:
 
  • Gefällt mir
Reaktionen: coxon, DynamaxX, Bänki0815 und eine weitere Person
V_182 schrieb:
war die RX 6900 XT für 1.000€ direkt bei AMD schon „Schnapper“.
Ja, stimmt. Ich hab damals ja auch zum unguenstigen Zeitpunkt ueberhaupt gekauft.
Eigendlich wollte ich eine 6800XT haben, aber die war im Drop so schnell weg, da hatte ich keine Chance.
Da ist es dann die 6900XT geworden, die war dann auch nach dreimal kurz nachdenken noch da, und da dachte ich mir dann nur noch "Scheiss drauf" :D
Das erste Mal bis jetzt das ich in irgendeiner Kategorie zum verfuegbaren Topmodell gegriffen habe, weil das normalerweise einfach unvernuenftig ist.

Bereut habe ich es aber letztendlich nicht. Ich war und bin zufrieden mit der Karte. Auch wenn sie natuerlich inzwischen an Limits stoesst.
 
  • Gefällt mir
Reaktionen: Volvo480, osf81, Jagdwurst und 2 andere
SleezyPants schrieb:
Wieso wird bei solchen Tests eigentlich die RX 7700XT konsequent ignoriert? Sowohl hier als auch auf PCGH ist mir das aufgefallen... da ich eine 7700 XT besitze wäre es für mich halt interessant diese in den Tests zu haben.
Weil das eine beschnittene GPU ist, so wie die alte RX 6700.
 
Wenn hier der gestiegene Preis dazu genommen worden wäre, dann sehen die Verbesserungen über die Generationen plötzlich viel kleiner aus.

Preis/Leistung technisch hat sich in den letzten Jahren nicht viel getan.
 
  • Gefällt mir
Reaktionen: II n II d II, Bänki0815 und Alexander 65
Kann man die 5700 xt überhaupt in der selben Schiene einordnen?
War die rx 5500 xt nicht das 60er Equivalent?
Und folglich müssten die anderen eins hoch rutschen?
 
  • Gefällt mir
Reaktionen: Alexander 65
Auch ein halbes Jahr später bereue ich es überhaupt nicht, eine 7900XTX gekauft zu haben, statt auf RDNA 4 zu warten. FSR4 wäre nett gewesen, der Unterschied für mich zu FSR3.1 aber marginal. Und die Leistung der XTX ist oft noch immer über der 9070 XT. Auch bei RT sehe ich keinen gewaltigen Nachteil. Dagegen hätten mich die nur 16 GiB VRAM schon öfter eingeschränkt oder wäre zumindest ins Limit gelaufen.

Ergo: Alles richtig gemacht. :daumen:

RedPanda05 schrieb:
Und folglich müssten die anderen eins hoch rutschen?

Nein, die 5700XT war die Konkurrenz zur 2070 von nVidia.
 
  • Gefällt mir
Reaktionen: Schwobaseggl, MiroPoch, GOOFY71 und 2 andere
DiePalme schrieb:
Selbst wenn man mal bei MIcrocenter oder Newegg in den USA schaut, ist die aktuell günstigste 9070 XT bei Newegg für 699 USD zu finden und das ist noch vor Steuern.
Das hat einen anderen Grund: Zölle. :D
 
  • Gefällt mir
Reaktionen: Knut Grimsrud
Zurück
Oben