Test AMD Radeon RX 9060 XT im Test: Mit 16 GB eine Option, mit 8 GB erst gar nicht bemustert

@Leap Der Grafikkarten-Testparcours muss mit einer ganzen Reihe an Grafikkarten funktionieren, die mit einem Leistungssprung von der RX 7600 zur RTX 5090 kaum unterschiedlicher sein könnte. Daher ist es völlig sinnlos auf einem schnellen oder langsamen Modell flüssige Bildraten erzielen zu wollen, das würde bei dem anderen Modell dann in irrwitzige Frameraten resultieren.

Darum habe ich mich vor ein paar Jahren dazu entschieden Grafikkarten so zu testen, dass auch die schnellsten Modelle in verhältnismäßig niedrigen Auflösungen noch gut ausgelastet werden, wobei ich schon darauf achte, dass in Ultra HD die schnellsten GPUs auf einen grünen Zweig kommen.

Das hat dann eben zur Folge, dass die langsamen Grafikkarten alle niedrige FPS in den Benchmarks haben, die man so in Spielen nicht haben möchte. Der Testparcours zeigt dir daher nicht sinnvoll, wie viele FPS ich mit Grafikkarte x in Auflösung y habe, wenn ich für Grafikkarte x sinnvolle Grafikeinstellungen nutze. So etwas kann ein Testparcours aber einfach nicht abbilden, nicht, solange für jede Grafikkartenklasse ein separater Parcours gebaut wird.

Was der Parcours aber sehr gut kann ist die Unterschiede von Grafikkarten gut heraus zu stellen. Damit ist klar, wer Grafikkarte x kauft, hat y Prozent mehr Leistung als mit Grafikkarte z. Das kann der Parcours sehr gut über alle Leistungsklassen hinweg darstellen. Daher sind die Grafikoptionen so gewählt wie sie gewählt sind.
 
  • Gefällt mir
Reaktionen: Micha_80, Solavidos, Quidproquo77 und 3 andere
CDLABSRadonP... schrieb:
Es gibt keinen Workload mit Bedarf an einem bestimmten Speicherinterface, sondern nur an den Resultaten: Mögliche Kapazitäten und Bandbreiten.
Die GRE reicht für 1440p-Gaming (~80–120 FPS) und eSports (~240–360 FPS, z. B. Valorant).
Ein 256-bit Interface (RX 9070 XT, ~$650–$850) bringt ~5–10 % mehr FPS, ist aber für Budget-Gamer (~$350–$450) zu teuer.
AMD-Kunden fordern starkes PL; die GRE liefert dies im Budget-Segment, die XT im Midrange.

CDLABSRadonP... schrieb:
Speicherinterfaces sind nahezu kaum von Fertigungsdefekten betroffen, genausowenig wie Cache.
Cache-/Controller-Defekte (~1–2 %, basierend auf Halbleiterfertigung) treten auf. Deaktivierung (256-bit → 192-bit, 64 MB → 48 MB Cache) steigert Yield um ~10–15 % (TSMC N4-Defektdichte ~0.1/cm² ), spart ~$10–$20 pro Die (Navi 48: 357 mm²). AMDs ~20 % Marktanteil und knappe TSMC-Kapazitäten erzwingen Yield-Maximierung.

CDLABSRadonP... schrieb:
Langsamere Speicher-DIEs sind günstiger und benötigen nicht so teure PCBs.
192-bit spart zwei Speicherchips (~$20–$30) und PCB-Kosten (~$10), macht die GRE (~$350–$450) erschwinglich. Yield-Steigerung (~10–15 % ) senkt XT-Kosten (~$650–$850) um ~5–10 %, stärkt PL gegen NVIDIA. 256-bit (~$50–$70 mehr) kannibalisiert die XT.

CDLABSRadonP... schrieb:
Unterm Strich macht es keinen Unterschied in der Geschwindigkeit, ob zu 192bit und 15GBPS-Speicher oder 256bit und 20GBPS-Speicher gegriffen wird.
192-bit/2250 MHz (~432 GB/s) reicht für Budget-Gaming. 256-bit/20 Gbps (~645 GB/s) bringt ~5–10 % mehr FPS, aber XT-Preise (~$650–$850) sind für Budget-Gamer zu hoch. Die GRE liefert gefordertes PL, schließt die Gab zwischen Navi 44 "Vollausbau" und Navi48.

CDLABSRadonP... schrieb:
Bekommt man beides zum gleichen Preis, sollte zu letzterem gegriffen werden, da man mehr Kapazität erhält.
256-bit (16 GB) kostet ~$30–$40 mehr (Chips, PCBs), nicht zum GRE-Preis (~$350–$450) machbar. Dies würde XT (~$650–$850) kannibalisieren, die PL schwächen.


CDLABSRadonP... schrieb:
Wahrscheinlich wäre 16GBPS oder 18GBPS zum gleichen Preis drinne.
Schnellerer Speicher verursacht höhere PCB- und Kühlkosten (~5–10 $). 15 Gbps (2250 MHz) sind effizient und genügen leistungsmäßig – schützen gleichzeitig die XT-Marge.

CDLABSRadonP... schrieb:
Das heißt, er wird unnötigerweise auch noch mit deaktiviert!
Durch die Kombination (192-bit → 48 MB Cache) spart AMD Transistoren, steigert den Yield (~10–15 %) und senkt die Kosten (~10–20 $). Diese Maßnahme ist bei knappen TSMC-Kapazitäten und begrenzten AMD-Bestellungen notwendig. Leistungsverluste (~5 %) sind für das Budget-Segment akzeptabel.
CDLABSRadonP... schrieb:
Eine nur wenig teildefekte GPU zu verbauen und ihr dann künstlich das Interface zu streichen, ist Blödsinn.
Die GRE nutzt bewusst teildefekte Dies, was Yield um ca 10–15 % erhöht? ~30–40 $ pro Chip spart? Sie bedient Budget-Gamer (~350–450 $), die keinen Vollausbau wie die XT (~650–850 $) oder Profi-Modelle (~1000 $+) brauchen, es sich nicht leisten können. Diese Produktdiversifikation maximiert die Marktanteile bei limitierten Fertigungskapazitäten und erfüllt die Nachfrage nach verschiedenen Preis-Leistungs-Stufen.

Wen es Blödsinn wäre, wäre es nicht wirtschaftlich, und keiner würde es Machen! Jede 4090/5090 ist eine Teildefekte RTX "Quatdro 5000/6000. Aber anstatt sie wegzuschmeißen, verkauft man sie für "riesige" Beträge an Gamer.

Fazit: Die RX 9070 GRE ist nicht „unsinnig“. Sie maximiert Yield (~10–15 % ), spart ~$30–$40, bietet starkes PL für Budget-Gaming (~$350–$450) und schützt XT-Margen (~$650–$850). AMDs knappe TSMC-Kapazitäten und ~20 % Marktanteil erzwingen Yield-Optimierung. Navi 48-Diversifikation stärkt Wettbewerb, wie von Kunden gewünscht.

Und die Tatsache das die GRE nur in Asien verfügbar sein soll, das man schon versucht aus Navi 48 soviel rauszupressen, wie der Markt hergibt. Sprich es werden nur diese Navis eine GRE, die für die anderen ausbaustufen nicht geeignet sind. Sprich der Schreiner kehrt die Holzspähne zusammen, und macht Presspahn, anstatt sie Wegzuwerfen.
 
  • Gefällt mir
Reaktionen: Micha_80 und SweetOhm
blende11 schrieb:
Ehrlich gesagt kann ich die ganzen Diskussionen darüber, das die neuen Grafikkarten von nVIDIA und AMD kein großer Wurf seien nicht nachvollziehen.
[...] unter 1440p mit mittleren-hohen Einstellung absolut flüssig und das sieht im Spiel grafisch auch alles gut aus.
Und ich kann ehrlich gesagt nicht nachvollziehen, warum man im 2025 immer noch nicht begriffen hat, dass "gut aussehen" und "absolut flüssig" zwei völlig subjektive Aussagen sind. Gut möglich, dass Dein "gut aussehen" und "absolut flüssig" für andere Nutzer überhaupt nicht stimmt. Und was dann? Was ist die "Wahrheit"? Deine oder die des anderen Nutzers?

Und ob es mit der 1660s im MSFS2024 auch noch so ausschauen würde? Der frisst VRAM zum Frühstück ;-) Der 2020er ist immerhin schon über 4 Jahre alt.
 
lynx007 schrieb:
Cache-/Controller-Defekte (~1–2 %, basierend auf Halbleiterfertigung) treten auf. Deaktivierung (256-bit → 192-bit, 64 MB → 48 MB Cache) steigert Yield um ~10–15 % (TSMC N4-Defektdichte ~0.1/cm² ), spart ~$10–$20 pro Die (Navi 48: 357 mm²). AMDs ~20 % Marktanteil und knappe TSMC-Kapazitäten erzwingen Yield-Maximierung.
Wann immer behauptet wird, dass auch Speichercontroller in irgendeinem signifikanten Maße hops gehen würden, kontere ich folgendes: Und wo sind dann die CPUs mit deaktivierten Speichercontrollern?
lynx007 schrieb:
Schnellerer Speicher verursacht höhere PCB- und Kühlkosten (~5–10 $). 15 Gbps (2250 MHz) sind effizient und genügen leistungsmäßig – schützen gleichzeitig die XT-Marge.
Dankeschön, dass du mir in dem Teilaspekt so deutlich zustimmst.
lynx007 schrieb:
Wen es Blödsinn wäre, wäre es nicht wirtschaftlich, und keiner würde es Machen! Jede 4090/5090 ist eine Teildefekte RTX "Quatdro 5000/6000. Aber anstatt sie wegzuschmeißen, verkauft man sie für "riesige" Beträge an Gamer.
Sie sind aber gerade nicht im Bereich des Caches und Interface teildefekt, sondern dort künstlich beschnitten.
 
blende11 schrieb:
Für 1080p und 1440p reichen die Karten vollkommen aus, egal ob mit 8 oder 16 GB Speicher.
Ich spiele z.B. den Microsoft Flight Simulator 2020 mit einer EVGA GTX 1660 Super mit 6 GB RAM unter 1440p mit mittleren-hohen Einstellung absolut flüssig und das sieht im Spiel grafisch auch alles gut aus.
Eine Grafikkarte von 2020 für 250€, ist etwas Anderes, als eine Grafikkarte für knapp 400€, die ab 2025 bestehen können sollte.

Auch bezogen auf die 5060ti 16GB, können diese Karten durchaus für WQHD und gar bis zu UHD fähig sein, was dank großem Speicher und beworbenem FSR/DLSS, sowie zusätzlich per jeweiliger Multi-Frame-Technik, in so einigen Titeln möglich ist.

Wer weniger zahlen kann, nimmt bspw. eine RTX 3060 12GB. Diese dürfte künftig gebraucht in Richtung 150€ abrutschen. Entweder das, oder man wartet abermals ab, dass endlich GDDR7 mit 3GB-Modulen erscheint.

blende11 schrieb:
Für 1080p und 1440p reichen die Karten vollkommen aus, egal ob mit 8 oder 16 GB Speicher.
Die Redaktionen kommen zu anderen Ergebnissen.
 
duskstalker schrieb:
  • 199mm² die
  • 32 compute units
  • rx 570 klasse hardware, die gabs 2017 mit 4 und 8gb speicher ab $169 mrsp.
  • selbe performance wie 7700XT (400€ marktpreis)

das ding müsste ehrlicherweise auch 9050 XT heißen
So so, die 9060XT mit 16 GB PCIe 5.0 x16 sollte Deiner Meinung nach nur 330 € kosten dürfen, und der Chip ist Dir zu klein ?!?
Was soll/darf dann Deiner Meinung nach eine 5060 mit 8 GB (UVP 320 €) kosten und wie sollte die eigentliche Bezeichnung sein ?

- 181 mm² Die
- 30 CU
- PCIe 5.0 x8
- 19,2 TFLOPs
- nicht mal 3060Ti Leistung

https://technical.city/de/video/GeForce-RTX-5060-vs-Radeon-RX-9060-XT

Das Ding müsste ehrlicherweise 5040 heißen ... :cool_alt:
 
  • Gefällt mir
Reaktionen: JarlBallin
Reicht die GPU für Witcher 4?
 
Icke-ffm schrieb:
Du kannst keinen Marktpreis nach 2Jahren mit der UVP vergleichen.

doch kann ich.

die UVP hat null Aussagekraft, weil die UVP ein Marketinginstrument ist und nichts damit zu tun hat was das Produkt letztendlich kostet oder wert ist.

der Markt reguliert den Preis über die zeit und die 7700xt war vor einem Jahr schon bei 400€.

und ich weiß nicht wieso es OK sein soll, dass neue Produkte zum Release gegenüber den alten Produkten nur einen verschwindend geringen Mehrwert bieten. wenn das nämlich so ist, befinden wir uns in einer harten Stagnation.

vor 6 Jahren ist die 6800xt für 650€ rausgekommen. für 650€ bekommt man heute eine 9070 non-xt und die ist ohne rt nur 36% schneller und mit rt 56%.

d.h. wenn man irgendwann eine Karte für 650€ will, die doppelt so schnell wie eine 6800xt ist, muss man bei der aktuellen Preis/Leistung Gen über gen 18 Jahre warten, d.h nach aktuellem Stand ist das in 2037 soweit. vielleicht gibts dann auch endlich keine 8gb Karten mehr.

aber jetzt mal ernsthaft. es kann doch keine 18 jahre dauern, bis man die doppelte Leistung fürs selbe Geld bekommt und das auch noch rechtfertigen ala "UVP vs Marktpreis ist unfair".

das was man uns hier für teuer Geld versucht zu verkaufen ist unfair. die Leistungssteigerungen sind ja da, nur zahlt man da jede Gen für die Mehrperformance drauf und das einzige was passiert, ist, dass sich die Hersteller mit höheren margen die Taschen füllen.

die 9060xt ist in der Herstellung spottbillig, genau wie die 5060 / ti - dieser Krempel sollte niemals 400-500€ Kosten.
 
  • Gefällt mir
Reaktionen: spfccmtftt89 und Botcruscher
yamiimax schrieb:
Reicht die GPU für Witcher 4?

Chill!

Der gesponserte UE-Showcase und Investoren-Call neulich lief schließlich auf Standard-PS5 "at 60 fps with Raytracing". Also quasi nem Ryzen 3700X samt RX 6700 und 16GB-DDR4-Speichererweiterung oder so.

Knackpunkt: Es war ein Showcase, kein Spiel. Tatsächliche Ergebnisse könnten etwas abweichen, wenn das tatsächliche Spiel dann so in zwei, drei, fünf Jahren erscheint. ;)
 
CDLABSRadonP... schrieb:
Sie sind aber gerade nicht im Bereich des Caches und Interface teildefekt, sondern dort künstlich beschnitten.

Das spielt doch keine Rolle! Von den FPS wird nen Navi44 "Vollausbau" geschlagen, sie ist billiger Einstieg in Navi48, und wird ja aus guten Grund vorerst in China verkauft weil man in erster Linie Navi 48 XT, XTX, XTW verkaufen möchte.
https://www.techpowerup.com/gpu-specs/amd-navi-48.g1071

Ich denke schon das AMD das so gestaltet hat, das die Kosten möglichst niedrig und die Erträge potenziel möglichst hoch sind. Wer mehr Speicher braucht, der hat ja Alternativen. Ich wollte nur Anmerken das es Szenarien gibt wo der knappere Bus, der Speicher, eben kein generelles Ausschlusskriterium ist. Das Ding ist im Gaming dennoch schneller als eine 9060XT. Und ner Navi 48 XL ist halt die Resteverwertung, wo man alle Navi 48 in eine Gruppe zusammenfast, die eben nicht für XT, XTX, XTW geeignet sind. Es sind halt wie schon erwähnt, die Holzspähne vom Schreiner, die zu ner Holzplatte verleimt sind! Und es bleibt der günstigste Eingstieg in die Navi 48 Welt. Jedem der kein beschnitten GPU haben will, kann immer zum Vollausbau greifen. Man sollte aber dennoch anerkennen, das nicht jeder das Geld dafür übrig hat, und selbst der beschnittene Navi 48 XL jeden Navi 44 schlägt.
 
  • Gefällt mir
Reaktionen: JarlBallin
yamiimax schrieb:
Reicht die GPU für Witcher 4?
The Witcher 4 kommt nicht vor 2027 heraus. Bis dahin gibt es schon neue GPUs. Gute Strategie ist es immer, sich bei Erscheinen der neuen Konsolengeneration eine GPU zu kaufen, die ungefähr der GPU in der Konsole entspricht.
 
  • Gefällt mir
Reaktionen: SweetOhm
DerRico schrieb:
Als Nerd interessant wäre, wann ist die Schnittstelle so schnell, dass ein zu kleiner Speicher keine Rolle mehr spielt? Mit PCIe 7.0 auf 16 Lanes haben wir dann eine Anbindung mit theoretisch rund 500GB/s. Wenn man die miesen Latenzen wegen der langen Signalwege mal aussen vor lässt, könnte man dann ja direkt aus dem System RAM laden.
Ein Signalweg ist immer eine Verzögerung und da die CPU und andere Stellen ebenfalls noch direkt oder indirekt auf den RAM zugreifen, wäre das sehr unproduktiv. Realistischer ist das Szenario des neuen MS Flight Simulator, der die Daten aus dem Netz streamt und dementsprechend der VRAM auch alle Nase lang mal neu befüllt werden muss. Ich kann mir vorstellen, dass da 8, 10 oder 12GB zwischendurch Nachladeruckler haben, wenn sie langsam angebunden sind. Finde da aber ad hoc keinen Test zu.
 
Zwirbelkatz schrieb:
... oder man wartet abermals ab, dass endlich GDDR7 mit 3GB-Modulen erscheint.
Huh? Ich dachte, die ominöse 5090 Mobile hat genau jene Module verbaut.
Also, geben sollte es schon welche.
 
  • Gefällt mir
Reaktionen: lynx007 und SweetOhm
yamiimax schrieb:
Reicht die GPU für Witcher 4?
Kann dir jetzt noch niemand verbindlich sagen und kommt auf die Auflösung an. Meine Vermutung für <= 1440p locker, wenn man Upscalling nutzt und nicht alles auf maxed out stellt. ULTRA :D
 
@Wolfgang Danke für deine ausführliche Antwort. Ich kann deine Argumente absolut nachvollziehen und bin mir bewusst, dass die Einstellungsmöglichkeiten und Setups mittlerweile so vielfältig sind, dass kein Test alles abdecken kann.
Wolfgang schrieb:
Damit ist klar, wer Grafikkarte x kauft, hat y Prozent mehr Leistung als mit Grafikkarte z.
So gehe ich bei meiner Kaufentscheidung aber überhaupt nicht vor. Die relative Performance interessiert mich dabei gar nicht. Ich suche mir die Spiele aus, die ich spielen möchte, und schaue dann, welche Grafikkarte bzw. CPU meine gewünschten FPS mit meinen gewünschten Einstellungen erreichen kann.
 
daivdon schrieb:
Willkommen im Club :)
Ich glaube allein aufgrund von DLSS4 und auch der Aussage von IgorsLab, nachdem die meisten 9060 XT Karten wahrscheinlich über 400€ kosten werden, werde ich bei der 5060 TI 16GB von Nvidia zuschlagen. DLSS4 wird einfach viel breiter unterstützt. Treiberprobleme haben zudem hin und wieder beide Hersteller. Der aktuelle AMD-Treiber ist z.B. eine Katastrophe, das ganze Bild flackert (Reddit ist voll damit), es hilft nur ein Rollback zum älteren Treiber zurück. Nvidia hat gerade auch erst einen Hotfix-Treiber herausgebracht, nimmt sich also alles nix in der Hinsicht würde ich sagen.

Ich warte aber heute noch die ersten 9060 XT 16GB um 15 Uhr ab, vielleicht gibt es doch ein paar gute Schnapper und sonst wird es die Nvidia 5060TI 16GB.
 
  • Gefällt mir
Reaktionen: daivdon
SweetOhm schrieb:
Das Ding müsste ehrlicherweise 5040 heißen ... :cool_alt:
Was das angeht, gab es eh bei NVIDIA und ebenso auch ein Stück bei AMD Verschiebungen in den Nomeklaturen.

Bei AMD hat sich das jetzt nach der versauten 7000er etwas „entschärft“

Die 4070 Ti und 5070 Ti wären früher die normalen 70er gewesen. Die 80er sind jetzt durchaus „passend“ noch, die 90er waren lange die 80 Ti.

Die jetzigen 70er sind ehr auf dem Niveau der 60er und die 60 Ti auf dem Level der 50er.

Bei AMD ist es an der Stelle etwas „konsistenter“, da war die Anomalie die 7900 XTX, hier hätte man - was allgemein besser gepasst hätte mit 7800 XT angefangen.
 
  • Gefällt mir
Reaktionen: Millennial_24K und SweetOhm
FormatC schrieb:
@ReactivateMe347 OpenCL ist gerade auf Grund der Quelloffenheit performancetechnisch im Nachteil. Zu viele Köche, zu viel fragementierter Kram. Speziell angepasste, hardwarenahe Bibliotheken sind immer schneller :(
Du meist als sie es noch durften ? :freaky:

https://www.igorslab.de/amd-gpus-nutzen-jetzt-nvidia-cuda-bibliotheken-mit-rocm-und-zluda/
Ergänzung ()

aLanaMiau schrieb:
Viel einfacher: Cuda kann proprietäre GPU Funktionen auf NV Hardware ausnutzen,
Das "könnte" AMD Hardware auch ... (siehe Link oben und unten)

https://www.hardwareluxx.de/index.p...öglicht-cuda-code-auf-amd-beschleunigern.html
 
Zuletzt bearbeitet:
DevPandi schrieb:
Was das angeht, gab es eh bei NVIDIA und ebenso auch ein Stück bei AMD Verschiebungen in den Nomeklaturen.

Bei AMD hat sich das jetzt nach der versauten 7000er etwas „entschärft“

Die 4070 Ti und 5070 Ti wären früher die normalen 70er gewesen. Die 80er sind jetzt durchaus „passend“ noch, die 90er waren lange die 80 Ti.

Die jetzigen 70er sind ehr auf dem Niveau der 60er und die 60 Ti auf dem Level der 50er.

Rein auf die relative Performane bezogen stimmt hier dann aber was nicht ganz.

Denn die letzte von CB empfohlene 50er hatte etwa ein Drittel der Leistung der 80er-Karte (bei Ampere sahs wohl ähnlich aus). Die 5080 hingegen ist laut CB-Ratings in etwa knapp doppelt so flott unterwegs wie die 5060 Ti. Aber nur knapp. Bei der 5060 hauts hingegen in etwa hin mit der Einschätzung, dass sie the new 50er ist.

Klar ist auf jeden Fall: In den unteren Klassen bezahlt man bislang (noch) keine höheren Preise -- die GTX 1060/6GB hatte bereits 2016 ihren ~300-Euro-Sticker. Dafür hingegen mit Stagnation... auch bei AMD. Auch Intel lieferten trotz all dem Jubel Ende 2024 mit der B580 "nur" eine ~3060Ti von 2020 mit etwas Speicherpuffer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Zurück
Oben