Test AMD Radeon RX 9060 XT im Test: Mit 16 GB eine Option, mit 8 GB erst gar nicht bemustert

Hallo zusammen,

@duskstalker
duskstalker schrieb:
wenn man jetzt mal ignoriert, dass die selbe hardwareklasse jetzt doppelt so viel kostet wie vor 8 jahren
Ich denke du hast da was ziemlich falsch verstanden. Oder hast dir das absichtlich so zurecht gezimmert.

Er meinte in jedem Fall "Aktuell". Und nicht im vorigen Jahrhundert, oder so.

Ne NV Karte mit 16 Gbyte VRam in dem Preissegment...............kannst du vergessen. Wird es voraussichtlich die nächsten Jahrhunderte auch nicht Geben :cool_alt:.

So long....
 
  • Gefällt mir
Reaktionen: SweetOhm und danyundsahne
@Luxmanl525
So, ich hab mir jetzt das ganze beim Igor nun 2 mal komplett durchgelesen inkl. der Kommentare in seinem Forum.
Und inzwischen bin ich eher auf dem Standpunkt dass er das selber verbockt hat.
Warum ? Ganz einfach:
Man mag von dem gestaffelten Review NDA mit 4.6 für direkt von AMD bemusterte Reviewer und mit 5.6. für von Boardpartnern oder Händlern versorgten halten was man mag, und ich sehe das auch als groben Unfug.
ABER: Er hatte ein NDA für den 5.6. um 15h.
Dann ruft ihn heute (also am 4.6.) um 15:30 also Nvidia an (die wussten vllt nichts von gestaffelten NDA Daten -was ich zwar kaum glaube) wo denn sein Test wäre.
Und was macht de gute Igor ? Haut die Tests einfach raus uns fantasiert sich ein spekulatives Kommunikationsproblem zusammen, obwohl auch nach Kontrolle alle seine schriftlichen Unterlagen vom 5.6. sprechen. Aufgrund eines Anrufes von NVIDIA !
Ein einfacher Anruf seinerseits bei AMD zur Nachfrage ob sein NDA jetzt noch gelte oder nicht, hätte das ganze Drama aufgelöst.... WTF

Wie gesagt, völlig affig und chaotisch ein gestaffeltes NDA das darf sich AMD schön brav hinter die Ohren schreiben, aber Fakt ist er hat sich einfach nicht an das NDA aus seinen Unterlagen gehalten. Period !
Man lernt das heutzutage schon in jungen Jahren: Nur schriftlich zählt, nicht mündlich, und schon garnicht etwas das ich mir selber zusammenspekuliere. Das sollte er eigentlich wissen so lange wie er im Geschäft ist.
Ich mag Igor, ich kenn ihn noch von Toms Hardware, lese seine Tests/Artikel sonst gern und hab seinen YT Kanal abonniert da war der Counter erst bei knapp über 500; ich bin nur im Forum nicht angemeldet.
Und wenn er Steve von GN wegen der 5060 bzw. generell Nvidia Geschichte als Drama Queen hinstellt soll er hier dann doch bitte erst mal selber in den Spiegel schauen.
Das Getue jetzt wären 5 Tage Arbeit, 16 Seiten, 44k Worte für die Katz ist lächerlich.
Den Test kann er immer noch rausbringen, nur zum vereinbarten Datum dann halt.
Auch wenns für die Klicks mit dem gestaffelten NDA natürlich nachteilig ist wenn man später kommt.
Bei all der durchaus berechtigten Kritik am AMD muß man ihnen aber zumindest zugute halten dass es keine lächerlichen und geschönten Quasi-Reviews wie beim Mitbewerber gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stramma, ETI1120, DF86 und 9 andere
Buster75 schrieb:
Finde das auch problematisch. Auf Dauer stärkt man dadurch doch nur wieder die Konsolen. Für den Preis bekommt man am oberen Ende der Spanne bereits eine PS5.


Sollte die 9060 XT irgendwann tatsächlich zur nullverbindlichen Preisempfehlung verfügbar sein, hat man damit erstmals unter 400 Euro in etwa die Grafikpower der PS5 Pro. Ein kompletter PC ist natürlich immer teuerer, selbst ein Budget-AM4-System, das reichen sollte, um eine PS5 Pro auf Basis von Zen2 zu matchen. Aber: Das wird hier gerne vergessen, Computerbase vergleicht und bencht so nicht im Gegensatz etwa zu Digital Foundry: Konsolen laufen seltenst in 128K nativ, 288 fps minimum -- und dann dem Äquivalent zu maximalen Settings auf einer nach oben offenen PC-Plattform, die gelegentlich härter ins Performance-Kontor schlagen als jede Auflösung (hallo Path- und Raytracing auf Ultra).

Das mit den Preisen glaube ich aber erst, wenn ich es sehe. :D
 
Zuletzt bearbeitet:
ich auch :D zwecks Preise
finde die 9060XT aber durchaus sehr schmackhaft
 
  • Gefällt mir
Reaktionen: SweetOhm
Svennc schrieb:
Sollte die 9060 XT irgendwann tatsächlich zur nullverbindlichen Preisempfehlung verfügbar sein
Die NVP (🤪) gilt halt aber auch nur für die Versionen mit Standardtakt und einfachen Kühllösungen.
Die wollen aber die meisten dann wieder nicht haben...
Was Powercolor für eine Red Devil oder Sapphire für eine Nitro+ verlangen ist immer noch die Sache der AIB´s und dann kommt natürlich noch der Handel dazu.
Bei Billig bzw. Referenzkarten gibts offenbar eh kaum noch Marge; Igor selbst schreibt von 5-7 %
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Tornavida schrieb:
Ansichtssache, ein Manko wird für mich durch einen günstigeren Preis nicht ausgeglichen. Wenn ich guten und einfachen Upscalersupport fordere scheidet die Radeon aus, Punkt.
https://www.igorslab.de/der-nicht-t...eine-hersteller-vom-anderen-das-falsche-lernt

Ich gebe dir insofern recht, dass die UVP wieder ein Phantasiegebilde zu sein scheint und nur eine begrenzte Zahl für die UVP rausgeht, was am Ende dazu führen soll, dass die Karten günstig ankommen sollen. Kostet die 9060XT über 400 Euro, ist die 5060 Ti klar vorzuziehen.
Tornavida schrieb:
Klar als versierterer Nutzer kann ich mit Optiscaler unsw. hantieren und Kompromisse eingehen aber will ich Das ? Nein.
Auch valide.
Tornavida schrieb:
Ach, komm schon...wir bewegen uns immer noch in Regionen , die weit entfernt sind , dass das mal locker flockig mit einem Ferienjob bezahlt ist und damit ein Argument wäre für eine Gruppe was aber trotzdem Nichts daran ändert ,dass man auch weniger Support out of Box erhält.
Die Ersparnis könnte dann in die restlichen Bestandteile fließen und rein theoretisch könnte immer mehr Geld für die nächst höhere Stufe ausgegeben werden.
SweetOhm schrieb:
Bei dem CB/NV Parkour halt nicht. Bei anderen sind die zwei genau auf Augenhöhe ...
Und bei RT dann 10-16% Punkte langsamer und bei PT weit weg. Soviel zur Augenhöhe..., aber manche müssen immer die Hälfte der Ergebnisse weglassen um besonders zu glänzen.
Neodar schrieb:
Willkommen im Hirn der NVidia Fans.
Es ist nicht mehr als eine sachbezogene Überlegung wie etwas Mehrleistung, meinetwegen OC und Features einzupreisen sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tornavida
Wieso schreibt ihr, AMD hat keine Antwort auf CUDA? AMD ist doch wesentlicher Treiber von OpenCL, das im Gegensatz zu CUDA offen ist und Softwareentwicklern die Unterstützung beider GPU-Typen emöglicht?
 
  • Gefällt mir
Reaktionen: JarlBallin
@ReactivateMe347 OpenCL ist gerade auf Grund der Quelloffenheit performancetechnisch im Nachteil. Zu viele Köche, zu viel fragementierter Kram. Speziell angepasste, hardwarenahe Bibliotheken sind immer schneller :(
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Quidproquo77
80 Euro unterschied zur 5060 ti? Das ist ja ziemlich genau ein neues AAA Spiel.

Und dafür auf dlss, fg, cuda und nvenc verzichten? Für mich wäre die Entscheidung eindeutig.

Denke die wenigsten würden die Karte für aktuelle AAA kaufen, sondern eher lol, minecraft, cs, valo oder ow damit spielen - und da braucht niemand 16gb vram.

Und machen 4k/Ultra Texturen auf 1080p überhaupt Sinn? Kann man den Unterschied der AI-skalieren Texturen nach dlss/fsr überhaupt noch erkennen? Oder ist das nur ein synthetischer Benchmark der nichts mit der Realität zu tun hat?

FormatC schrieb:
Zu viele Köche, zu viel fragementierter Kram. Speziell angepasste, hardwarenahe Bibliotheken sind immer schneller :(
Viel einfacher: Cuda kann proprietäre GPU Funktionen auf NV Hardware ausnutzen, die beschleunigen besonders AI workloads so stark, dass alles andere weit abgeschlagen ist. Entsprechend sind Alternativen wie OpenCL auch nur selten überhaupt implementiert: Das Ergebnis würde den Aufwand nicht rechtfertigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, danyundsahne und fram
Das Problem ist imho das die Preise für die "default" Karten gelten:

Radeon RX 9060 XT 16 GB 369 Euro
GeForce RTX 5060 Ti 16 GB 449 Euro

Wenn eine Nitro Ultra FTW 9060 XT OC dann 420€ kostet, kann ich auch einfach die default Ausführung der 5060 Ti für +30€ nehmen. Win Win.

Für reine Einsteiger ist die 9060 XT 16GB imho ein tolles Produkt ...

Aber für alle Updater die zB von 3060 oder 3060 ti (release 2021 und 2020) kommen, ist das irgendwie nichts. Gerade mal +30% in 1080p & 1440p. Höchstens bei Raytracing wäre die Karte 60-75% schneller, aber dafür sind beide auch einfach nicht gemacht.

Für 300€ ja, aber nicht für +70€ mehr und trotzdem nur 80€ von Nvidia entfernt.

Abseits der Features die bei AMD noch kommen sollen, wie MFG oder mehr FSR4 Titel, muss man dafür aber warten. Konkret bedeutet das, der eine zockt schon 1 Jahr munter mit MFG & vielen DLSS Titeln, während der andere erst viel später Zugriff erhält. Und das immer wieder bis ans EOL der GPU.

Insofern würde ich auch einem Einsteiger dazu raten, eine 5060 Ti zum Bestpreis zu kaufen. Bei Komplett PC Käufen einfach weniger Speicher/NVMe, das günstigere Mainboard und/oder die kleinere CPU.

Vielleicht kommen wir ja auf die ca. 300 in 4 Monaten für das 16GB Model. Wäre wünschenswert.
 
aLanaMiau schrieb:
Denke die wenigsten würden die Karte für aktuelle AAA kaufen
warum???

Die leute kaufen sich solche Gpus weil sie nicht mehr Geld haben oder ausgeben wollen. entweder als einzelne hatdware ider im komplett pc. und du kannst ja auch jedes AAA spiel damit ohne weiteres spielen.

Nur halt nicht in pathtracing oder je nach spiel in 4k und ider Ultra details.

Aber oh schreck, wie haben wir das nur in den letzten 20jahre gemacht in dieser Gpu klasse?
 
  • Gefällt mir
Reaktionen: SweetOhm
Müsste ich JETZT einen Mittelklasse Gaming PC bauen, wäre die 9060 XT die GPU die ich verbauen würde.

Sieht insgesamt ordentlich aus.

Preise sind allgemein kaputt. Sicher nervig, aber nicht zu ändern aktuell.

Manchmal hat man das Gefühl dass nVidia und AMD sich "kein Auge aushacken" wollen.

FoXz schrieb:
Ohne Upscaling zu spielen ist nunmal nicht mehr zeitgemäß ....

Ich spiele NIE mit Upscaler und es funktioniert wunderbar.

Ich kann halt aber auch Regler bedienen, wenn es hakt.
 
  • Gefällt mir
Reaktionen: SweetOhm und danyundsahne
blackiwid schrieb:
Bin mir ziemlich sicher irgendwo 369$ gelesen zu haben, ist aber schon eine Weile her.
Ist aber auch egal, denn die MSRP-Karten werden wohl nur gering verfügbar sein und nach dem Startschuss teurer werden. Siehe 9070, am Release gab es UVP-Karten, danach lange nicht mehr gesehen.
Aber neulich gabs ne News, dass die 9070 erstmals die UVP unterschritten hat, bei der 9070XT hingegen nicht.

Gehe davon aus, dass nach dem Start die Karten um die 400€ zu kaufen geben wird.
 
incurable schrieb:
"mit 8 GB erst gar nicht bemustert"

Skandal! 😈
Traurigerweise steht AMD bei dieser 8GB Karte nur aufgrund der Tatsache schon wesentlich besser da, weil sie den vollen x16 Link bereitstellen.
 
  • Gefällt mir
Reaktionen: SweetOhm, JarlBallin und danyundsahne
Blackfirehawk schrieb:
Das Problem in der Leistungsklasse der rx9060xt ist einfach das upscaling..
FSR4 ist n guter Schritt.. aber die Verbreitung ist noch sehr dürftig... Und nicht wirklich abwärtskompatibel..

Während man bei DLSS4 auch mehrere Jahre alte Spiele mit DLSS2 problemlos upgraden kann.. entweder per Override oder per Fileswap.. (und das bei 6 Jahre alten Karten)

Also ist man doch wieder trotz neuer Karte bei FSR2-3.. während man bei Nvidia ab DLSS2.0 wenigstens selbst Hand anlegen kann
Auch für dich nochmal zur Info. "Fileswap" gibts nicht nur bei Nvidia exclusiv. Auf diesem Wege geht z.B. auch DLSS 2 auf FSR4 auf einigen Spielen.

Aber per Treiber hat AMD das nachsehen. Das stimmt leider. FSR 3.1 ist im Spiel notwendig, damit es dann via Treiber mit FSR 4 läuft.
 
  • Gefällt mir
Reaktionen: SweetOhm
Hovac schrieb:
Die Speicherbandbreite sagt bei verschiedenen Architekturen eigentlich wenig, deshalb gibt es ja Tests wie diesen, die über die damit erreichte Leistung aufklären.
Ihr müsst die Erklärung an dieser Stelle nicht wirklich versuchen. Manche Leute werden nicht darauf hören, weil sie nicht verstehen, dass die Bandbreite nur einen Teil einer GPU ausmacht. Die Diskussion GDDR6 gegen GDDR7 und die Bandbreite ist fast genauso gut wie, dass viel Speicher ja nur sinnvoll ist, wenn er schnell an die GPU angebunden ist.

Ich weiß, dass ich jetzt etwas "teasere", aber an der Stelle ist es mal angebracht, um die Sache zu veranschaulichen:

RTX 2070 und RTX 3070:
1749099768009.png

Beide Grafikkarte haben eine Bandbreite von 448 GB/s, bei der mittleren Leistung:
1749099824378.png

Und wir reden hier noch von zwei Grafikkarten, die keinen mega großen L2-Cache oder Vorgelagerten L3-Cache haben, sondern nur ihre Bandbreite.
gustlegga schrieb:
Der langsamere GDDR6 ist nicht die Bremse bei den Karten.
Zumal sowohl bei Blackwell als auch bei RDNA 4 durch den großen L2-Cache als auch Infinity-Cache die Bandbreite etwas an Bedeutung verliert, da mehr Daten in den Caches vorhanden ist.

Noch ein anderes Beispiel, wieder ein bisschen Teasern, jetzt zu RDNA:

1749100004576.png

Und hier mal das, was im Mittel dabei herumkommt:
1749100030710.png

WAS? Wie kann das denn sein? Hier sinkt sogar die Bandbreite um 15 % und trotzdem kann die Grafikkarte um 41 % schneller sein! WTF, wie kann das denn nur sein? Ist halt die Einführung des Infnity-Caches.

Für GPUs, egal ob jetzt professionell oder eben für uns Spieler: Die Bandbreite muss der Rechenleistung entsprechen. Zu langsamer Speicher kann eine GPU ausbremsen, zu schneller Speicher kann von der GPU nicht in Leistung umgesetzt werden.

Und die Speichermenge ist davon weitgehend entkoppelt. Speichermenge braucht man für die Assets und für die Zwischenschritte. Die meisten Texturen - ja ich bin lernfähig - haben nur eine sehr kleine bis keine Auswirkung auf die Leistung. Ob man jetzt 1k, 2k, 4k oder 8k Texturen verwendet, wirkt sich minimal auf die FPS aus. Die Texturen, die eine Auswirkung haben könnten, die wiederum sind in der Regel direkt an die Shader gekoppelt und der Impact auf die FPS hängt primär vom Shader ab, nicht von der Texture - Mip, Normalmaps usw.

Es ist daher auch vollkommen egal, ob hier jetzt GDDR6 oder GDDR7 verwendet wird. Die Bandbreite muss passen. Wir sehen aktuell bei Nvidia bei allen Grafikkarten, dass sie massiv an Bandbreite zugelegt haben, gleichzeitig sind sie allerdings in der Regel nur um die gestiegene TBP sowie Shader/Takt schneller als ihre Vorgänger.

Und bei der RX 9070 XT haben wir sogar die Situation, dass die Grafikkarte sich auf dem Niveau der 7900 XT und 7900 XTX bewegt und dennoch wieder stark an Bandbreite eingebüßt hat.
ReactivateMe347 schrieb:
AMD ist doch wesentlicher Treiber von OpenCL, das im Gegensatz zu CUDA offen ist und Softwareentwicklern die Unterstützung beider GPU-Typen emöglicht?
Nein, nicht mehr und OpenCL hat eigentlich keine wirkliche Bedeutung mehr. AMD hat hier - und so kritisch muss man sein - seit 2006 richtigen Mist gebaut.

Mit der Radeon X1-Generation war man quasi Vorreiter des HPC-Marktes, hat 2006 dann mit Firestream sogar eine erste API für HPC-Markt vorgestellt und die Firestream-GPUs auf den Markt gebracht. Nur hat ATi dann durch die Übernahme von AMD hier alles schleifen lassen und Firestream stiefmütterlich behandelt. Führe dazu, dass Nvidia mit CUDA ihr heutiges Monopol aufbauen konnten im HPC-Markt. Apple hat dann OpenCL initialisiert und AMD zwar passende Treiber dazu angeboten, nur während Nvidia Entwicklungshilfe leistet, hat AMD diese Ressourcen nicht gehabt. OpenCL war von dem Zeitpuntk eine "Verlegenheitslösung", da selbst in vielen OpenSource-Projekten lieber CUDA implementiert wurde.

Die Dominanz von CUDA zu brechen, versucht AMD auch erst seit 2016 mit ROCm und da auch primär für den HPC-Markt anfangs. Erst "jetzt" geht AMD auch so weit, dass sie selbst im "Consumer"-Markt CUDA angreifen.
 
  • Gefällt mir
Reaktionen: Millennial_24K, gustlegga, SweetOhm und 6 andere
Und nochmal ein schönes Beispiel betreffend Speicherbandbreite, siehe meinen Beitrag hier. :
Schon wieder diese GDDR6 Diskussion betreffend RDNA4. Um nochmal das "Extrembeispiel" zu nennen. Eine 7900XT hat eine Speicherbandbreite von 880 GB/s. Die 9070(XT) 645 GB/s. Sprich die 7900XT hat ein gutes drittel mehr Speicherbandbreite. Und wo die 7900XT sich im Vergleich der Leistung zu 9070 und 9070XT befindet, wissen wir ja.
Also nochmal, wie hier auch gerade von @DevPandi schön dargelegt: Speicherbandbreite ist nicht alles.
 
  • Gefällt mir
Reaktionen: gustlegga, SweetOhm und danyundsahne
Man testet die 8GB Version erst gar nicht, was ich ja noch verstehe, aber dann macht man keinen Vergleich mit dem direkten Vorgänger der Grafikkarte (7600XT mit 16GB) sondern nur mit der 7600 8GB Variante.

Gibt irgendwie keinen Sinn. Somit ist kein direkter Vergleich möglich, da bei der 8GB immer die Möglichkeit besteht, dass der Leistungsabfall wegen zu wenig VRAM besteht.

Ich versteh sowieso nicht, wieso man ständig noch die 7600 mit 8 GB auspackt.
 
  • Gefällt mir
Reaktionen: Micha_80
Nixdorf schrieb:
Den besseren Test zur Thematik gibt es hier bei ComputerBase.
Du sagst es, besser ist er zweifellos, nur eben auch nicht aussage kräftig, denn die Details wurden angepasst um die Grafiklast zu senken, das sich damit mehr FPS holen lassen, ist wohl jedem klar, nur wie sieht es aus wenn alles auf max steht incl. RT und meintwegen auch DLSS Balanced oder Performance. bekommt man dort auch mehr FPS oder ist dann die GPU last so hoch das die Bandbreite kaum noch einen Unterschied macht.

kann mir sogar vorstellen das eine 3060ti am ende an PCIe3 schneller ist wie die 5060ti-8GB an selber ( in einzeltiteln, nicht overall)
duskstalker schrieb:
bekommt man hier mit der next gen grafikkarte 4gb mehr vram für 20€ weniger und das wars.
Du kannst keinen Marktpreis nach 2Jahren mit der UVP vergleichen.
die 7700xt hatte eine UVP 489€ Marktstart bzw. später auf 459€ reduziert somit war sie 90€ teurer, was in der Preisklasse schon ordentlich ist, auch wenn die Leistung auf der Strecke bleibt ist der Einstieg wieder günstiger geworden. Da AMD jedoch gesagt hat sie bieten nur noch bis Mittelklasse an, sind sie eigentlich Deutlich teurer aber auch schneller geworden.
9060 ist somit einsteiger Klasse teurer wie 7600 aber teurer und schneller
9070 mittelklasse aber eben auch $100 Ust teurer wie die 7700/7800xt
Ergänzung ()

Casillas schrieb:
Also nochmal, wie hier auch gerade von @DevPandi schön dargelegt: Speicherbandbreite ist nicht alles
Ja stimmt schon irgendwie, nur wenn Du die 7900 als Basis nimmst siehst Du eben auch das SI bzw Bandbreite eben zur GPU passen müssen, die 7900GRE hat nur -4CU &-64Bit wie die XT ist aber deutlich Langsamer, die xtx ist hingegen mit Ihren +14CU und +64Bit deutlich schneller wie die xt.
Es kommt halt auch auf die anforderungen an, ich kann mir schon vorstellen das Nvidia nun spiele fördern wird, die eben durch das + an Bandbreite mehr zulegen als üblich, um einen vorteil ziehen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben