Test AMD Radeon RX 9070 (XT) im Test: RDNA 4 und FSR 4 sind eine Revolution

Icke-ffm schrieb:
Komische sichtweise, Nvidia hat ein viel grösseres Wafer Kontingent wie AMD bei TSMC,
Richtig und doch auch falsch, denn das beinhaltet eine Behauptung, es würde an AMD und zu wenigen Chips die an die OEMs geliefert wurden liegen. Das konnte aber bisher weder bei AMD noch Nvidia irgendwie bestätigt oder verneint werden.

Fakt ist, trotz Verschiebung und einem viele kleineren Kundenstamm, sie die Karten aktuell nicht verfügbar. Dazu nutzt AMD einen völlig anderen Prozess, sie hätten also durchaus Chips weit im voraus herstellen lassen können. Die Steilvorlage von Nvidia blieb also zumindest an diesem Punkt ungenutzt
Ergänzung ()

Turrican101 schrieb:
Schuld daran sind einzig und alleine die hohen Preise. Ohne die hätte man keine vollen Lagerbestände, sondern hätte die längst verkaufen können. Und jetzt hat man halt den Salat.
Von welchen vollen Lagerbeständen sprichst du? Die alte Gen ist weitgehend ausverkauft, bei AMD wie bei Nvidia. Beide haben diesmal aus Händler- und Herstellersicht fast alles richtig gemacht.
 
Zuletzt bearbeitet:
xexex schrieb:
Fakt ist, trotz Verschiebung und einem viele kleineren Kundenstamm, sie die Karten aktuell nicht verfügbar. Dazu nutzt AMD einen völlig anderen Prozess, sie hätten also durchaus Chips weit im voraus herstellen lassen können. Die Steilvorlage von Nvidia blieb also zumindest an diesem Punkt ungenutzt
Nvidia hat schon immer versucht den altbestand vor erschwinen der neuen Gen abzuverkaufen, somit war das verschwinden der Nvidia Karten im Q4 keine grosse überraschung, das Nvidia aber die neue Gen. nicht ausreichend liefern liefern kann wurde erst im Nov/Dez. für AMD sichbar durch die gemeinsamen AIBs.
da die GPUs aber auch 1Q grob brauchen bis sie Produziert sind zzgl die zeit die die AIBs zum zusammenbau/Testen/Verpacken und verschiffen brauchen ist da schnell 5-6 Monate ins land gegangen und so sind wir im März wo die Karten erschienen sind. selbst wenn AMD die Produktion im Nov verdoppelt hat kommen diese Karten eben jetzt erst langsam in den handel.
ob und wie schnell die verfügbarkeit steigt liegt dann wohl auch zu grossen teilen an TSMC und hier hast Du recht da sieht es für AMD besser aus, denn die nutzen einen Standart TSMC prozess und keinen angepassten wie Nvidia der eben nur von Nvidia genutzt werden kann. föllig unterschiedlich sind die prozesse aber nicht, beides ableger des 5nm von TSMC
 
Icke-ffm schrieb:
Nvidia hat schon immer versucht den altbestand vor erschwinen der neuen Gen abzuverkaufen, somit war das verschwinden der Nvidia Karten im Q4 keine grosse überraschung,
Versuchen tun es beide Hersteller, sonst entsteht ihnen und den OEMs ein riesiger finanzieller Schaden. Bei der Vega ist es AMS aber genauso wenig gelungen wie bei RDNA2, die Karten wollte schlichtweg niemand haben und man musste sie Teils zum halben Preis verkloppen. Der Unterschied bei Nvidia ist, missratene Generation die kaum jemand haben wollte gab es in der Vergangenheit kaum.

Icke-ffm schrieb:
das Nvidia aber die neue Gen. nicht ausreichend liefern liefern kann wurde erst im Nov/Dez. für AMD sichbar durch die gemeinsamen AIBs.
Sicherlich! Du glaubst ASUS, MSI oder Gigabyte petzen fröhlich vor sich hin wie es jeweils bei dem anderen aussieht? AMD hat es gewusst, weil jeder Launch so abläuft und hätte selbst riesige Mengen vorproduzieren können. Sie haben es aber nicht getan und sogar den eigenen Launch verzögert um noch Altbestände abzuverkaufen.

Nenne mir mal einen AMD Launch zu dem es "ausreichend" und rechtzeitig Karten gegeben hätte in den letzten 10 Jahren. Das ist doch kein Ausnahmezustand, jeder Launch verläuft seit vielen Jahren so, außer vielleicht bei Vega was wie Blei in den Regalen lag.

Vor wenigen Jahren war das sogar noch das normalste auf der Welt..
Wer nicht sofort eine neue Grafikkarte haben möchte, sollte wie immer noch ein wenig Geduld haben, bis innerhalb von wenigen Wochen die ersten Partnerkarten der Radeon RX 480 erschienen sind. Diese sollten nicht nur deutlich leiser werden, sondern erreichen eventuell sogar das Leistungsniveau der Radeon R9 390X und GeForce GTX 980.
https://www.computerbase.de/artikel...ste_preisleistungsverhaeltnis__aber_nur_knapp
Heute ist es natürlich ein "Papierlaunch", wenn nicht tausende Karten von jeden OEM sofort am ersten Tag verfügbar sind. Für mich ist das Konsumgeilheit im Endstadium...
 
Zuletzt bearbeitet:
xexex schrieb:
Von welchen vollen Lagerbeständen sprichst du? Die alte Gen ist weitgehend ausverkauft, bei AMD wie bei Nvidia. Beide haben diesmal aus Händler- und Herstellersicht fast alles richtig gemacht.
Falsch, ist er nicht, die AIBs haben keinen Lagerbestand mehr ja, die Produzieren aber zum grossteil eben auch für die OEMs welche die GPUs eben auch von den AIBs beziehen und weitere Zeit benötigen, die bisher in 2025 vorgestellten gross OEMs Dell, HP, Lenovo haben bis jetzt in Deutschland keine einzige 5070ti oder kleinere Blackwell im Angebot
Ergänzung ()

xexex schrieb:
Versuchen tun es beide Hersteller, sonst entsteht ihnen und den OEMs ein riesiger finanzieller Schaden. Bei der Vega ist es AMS aber genauso wenig gelungen wie bei RDNA2, die Karten wollte schlichtweg niemand haben und man musste sie Teils zum halben Preis verkloppen. Der Unterschied bei Nvidia ist, missratene Generation die kaum jemand haben wollte gab es in der Vergangenheit kaum.


Sicherlich! Du glaubst ASUS, MSI oder Gigabyte petzen fröhlich vor sich hin wie es jeweils bei dem anderen aussieht? AMD hat es gewusst, weil jeder Launch so abläuft und hätte selbst riesige Mengen vorproduzieren können. Sie haben es aber nicht getan und sogar den eigenen Launch verzögert um noch Altbestände abzuverkaufen.
Vega musste AMD verramschen wegen ende des Mining Booms, Nvidia hat die GTX einfach am Markt gelassen und RTX mit ordentlichem Preisaufschlag verkauft. bei RDNA2 musst AMD wieder verramschen, Nvidia hat das mit Ampere ebenso getan und den rest einfach abgeschrieben und eine fette Strafzahlung an Samsung geleistet für die nicht abgenommen Wafer.

AMD hat sicherlich gewusst das die alten Karten abverkauft werden, weil es eben immer so ist, aber wie gesagt müssen die neuen auch mit vorlauf an die AIBs gehen das fertige Karten zum Marktstart auch im Handel sind, und wenn die OEMs nicht gepetzt haben wusste AMD erst im Januar das Nvidia nicht genug liefern kann somit eine noch bessere Leistung seitens AMD denn die Wafer die im Januar in auftrag gegen wurden sind noch nicht mal bei AMD angekommen, geschweige den bei den Partnern.
 

Anhänge

  • IMG_0714.png
    IMG_0714.png
    674,4 KB · Aufrufe: 104
Zuletzt bearbeitet:
Wer noch glaubt wegen mehr Spielsupport von DLSS zu Nvidia greifen zu müssen poste ich das mal auch hier, auch wenn hier seit >24h niemand mehr gepostet hat, poste es daher auch noch in Verfügbarkeitsthread damits jeder mit kriegt der sich überlegt ob er ne nvidia oder AMD kaufen soll:
https://github.com/cdozdil/OptiScaler

@Vitche vielleicht mal ne News raus machen über diesen "Game Changer" wenn ich das nur hier poste kriegts kein Schwein mit.
 
  • Gefällt mir
Reaktionen: Apocalypse, Sun-Berg, mario_mendel34 und eine weitere Person
blackiwid schrieb:
Wer noch glaubt wegen mehr Spielsupport von DLSS zu Nvidia greifen zu müssen
Mit Glauben hat das wenig zu tun.
Nvidia ist Marktführer mit ~85%. AMD dümpelt derzeit noch bei 10%.
Von daher optimieren Softwarehersteller ihre Programme/Spiele selbstverständlich mehr in Richtung Nvidia.
 
Das Video zeigt doch selbst das Problem. CP2077 unterstützt kein FSR4, das muss man erst irgendwie da reinfrickeln. Für DLSS4 hats schon nen offiziellen Patch bekommen, bevor die Karten überhaupt vorgestellt wurden...
 
Solange ich nVidia-Karten hatte, musste ich die neuen DLSS-Versionen auch immer in die Spiele reinfrickeln und mit dem DLSS Tweak-Tool das optisch beste Preset auswählen (und evtl. DLAA erzwingen, wenn es das Spiel nicht von Haus aus unterstützt hat). Das einfache DLSS4 per Treiber festschreiben, geht ja auch erst jetzt seit Blackwell-Release.

Ich habe meine RX 9070 übrigens seit einer halben Stunde im Rechner. Der erste Eindruck ist extrem positiv, die Mehrleistung im Vergleich zur RX 6800 und auch zu meiner alten (inzwischen verkauften) RTX 4070 ist Wahnsinn. Witcher 3 Next-Gen DX11 in nativem 4K mit ca. 100 FPS? Kein Problem.
 
  • Gefällt mir
Reaktionen: Alphanerd, DannyA4 und msv
Tr8or schrieb:
Mit Glauben hat das wenig zu tun.
Nvidia ist Marktführer mit ~85%. AMD dümpelt derzeit noch bei 10%.
Von daher optimieren Softwarehersteller ihre Programme/Spiele selbstverständlich mehr in Richtung Nvidia.
Doch es hat was mit glauben zu tun wenn du den Inhalt des Videos angeschaut hättest wüsstest du das das damit zumindest deutlich abgeschwächt wenn nicht gelöst ist.

Zumindest ist das Argument dadurch abgeschwächt. Dazu muss man eben noch 30% mehr pro fps bei Nvidia zahlen jetzt. Wer das gerne in kauf nimmt und keine Lust hat für 1-2 Spiele wo er besseres FSR wirklich vermisst da bisschen zu fummeln soll gerne Nvidia kaufen.

Auch sind die 10% ne zumindest sehr veraltete Information:
https://www.computerbase.de/news/gr...stmals-wieder-anteile-an-amd-und-intel.91658/

Aktuell sind sie bei 17% und das war noch letztes Jahr also selbst Heute werden es schon easy 20% sein weil es die 7900er noch zu kaufen gab zu normalen Preisen und Nvidia die 40er Gen auslaufen lassen hat schon mitte letzten Jahres und oder massiv sie verteuert hat.

Aber will mich jetzt nicht wegen 3% rum streiten nehmen wir die 17% durch den komplett missglückten schlechtesten Release in der Computergeschichte von Nvidia der 50er Generation, und der sehr hoch gelobten von allen Reviewern und höhere Stückzahlen die Verfügbar geht jetzt der Durchmarsch erst richtig los, man muss das einfach mal hoch rechnen, in 1Q in 2024 also 3 Monaten hat Nvidia letztes Jahr 9% gewonnen sogar 10%, damals war Nvidia nicht massiv besser Preis/Leistungsmäsig, also wenn AMD nur gleich viel mit ihrem viel besseren Angebot jetzt zurück gewinnt reden wir von 3% pro Monat also in nem halben Jahr 18% dann sind wir bei 35% Marktanteil, das können spieleentwickler nicht komplett ignorieren.

Und wie gesagt selbst wenn es noch manche ignorieren kann man einfach diese Software benutzen und hat FSR4 gegen den Willen oder zumindest ohne das Mittun von der Spielefirma.

Ihr könnt das bewerten wie ihr wollt und eure Investitionen rechtfertigen mit AMD schlecht reden wie ihr wollt, aber ich will nur das ein paar Leute die vollen Optionen kennen und diese Option als Backup sehen, welche Kaufentscheidung ihr damit trefft müsst ihr natürlich alle selbst entscheiden.

Aber das Argument das es mehr Spielesupport gäbe für DLSS und man deshalb 400 Euro Nvidiasteuer zahlen soll, halte ich damit zumindest deutlich abgeschwächt.
 
Ich habe jetzt das erste Mal FSR4 in Aktion gesehen, in Horizon Zero Dawn Remastered. 4K Quality-Preset. Schon allein der integrierte Benchmark ist eine endlose Kamerafahrt. Die Bewegtbildschärfe ist perfekt, es sieht so scharf aus wie natives Rendering. So scharf war DLSS3 nicht. DLSS3 hat diese Schärfe nur im Stand geschafft, in Bewegung no way. Lediglich das AA schwächelt hier und da mit FSR4, ab und zu ist es ein wenig flimmerig. Aber das ist Kritik auf höchstem Niveau, ich bin grad echt sprachlos.

Vor allem wenn man bedenkt, wie katastrophal schlecht alle FSR-Generationen bis jetzt waren. Ein Traum.
 
  • Gefällt mir
Reaktionen: xXDariusXx, DannyA4 und msv
blackiwid schrieb:
Doch es hat was mit glauben zu tun wenn du den Inhalt des Videos angeschaut hättest wüsstest du das das damit zumindest deutlich abgeschwächt wenn nicht gelöst ist.

Zumindest ist das Argument dadurch abgeschwächt. Dazu muss man eben noch 30% mehr pro fps bei Nvidia zahlen jetzt. Wer das gerne in kauf nimmt und keine Lust hat für 1-2 Spiele wo er besseres FSR wirklich vermisst da bisschen zu fummeln soll gerne Nvidia kaufen.

Frickellösungen sind aber nur etwas für versierte Nutzer und nicht für den Otto-Normalo, der weder Lust noch Zeit hat sich mit möglichen Lösungsansätzen zu beschäftigen, die er selbst umsetzen muss. Offiziell unterstützt Cyberpunk weder FSR 3.1 noch 4.
 
FSR4 ist ein Gamechanger. Probiere es gerade über den Optiscaler in Rise of the Tomb Raider. Mit der Qualität von DLSS war ich selbst in Version 3.7 nie ganz zufrieden, es sah immer gut aus im Stand, aber wurde verschwommen in Bewegung. Nur mit DLAA war es gut. FSR4 will einfach in Bewegung nicht verschwimmen. Man hat immer die Schärfe, die man auch im Stand hat. Selbst mit Ultra-Performance sind die Konturen scharf, und sie bleiben auch in Bewegung scharf. Was mit zunehmenden Skalierungsfaktoren unschärfer wird, sind die Texturen. Sind in 4K mit Quality noch schön crisp, in Performance schon etwas unschärfer und in Ultra Performance schon matschig. Sieht ein bisschen aus wie Kompressionsartefakte auf Youtube. Aber das Bild bröselt nicht. Das Bröseltennis von DLSS in Ultra Performance sah für meine Augen viel schlimmer aus.
 
  • Gefällt mir
Reaktionen: msv und xXDariusXx
@Wolfgang

RT bei Indiana Jones scheint tatsächlich fehlerbehaftet zu sein, nach einen Neustart bzw. Loadingscreen nach Level wechsel bricht bei mir die RT Performance komplett ein.

No RT
Indie no RT.jpg

RT Mittel
Indie Mittel RT.jpgIndie Mittel RT buged.jpg

Full RT
Indie Full RT.jpgIndie Full RT buged.jpg

Man beachte die Leitungsaufnahme wenn buged. Fix RT an/auschalten oder letzten Checkpoint laden.
 
mario_mendel34 schrieb:
Solange ich nVidia-Karten hatte, musste ich die neuen DLSS-Versionen auch immer in die Spiele reinfrickeln und mit dem DLSS Tweak-Tool das optisch beste Preset auswählen (und evtl. DLAA erzwingen, wenn es das Spiel nicht von Haus aus unterstützt hat). Das einfache DLSS4 per Treiber festschreiben, geht ja auch erst jetzt seit Blackwell-Release.

Ich habe meine RX 9070 übrigens seit einer halben Stunde im Rechner. Der erste Eindruck ist extrem positiv, die Mehrleistung im Vergleich zur RX 6800 und auch zu meiner alten (inzwischen verkauften) RTX 4070 ist Wahnsinn. Witcher 3 Next-Gen DX11 in nativem 4K mit ca. 100 FPS? Kein Problem.

Nutzt du noch AM4 bzw. PCIe 4.0?

Hab halt einen 5800X3D. Und der könnte ja vielleicht auch noch gut mit einer 9070 oder 9070XT funktionieren.

Aber KA ob sich das von einer 7800XT überhaupt lohnen würde... FSR 4 soll ja für RDNA 3 in Zukunft vielleicht auch kommen (AI Cores sind ja verbaut). Und die 7800XT ist dann bei neuen Spielen auch 10%+ schneller als die ältere 6800XT.
 
Zuletzt bearbeitet:
Der 5800X3D harmoniert mit einer 9070 XT wunderbar. Habe meine gerade eingebaut und lasse die ersten Benchmarks laufen 👍🏻

Die Power Spikes sind allerdings echt nicht ohne 😮
 
  • Gefällt mir
Reaktionen: DannyA4 und torcid
b|ank0r schrieb:
Der 5800X3D harmoniert mit einer 9070 XT wunderbar
Ich habe nur den normalen 5800X
Meinst du das ist auch noch okay?
Und welches Netzteil nutzt du?
 
@torcid AM5 mit nem 9800X3D, aber nur ein günstiges B650-Board, was auch nur PCIe 4.0 hat. Aber dein 5800X3D ist fürs Gaming doch immer noch top, da würde ich mir gar keine Sorgen machen.

@Windell Habe die Sapphire 9070 Pulse bekommen, wollte unbedingt ein Modell mit den Standard-Powerlimits für maximale Effizienz.

Habe die Karte inzwischen aber mit 10 % mehr Powerlimit und 100 mV weniger Spannung eingestellt. Ist sie bereit für 8K-Gaming in älteren Spielen?
Screenshot 2025-03-11 212242.png


Tomb Raider 2013 mit allen Einstellungen auf dem Maximum in 2160p mit 4xSSAA, also gerendert in 8K. Verdammt gut. Testszene ist die PCGH-Szene Cliffs.
 
  • Gefällt mir
Reaktionen: msv, DannyA4, torcid und eine weitere Person
mario_mendel34 schrieb:
@torcid AM5 mit nem 9800X3D, aber nur ein günstiges B650-Board, was auch nur PCIe 4.0 hat. Aber dein 5800X3D ist fürs Gaming doch immer noch top, da würde ich mir gar keine Sorgen machen.

@Windell Habe die Sapphire 9070 Pulse bekommen, wollte unbedingt ein Modell mit den Standard-Powerlimits für maximale Effizienz.

Habe die Karte inzwischen aber mit 10 % mehr Powerlimit und 100 mV weniger Spannung eingestellt. Ist sie bereit für 8K-Gaming in älteren Spielen?
Anhang anzeigen 1594694

Tomb Raider 2013 mit allen Einstellungen auf dem Maximum in 2160p mit 4xSSAA, also gerendert in 8K. Verdammt gut. Testszene ist die PCGH-Szene Cliffs.


Auf jeden Fall! Geniale CPU ist das immer noch (hatte vorher den 5800X).
Ist ja sogar auf 7600X/7700X Niveau.
 
Zuletzt bearbeitet:
Zurück
Oben