Test RX 9000 vs. RTX 5000: Radeon ist mit neuen Treibern schneller, GeForce langsamer

Naru schrieb:
Und wer auf VSync zockt, also die 60 FPS hält, kriege davon sowieso nichts mit.

@Czk666

Da sieht man wunderbar, wie viel Ahnung die haben, die sowas liken. Jeder Strohhalm wird gegriffen, um die eigene Position zu untermauern. Manchmal ist es besser einfach nichts zu sagen.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Wichelmanni und SweetOhm
in 4K wurden HUB Ergebnisse doch nun seitens CB bestätigt, wie hier schon angemerkt wurde. Die Frage ist nun, ob das auch für 1440p gilt? Bei der 9070xt sehe ich in 4K ein potentielles Bandbreiten-Bottleneck je nach Spiel, da könnten die Leistungsverbesserungen in 1440p noch einmal höher ausfallen, wie bei HUB. Auch RDNA 2 war ja schon in niedrigeren Auflösungen teils schneller unterwegs und verlor dann überproportional an Leistung in 4K. Die 5080 hat schon einen massiven Speicherbandbreitenvorteil ggü der 9070xt. 9070xt ist eher eine 1440p deluxe karte, wie die 5070ti.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und zeedy
ThePlayer schrieb:
Das jetzt der Gegner der 9070xt in Raster die 5080 ist und nicht. Die 5070ti.
Die 5070 Ti ist nicht mehr der Gegner?:lol:
 
  • Gefällt mir
Reaktionen: Zuchtmaista und MalWiederIch
Captain Mumpitz schrieb:
Das bezweifle ich stark. Ich hatte auch eine 6700XT und einen FHD Monitor als ich Indy erstmals angespielt hatte. Mehr als Medium lag für eine wirklich flüssige Framerate nicht drin, und RT kann die 67er schon mal gar nicht.


Dann war bei dir irgendwas kaputt. CB kommt in den genannten Einstellungen auf 67fps, und hier werden normalerweise besonders fordernde Szenen getestet. Man muss schon auf 1440p um die 6700XT mit maximalen Details unter 60fps zu zwingen, aber auch dann bleibt es gut spielbar.


Grestorn schrieb:
... ohne dass einen optischen Unterschied gibt.

Das hatten wir doch schon hinlänglichst.

Als nächstes sagst Du uns allen, dass die 6700XT mit Einstellungen, die die selbe Performance bringt wie eine 3080 mit maximalen RT und mit auf "Mittel" gestellten Texturcache um soooo viel besser aussieht, richtig?

:)


So kann man sich auch schönreden, dass die 3080 wie viele ihrer Nachfolger ein absoluter VRAM-Krüppel zu Apothekenpreisen ist/war Aber wenn nVidia-Jünger alle so denken ist es auch kein Wunder dass die wie z.B. mit der 5070 weiter ihre Kunden verarschen. Wozu die Karten vernünftig ausstatten, wenn man auch beim VRAM sparen kann und die Jünger damit gleichzeitig zwingt im nächsten Jahr die 5070 Super mit mehr VRAM zu kaufen?

Im Gegenteil sind doch Texturen DAS Mittel schlechthin um ohne Performance-Verluste die beste Optik rauszuholen. Bessere Texturen machen fast immer den größten Unterschied, dagegen ist auch RT oft nur eine Spielerei.
 
  • Gefällt mir
Reaktionen: SweetOhm, mydayyy und Dittsche
Bierliebhaber schrieb:
Was bringt einem die tolle RT-Performance z.B. einer 3080, wenn sie z.B. in Indy mit maximalen RT trotzdem nur halb so schnell ist wie die halb so teure 6700XT und man schon in 1080p anders als bei AMD die Details reduzieren muss?
Auch RDNA2/3 sind fine wine, weil sie anders als viele ihrer nVidia-Gegner heute nicht so durch den VRAM limitiert werden dass man schon in niedrigen Auflösungen die Details reduzieren muss.
Indiana Jones ist ein Extrembeispiel in der Hinsicht und du reduzierst dort in erster Linie einfach nur den Texturpool und nicht direkt die Details.
Zumal du dank DLSS4 sowieso bessere Bildqualität bekommst, womit die minimal höher aufgelösten Texturen auf der 6700XT im Upscaling verschwimmen, der FSR4 verwehrt bleibt.

Dann noch der Umstand, dass man DLSS4 Performance gegen FSR3 Quality stellen kann, was sich auch im VRAM Verbrauch wiederspiegelt und die 2GB die die 6700XT mehr an VRAM hat, verpuffen komplett, sodass man sogar die gleichen Textursettings nutzen könnte.
Bierliebhaber schrieb:
Bessere Texturen machen fast immer den größten Unterschied, dagegen ist auch RT oft nur eine Spielerei.
In den meisten Spielen gibt es kaum einen Unterschied zwischen Ultra und hohen Texturen, da macht ein guter Upscaler, den man bei RT sowieso braucht, viel mehr aus.
Und bei Indiana Jones gibts nicht mal zwischen den ersten 3 Settings großartige Unterschiede.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
Dirk aus F. schrieb:
Aber bei allem Wohlwollen für die 9070XT: Da wird auch mehr Strom verbraten als bei der 5070ti. Da wird meist ein wenig schnell drüberweggeschaut...
Und dann
Dirk aus F. schrieb:
Oder hat sich da auch was verändert?
Schon krass. Erst behaupten und dann keine Ahnung haben, noch nicht einmal selber nachschauen. Ist ja auch total schwierig Messungen hier auf CB finden zu können.
 
  • Gefällt mir
Reaktionen: SweetOhm
Beim (leider nicht getesteten) Vergleich zur RTX 5070TI widerlegt Computerbase bei deren theoretischen Berechnung aber das Hardware Unboxed Ergebnis dass die 9700XT jetzt vorne ist und zwar bei genau dem Szenario das bei HWUnboxed getestet wurde, nämlich die Testergebnisse mit dem alten Windows System und Spieleupdates mit einem aktuell gepatcheten System:

„So war die GeForce RTX 5070 Ti zum Launch der Radeon RX 9070 XT in Rasterizer-Spielen 8 Prozent schneller. Falls sich die RTX 5070 Ti nun absolut genauso verhält wie die RTX 5080, sollte der Abstand durch die anderen Treiber sowie die weiteren Software-Updates noch bei etwa 3 Prozent liegen. Mit Raytracing hat sich die GeForce RTX 5070 Ti vor ein paar Monaten noch 12 Prozent schneller als die Radeon RX 9070 XT gezeigt, aktuell sollten es dann noch rund 9 Prozent sein.“
 
Die Prozente hin oder her sind bei dem Test doch eigentlich gar nicht das wichtige, sondern dass wir hier überhaupt einen Test haben der den Sachverhalt beleuchtet. Daher herzlichen Dank für die Mühe und den Test @Wolfgang und @Jan echt super.
 
  • Gefällt mir
Reaktionen: Vasto, Gnodab, Alphanerd und 4 andere
jo0 schrieb:
Man sieht hier an der "Stimmung" ganz gut, dass es den Nvidia jüngern nicht gefällt, das ihre Graka's langsamer geworden sind LUL
Ach, Käse und typische Wunsch-Tribalisierung.

Punkt 1:
Die neuen Treiberversionen verlangsamen oder beschleunigen die GPUs je nach Game im Vergleich zu den alten Treibern. Punkt. Diese Feststellung kann so stehen bleiben.

Punkt 2:
Signifikanz ist angesichts der kleinen Werte kaum gegeben und schon beinahe im Bereich der Messtoleranz zu verorten.

Weder müssen die einen Weinkrämpfe bekommen noch die anderen Jubel anstimmen. In der freien Wildbahn spielt es weder für AMD noch für Nvidia eine Rolle.

Der Rest ist akademischer Natur und eher der reinen Daten und dem Überprüfen des Sachverhaltes wegen interessant.

Von daher finde ich die Überschrift auch etwas befremdlich. Hätte auch "Neue Treiberversionen beeinflussen die durchschnittliche Performance kaum" heißen können.
 
  • Gefällt mir
Reaktionen: shaboo, jo0, DDM_Reaper20 und 4 andere
blackiwid schrieb:
Der Beweis muss erst erbracht werden, bei AMD weißt (zumindest mehr wie bei Intel darauf können wir uns einigen) das die weiter Grafikkarten produzieren ok super highend haben sie mal ne Runde aus gelassen
Das ist jetzt schon die zweite Generation in Folge ohne AMD-Beteiligung bei den schnellsten Grafikkarten.
 
Wäre ich kein AMD Fanboy, und wäre mir ein Nvidia Monopol egal (Was es nicht ist) würde ich dennoch eher die RTX 5070ti kaufen, weil DLSS.
Das die RTX 5070ti jetzt nicht so sehr von neuen Treiber Profitiert wie die RX9070XT wäre mir da egal.
So Fair muss ich schon sein.
(Auch wenn ich seit 20 Jahren nur Radeons verwende und auch weiterhin nur Radeon oder Arc bei mir als GPU infrage kommt solange Nvidia über 80% Marktanteil bei Steam hat)
 
  • Gefällt mir
Reaktionen: Grestorn
Bierliebhaber schrieb:
So kann man sich auch schönreden, dass die 3080 wie viele ihrer Nachfolger ein absoluter VRAM-Krüppel
Was anderes als die erzeugte Bildqualität (bei gegebener, gleicher Framerate) spielt denn am Ende eine Rolle? Ernstgemeinte Frage.

Dass man die 3080 mit bestimmten Einstellungen überfordern kann, ist klar. Ja und? Das kann ich schließlich mit der 6700 auch. Wieso ist das bei der einen Karte so schrecklich, bei der anderen aber voll akzeptabel?
Ergänzung ()

Bierliebhaber schrieb:
Bessere Texturen machen fast immer den größten Unterschied
Nicht bei Indy. Es ist der TexturCACHE, den man einstellt, nicht die Texturauflösung. Wie auch schon bei Doom Eternal, da gabs ganz genau die gleiche Diskussion.

Bei den meisten modernen Spielen wirkt sich die Textur Einstellung sichtbar erst dann aus, wenn man auf sehr niedrige Einstellungen stellt.
Ergänzung ()

Nighteye schrieb:
Wäre ich kein AMD Fanboy, und wäre mir ein Nvidia Monopol egal (Was es nicht ist) würde ich dennoch eher die RTX 5070ti kaufen, weil DLSS.
Finde ich erfrischend ehrlich. Ich kann Deine Motivation auch zu einem gewissen grad nachvollziehen (ich halte es z.B. bei Apple ganz genauso).

Der Unterschied hier ist, dass ich finde, dass sich NVidia seine Stellung durch Innovation erarbeitet hat und ich AMD für deren damalige Politik, ihre CPU Sparte über die GPU Sparte querzusubventionieren und dabei die Forschung und Entwicklung der GPU Sparte zu vernachlässigen, nicht goutieren möchte (inzwischen ist es natürlich anders, aber ich spreche über die Jahre nach der Übernahme von ATI.
 
Zuletzt bearbeitet:
Die AVG frames sind niedriger. Aber die 1% sind bei den für mich interessanten spielen gestiegen. Denke das ist fürs Spielgefühl entscheidender als ob man nun 120 statt 126 FPS hat
 
Ich, ein wie viele hier gerne sagen, NV Jünger kann das, was CB hier getestet hat absolut nachvollziehen.
Dabei muss man als Nvidianer froh sein, dass so ein Test nicht schon früher gemacht wurde. Fast alle Treiber waren zum Teil, von Spiel zu Spiel, langsamer und nach wie vor haben einige alte Spiele mit den neuen Treibern Frametimeprobleme. Wenn da the Division 2, oder AC Mirage oder neuer aber genau so ein Rotz, Avoved und South of Midnight drin wären, wäre das Ergebnis für NV deutlich schlechter, gerade auch gegen die "alte" 40er-Serie. Es gibt auch Beispiel wo es besser geworden ist, z.B. Indy da ging am Anfang recht wenig mit MFG, dass hatte sich nie wirklich rund angefühlt, heute läuft das gut zum Teil sehr gut ob das auf die Treiber oder Patches zurückzuführen ist, kann ich aber nicht sagen, ist aber auch egal.

Ok beim Start einer neuen Serie kann so etwas schon mal vorkommen, hackt man ab und wartet auf neue Treiber, aber nach einem halben Jahr war einer der wenigen Treiber die annähernd "normal"funktionieren genau der getestete 576.88 bzw. der 576.80. Aber auch die schaffen es nicht wirklich, die von mir o.a. Spiele so darzustellen, wie es die FPS eigentlich vermuten lassen würden, besser aber nie wirklich gut. The Division läuft in einigen Bereichen nach wie vor mit allen Treibern nach dem 572.16 einfach schlecht und South of Midnigt ist auch auf einer 5090 in dem Level mit der Schweinefarm nur gerade so spielbar, hohe FPS aber 1% Lows aus der Hölle. Eine 4090 hatte in dem Spiel genau--null Probleme--

Ansonsten @Wolfgang der Test ist genau so gekommen wie er kommen musste, neustes Win und aktuellem Patchstand bei den Spielen und dann halt alter Treiber gegen neuer Treiber👍. In 1440p wäre es für NV vielleicht schlechter ausgegangen, denn die neue AMD hat in 4K so ihre Probleme und die NV eigentlich durch alle 50er Karten, sofern sie genug Speicher an Board haben ihre Stärken. Der eigentliche Gegenpart der RX9070 XT ist die 5070Ti und sowohl die eine wie die andere Karte dürfte oft in der Kombination mit schnellen 1440p oder 3K Monitoren eingesetzt werden. Aber sei es drum, es ging ja nicht um AMD gegen NV, sondern alter Treiber gegen neuer Treiber.
 
  • Gefällt mir
Reaktionen: Vigilant, danyundsahne, Dittsche und 2 andere
Was hier wieder gejammert wird..."clickbait", "merkt man nicht" etc. Im Unterricht würde es heißen, Thema verfehlt 6.

Darum geht es überhaupt nicht. Normalerweise nimmt die Performance mit neuen Treibern über die Zeit zu. Siehe aktuell AMD Treiber, oder wie es auch bei der 4000er Generation der Fall war etc. Hier ist dieser Trend nicht zu erkennen, das Gegenteil der Fall.

Das passt auch zu dem Ganzen Release der 5000er Generation.
Bald können alle den selben BS bei Nvidia nochmal kaufen, aber jetzt mit mehr Speicher und auch für mehr Geld.

Will @Wolfgang das nicht antun, aber ist die 4000er auch langsamer geworden, oder nur die 5000er? ;)
Danke für die ganze Arbeit ❤️
 
  • Gefällt mir
Reaktionen: Alphanerd
Stimmt. Wie ich schon schrieb, der ganze NVidia BS ist nun deutlich unterlegen und es gibt absolut keinerlei Grund so viel Geld auszugeben, die RX 9070XT ist in allen belangen so massiv überlegen.

Und es wird ja nur noch schlimmer werden.

In spätestens 1 Jahr wird man Spiele wie Indy auf NVidia Karten nur noch als Slideshow anschauen können.

:p
 
  • Gefällt mir
Reaktionen: Quidproquo77
Quidproquo77 schrieb:
nicht einmal das was Nvidia schon 2,5 Jahre früher gebracht hat. Warum das gut ankam, weiß ich nicht. Bei Intel hätte man sich drüber lustig gemacht, hat man ja an Arrow Lake gesehen. Und das ist etwa das Pendant zu RDNA4.
Siehst du Kandidat 1, da ist es wieder.
Nur ja nicht nichts wertschätzen oder für gut befinden. Nur der, der das allerbeste und schnellste liefert hat das in deiner Welt verdient. ^^
 
  • Gefällt mir
Reaktionen: eXe777, Alphanerd, Alesis und eine weitere Person
Jetzt ist es endlich so weit. Wie das Internet seit Jahren behauptet, sind die AMD Treiber dermaßen schlecht geworden, dass sie jetzt sogar NVIDIA nach unten ziehen.

Wir wurden immer gewarnt, aber wir wollten es ja nicht anders!!11!elf!!

PS: Immerhin stürzt Expedition 33 jetzt seit ein paar Treiberupdates viel schneller auf meiner 4070 TI ab. Soll keiner sagen, die können nix in der grünen Ecke!
 
  • Gefällt mir
Reaktionen: M4deman
Ein (m.E. leistungsklassen-gerechterer) Vergleich von eigentlich angemessenerer RTX 5070Ti zu RX 9070XT hätte wohl noch besser für RDNA4 ausgesehen (mit weniger langem Balken für die nVidia Grafikkarte), aber dass die RTX 5000 Generation ein ziemlicher Flop, ist ja schon eine Weile bekannt.

Die (wenn auch kleinen) Leistungseinbußen im aktuellen nVidia Treiber verstärken so einen Eindruck noch mehr als die ohnehin schon bekannten generationsspezifischen Defizite (z.B. mangelhafte PhysX Unterstützung, mangelnde Treiberstabilität bzw. BlueScreens, generationsübergreifend enttäuschender Leistungs- und Effizienzzuwachs, geerbte 12VHPWR Steckerprobleme, latenzsteigerndes Generations-Exklusivfeature/Multi-Frame Generation, meist noch deutlich höhere Produktpreise als bei den Vorgänger-dGPUs schon).

Man darf gespannt sein darauf, wie nVidia RTX 6000 und AMD RDNA5/UDNA1 Grafikkarten ausfallen werden (voraussichtlich erst ab Ende 2026/Frühjahr 2027), zumal die vorherigen Refreshs von RTX 5000 und RDNA4 Karten voraussichtlich nicht viel bieten dürften außer ein wenig mehr Speicher oder Bandbreite (für einen Aufpreis) hier und da.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jo0 und SweetOhm
Zurück
Oben