Test RX 9000 vs. RTX 5000: Radeon ist mit neuen Treibern schneller, GeForce langsamer

ElliotAlderson schrieb:
2%? ist das dieser angebliche "Fine Wine", von dem Jahrzehntelang immer die rede war? :freak: :freak:
Yup !
Bei den einen gibt es 2% plus, bei den anderen 2 % minus. Echt ne bittere Pille, gelle ... :king:
 
  • Gefällt mir
Reaktionen: jo0, Alphanerd, Alesis und 2 andere
q.e.d.
 
  • Gefällt mir
Reaktionen: MalWiederIch und ElliotAlderson
Meiner Meinung nach ist das neue Nvidia Transformer Model viel relevanter als Performance Boost, weil man weiter runter kann beim DLSS Modus
 
  • Gefällt mir
Reaktionen: anarchie99, Quidproquo77, Taxxor und eine weitere Person
incurable schrieb:
Das ist jetzt schon die zweite Generation in Folge ohne AMD-Beteiligung bei den schnellsten Grafikkarten.
Achtung "Cherry" ... ;) (siehe Anhang)
Ergänzung ()

Grestorn schrieb:
Stimmt. Wie ich schon schrieb, der ganze NVidia BS ist nun deutlich unterlegen und es gibt absolut keinerlei Grund so viel Geld auszugeben, die RX 9070XT ist in allen belangen so massiv überlegen.

Und es wird ja nur noch schlimmer werden.
Endlich, manchmal kommt die Erkenntnis etwas später ! :daumen:
Ergänzung ()

Breaktivity schrieb:
Bei HUB hat die 9070 XT die 5070 Ti in 1440p überholt, in 4K nur eingeholt. Das theoretische Endergebnis in 4K ist ja fast das gleiche (5070Ti = 9070XT+3% vs. +-0%), auch wenn die Spielewahl bei Computerbase deutlich umfangreicher ist.
Ich bin jedenfalls gespannt, ob sich 1440p annähernd so drastisch wie bei HUB verbessert oder nicht, sofern das auf dem Testplan steht.
Glaub ich eher nicht.
Denn schon vor dem Treiber Update lag die 9070XT in RR/1440p mit der 5070Ti im Schnitt (20 Games in 4 versch. Auflösungen) bei PCGH gleich auf (siehe Anhang).
Und der CB Benchmark Parkour spielt eher den NV GPUs in die Karten (Wortspiel) ... :freaky:
 

Anhänge

  • Bench Stalker RT + FG.jpg
    Bench Stalker RT + FG.jpg
    195,8 KB · Aufrufe: 94
  • GPU Index 2025.jpg
    GPU Index 2025.jpg
    325,5 KB · Aufrufe: 78
Zuletzt bearbeitet:
Naru schrieb:
Um was geht 's hier? Zwei Prozent in der Performance-Differenz von Treibern?
Und ihr meint, so etwas merken die Leute?


Die Leute kaufen - relativ undurchdacht - immer den Benchmarksieger der von der Presse gefeiert wird. Zwei Prozent in Spielen sind beim Launch dann ein Grund zum feiern, auch wenn es handselektierte ASICs mit viel zu hoher Stromaufnahme, bei laecherlichen Preisen sind. So hat sich Intel lange ueber Wasser halten koennen. Nvidia immer noch.

Wer dann etwas mehr Ehrfarung vorhanden ist, schaut man auf Eigenschaften wie Zuverlaessigkeit, Leistung/Stromverbrauch, Linuxunterstuetzung und Unterstuetzung bestimmter Einsatzszenarien. Wer Linux einsetzt, greift hoffentlich zu AMD. Und geniesst seine Ruhe, gelegentlich ein paar mehr FPS, ein neues Feature und hoffentlich selten Fehler.

Lediglich auf den Preis zu schauen ist nicht schlau. Wobei man bei AMD derzeit guenstiger weg kommt.

PS: Bin nicht sonderlich ueberrascht. Nvidia muss nicht viel tun, weil die Spielentwickler zum Release ihrer Titel stark auf Nvidia optimieren. Und man gerne freiwillig die Bugs beim marktbeherrschenden Unternehmen umgeht. AMD strengt sich umgekehrt an, weil sie die Luecke zu Nvidia verkleinern wollen.
 
  • Gefällt mir
Reaktionen: jo0, Naru und SweetOhm
incurable schrieb:
Ja, bei nur 92% Marktanteil. 🤪
Seit wann hat die RTX 5000´er Gen 92 % Marktanteil ?!? :affe:
Bei den DAUs halt, bei den "Nerds" mit Ahnung sieht´s anders aus (siehe Anhang).
Ergänzung ()

Grestorn schrieb:
Offensichtlich werden die Karten ja massiv schlechter so bald die nächste Generation auf den Markt ist, aber die dummen Käufer, die so viel Geld hinlegen, schnallen es einfach nicht. Wie schön für mich.
Ja, schön für Dich. Noch schöner find ich allerdings, dass das Kind beim Namen nennst ... :daumen:
Obwohl dies absolut nix mit der Thematik zu tun hat. Aber "Whataboutism" ist der neue Beißreflex !
 

Anhänge

  • HW Data PCGH 525.jpg
    HW Data PCGH 525.jpg
    319,6 KB · Aufrufe: 108
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jo0 und Alesis
Wunderbar, Preise für AMD gehen hoffentlich immer weiter runter, nvidia hat seinen Bugs in den Treibern nun Rechnung tragen müssen und irgendwie bin ich echt amused.
P/L ist AMD in dieser Runde einfach besser und hat mit 9060xt/9070/9070xt ein besseres Paket am Start.
Wer gerne 1000€ und mehr ausgibt, will und kann wird das natürlich tun: jeder so wie er möchte, hab ich kein Problem mit.
 
  • Gefällt mir
Reaktionen: danyundsahne, Alesis und SweetOhm
  • Gefällt mir
Reaktionen: Alesis
Meiner Meinung nach hat dieser Test eine wesentlich bessere Aussagekraft bzgl. dem Vergleich der Treiber als die anderen zuvor.

Natürlich hängt es von den einzelnen Spielen ab, aber das ist ja bei jedem Test mit Spielen so.

Und Ausreißer bei den Spielen oder welche bei denen man die Ergebnisse nicht berücksichtigen will kann man ja für sich selbst aus der Wertung heraus nehmen, das mach ich jedenfalls bei Grafikkarten-Tests für mich auch so.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Ich habe jetzt nicht alle Posts durchgelesen, sind ja mittlerweile ziemlich viele zu diesem Thema, aber vielleicht hat das Problem was mit rBAR zu tun, das im NVIDIA-Treiber nicht aktiviert ist, wie JayzTwoCents rausgefunden hat. Schaut euch einfach mal dieses Video von ihm an:
 
incurable schrieb:
Das ist jetzt schon die zweite Generation in Folge ohne AMD-Beteiligung bei den schnellsten Grafikkarten.
Würde ich anders sehen, die 4090 ist ne neue reichen oder Work klasse, jemand der nur spielt und nicht wohlhabend ist, kann die nicht kaufen (neu zum Release)...

eine 7900xtx war auf jeden fall highend, highend heißt ja nicht das nur die allerschnellste Karte das ist, sonst könnte ja immer nur 1 Hersteller Highend haben.

Nicht nur sieht AMD das so, in dem sie sie statt 900 nun 70 nennen also 2 runter, 1 kann man als realitätsanpassung besehen aber der 2. runter wuerde ich als klares eingestaendnis sehen das es tatsächlich als mid range einstufen.

Alleine vom Speicher her, man muss schon mit FSR4 kommen um irgend einen Leistungsfortschritt bei manchen Spielen zu sehen.

Wenn eine Karte in der nächsten Gen genauso schnell ist wie in der letzten, ist es nimmer die gleiche Leistungsklasse sondern sie wanderdt wie der name schon suggeriert nach unten.

Nun das Nvidia das Spielchen macht ohne um zu benennen, ist die eine Sache aber immerhin spendieren sie hier und da bisschen ram, bei der 5070 z.B. bei der 5070ti immerhin im vergleich zur non-super aber klar da hatte man auch nur zu wenige und ist jetzt auf aktzeptablem Niveau gelandet.

Normal hätte Nvidia ja auch nen ordentlichen Satz nach Vorne gemacht dann wäre die 9070xt nen Witz, nur da die Karten für Gamer fast nur 1:1 Rereleases sind mit fast 0% uplift macht die 9070xt nicht so schlecht ausschauend, obwohl sie eigentlich eher nen Nachfolger zur 7800xt ist, oder vielleicht 7900GRE, wobei die 7800xt auch schon ein schlechter release war vom Uplift natürlich zu nem aggressiven Preis war sie trotzdem gut, aber wenn man sie als Nachfolger der 6800xt sehen will war es auch schlecht.

Bei RDNA2 war halt selbst 6800 ohne XT eher vergleichbar mit ner 7900XT und dann gabs halt mit der 6900xt und 6900xt noch bisschen overclock aber sonst nicht viel, so wie die XTX bei 7900, die 7800xt ist eigentlich mehr der Nachfolger der 6700XT auch wenn sie knapp die 6800xt schlägt aber viel zu Knapp um deren realer Nachfolger zu sein.

Und das sag ich als 7800xt Besitzer. RDNA3 hatte auch keine Ultra Klasse so würde ich das vileleicht nennen oder manchmal benutzt man auch Entusiasten wobei das ja auch manche wohl nicht mögen highend fängt tiefer an, bei Nvidia ist die 800er klasse auch Highend und da konnte AMD bei RDNA3 noch recht gut mithalten auch wenn man mit Raytracing manchmal nicht so gut aussah, aber man war nah genug dran.

Jetzt gibts halt weder Entusiasten/Ultra noch Highend mehr, aber ja Karten werden ja bald neu gemischt, irgend ne Antwort wird AMD auf die 5070ti mit 24gb liefern. vielleicht kommt ne Monster RDNA4 doch noch, wir werden sehen oder sie beschleunigen nur den RDNA4 nachfolger so schnell das es schon früh in 2026 kommt.

Aber ja was toll ist ist das sie jetzt von der Software (kommt ja noch Redstone) wieder weitgehend gleich ziehen oder close Enough sind, so das eine 1000-2000-2500 Euro Karte auch jemand kaufen würde bei RDNA3 hätte fast niemand zumindest zum Gamer eine für 1500-2500 gekauft. Warum so viel Geld ausgeben und dann nicht die Nvidia Features bekommen...
Ergänzung ()

SFFox schrieb:
Ich vermute RDNA4 wird trotz seiner Fortschritte nicht unbedingt eine dieser super Fine Wine Karten, denn die Schritte zu einheitlichen GPU Cores für Consumer und Professionals wird größere Schritte mit sich bringen, als AMD jetzt mit RDNA4 in die richtige Richtung gemacht hat.
Das ist bisschen die Kehrseite eines guten Releases :D wenn alles schon fast perfekt läuft, ist nicht mehr so viel Luft nach oben. Aber klar Redstone wird kommen, der Wein wurde halt schon leicht gealtert verkauft :D

Ein Vorteil hat es, die Gen hat so eingeschlagen das Spieleentwickler bisschen aufgewacht sind, und AMD wieder mehr ins Fadenkreuz nehmen, dazu kommt das z.B. Microsoft mit Xbox jetzt auch auf RDNA4 Handhelds setzt und auch sicherstellen muss das diese nun windows basierten Xboxen gut auf AMD laufen. Also es gab lange nicht so viel Incentives für 3rd party ihre Produkte gut auf AMD an zu passen / optimieren.

Und als Linux-user wo man noch nicht mal FSR4 auf RDNA4 hat ohne den Hack (der war ja nicht nur für RDNA3 sondern auch RDNA4), ist alleine das Monate später mal FSR4 kommt ein Fine-wine moment wenn man so will... :D

Selbst uralte AMD kraten bekommen ja unter linux noch patches HD 2000 Karten von 2006:
https://www.phoronix.com/news/R600-RV770-Fixes-Mesa-25.2
Ergänzung ()

incurable schrieb:
Ja, bei nur 92% Marktanteil. 🤪
Schön das du dir ein Quartal cherry pickst wo Nvdia schon karten released hat aber AMD noch nicht oder erst später... das das nichts mit realen Marktanteilen zu tun sollte klar sein.

Wenn ich von dir nen Foto schieße und hast zufällig die Augen zu sag ich auch nicht, ohh der hat offenbar immer die Augen zu...

Und ist auch praktisch das man in diese Fakezahlen lowend notebook GPUs mit rein rechnet (aber bloß nicht integrierte aber ne Müll 5050 schon... aber man Konsolen und Handhelds auch nicht dazu zählt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: YugoFlorida, SweetOhm, jo0 und eine weitere Person
Breaktivity schrieb:
Bei HUB hat die 9070 XT die 5070 Ti in 1440p überholt, in 4K nur eingeholt. Das theoretische Endergebnis in 4K ist ja fast das gleiche (5070Ti = 9070XT+3% vs. +-0%), auch wenn die Spielewahl bei Computerbase deutlich umfangreicher ist.
Ich bin jedenfalls gespannt, ob sich 1440p annähernd so drastisch wie bei HUB verbessert oder nicht, sofern das auf dem Testplan steht.
Der Abstand bei 1440p wird in nahezu jeden Leistungsrating idR kleiner - nicht größer, da man weniger im GPU-Limit hängt.
Keine Ahnung was die bei HUB falsch gemacht haben …
Ergänzung ()

eightcore schrieb:
ComputerBase 2024:
Bei den Frametimes sind es 27,5 und 26,6 FPS – also 3 Prozent, was eher als Messtoleranz einzuordnen ist

ComputerBase 2025:
Die Grafikkarten von AMD haben wiederum zugelegt – überraschend viel sogar
Trifft es echt sehr gut - plötzlich sind 1-2% keine Messtoleranz, sondern die „große Überraschung“ :p
Ergänzung ()

SweetOhm schrieb:
Achtung "Cherry" ... ;) (siehe Anhang)
Hey, er erwähnt es mittlerweile wenigstens schon selbst - Stalker 2 :p
SweetOhm schrieb:
Und der CB Benchmark Parkour spielt eher den NV GPUs in die Karten (Wortspiel) ... :freaky:
Selbstverständlich :lol:
Ergänzung ()

Ghostfacekalle schrieb:
Am amüsantesten finde ich eigentlich die Reaktionen der üblichen Nvidia-Anhänger hier in den Kommentaren. :D

Ghostfacekalle schrieb:
Der Rest ist eigentlich nicht der Rede wert.

Ghostfacekalle schrieb:
Die 2% langsamer sind zu vernachlässigen.
Du widersprichst dir doch selbst :p

Die Leute beschweren sich also nicht darüber, dass gegenüber den behaupteten 15% nun nur 1-2% übrig geblieben sind und das nun als „große Überraschung“ abgetan wird - da beschweren sich also alle über 1-2% Leistungsdifferenzen, wobei CB selbst bei 3% von Messtoleranzen spricht?
ComputerBase 2024:
Bei den Frametimes sind es 27,5 und 26,6 FPS – also 3 Prozent, was eher als Messtoleranz einzuordnen ist
Man kann es natürlich versuchen den Leuten etwas in den Mund zu legen, aber bei übriggebliebenen 1-2% von 10-15% hat man HUB eben widerlegt - der Titel suggeriert eben mehr :lol:
 
Zuletzt bearbeitet:
Laphonso schrieb:
Nvidia hat es geschafft, dass ich im Kumpel- und Kollegenkreis in den neuen Buildplannern im "klassichen Midrange /Midrange plus" derzeit quasi ausnahmslos die 9070XT empfehle, es sei denn der Spielefokus dreht sich nur um Raytracing und Enthusiastengedöns, bei dem Preisleistung und Stromfress Skill so schlimm sein können, dass man eh die 5090 GPU kauft.

Diesen Monat wird in meinem Gamingzirkel bereits das zweite 9070XT System gekauft, um das zu würdigen.
Dass ich zweimal hintereinander zu Systemen mit AMD GPUs rate, hatte ich zuletzt 2019 oder so mit der 6800XT.

Was AMD vor 2,5 Jahren grandios verkackt (nach meinen Maßstäben) hat mit den enttäuschenden 7900ern GPUs, haben sie mit den 9070ern überkompensiert.
FSR4 hilft hier on top und 9070XT Preise mittlerweile sogar bei 650 Euro ebenso, so dass es den Nvidia 5070Ti Aufpreis nicht mehr rechtfertigt.

Dass sie die Treiberpflege nun besser hinbekommen als Nvidia, ist ein gutes Rundumpaket.

Ich bezweifle zwar, dass Nvidia das Jahr 2025 mit weniger als 85% GPU Marktdominanz im Gamingsegment beendet, aber man kann ja hoffen, dass AMD dieses Jahr GPU Boden gutmacht.

Na ja, die 5070ti kostet ca 120€ mehr und bietet dafür DLSS4, was man mit quasi einem Klick in der Nvidia App in jedem DLSS2+ Spiel nutzen kann.

AMD bietet FSR4 nur in wenigen neuen Spielen an und über 3rd Party Tools wie Optiscaler kann man es zumindest in andere FSR3.1 spiele modden, wenn es funktioniert.
Ansonsten muss man eben FSR3/2 nutzen, was halt z.B. im Performance Modus in 4K extrem schlecht gegenüber DLSS4 performance aussieht. Selbst gegen FSR4 ist DLSS4 im Vorteil, womit man auf Nvidia ein schnelleres Preset bei vergleichbarer Qualität nutzen kann.

Mit DLSS4 kannste dann auch Multi Frame Gen und Smooth Motion nutzen. Dagegen hat AMD z.B. auch nichts zu bieten. Gibt kein MFG und das Treiber AFMF kann auch nicht mit Smooth Motion mithalten. Auch die FSR Frame Generation hat in letzter Zeit Probleme mit dem Framepacing gezeigt (was dann in betroffenen Spielen dazu führt, dass es trotz aktiver FG nicht flüssiger wird)

Nvidia Reflex ist mittlerweile auch in jedem Spiel verfügbar, das DLSS Frame Generation kann. AntiLag2 hingegen nur vereinzelt.

Von so features wie Pathtracing performance und Ray Reconstruction brauchen wir dann gar nicht sprechen, da man eh nicht zu AMD greift, wenn man das nutzen will, ist aber eben auch wieder ein Vorteil für NV.


Wie auch immer, ich erzähl hier ja nix neues, aber selbst wenn man PT/RT komplett ausklammert, ist doch Nvidia alleine beim Featureset extrem weit vorne.
In 4K sind upscaling und auch Frame gen essenziell wenn man ein Display mit 120-240 Hz befeuern will, auch in älteren Spielen, die 3-5 Jahre alt sind.
NV bietet da in hunderten Spielen mit DLSS4 und (M)FG die momentan bestmögliche Bildqualität und performance die man mit den modernen Algorithmen eben rausholen kann, während AMD FSR4 nur in den neuesten Spielen anbietet.

Wer da wegen 120€ zu AMD greift…
Ich finde den Aufpreis bei Nvidia in dem Fall mehr als nur fair. Wobei man die Unterschiede mit dem Preis eh nicht kompensieren kann. Selbst wenn die AMD Karte nur die hälfte kosten würde, muss ich ja trotzdem mit den Nachteilen Leben, die je nach setup eben absolut maßgeblich für Bildqualität und Performance sind (also die beiden Hauptaspekte weshalb man überhaupt eine neue GPU kauft) Ist ja auch völlig unabhängig des Modells und der Preisklasse ein Nachteil bei AMD.

AMD hat mit der 9000 Serie stark aufgeholt und FSR4 ist ne super Sache. Aber die Gründe zu AMD zu greifen sind doch noch geringer als beim letzten mal. Da hatte AMD wenigstens noch durch die Bank mit mehr VRAM gepunktet. Der Pluspunkt ist diesmal zumindest bei der 9070XT bzw. der Nvidia Konkurrenz in Form der 5070ti hinfällig.

Als Käufer muss man sich ja auch die Frage stellen, was bietet die AMD Karte, was Nvidia nicht hat, was macht sie besser. Bis auf den Preis fällt mir da nichts ein.


Robin77 schrieb:
Das 1440p Ergebnis von Hardwareunboxed passt halt irgendwie überhaupt nicht zu dem was Computerbase hier berechnet hätte, wo die 9700XT 3% hinter der 5070TI landen würde statt 3% vorne. Eine Diskrepanz von 6% ist schon auffällig…

Daran ist mal überhaupt gar nichts auffällig. Dir ist wohl nicht bewusst, dass wir bei AMD und Nvidia von zwei völlig verschiedenen Architekturen zweier verschiedener Hersteller sprechen. Die Chiparchitekturen haben logischerweise ihre stärken immer in leicht unterschiedlichen Bereichen, was ganz automatisch dazu führt, dass der Performance-Abstand je nach Spielszene ziemlich stark schwanken kann.

Digital Foundry hat immer recht häufig in ihren Vidoes den FPS Verlauf der GPUs in der Testszene übereinander gelegt und da hat man immer gut gesehen, wie zwei gleich schnelle AMD/NV Karten von Szene zu Szene völlig unterschiedlich performen. In einem Bereich ist vielleicht Nvidia 5% vorne, in einer anderen Szene ist AMD 5% vorne. Die Abstände variieren durchgehend und können sich häufig auch komplett drehen.

Es ist daher totaler quatsch davon auszugehen, dass das Ergebnis von HUB „nicht passt“. Die nutzen eben andere Spiele und andere Benchmarkszenen. Völlig normal, dass dann auch völlig andere Ergebnisse zustande kommen oder sich sogar die Positionierung von Karten im Performance chart dreht.
Das liegt in der Natur der Sache, wenn man GPUs (oder such CPUs) mit unterschiedlichen Architekturen in unterschiedlichen Testszenen testet.


Praktisch könnte man also nicht nur durch die Wahl der getesteten Spiele, sondern auch durch die Auswahl der Testszene und sogar die Grafiksettings sehr starken Einfluss auf die Benchmarkergebnisse nehmen und so Szenarien finden in denen ein Hersteller sehr viel besser performt, als der andere.
Gerade deswegen ist es so wichtig, sich nicht nur Benchmarks von einer Seite anzusehen. Nicht unbedingt weil versucht wird einen Hersteller zu bevorzugen, sondern weil es nunmal realität ist, dass unterschiedliche Benchmarks zu unterschiedlichen Ergebnissen kommen.


Extremes Beispiel ist z.B. auch PCGH in Pathtracing Benchmarks.
Wenn die mal wieder in 4K mit Quality Upsampling testen, dann ist die GPU Last so enorm hoch (und die FPS auch sehr niedrig) dass zum einen Nvidia, aber insbesondere breite Chips wie die 4090 und 5090 alles andere sehr weit hinter sich lassen.

Nutzt man dann spielbarere Settings wie z.B. Performance Upsampling, was bei Pathtracing eigentlich immer anzuraten ist, dann schrumpfen die Abstände deutlich, obwohl ein CPU Limit in weiter Ferne liegt.

Das ist ein gutes Beispiel, wie man alleine anhand der gewählten Settings schon eine Architektur, in dem Fall sogar einen Chip ganz gezielt in die Karten spielen kann.

Eine RTX5090 hat halt enorm viele Compute units und ein extrem „breites“ design das von Spielen schwer auszulasten ist. Die ganze rohleistung kommt somit in den meisten Spielen oder bei höheren FPS kaum zum tragen. Bei Pathtracing in hohen Auflösungen wird der Chip aber dann aber eben in der Breite viel besser ausgelastet und kann sich so deutlich absetzen. Auch wenn die FPS für die meisten Spieler mit solchen Settings zu niedrig sind, entstehen so eben die längsten Benchmarkbalken bei der 5090.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
Javeran schrieb:
Die Prozente hin oder her sind bei dem Test doch eigentlich gar nicht das wichtige, sondern dass wir hier überhaupt einen Test haben der den Sachverhalt beleuchtet. Daher herzlichen Dank für die Mühe und den Test @Wolfgang und @Jan echt super.
Die Prozente sind in sofern wichtig, dass dieser Test erst aufgrund der fraglichen Ergebnisse bei HUB überhaupt gemacht wurde - und die Ergebnisse dort konnte man widerlegen, nicht bestätigen.
Ergänzung ()

Quidproquo77 schrieb:
Hier finden Diskussionen aufgrund von wenigen Prozent statt.
Der nächste Nvidia Treiber ist dann 2% schneller und dann gibt es erneut einen Artikel?
Man hatte sich hier ja die 10-15% von HUB erhofft - geblieben sind 1-2%. Unwahrscheinlich, dass man jetzt nach jedem neuen Treiber testet, aber selbstverständlich würde man auch in den nächsten Treibern wieder 1-2% Differenzen finden … im Gegensatz sind diese zu 10-15% eben einfach nicht der Rede wert. CB selbst schrieb zu solchen geringen Differenzen (s.o.):
ComputerBase 2024:
Bei den Frametimes sind es 27,5 und 26,6 FPS – also 3 Prozent, was eher als Messtoleranz einzuordnen ist
 
Zuletzt bearbeitet:
Vigilant schrieb:
Ach, Käse und typische Wunsch-Tribalisierung.
Also ob du noch nie die Erfahrung gemacht hast, Menschen verteidigen ihre Kaufentscheidungen, gerne nicht aus rationalen, sondern rein aus emotionalen Gründen. Insofern ist deine Verteidigung eine typische Reaktion, die Fakten der emotionalen Verteidigung zu leugnen. Denn diesen Umstand findet man nicht nur in praktisch jedem Produkt, sondern erleben wir hier sekündlich und auch in anderen Foren.
Die Mehrheit der Käufe sind emotional getrieben. Politik wird emotional betrieben. Werbung ist emotional gesteuert. Der Mensch ist lieber gerne ein Arsch, anstatt als Depp dazustehen.
Und wenn man sich den Straßenverkehr anschaut, dann sehen wir, keine Ehre, keinen Respekt, kein Rückgrat und keinen Anstand, aber extrem viele Emotionen. Aus rationalen Gründen kauft man sich kein Gerät mit 100 db, sondern es muss emotional Lärm machen und man scheißt dabei auf das Wohl vieler.
Quidproquo77 schrieb:
Was war an RDNA4 denn so besonders?
Die 2.048 Shader der 9060 XT 16GB bieten die gleiche Leistungsentfaltung wie die 3.456 Shader der 7700 XT 12GB bei 2560 x 1440. Deutlicher Vorschritt bei den Eigenschaften. Eine wirkliche Alternative.
Dein, ich will es singsang nennen, kennt man vom Ryzen 1000.
Die AMD Treiber sind klasse.

Grestorn schrieb:
Und die Häme nimmst Du nicht wahr, oder?
Die Leute, die hier emotional Nvidia verteidigen, erzählen seit 265K 300€, ein 9800X3D hätte ja nur 8 Kerne. Natürlich will man den 3D Cache dabei nicht erwähnen, man will Häme ausdrücken und man ist auch doof, wer sich noch 6 Kerne kauft, denn die 20 Kerne sind so viel geiler. Die wissen auch, dass man selber noch nicht weiß, dass man irgendwann die 20 Kerne haben will.
Also emotionaler Schwachsinn. Aber diese Häme nimmst du nicht war. Warum? Welches Gefühl will dich nicht objektiv leiten?
 
  • Gefällt mir
Reaktionen: eXe777, SweetOhm und jo0
Grestorn schrieb:
Der Unterschied hier ist, dass ich finde, dass sich NVidia seine Stellung durch Innovation erarbeitet hat und ich AMD für deren damalige Politik, ihre CPU Sparte über die GPU Sparte querzusubventionieren und dabei die Forschung und Entwicklung der GPU Sparte zu vernachlässigen, nicht goutieren möchte (inzwischen ist es natürlich anders, aber ich spreche über die Jahre nach der Übernahme von ATI.
Nun hat aber auch Nvidia die letzten 5-10 Jahre mit ihrer GTX/RTX Sparte die AI Beschleuniger Sparte finanziert und ist ein ganz anderes Unternehmen geworden.

Die Vernachlässigung der Gaming Sparte sehen wir mmn in der RTX50 Serie und deren Treibern. Vlt ändert sich das mit der nächsten Serie, aber ich wage es zu bezweifeln. Der Umsatz mit Spielzeug wird.noch weiter im gesamtverhältnis fallen und macht ja jetzt schon nur 10% aus.
 
  • Gefällt mir
Reaktionen: SweetOhm und jo0
Mimir schrieb:
Na ja, die 5070ti kostet ca 120€ mehr und bietet dafür DLSS4, was man mit quasi einem Klick in der Nvidia App in jedem DLSS2+ Spiel nutzen kann.

AMD bietet FSR4 nur in wenigen neuen Spielen an und über 3rd Party Tools wie Optiscaler kann man es zumindest in andere FSR3.1 spiele modden, wenn es funktioniert.
Ansonsten muss man eben FSR3/2 nutzen, was halt z.B. im Performance Modus in 4K extrem schlecht gegenüber DLSS4 performance aussieht. Selbst gegen FSR4 ist DLSS4 im Vorteil, womit man auf Nvidia ein schnelleres Preset bei vergleichbarer Qualität nutzen kann.

Mit DLSS4 kannste dann auch Multi Frame Gen und Smooth Motion nutzen. Dagegen hat AMD z.B. auch nichts zu bieten. Gibt kein MFG und das Treiber AFMF kann auch nicht mit Smooth Motion mithalten. Auch die FSR Frame Generation hat in letzter Zeit Probleme mit dem Framepacing gezeigt (was dann in betroffenen Spielen dazu führt, dass es trotz aktiver FG nicht flüssiger wird)

Nvidia Reflex ist mittlerweile auch in jedem Spiel verfügbar, das DLSS Frame Generation kann. AntiLag2 hingegen nur vereinzelt.

Von so features wie Pathtracing performance und Ray Reconstruction brauchen wir dann gar nicht sprechen, da man eh nicht zu AMD greift, wenn man das nutzen will, ist aber eben auch wieder ein Vorteil für NV.


Wie auch immer, ich erzähl hier ja nix neues, aber selbst wenn man PT/RT komplett ausklammert, ist doch Nvidia alleine beim Featureset extrem weit vorne.
In 4K sind upscaling und auch Frame gen essenziell wenn man ein Display mit 120-240 Hz befeuern will, auch in älteren Spielen, die 3-5 Jahre alt sind.
NV bietet da in hunderten Spielen mit DLSS4 und (M)FG die momentan bestmögliche Bildqualität und performance die man mit den modernen Algorithmen eben rausholen kann, während AMD FSR4 nur in den neuesten Spielen anbietet.

Wer da wegen 120€ zu AMD greift…
Ich finde den Aufpreis bei Nvidia in dem Fall mehr als nur fair. Wobei man die Unterschiede mit dem Preis eh nicht kompensieren kann. Selbst wenn die AMD Karte nur die hälfte kosten würde, muss ich ja trotzdem mit den Nachteilen Leben, die je nach setup eben absolut maßgeblich für Bildqualität und Performance sind (also die beiden Hauptaspekte weshalb man überhaupt eine neue GPU kauft) Ist ja auch völlig unabhängig des Modells und der Preisklasse ein Nachteil bei AMD.

AMD hat mit der 9000 Serie stark aufgeholt und FSR4 ist ne super Sache. Aber die Gründe zu AMD zu greifen sind doch noch geringer als beim letzten mal. Da hatte AMD wenigstens noch durch die Bank mit mehr VRAM gepunktet. Der Pluspunkt ist diesmal zumindest bei der 9070XT bzw. der Nvidia Konkurrenz in Form der 5070ti hinfällig.

Als Käufer muss man sich ja auch die Frage stellen, was bietet die AMD Karte, was Nvidia nicht hat, was macht sie besser. Bis auf den Preis fällt mir da nichts ein.
dein post liest sich wie das 1:1 der nvidia lobhudelei. soviel extreeeme szenarien. jegliches feature seitens nvidia grundsätzlich besser. also so richtig ernst nehmen kann man das nicht mehr.

influencer territorium

gibt es zb bzgl afmf vs smooth motion frames quellen für deine automatisch besser annahme? amd hat das schon länger im treiber und jetzt kommt’s für rtx 4000 und es ist natürlich automatisch besser lol.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, SweetOhm, jo0 und eine weitere Person
blackiwid schrieb:
die 4090 ist ne neue reichen oder Work klasse, jemand der nur spielt und nicht wohlhabend ist, kann die nicht kaufen (neu zum Release)...
Wann fängt denn bei dir wohlhabend an, dass 1900€ für ein Hobby alle 2 Jahre nicht möglich sind?
blackiwid schrieb:
eine 7900xtx war auf jeden fall highend, highend heißt ja nicht das nur die allerschnellste Karte das ist, sonst könnte ja immer nur 1 Hersteller Highend haben.
Es ging ja auch nicht um High End sondern explizit um Beteiligung bei den schnellsten Karten, nicht die allerschnellste zu haben, aber eben im Schlagabtausch mit der allerschnellsten zu sein.
Und das war man zuletzt mit der 6900XT.

blackiwid schrieb:
Schön das du dir ein Quartal cherry pickst wo Nvdia schon karten released hat aber AMD noch nicht oder erst später... das das nichts mit realen Marktanteilen zu tun sollte klar sein.
Egal welche Statistik man schaut, AMD bewegt sich überall um die 10%, ob jetzt ein Prozent mehr oder weniger, macht da auch keinen Unterschied
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sirhaubinger
@Dittsche Natürlich ist es Nvidia Lobhudelei. Darf man denn nicht loben, wenn es jemand besser macht als die Konkurrenz? In irgend einer Form muss ich das ja niederschreiben.

Ich kann ja nicht einfach sagen, dass AMD es besser macht, nur damit es ausgeglichen ist, obwohl es gar nicht stimmt.

Daher verstehe ich nicht, was du mir hier ankreiden willst. In den genannten Aspekten ist Nvidia nunmal im Vorteil und diese Aspekte sind für mich essenziell (Bildqualität und Performance).
Quellen findest du zu genüge im Netz.
 
Zurück
Oben