Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRX 9000 vs. RTX 5000: Radeon ist mit neuen Treibern schneller, GeForce langsamer
Interessante Einordnung. An welchem Punkt kommst du zu dem irrtümlich Schluss, ich würde etwas verteidigen, was nun eigentlich überhaupt nicht meine Intention war und ist? Ich vertrete eine neutrale Perspektive. Oder eine der Allparteilichkeit, wenn überhaupt, aber sicherlich nicht für Firmen.
Erstens verteidige ich hier NVidia nicht (wie genügend Beiträge in diesem Thread hier auch zeigen), sondern ich sage nur, dass mir diese extreme Show der "hä hä" Genugtuunung aus dem AMD Lager auf den Zeiger geht, weil es einfach extrem kindisch und bescheuert ist.
Diese Emotionalisierung von Grafikkarten ist wirklich kaum auszuhalten. Es kann ja jeder besser finden, was er will, aber dass quasi nur noch mit Emotionen und nahezu kompletter Blindheit zu Fakten, die einem nicht in den Kram passen, argumentiert wird, ist schon für mich recht schwer zu ertragen.
Aber dass Du jetzt auf einmal ein Thema aufmachst, dass überhaupt nichts mehr mit GPUs zu tun hast, und das irgendwie NVidia Käufern in die Schuhe schiebst (wo NVidia doch gar nix mit CPUs zu tun hat), das haut dem Fass echt den Boden raus.
Ergänzung ()
Alphanerd schrieb:
Nun hat aber auch Nvidia die letzten 5-10 Jahre mit ihrer GTX/RTX Sparte die AI Beschleuniger Sparte finanziert und ist ein ganz anderes Unternehmen geworden.
Naja, es ist eher für NVidia glücklicher Zufall, dass KI die selben Grundtechnologien wie Gaming GPUs nutzt.
Da war jetzt kein böser Masterplan dahinter.
Alphanerd schrieb:
Die Vernachlässigung der Gaming Sparte sehen wir mmn in der RTX50 Serie und deren Treibern. Vlt ändert sich das mit der nächsten Serie, aber ich wage es zu bezweifeln. Der Umsatz mit Spielzeug wird.noch weiter im gesamtverhältnis fallen und macht ja jetzt schon nur 10% aus.
Ja die Geforce-Treiber werden immer beschissener. Bei dem aktuellen funktioniert dann einfach die Lüfterregelung (Afterburner) nicht mehr. Musste ich den Treiber von davor nehmen zack läuft wieder.
Die Ruhen sich auf der KI-Welle ganz schön aus, die Penner.
Edit: in der Nvidia APP hat die Steuerung auch nicht funtkioniert @MalWiederIch
Also ich habe den Kauf meiner Nitro+ Radeon RX 9070 XT nicht bereut. Das Gegenteil ist eher der Fall. Wobei ich natürlich auch einen großen Sprung von einer RX 5600 XT auf die RX 9070 XT vollzog.
man könnte natürlich auch verschwörerisch behaupten, dass nVidias marketing Abteilung mal wieder Anweisung gibt ein wenig zu mogeln damit die Karten zu beginn besser dastehen, und dies dann nach und nach abschwächen lässt damit die Nachfolger generation noch besser aussieht, und die Leute dazu bewegt den neuen heißen Scheiß kaufen
habe bei meiner graka noch den april treiber laufen und kann alles 1a zocken. nicht ein absturz bis jetzt und frames passen auch. man muss nicht aller pfurzelang die treiber erneuern. besonders nicht bei nvidia in letzter zeit.
Ich sprach von Highend und du hast mich zitiert also gings auch um Highend und das war ja nicht das erste mal davor... es ist eher die Ausnahme das sie bei den schnellsten Karten mit spielen können denk da an die 480 Karten die sehr beliebt waren (beinah mit X800 verwechselt), die konnte nicht mal die 900er Karten von Nvidia knacken der echte Konkurent war aber 1070 und 1080 da sah man kein Land, ja die GTX 1080 kam sogar vor AMD raus 2016 und die hatte nur 64% der Frames der GTX 1080.
Also RDNA2 war die große Ausnahme und auch da nur weil Raytracing noch weniger wichtig war und es sich kaum lohnte damals da Geld zu investieren, die 5700XT war auch schwach, davor RX Vega die auch nichts reißen konnte im Vergleich zum highend.
Gut die Radeon VII war von der Leistung sogar halbwegs ok, aber dafür war alles andere schlecht, Preis, Effienz, laut, alles, da ist mir ne 480 die billig und genügsam ist deutlich lieber... oder ne 9070xt jetzt, ich hab auch noch kein gängiges 5000W Netzteil...
Nicht wirklich - die Probleme zum Release sind doch alle behoben und News zu Treiberproblemen gibt es seit weit über einem Monat nicht mehr? Hier keinerlei Probleme, weder mit der 4090, noch mit der 5080 …
Chaosbreed schrieb:
Bei dem aktuellen funktioniert dann einfach die Lüfterregelung (Afterburner) nicht mehr.
Du musst dann ja auch ne X3D CPU für 600 Euro blechen und ne schnelle SSD / Ram etc will alles auch gekauft werden... wer 3000 alle 2 Jahre für Hardware aus gibt, und da reden wir noch nicht von Monitoren, mit solcher Hardware ging für mich auch unterhalb von Oled UHD auch nichts... sonst würd ich 1000x lieber nur ne 4080 holen und dafür das OLED Display, hat man den Spielspass und auch Arbeitsspass deutlich erhöht im Vergleich zu IPS + 4090, also zumindest heute seit der 5090 gen, damals zu 4090 releasezeiten mögen die Oleds noch unbezahlbar gewesen sein das kann ich nicht genau sagen.
Also wir reden für Hardware easy für 1500-2000 Euro pro Jahr und dann musst ja noch Spiele kaufen AAA Titel auch eher neuere sonst brauchst die Karte ja auch nicht, und all das und dann lebst ja sonst auch nicht wie ein Bettler, der Typische 4090 Kunde wird ja nicht, in ner 20qm Wohnung hocken (polemik) und kein Auto haben oder nur nen kleinwagen, nie in Urlaub fahren, wahrscheinlich auch noch ne teure Freundin, es impliziert einfach einen Lebensstiel sonst, mag sein das es manche vom Essen sich absparen, aber die machen dann auch was falsch, da sollte man dann Spielsucht untersuchen, also ja 45.000 Euro Jahreseinkommen erwarte ich da schon mindestens, für nen Single, als Familieneinkommen eventuell mit Kinder sollte es dann eher so 80.000-100.000 sein für ihn alleine...
Ja, ich hatte genau auch darüber mit den Jungs gesprochen, aber manche sind tatsächlich sehr "hart" in der Budgetplanung und/oder am Ausgabenlimit mit einer Grenze und wägen dann ab.
Und das Nvidia Featureset wurde gegen das AMD Featureset abgewogen, und in beiden Fällen sind das eher Gaming "Casuals", denen 60 fps reichen auf 1440p und UWQHD. Die spielen eher Strategiegames, Manager Games, Aufbauspiele, Automationsgames, keine Shooter und Rennspiele, nichts, was 100-200 fps erfordert.
Und 60 fps für die nächsten 2-3 Generationen stemmt die 9070XT mit der linken Pobacke im standby mal ironisch ausgedrückt..
Und wir sprachen dann auch von über 150 Euro Differenz Aufpreis versus der 5070Ti bei den Modellvergleichen , die dann jetzt jeweils in die bessere CPU oder den besseren Monitor geflossen sind, und beides fand ich komplett nachvollziehbar.
Ich bin selbst überzeugt von dem, was Nvidia an Mehrwert durch die Features bietet, und ~ 600 DLSS4 Transformer fähige Games sind ein riesiges Pfund.
Aber AMD ist in "typischen" Gaming Usecases nahe genug dran mit dem, was die 9070er jetzt mitbringen, und FSR4 wird ausgebaut.
TLDR:
"Nur wegen 150 Euro nicht Nvidia zu kaufen" muss man sich auch leisten können und wollen. Nvidias Vorprung in RT und DLSS Themen ist nicht immer und pauschal besser für die Person, wenn man jetzt direkt einen eine bessere CPU kaufen kann oder einen neuen und besseren und größeren Monitor kauft, denn 250 vs 400 Euro Budget für einen Monitor macht deutlich mehr im Gaming Erlebnis und in der Immersion aus als xx fps mit MFG mehr als mit einer 5070Ti.
Es hat auch nicht jeder den Raytracing/Pathtracing Fetisch, den ich habe.
Und genau dann ist die 9070XT eine perfekte (upper) midrange Karte.
AMD bietet FSR4 nur in wenigen neuen Spielen an und über 3rd Party Tools wie Optiscaler kann man es zumindest in andere FSR3.1 spiele modden, wenn es funktioniert.
Ich nutze beim Optiscaler übrigens DLSS als Basis für FSR4
Dittsche schrieb:
gibt es zb bzgl afmf vs smooth motion frames quellen für deine automatisch besser annahme? amd hat das schon länger im treiber und jetzt kommt’s für rtx 4000 und es ist natürlich automatisch besser lol.
Du hast einen User zitiert, der sagte, dass es keine Beteiligung bei den schnellsten Karten gab und darauf geantwortet "Die 7900XTX war auf jeden Fall High End, High End heißt ja nicht, dass...."
Aber der User hatte halt nicht von High End geschrieben, sondern von den schnellsten Karten, weswegen die Erwähnung, dass die Karte natürlich High End war, auch an der Stelle keinen Sinn macht, weil niemand was anderes behauptet hat.
Und es ist eben wieder die zweite Gen in Folge, bei der man nicht bei den schnellsten Karten mitmischt, davor hat man es eine Gen getan, davor wieder 3 Gens nicht(mit Polaris nicht versucht, mit Vega versucht und gescheiter, mit RDNA1 nicht versucht)
Und anhand der Benennung der RDNA3 Karten gehe ich stark davon aus, dass man es damit eigentlich auch vor hatte und nicht geschafft hat, während man es jetzt mit RDNA4 wieder nicht versucht.
Ergänzung ()
blackiwid schrieb:
Du musst dann ja auch ne X3D CPU für 600 Euro blechen und ne schnelle SSD / Ram etc will alles auch gekauft werden
Also mein 7800X3D reicht für die 4090 und wird auch für ne 6090 noch genug sein, genau wie RAM und SSD.
blackiwid schrieb:
der Typische 4090 Kunde wird ja nicht, in ner 20qm Wohnung hocken (polemik) und kein Auto haben oder nur nen kleinwagen, nie in Urlaub fahren, wahrscheinlich auch noch ne teure Freundin, es impliziert einfach einen Lebensstiel sonst, mag sein das es manche vom Essen sich absparen, aber die machen dann auch was falsch, da sollte man dann Spielsucht untersuchen, also ja 45.000 Euro Jahreseinkommen erwarte ich da schon mindestens, für nen Single
Wenn man viel Geld für das Hobby Computerspiele ausgibt, impliziert das, dass man ne teure Freundin hat und oft in den Urlaub fährt? Eher genau das Gegenteil.
Ich liege 10.000€ unter deinem Mindest Jahreseinkommen und könnte mir ohne Probleme jedes Jahr für 2000€ Hardware kaufen, ohne die alte zu verkaufen, wenn ich wollte, das wären 166€ im Monat, die dann einfach weniger ins Depot wandern würden.
166€ im Monat geben mäßig starke Raucher auch für Zigaretten aus(eine Schachtel alle 2 Tage), sind die alle wohlhabend?
Ergänzung ()
MalWiederIch schrieb:
Musst du eben warten bis MSI ihre Software anpasst … das auf Nvidia zu schieben
Ich würde mir ja wünschen, dass Nividia es mal hinbekommt, dass ich die MSI Software gar nicht brauche, indem sie einfach mal ne ordentliche Spannungs und Takteinstellung in ihren Treiber packen.
Stimmt so oft hab ich nicht zurück geklickt und ging mein Gedächtnis nicht, aber auch das ist dann ja falsch die 6950XT war nicht in der nähe der schnellsten, nur wenn man Raytracing ausklammert, die 3090TI ist 33% in Raytracing vorne (UHD) gut der Abstand stieg an auf 58% bei der 4090 aber beides ist nicht nah dran, zwischen 4080 Super und 4090 sind auch nur 31% Unterschied.
Und ich versteh auch das Gejammer nicht wenn er nicht ein massiver Linux Fanboy ist machte das bei RNDA3 einfach 0 Sinn einen Doppelt so großen Chip fuer 2000-3000 Euro zu produzieren der genau niemand gekauft hatte.
Man kann nicht "man" sagen und dann hätte man selbst das gar nicht gekauft, das mag mit RDNA4 jetzt anders sein, aber erstmal musste man zeigen das man Software 99.999% gleich ziehen konnte, damit die Leute diese 2000 Euro Wette ein gehen oder 1500-2200 Euro irgend sowas wird dann ein Nvidia 90 Kontrahent kosten müssen.
Ich habe jetzt nicht alle Posts durchgelesen, sind ja mittlerweile ziemlich viele zu diesem Thema, aber vielleicht hat das Problem was mit rBAR zu tun, das im NVIDIA-Treiber nicht aktiviert ist, wie JayzTwoCents rausgefunden hat. Schaut euch einfach mal dieses Video von ihm an:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
JayzTwoCents hat gar nichts rausgefunden, das hätte ich dir auch am Tag 1 von Nvidias rBAR-Implementierung sagen können (haben wir so auch mehrmals in Artikeln behandelt). JayzTwoCents hat es wohl einfach nur nicht gewusst. Ich finde es komisch, dass das jetzt überall wieder so aufkommt. Aber offenbar haben das viele wieder vergessen gehabt. Das Thema blieb dann eben auch lange unbehandelt, da Nvidia daran seit Beginn nichts dran geändert hat.
Nvidia nutzt anders als AMD bei rBAR eine Whitelist. Jedes Spiel, das nicht auf der Whitelist steht, bei dem bleibt rBAR ausgeschaltet (bei AMD ist es anders herum, die nutzen eine Blacklist). Bei Nvidia stehen eben nicht viele Spiele auf der Whitelist, bei den meisten wird entsprechend kein rBAR benutzt. Warum das so ist weiß ich nicht, es wird aber sicherlich einen Grund haben.
Das ist aber absolut nichts neues, das macht Nvidia eben seit es rBAR gibt schon so.
Laut Hardware Unboxed gibt es in 1440p die größten Zuwächse, in 4K kaum. Warum wurde bitte nur 4K getestet? Und warum bitte gegen die 500€ teurere 5080 im Vergleich.
Bin bin den CB Tests sonst überzeugt, aber das hier kann ich gar nicht nachvollziehen.
Weil es hier nicht um 9070XT vs 5080 geht sondern um AMD Treiber alt vs neu und Nvidia Treiber alt vs neu.
Man hätte auch ne 9060XT und ne 5090 nehmen können, völlig egal für das Thema des Test.
Wie gesagt, die Hauptzuwächse kommen laut HU hauptsächlich im Bereich 1440p. Das gibt ein ganz anders Bild im Vergleich zur 5070 Ti. In 4K soll es laut HU keine relevanten Unterschiede geben. Warum wird das dann hier getestet?
Ich habe mich z.B. nach dem HU Video bewusst für eine 9070 XT statt 5070 Ti entschieden.
4K mit DLSS/FSR = 1440p und das wurde bei der Hälfte der Games verwendet.
Dass Hardware Unboxed falsch getestet haben, weil sie unterschiedliche Windows Versionen verwendet haben, ist doch auch schon durchgekaut, deren Werte sind keine Referenz