Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format
Deswegen ist die Untervoltig die letzte Chance. Hoffentlich da geht es der 5090 mehr als noch 4090 an den Kragen.
Genau das wir meine Kaufentscheidung beeinflussen.
Plus: das Beast MUSS eine WaKü sehen - schon ein MoRa3-360 Pro - nur für das Beast
Habe jetzt 5-6 Tests überflogen und mir diverse Performance/Watt Benchmarks angesehen.
Als Fazit kann ich da nur ziehen, dass sich die Performance/Watt maximal marginal erhöht hat, wenn überhaupt.
Als XX80er User in einem Silent Build, wo 300W das absolute Maximum darstellt, welche mein Kühlsystem abführen kann, geht der Nutzen der neuen Generation gegen Null. Was immer die RTX5080 überhaupt an Mehrleistung zu meiner 4080 Super liefern wird, wird verschwinden, wenn ich die Karte auf 300W limitiere.
Was bleibt ist MFG und das werde ich nicht nutzen. Normales FG hat mir schon überhaupt nicht gefallen (Latenzprobleme, „klebende“ Menufenster beim öffnen/schließen), MFG wird das nicht ändern, im Gegenteil.
Und ich gehe auch fest davon aus, dass zumindest das leicht verbesserte DLSS 4 Upscaling auch irgendwann auf den alten Generationen kommt (MFG dagegen wird wohl RTX 50 + exklusiv bleiben).
Aber mein Kernkriterium Rohleistung/Verbrauch für eine neue Generation ist bei der RTX 50 einfach eine Enttäuschung ohnes gleichen.
Und wieder werden keine Kosten und Mühen gescheut, gängige APIs und Game-Engines so anzupassen (neural-shader) das die Mitbewerber das Nachsehen haben.
@Wolfgang da ihr ja einen 240hz monitor besitzt, könntest du einfach mal MFG vs Amd FG+AFMF2 machen ? AMD sollte huer natürlich viel schlechter abschneiden. Dein Fazit dazu würde mich aber sehr interessieren.
Meist noch geringere Zuwächse auf vorhergesagt, massiv höhere Stromaufnahme, Spulengeräusche, keine für mich relevante Verbesserung in Topaz AI.
Da für mich nur eine WaKü Variante in Frage kommt und ich zusätzlich ein neues Netzteil bräuchte, bin ich dieses mal raus.
Für die ~3000€ kaufe ich mir ein anderes Spielzeug.
Womit die Verfügbarkeit am 30.01. für die willigen Kaufinteressenten nun erheblich besser sein sollte.
Dass die Effizienz vor allem bei FPS Limit noch deutlich schlechter als bei Ada ausfällt(14% mehr Verbrauch im Vergleich zur 4090), enttäuscht sehr, hängt vmtl auch mit dem größeren VRAM und dem größeren SI zusammen.
Natürlich. Bei dieser Karte hat man im gleichen Fertigungsprozess auf alle Stellschrauben gesetzt, um die schon extreme Leistung der 4090 nochmal um 30% anzuheben. Was die Karte durchaus schafft, wenn sie nicht von dem Prozessor limitiert wird, bzw. das Spiel zu wenig anspruchsvoll ist.
Taxxor schrieb:
Weiter enttäuscht, dass der RT Zuwachs sogar geringer ausfällt, als der Raster Zuwachs.
PCGH hat im Rasterbenchmark 28% in 4K ohne DLSS ermittelt im RT Benchmark jedoch nur 27%.
Im Pathracing Leistungsindex auch 27%. Der RT Zuwachs stagniert für meine Begriffe, trotz des verdoppelten RT Durchsatzes. Ich bin gespannt ob zukünftige Treiber da noch etwas herausholen können.
Taxxor schrieb:
Wenn sich das durch das komplette Lineup durchzieht, ist das ein weiterer Matchball für AMD, mal schauen ob sie ihn diesmal nutzen.
AMD wird es nicht nutzen können, da sie die Leistungsaufnahme von 250W auf über 300 Watt erhöhen, für Leistung die es vorher schon gegeben hat. Durch die massive Bandbreite der 5090 und der 512bit ist die das gar nicht vergleichbar. AMD wird scheitern.
Taxxor schrieb:
Für mich als 4090 Besitzer, der keine 144+ FPS auf dem Schirm sehen muss und dem daher das 2x FG ausreicht, natürlich super, dass ich nach wie vor ~85% der Top Performence habe.
Ist schon gut, aber haut mich nicht vom Hocker.
Das passiert halt wenn man keine Konkurrenz hat.
Insbesondere im Bereich der Effizienz ist sie doch sehr enttäuschend. Da hätte ich mehr erwartet.
Also natürlich immer noch um ein vielfaches besser als die Stromschlucker von AMD, aber für ne neue Generation hätte es schon besser sein können.
AMD wird es nicht nutzen können, da sie die Leistungsaufnahme von 250W auf über 300 Watt erhöhen, für Leistung die es vorher schon gegeben hat. Durch die massive Bandbreite der 5090 und der 512bit ist die das gar nicht vergleichbar. AMD wird scheitern.
Es geht ja auch nicht gegen die 5090 sondern gegen die 5070 und 5070Ti.
Wenn da die RT Leistung nur um ~15% ansteigt ggü der 4070/4070Ti, dann ist eine 9070XT hier nach dem, was man bisher so an Leaks hatte(~4070Ti Super), durchaus in der Lage, mit diesen in RT mindestens gleichzuziehen.
Du weißt genau, wie es gemeint ist
Ich bezweifle sehr stark, dass nun alle blinden "Shut-up and take my money"-Sprechchöre jetzt noch so motiviert sind zuzuschlagen
Sagen doch immer alle das mehr Speicher auch mehr Strom kostet. Jetzt hat mal ne Nvidia Karte auf dem praktisch gleichen Node mehr Speicher und Bandbreite und man kann das hier anscheinend sehr gut sehen.
Das Problem ist hier das Interface, nicht der Speicher. Wäre man bei 384bit geblieben, was mit GDDR7 auch ausgereicht hätte, wäre die Karte deutlich sparsamer. Mal sehen was da noch mit Treiberoptimierungen möglich ist in Zukunft. Bei RT scheint irgendwas zu klemmen.