Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Es geht hier nicht um 24/7 Gaming sondern nur kurz ne Minute auf dem Balkon benchen.(mit 6900)
Und ja, die Stecker waren einfach besser als der neue 12+6 Kram.
Korrigiere, dann sind da locker 500/600w an der Karte.
6900XT sieht keine Sonne gegen eine 9070. Meine 7900XT hat 15775 Punkte gemacht (Bedingungen stehen im 3DMARK Eintrag) und meine 9070XT mit Samsung Speicher hat 16035 ~ Platz 400, bei ca 25000 Einträgen, Bedingungen waren viel schlechter. Ist zwar gut die 9070XT, aber der Abstand zur Top 10 ist immer noch größer als zwischen stock 7900XT und 9070XT. Und da die 9070 soweit vorne mitspielt, wird selbst noch meine 9070XT geschlagen. Man kann mal überlegen diese 9070 mit einer 7900XTX oder gefashten 7900XT zu vergleichen, aber nicht mit einer 6900XT, die ist viel zu langsam.
die 9070(xt) sind vermutlich keine optimalen Objekte für Xtrem-OCer
einige der üblichen Verdächtigen im Luxx haben abgewinkt, weil der maxTakt sich nicht zuverlässig mit Voltmods steigern lässt, sieht man auch in den Ranglisten, das >3,7GHz einfach nicht stabil drin sind.
(Irgendwo war mal ein Artikel mit nem LN-OCer der ein eigenes Tool hatte, um den Takt besser freizubekommen,
aber auch nur für nen Schnappschuss)
Kannst Du...nur wen interessieren heute Spiele von 2020-2023. Ok...ein Spiel ist von 2024.
In aktuellen Spielen sieht es eben schon anders aus. Ist wie mit den Benchmarks. In veralteten Benchmarks sind ältere Karten oft top. Neue Benchmarks/neue Spiele/neue Features...die Welt dreht sich weiter.
lmfaktor schrieb:
Fairer wäre es die fps, je nach Spiel oder allgemein, auf 120 zu begrenzen. Den man weiss doch, dass beim Spielen die Stabilität der fps im unteren Grenzbereich von Bedeutung und nicht, dass die stellenweise Richtung 180 oder mehr schiessen können.
Habe sogar 2 Screens aus dem Bench-Video gepostet, wo man deutlich sieht, dass da streckenweise nicht mal 15 % Unterschied vorliegt und trotzdem ist es kein Argument. Jetzt kommen auch noch die Extrembeispiele und dass, obwohl ich es mit Relation extra hervorgehoben habe. Bedenkt man dazu, dass die Leistungsaufnahme einer 9070 XT gegenüber der 6900 XT nicht gesunken ist, die vor etwa 6 Jahren rauskam, ist der technologische Fortschritt doch recht schwach.
Im Übrigen, den Gerüchten zufolge, zum Launch von Crimson Desert und Death Stranding 2 am 19. März, soll ein neuer 26.3 Treiber rauskommen, der FSR 4 Unterstützung für die 6000 und 7000 Reihe mitbringen soll und ohne Gefummel für die 9000er FSR 4.1 freischaltet.
Hier meine 9070 mit -70mV und 265W (Das sind 75% von 360W)
Und hier meine 9070 mit -70mV und 210W (Das sind 60% von 360W). Da erreicht sie in etwa die Performance der 6900 XT.
Die min FPS scheinen bei dem Benchmark nicht sehr aussagekräftig zu sein, die schwanken bei mir von Lauf zu Lauf zwischen 104 und 110 fps, auch bei gleichen Settings und liegen auch nur direkt zu Beginn des Testlaufs an und werden danach nie mehr unterschritten.
Trotzdem kann ich die Spieleauswahl in dem Video nicht ernst nehmen. Sind nun mal alte Games.
Beispiel TLOU. Da nimmt er sogar extra einen Patch ( 1.1.3.0 ) von Anfang 2024. Da war die 9000er Serie nicht mal existent...also unmöglich auf das Game optimiert.
Und hier meine 9070 mit -70mV und 210W (Das sind 60% von 360W). Da erreicht sie in etwa die Performance der 6900 XT.
Die min FPS scheinen bei dem Benchmark nicht sehr aussagekräftig zu sein, die schwanken bei mir von Lauf zu Lauf zwischen 104 und 110 fps, auch bei gleichen Settings und liegen auch nur direkt zu Beginn des Testlaufs an und werden danach nie mehr unterschritten.
Schaue genau hin, was du selbst "zitiert" hast. 360 W ist das eingestellte Limit, die Leistungsaufnahme hat lediglich den Wert von 309 W erreicht.
Bei mir schwankt der FPS-Mindestwert nicht, der liegt stabil bei 104 bzw 105
DaHell63 schrieb:
Trotzdem kann ich die Spieleauswahl in dem Video nicht ernst nehmen. Sind nun mal alte Games.
Beispiel TLOU. Da nimmt er sogar extra einen Patch ( 1.1.3.0 ) von Anfang 2024. Da war die 9000er Serie nicht mal existent...also unmöglich auf das Game optimiert.
Ich muss mir nichts zurechtbiegen. Dein Video...alte Games...alte Patches.
Jegliche Resultate zu neuen Spielen ignorierst Du geflissentlich. Hier bitte schön
Um das Ergebnis mal vorweg zu nehmen
Was das ausmachen kann, wenn eine GEN in den Tests/Benches keinerlei optimierung bekommt zeigt sich hier ganz gut.
RDNA 2 wird entweder nicht meht mitgetestet, oder die Verbesserungen werden den Karten vorenthalten.
dann siehst Du, dass meine unter "Gesamtleistung der Grafik" gemessenen Werte bei 220W bzw. 180W liegen, was im Bezug auf deine dort erreichten 309W mit den von mir anhand des PT gemachten Prozentangaben skaliert.
Im Übrigen, den Gerüchten zufolge, zum Launch von Crimson Desert und Death Stranding 2 am 19. März, soll ein neuer 26.3 Treiber rauskommen, der FSR 4 Unterstützung für die 6000 und 7000 Reihe mitbringen soll und ohne Gefummel für die 9000er FSR 4.1 freischaltet.
6000er INT8 dll wird vermutlich nie offiziell veröffentlicht (x)
7000er FP8 für W11 dito, ... bleibt Linux vorbehalten, weil vermutlich MS da nen FP8-->FP16 Emulator für die
Matrixcores patchen müsste
9000er FSR4.1 hoffentlich, muss aber nicht bei zwischendurch gameready-treibern dabei sein, evtl.
dann erst Ende des Monats mit nem regulärem WHQL
AMD geht vermutlich den einfachsten Weg, um Anfragen/Bug-Support für alten Murks zu vermeiden.
(x) hinzu kommt bei RDNA2, das man aus nem uraltem 23.9.1 Treiber dll´s braucht/austauschen muss, damits nicht
ohne Ende ghostet+flimmert
Anhänge
23.9.1 dlls müssen in den neuen Treiber vor Installation.jpg
Na halt Gerüchte und Hoffnungen, wobei ich FSR 4 jetzt nicht wirklich vermisse. Ich meine nur, dass seit FSR 3.1 und das ist bereits 2 Jahre her, nichts mehr kam. Ist bei Intel mit XeSS leider auch nicht anders. Hätte AMD eine Monopol-Stellung, würde ich es noch irgendwie verstehen können. In etwa so, was Intel jahrelang mit ihren CPUs betrieben hat. Nur marginale Mehrleistung von Generation zu Generation, die stets mit einem neuen Sockel einherging. Nur 4 und 6 Kern CPUs. Kaum hat AMD 2017 ihre 6 und 8 Kern CPUs für Mainstream rausgebracht und schon war es auch bei Intel plötzlich möglich geworden.
Doch hier herrscht ein totaler Widerspruch. AMD kann mit Top-Modelen von Nvidia überhaupt nicht mithalten, wesentlich schlechter bei RT und für die meisten Besitzer von AMD Karten, steht nur ein "dürftiger" Upscaler zu Verfügung.
RDNA4-RT passt zu P/L, sehe da keinen Nachteil (das man für Midrange-Grakas<=679€ kein PT bewirbt ist für mich normal)
das man MFG für AMD nur per DLSS-Enabler erzwingen kann ist nicht schön, aber auch kein Beinbruch
Wer will, der kann es testen.
Ob nun Model L bei NV oder man bei FSR4 Model 5 einstellt, sollte auch keine Raketenwissenschaft sein.
(Model 5 ist eigentlich für Ultraperformance, werde das mal für Performance testen)
Ich habe von Upscaler geschrieben. FG will ich genauso wenig einsetzen wie RT auch.
Everspace 2 hat nativ FSR 4. Optiscaler ist da nicht notwendig. Kopierst einfach die amd_fidelityfx_upscaler_dx12.dll in den Spieleordner und schon kannst es auswählen.
Das ist für mich egal obs XeSS-MFG oder FSR4+MFG in der Praxis ist.
(ob man auch mit RDNA4 an XeSS-MFG andocken kann werden die Modder schon herausfinden)
Das Du alles Mögliche nicht willst, ist Dein Problem.
Keine Ahnung warum Du dann überhaupt hier im Thread was schreibst.
RT braucht häufig MFG, gerade in 4k bei schnellen Monis.