Test AMD Radeon RX 7600 im Test: Die 299-Euro-Grafikkarte tritt mit Navi 33 auf der Stelle

Taxxor schrieb:
Die suche nach "FSR" ergibt zwar 368, die genauere Suche nach "FSR 2" nur noch 174 treffer
Ja da AMD immer später released sind sie immer 1 Gen hinten dran, logisch das sich DLSS3 mehr durchgesetzt hat wie FSR3 :D weil noch nicht da, das selbe war doch auch mit FSR1 und DLSS 2.0 so.

Und es gibt noch ein Bereich wo das so ablief, zuerst gab es nur Monitore die Gsync unterstützten heute sind 99% der Monitore mit Adaptivesync, selbst wenn Nvidia nun Adaptivesync auch in Gsync umbenannt intern rede ich von echtem Gsync.

Also ich denke da AMD auch auf offene Standards setzt das sie sich wieder durch setzen am Ende, vielleicht nicht so radikal wie bei Adaptivesync vs Gsync aber dennoch. Wie gasagt wenn man alle Versionen mit zählt ist AMD ja längst deutlich vorne.

Nvidia seh ich bei den Sachen oft als Finanzstarke Early Adapter ohne dadurch extrem Instabilitäten oder ähnliches zu bekommen, aber AMD eher die Firma für breite Industriestandards. Im Firmenumfeld mit Cuda und co ist das teils anders, aber auch da schluckt man halt die proprietäre Standards weil man gezwungen ist, es ist meist auch keine Liebesheirat.
 
TriceO schrieb:
Ich bashe seit Wochen gegen die Karten/das Design, aber du kannst doch der 4060/7600 nicht vorwerfen, dass die Spiele heute anspruchsvoller sind als vor sieben Jahren. Ist ja nicht so als sähe die 1060 irgendein Land bei aktuellen Spielen.

Ich weiß nicht, ob du du mich richtig verstanden hast.

MIr geht es darum, dass eine 6700 für heutige Spiele low End ist und praktisch schon damit überfordert ist.
Eine GTX1060 hingegen war damals gute mittelklasse und so schnell wie die GTX980 eine Generation vorher.
Die GTX1060 hat also für die damals aktuellen Spiele üppig Leistung geboten, die 6700 tut das in heutigen Spielen aber nicht.


Man bekommt also heute relativ gesehen viel weniger Spieleperformance für sein Geld als damals.
Die RX 6700 ist ein viel, VIEL schlechterer Kauf, als die GTX1060 es damals gewesen ist.


Und ja, dass Spiele mehr Leistung brauchen, ist der Lauf der Dinge. Genauso wie es der Lauf der Dinge ist, dass Hardware Leistungsfähiger wird. Das läuft seit 30+ Jahren jetzt so. Genau deswegen ist man ja gezwungen, alle paar Jahre aufzurüsten und neu zu kaufen.

Mittlerweile ist man aber nicht mehr nur gezwungen, alle paar Jahre aufzurüsten, um seinen Anspruch aufrecht zu erhalten und neuere Spiele annehmbar spielen zu können, nein, mittlerweile muss man auch sein Budget bei jedem Upgrade deutlich erhöhen, um das gewohnte performanceniveau halten zu können, weil der Hardwaremarkt stagniert und die Spiele weiterhin mehr Leistung fordern.
Das ist das Problem.
 
  • Gefällt mir
Reaktionen: M11E, fullnewb und FrankN84
Alles ziemlich enttäuschend, aber auch nicht ernüchternd, da ich nichts besonderes erwartet habe. Der Karte fehlt einfach das gewisse etwas, ein Besonderheitsmerkmal oder ein Totschlagargument, wenn man so will. Immerhin ist die Dollar-UVP um 30$ gesunken (ggü. der 6600).

Wenn die 4060 im Juli rastermäßig auch allein nur in die Nähe der 7600 kommt (und das wird sie laut den bisherigen Infos definitiv, wenn nicht sogar drüber), dann sehe ich hier Null Argumente für die 7600.

FSR? Darf die 4060 auch nutzen und ist bei verfügbarem DLSS2 auch sonst qualitativ besser.
VRAM? Haben beide die gleiche Menge, wobei das RAM-Management bei der grünen etwas besser ist.
FG? Von AMD noch nichts auf der Leinwand, während die 4060 das hier und dort nutzen kann
Zuzüglich kommt die 7600 leider ebenfalls mit den erhöhten, refresh-/auflösungsabhängigem Idle-Verbrauchsproblem.

All das kann eine Preisdifferenz von 30$ nicht gutmachen. Auch wenn mir beide Lager einfach nur noch auf den Sack gehen, wird die 4060 non Ti vermutlich das deutlich attraktivere Produkt im Vergleich zur 7600 sein. Es sei denn; AMD reduziert im Juli noch mal ordentlich den Preis oder überrascht uns mit FSR3.
 
blackiwid schrieb:
Wie gasagt wenn man alle Versionen mit zählt ist AMD ja längst deutlich vorne.
368 zu 355 ist jetzt nicht so deutlich und wie gesagt, FSR 1.0 ist in den meisten Fällen auch kein guter Ersatz für DLSS^^

Aber klar, dafür dass es 1-2 Jahre später kam ist es schon gut, dass man auf gleichem Niveau liegt was die Anzahl der Spiele angeht.
Allerdings muss man auch mal genauer betrachten, welche Spiele das sind, die alles so bei FSR und DLSS jeweils dazugekommen sind und ob die für einen relevant sind.

Konzentriert man sich auf die AAA Games, so hat man eher weniger den Fall, dass FSR weiter verbreitet ist.
 
Naja also ganz ehrlich, der Fisch stinkt doch schon bevor er auf dem Markt ist.

Für die UVP never, da würde ich jedem empfehlen. Du suchst etwas dafür
soll Full HD bei hoher Grafikqualität mit 60 FPS stemmen.
dann leg etwas drauf und schnapp dir ne 6700XT, gebraucht oder halt neu. Mit der wird man länger Spass haben, mit UV sind da auch unter 200W drin, ohne Leistungsverlust.

Ist doch ein Witz. Naja jeder springt nur so hoch wie er muss.
 
Danke für den Test...ein weiterer Fingerzeig dahingehend wie sehr sich AMD mit RDNA3 und der mutmaßlichen Ausrichtung auf Takt (unabhängig des Verbrauchs) verzockt hat.
 
Was habt ihr eigentlich immer mit dlss 3 und FSR 3? Beides ist scheise weil sich 100 FPS nicht wie 100 FPS anfühlen. 100 FPS bei dlss 3 sind gefühlt 50 FPS wegen den Input lag. DLSS 3 ist ein totaler fail. Da bleib ich lieber bei dlss 2.
 
Wun Wun schrieb:
wenn es eine 6600 für 200€ bzw. 6600XT/6650XT für gut 250€ gibt.
Jetzt noch, da abverkauf. In 4wochen sieht das anders aus.
 
Experte18 schrieb:
100 FPS bei dlss 3 sind gefühlt 50 FPS wegen den Input lag.
100 FPS mit DLSS3 haben ca den Input Lag von 75 FPS ohne DLSS3 (Denn wenn ein Spiel kein DLSS3 hat, hat es idR auch kein Reflex, was bei DLSS3 immer aktiv ist) und du siehst eben 100 statt 50 Bilder pro Sekunde, also immer deutlich besser als 50FPS ohne DLSS 3.

Und wenn deine CPU dich nicht mal auf 60 FPS kommen lässt an manchen Stellen (Hogwarts Legacy, Witcher 3, Jedi Survivor), bietet DLSS 3 dir die Möglichkeit zumindest die Bildruhe zu behalten weil du trotzdem konstant über 60 bleiben kannst.
 
  • Gefällt mir
Reaktionen: Laphonso, ComputerJunge, Holgmann75 und eine weitere Person
Experte18 schrieb:
DLSS 3 ist ein totaler fail.
Kann nur jemand sagen, der es selbst noch nicht genutzt hat. Wer beispielsweise Witcher 3 NG schon mal mit FG gespielt hat, der kann so eine Aussage gar nicht guten Gewissens treffen. Für solche Sachen ist nämlich das Wort "Gamechanger" erfunden worden.
 
  • Gefällt mir
Reaktionen: Laphonso, Holgmann75 und ShiftC
Taxxor schrieb:
Konzentriert man sich auf die AAA Games, so hat man eher weniger den Fall, dass FSR weiter verbreitet ist.

In der Praxis ist die Verbreitung der Technologie doch völlig zweitrangig.
Bei Nvidia kannst du ja sowohl DLSS als auch FSR nutzen. Selbst wenn AMD 1000 FSR Spiele und Nvidia 10 DLSS Spiele hätte, hätte man mit ner Nvidia Karte die größere Auswahl an Spielen, in denen modernes Upscaling nutzbar ist.


Experte18 schrieb:
Was habt ihr eigentlich immer mit dlss 3 und FSR 3? Beides ist scheise weil sich 100 FPS nicht wie 100 FPS anfühlen. 100 FPS bei dlss 3 sind gefühlt 50 FPS wegen den Input lag. DLSS 3 ist ein totaler fail. Da bleib ich lieber bei dlss 2.

Du kannst DLSS2 und DLSS3 kombinieren...

Zudem ist den Denkfehler, davon auszugehen, dass du die 100 FPS in dem Beispiel auch ohne Frame Generation erreichst.
Tust du halt nicht.

Wenn deine Grafikkarte in irgend nem Spiel maximal eben diese 50 FPS erreicht, womöglich trotz DLSS2 Upscaling, dann ist das halt so. Wenn du dann Frame Generation aktivierst und daraus 100 FPS werden, fühlt sich das deutlich besser an.
Ist natürlich nicht so responsiv wie 100 echte FPS, schon gar nicht so responsiv wie 100 echte FPS mit Reflex.
Aber es ist besser als das was du sonst erreichen könntest.

Warum sollte man das also nicht nutzen wollen?


Wenn du damit argumentierst dass 100 echte Frames besser sind, als 100 Frames mit Frame Generation, dann trittst du offene Türen ein. :lol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holgmann75 und ShiftC
Jetzt wird gleich einer kommen mit aber aber Reflex. Wenn du niedrige FPS hast hilft dir auch DLSS 3 und Reflex nicht mehr.

Wie auch immer der Unterschied zwischen FSR und DLSS ist für mich. FSR kann ich mit allen Karten nutzen auch mit ner ollen Pascal. Das ist echter Mehrwert. Da ist es auch ok wenn es hier und da mal nicht so gut läuft wie Nvidias proprietäre Lösung. Meine 1080Ti findet diesen Trick gut.
Und wenn FSR3 dann ebenso für alle Karten nutzbar ist auch für die letzte Generation oder evtl. sogar für RDNA dann ist das gut für die Kunden.
 
  • Gefällt mir
Reaktionen: Holgmann75
Als ich das mit dem Texturmatsch vorgestern zu dem Thema 8GB Vram geschrieben hatte sagte jemand im Forum ich sollte mir mal eine Brille kaufen da er mit seiner ach so tollen 3060ti mit ihren krüppeligen 8GB selbst in 4K Knackscharfe Texturen hat ohne Ruckler usw.
Klaro, und das bei aktuellen Spielen, wers glaubt. :D :D
 
Dai6oro schrieb:
Jetzt wird gleich einer kommen mit aber aber Reflex. Wenn du niedrige FPS hast hilft dir auch DLSS 3 nicht mehr.
Definiere niedrig. Alles ab 40 FPS aufwärts, sodass 80+ FPS rauskommen, ist absolut in Ordnung mit DLSS3.

Und selbst wenn jemand absolut nicht mehr als 30FPS erreichen kann, dann bekommt er mit DLSS3 immernoch 60 FPS die sich zwar nicht so flüssig anfühlen wie richtige 60 FPS aber immer noch deutlich besser als 30FPS, die ohne Reflex auch keine niedrigere Latenz als die 60 DLSS3 FPS haben.
 
  • Gefällt mir
Reaktionen: Fallout667
Bei nem Shooter willst dir das nicht antun. Außer du hast selbst Reflexe wie ne Kartoffel, dann ists vermutlich wurscht.
 
Mal abgesehen davon, dass die Latenznachteile in vielen Genre nicht ins Gewicht fallen. Darüber hinaus: Lieber die Option haben, es bei Bedarf nutzen zu können anstatt erst gar nicht diese Option zu besitzen. Gilt auch für FSR. Objektiv gesehen kann man DLSS3 bzw. FG nicht schlecht reden, das ist wirklich je nach Anwendungsfall ein Gamechanger.

Aber dass der Hersteller das als absurde Preiskeule benutzt, geht mir natürlich auf den Strich.
 
  • Gefällt mir
Reaktionen: M11E und Holgmann75
Dai6oro schrieb:
Bei nem Shooter willst dir das nicht antun.
Du ich hab früher mit meiner HD 7950 Battlefield mit 45-60 FPS gespielt, das ging auch klar^^

Und da gab es sowas wie Reflex auch noch nicht, wenn man heute dann z.B. von 40 auf 80 FPS mit FG und Reflex kommt, habe ich sogar eine niedrigere Latenz als ich damals mit meinen 45-60FPS hatte^^
 
  • Gefällt mir
Reaktionen: Fallout667 und Holgmann75
Zurück
Oben