Test AMD Radeon RX 9070 (XT) im Test: RDNA 4 und FSR 4 sind eine Revolution

SweetOhm schrieb:
Yup, beim Preis/der Marge. CPUs von denen sind erstklassig, leider.
Ja, voll scheiße. Ich hätte es auch lieber gesehen, daß Intel uns pro Jahr 5% Mehrleistung für 10% Aufpreis auf den Vierkerner gibt. :freak:
 
  • Gefällt mir
Reaktionen: Rockstar85
Blanka schrieb:
AMD Karten lohnen sich bei deutschen Strompreisen einfach nicht.
Sorry, aber wer für für eine GraKa mehr als 1000€ hinlegt, muß sich auch keinen Kopf über die Stromrechnungen machen.
 
  • Gefällt mir
Reaktionen: snowpanter
@Swarley Die Leute in meinem Umfeld, die deutlich mehr als der Durchschnitt verdienen und sich so ne Karte mal eben rausschütteln, achten allesamt weit mehr auf laufende Kosten, als auf Einmalzahlungen.
Genau bei denen, die sowas "einfach" kaufen, weils als Einmahlzahlung egal ist, wird auf regelmäßige Kosten wert gelegt.

Viele, die immer wieder in die Kerbe "wer soviel Geld für ne GPU hat, schaut nicht auf den Verbauch" schlagen, würden sich wundern, woher dieses Geld oft kommt. Meist von dem Bewusstsein für laufende Kosten.

Im Gegenzug seh ich genug Menschen, die im Grunde genau wirtschaften sollten, aber Netflix, Amazon Prime, Zinsen für unwichtige(!) Niedrigstkredite (dazu zählen auch Handyverträge mit teuren Geräten), Spotify (weil kostet ja nicht viel pro Monat), Youtube Prime und was weiß ich nicht alles (you name it... sei es Disney+, die Versicherung fürs eh auf Raten laufende Handy oder iPad) brav jeden Monat abrücken, obwohl sie die Kohle eigentlich nicht haben.

Wenn die das mal zusammen rechen würden und dann über zwei bis vier Jahre aufaddieren ist so ne GPU auf einmal garnicht mehr so teuer... das wollen die aber alle nicht hören, weil die Wahrheit viel zu unbequem ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna, Jagdwurst, Rockstar85 und 6 andere
NguyenV3 schrieb:
Die neue zweite Charge wurde dann wieder teurer angeboten. Quelle PCGH
Voll Krass, bis zu über 100% Aufschlag (659 statt 329 €).
Wie kann/konnte man nur so ein "Spiel" mitmachen ?!? :stock:
 
anexX schrieb:
Wow, die 9070XT verbläst einfach mal ne 5080. :O - That hurts, Nvidia. ^^

Good job AMD ! :cool_alt:
Wovon träumst du?
Die gigabyte rtx 5080 gaming ist mit Overclocking auf rtx 4090 Niveau + MFG Das sind mal geschmeidige 200fps+ mit der ich gerade cyberpunk 2077 zocke wohlgemerkt auf ultra+path tracing... (3440/1440 oled)

Ich erinner mich nicht wann sich ein Spiel mal wirklich so geil angefühlt hat :)
 
Cronos83 schrieb:
@Swarley Die Leute in meinem Umfeld, die deutlich mehr als der Durchschnitt verdienen und sich so ne Karte mal eben rausschütteln, achten allesamt weit mehr auf laufende Kosten, als auf Einmalzahlungen.
Genau bei denen, die sowas "einfach" kaufen, weils als Einmahlzahlung egal ist, wird auf regelmäßige Kosten wert gelegt.

Viele, die immer wieder in die Kerbe "wer soviel Geld für ne GPU hat, schaut nicht auf den Verbauch" schlagen, würden sich wundern, woher dieses Geld oft kommt. Meist von dem Bewusstsein für laufende Kosten.

Im Gegenzug seh ich genug Menschen, die im Grunde genau wirtschaften sollten, aber Netflix, Amazon Prime, Zinsen für unwichtige(!) Niedrigstkredite (dazu zählen auch Handyverträge mit teuren Geräten), Spotify (weil kostet ja nicht viel pro Monat) und was weiß ich nicht alles brav jeden Monat abrücken, obwohl sie die Kohle eigentlich nicht haben.
Wenn die das mal zusammen rechen würden und dann über zwei bis vier Jahre aufaddieren ist so ne GPU auf einmal garnicht mehr so teuer... das wollen die aber alle nicht hören, weil die Wahrheit unbequem ist.

1. Das Zitiersytem hier ist einfach mal scheiße.
2. Anekdotische Evidenz.
3. Wenn ich so ein Bewußtsein für laufende Kosten habe, kauf ich mir keine Karte, die so teuer ist und im schlechtesten Fall 600W zieht.
 
@Swarley
1) Ist Gewöhnungssache
2) Ist auf die Gesellschaft heruntergebrochen Tatsache
3) Es ging in dem von Dir angeführten Fall um den Kaufpreis. Jetzt, wo jemand laufende Kosten gegen den Kaufpreis stellt kommst du mit "600 Watt Verbrauch im schlechtesten Fall" und nimmst das als Argument.
Du gehörst also zu denen, die die Diskussion so zu drehen versuchen, wie es für sie passt, wenn sie in diskussionstechnisch auf dem falschen Fuß erwischt wurden?
Eben gings Dir noch um Anschaffungspreise. Deine Aussage war: Wer den Kaufpreis zahlt, dem ist Verbrauch egal. Meine Aussage war runtergebrochen: Wer auf laufende Kosten achtet, kann den Kaufpreis zahlen - 600W Verbrauch würde sojemand NATÜRLICH der Effizienz gegenüberstellen. Das ignorierst Du DIREKT und brichst es auf Pauschalitäten herunter. Du hast die Quintessenz nicht verstanden. Dehalb triggert Dich die Aussage vermutlich auch so sehr.
->Zeitverschwendung! - > In der Summe direkt auf ingnore. Traurig, aber Du scheinst genau zur von mir erwähnten Gruppe zu zählen.

Ich zitier mich ausnahmsweise mal selbst:
das wollen die aber alle nicht hören, weil die Wahrheit viel zu unbequem ist.

Mehr sag ich dazu nicht.
 
  • Gefällt mir
Reaktionen: Jagdwurst, ShadowEagle83 und KeinNutzerName
Das Pathtracing so krass auf Nvidia zugeschnitten ist, macht mir schon Sorgen.
  1. Full Raytracing wurde bis dato ausschließlich auf GeForce-Grafikkarten für GeForce-Grafikkarten entwickelt wird – damit können Radeons vermutlich gar nicht auf ein vergleichbares Ergebnis kommen.
Wenn das stimmt, dann ist das für uns Kunden ziemlich schlecht. Nvidia hat so einen hohen Marktanteil, dass die sowas halt durchdrücken können. Was hindert Nvidia daran mehr solcher "Features" bei den Entwicklern durchzudrücken, um AMD auszubremsen? AMD muss dringend mehr Marktanteile zurückgewinnen. Ob das mit den neuen Karten klapp, wage ich irgendwie zu bezweifeln. Dafür sind die dann doch preislich zu nah an den Nvidias dran.
 
  • Gefällt mir
Reaktionen: Celinna und Rockstar85
Swarley schrieb:
3. Wenn ich so ein Bewußtsein für laufende Kosten habe, kauf ich mir keine Karte, die so teuer ist und im schlechtesten Fall 600W zieht.

Ich kann eine 5090 auch bei 2-2,5GHz und <200-350W laufen lassen. In Marvel Rivals Full-HD MAX Details, Framegen und so 350-450fps zieht die dann 150W, bei 2,5GHz 200W. Da braucht mein Intel-Laptop fast mehr Strom als der Desktop mit X3D und 5090 für weniger FPS. Ich experimentiere zudem gerade mit Hybrid Graphics für den Idle-Verbrauch.

@Topic:
Ich hatte jetzt kürzlich Assasin's Creed Mirage einmal auf einer 7900XTX und einmal einer 4080 Mobile am gleichen Monitor gespielt und mich sofort gewundert, warum das auf der AMD so unscharf aussieht. DLSS Transformer ist wirklich gut und ich sehe da Fortschritte bei AMD, aber de facto sehen die Spiele halt leider schlechter aus.

IMG20250215111411.jpg

Hinzu kommt, dass es viele Games gibt, die nur FSR2 oder gar kein FSR, wohl aber DLSS unterstützen. Oder sie unterstützen FSR Framegen, aber kein Anti Lag 2. Dann fängt man jedes Mal an mit Optiscaler, fakenvapi, nukems, LukeFSR etc. da dran rumzumodden. Manchmal geht das easy und schnell (Cyberpunk, Robocop) oder es ist katastrophal (RE4-Engine). Das geht mir auf dem Legion Go so auf den Senkel, dass ich überlege, den wieder zu verkaufen. Allein bei Dragon's Dogma 2 hatte ich damals bestimmt 10h reinversenkt, nur um es dann aufzugeben und ausschließlich am Laptop zu spielen.

Auf der anderen Seite ist z.B. eine 5080 nur 20 % schneller, kostet aber Straßenpreis das Doppelte, eine 5090 ist doppelt so schnell, kostet aber mehr als das Vierfache. Ich bin am Überlegen, ob ich die 5090 zurückschicke, erstmal eine 9070XT für sub 700 EUR nehme (wegen Bastelinteresse und Preis) und dann im Sommer mal schaue, wie die Preise für 5090 aussehen.
 
  • Gefällt mir
Reaktionen: Cronos83
Blanka schrieb:
AMD Karten lohnen sich bei deutschen Strompreisen einfach nicht.
Und Test lesen bildet.

@SweetOhm und die UVP der 5070Ti ist nicht 1600.

@Cronos83 aha, 3k für eine GPU ezpz rausblättern und sich dann über 2 Cent pro KWh Gedanken machen 🤡.
 
  • Gefällt mir
Reaktionen: AtsmPrime, xXDariusXx und Melmoth
Syrato schrieb:
@Cronos83 aha, 3k für eine GPU ezpz rausblättern und sich dann über 2 Cent pro KWh Gedanken machen 🤡.
Welche Aussage von mir hast Du so interpretiert?
Das hab ich nämlich an keiner Stelle so geschrieben und auch nie so gemeint.

Ps.: Wo kommen auf einmal die 3k her?
 
  • Gefällt mir
Reaktionen: KeinNutzerName
Cronos83 schrieb:
Die Leute in meinem Umfeld, die deutlich mehr als der Durchschnitt verdienen und sich so ne Karte mal eben rausschütteln, achten allesamt weit mehr auf laufende Kosten, als auf Einmalzahlungen.
Genau bei denen, die sowas "einfach" kaufen, weils als Einmahlzahlung egal ist, wird auf regelmäßige Kosten wert gelegt.
Auf das.
 
Lasse hundert Leute FSR4 Performance vs. DLSS4 Performance + MFG spielen. 99% der Leute werden danach nicht erstere Erfahrung kaufen wollen.
Der CB-Test ist insofern als Kaufberatungshilfe mir persönlich zu rückwärtsgewandt.

Der vermeintliche Verlierer 5070 lässt die 9070XT in einem solchen Vergleich wie last gen aussehen. Das könnte sich an vielen Stellen in den nächsten Monaten zeigen und so mancher wird sich fragen, warum er auf die 'AMD-Revolution' gesetzt hat, die daraus besteht, niedrige Erwartungen zu übertreffen. Für FSR4 freut es mich, aber der Test lässt leider auch die Verbreitung der Featureunterstützung unterbewertet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CadillacFan77
Syrato schrieb:
Also hast du die 3k mal schön aus der Luft gegriffen und die 2 Cent pro KWh auch.
Die Grundaussage hast Du verstanden? Oder soll ich die nochmal ganz langsam aufdröseln?

Edit: Die von mir zitierte Aussage bezog sich auf einen Post in dem von 1k+ GPUs gesprochen wurde.
Aber JA! Natürlich gilt das ERST RECHT für noch teurere GPUs (von mir aus Deine 3k... oder lass uns direkt 5k nehmen).

Die Aussage war: Die Leute die die Kohle haben das in einem Rutsch ohne Raten zu bezahlen achten in der Regel auf laufende Kosten - und oft ist genau deshalb Geld für so hohe Einmalzahlungen da! Ja! Genau das war die Aussage :)

Und ob Du das jetzt mit den von Dir erwähnten 2 Cent oder von den von mir erwähnten laufenden, und weit verbreiteten Kosten wie Netflix, Amazon Prime, Spotify, Handyvertrag in Relation bringen willst, bleibt Dir überlassen :)
Und Du lachst da vielleicht, aber JA, da wird auch oft auf 2 Cent Unterschied bei der KWh geachtet.


Ums also nochmal GANZ klar zu machen:
@Cronos83 aha, 3k für eine GPU ezpz rausblättern und sich dann über 2 Cent pro KWh Gedanken machen 🤡.
GENAU das ist im Grunde der Fall, egal, ob da jetzt 1K, 2K, 3K oder 5K stehen - Sofort bezahlte Einmahlzahlungen machen einen nicht arm.
Dauerzahlungen (Handy auf Raten, Netflix, andere Abos, etc.), gerade bei Leuten, die sich diese Kleinstkredite oder Abos nicht als Sofortzahlung leisten können schlagen meistens weit mehr aufs Gemüt und/oder die verbleibende Zahlungsfähigkeit, und werden oft, in ihrer Gänze von den Zahlenden nicht überblickt. Einfach mal alles aufrechnen öffnet dem Ein oder anderen die Augen. Das dann mal 2 bis 4 Jahre sparen, und ne "teure" GPU ist auf einmal bezhalbar. Ohne Raten. Genau das war meine Aussage.
Und JA - ich kenne genug Leute die da auch auf deine 2 Cent pro KWh beim Stromanbieter achten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jagdwurst, Beatmaster A.C. und Naesh
Pisaro schrieb:
Wenn du sehr geringe Ansprüche hast stimmt das. Willst du aber gute Details bei 100 FPS mit hoher Auflösung brauchst du high end.

Wenn es danach geht: Kein Mensch braucht einen Gaming PC!
Ich würde eher formulieren, geringere Ansprüche als ein Highend-Gamer. Die meisten spielen mit Midrangekarten ruckelfrei auf Mittel oder Hoch. Diese Anzahl der Spieler ist erheblich höher als die Anzahl der Highendgamer. Weil wer wirklich geringe Ansprüche hat zockt mit einer "Dulli-Billo" ARC 770LE 16GB auf FullHD alles mit maximalen Einstellungen. Und warum macht der das ? Genau! weil er es kann. :heilig: :schluck:
 
  • Gefällt mir
Reaktionen: kelt_
Cronos83 schrieb:
@Swarley
1) Ist Gewöhnungssache
2) Ist auf die Gesellschaft heruntergebrochen Tatsache
3) Es ging in dem von Dir angeführten Fall um den Kaufpreis. Jetzt, wo jemand laufende Kosten gegen den Kaufpreis stellt kommst du mit "600 Watt Verbrauch im schlechtesten Fall" und nimmst das als Argument.
Du gehörst also zu denen, die die Diskussion so zu drehen versuchen, wie es für sie passt, wenn sie in diskussionstechnisch auf dem falschen Fuß erwischt wurden?
Eben gings Dir noch um Anschaffungspreise. Deine Aussage war: Wer den Kaufpreis zahlt, dem ist Verbrauch egal. Meine Aussage war runtergebrochen: Wer auf laufende Kosten achtet, kann den Kaufpreis zahlen - 600W Verbrauch würde sojemand NATÜRLICH der Effizienz gegenüberstellen. Das ignorierst Du DIREKT und brichst es auf Pauschalitäten herunter. Du hast die Quintessenz nicht verstanden. Dehalb triggert Dich die Aussage vermutlich auch so sehr.
->Zeitverschwendung! - > In der Summe direkt auf ingnore. Traurig, aber Du scheinst genau zur von mir erwähnten Gruppe zu zählen.
1. Mag sein
2. Quelle?
3. Ja, klar. Ignore. So geht das. :daumen:
Ergänzung ()

ColinMacLaren schrieb:
Ich kann eine 5090 auch bei 2-2,5GHz und <200-350W laufen lassen. In Marvel Rivals Full-HD MAX Details, Framegen und so 350-450fps zieht die dann 150W, bei 2,5GHz 200W. Da braucht mein Intel-Laptop fast mehr Strom als der Desktop mit X3D und 5090 für weniger FPS. Ich experimentiere zudem gerade mit Hybrid Graphics für den Idle-Verbrauch.

@Topic:
Ich hatte jetzt kürzlich Assasin's Creed Mirage einmal auf einer 7900XTX und einmal einer 4080 Mobile am gleichen Monitor gespielt und mich sofort gewundert, warum das auf der AMD so unscharf aussieht. DLSS Transformer ist wirklich gut und ich sehe da Fortschritte bei AMD, aber de facto sehen die Spiele halt leider schlechter aus.

Anhang anzeigen 1592098
Hinzu kommt, dass es viele Games gibt, die nur FSR2 oder gar kein FSR, wohl aber DLSS unterstützen. Oder sie unterstützen FSR Framegen, aber kein Anti Lag 2. Dann fängt man jedes Mal an mit Optiscaler, fakenvapi, nukems, LukeFSR etc. da dran rumzumodden. Manchmal geht das easy und schnell (Cyberpunk, Robocop) oder es ist katastrophal (RE4-Engine). Das geht mir auf dem Legion Go so auf den Senkel, dass ich überlege, den wieder zu verkaufen. Allein bei Dragon's Dogma 2 hatte ich damals bestimmt 10h reinversenkt, nur um es dann aufzugeben und ausschließlich am Laptop zu spielen.

Auf der anderen Seite ist z.B. eine 5080 nur 20 % schneller, kostet aber Straßenpreis das Doppelte, eine 5090 ist doppelt so schnell, kostet aber mehr als das Vierfache. Ich bin am Überlegen, ob ich die 5090 zurückschicke, erstmal eine 9070XT für sub 700 EUR nehme (wegen Bastelinteresse und Preis) und dann im Sommer mal schaue, wie die Preise für 5090 aussehen.
Ich glaube Du und der mich ignorierende haben ein Verständnisproblem.
Entweder ich kann 1k€ oder mehr für eine Graka ausgeben, dann ist der Strompreis irrelevant ODER der Strompreis ist relevant, dann kann ich aber nicht 1K€ für eine GraKa ausgeben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zulgohlan
Windell schrieb:
@Quidproquo77 Findest du es nicht merkwürdig das du in sovielen Diskussionen aneckst bei verschiedenen Usern wegen deiner großen Sympathie für Nvidia?
Er bedient sich einer aneckenden Rhetorik, aber in der Sache hat er ja recht: technisch ist AMD jetzt meistens fast auf Augenhöhe zu nvidia.
Das primäre Argument für AMD ist aktuell der Preis, oder?
 
Zurück
Oben