Ja, voll scheiße. Ich hätte es auch lieber gesehen, daß Intel uns pro Jahr 5% Mehrleistung für 10% Aufpreis auf den Vierkerner gibt.SweetOhm schrieb:Yup, beim Preis/der Marge. CPUs von denen sind erstklassig, leider.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Radeon RX 9070 (XT) im Test: RDNA 4 und FSR 4 sind eine Revolution
- Ersteller Wolfgang
- Erstellt am
- Zum Test: AMD Radeon RX 9070 (XT) im Test: RDNA 4 und FSR 4 sind eine Revolution
Cronos83
Rear Admiral
- Registriert
- Feb. 2017
- Beiträge
- 5.718
Jetzt mach doch den Jakobsweg nicht so runter... das hat der echt nicht verdient....SweetOhm schrieb:Warst die letzten Wochen eigentlich auf dem Jakobsweg unterwegs ?
Sorry, aber wer für für eine GraKa mehr als 1000€ hinlegt, muß sich auch keinen Kopf über die Stromrechnungen machen.Blanka schrieb:AMD Karten lohnen sich bei deutschen Strompreisen einfach nicht.
Cronos83
Rear Admiral
- Registriert
- Feb. 2017
- Beiträge
- 5.718
@Swarley Die Leute in meinem Umfeld, die deutlich mehr als der Durchschnitt verdienen und sich so ne Karte mal eben rausschütteln, achten allesamt weit mehr auf laufende Kosten, als auf Einmalzahlungen.
Genau bei denen, die sowas "einfach" kaufen, weils als Einmahlzahlung egal ist, wird auf regelmäßige Kosten wert gelegt.
Viele, die immer wieder in die Kerbe "wer soviel Geld für ne GPU hat, schaut nicht auf den Verbauch" schlagen, würden sich wundern, woher dieses Geld oft kommt. Meist von dem Bewusstsein für laufende Kosten.
Im Gegenzug seh ich genug Menschen, die im Grunde genau wirtschaften sollten, aber Netflix, Amazon Prime, Zinsen für unwichtige(!) Niedrigstkredite (dazu zählen auch Handyverträge mit teuren Geräten), Spotify (weil kostet ja nicht viel pro Monat), Youtube Prime und was weiß ich nicht alles (you name it... sei es Disney+, die Versicherung fürs eh auf Raten laufende Handy oder iPad) brav jeden Monat abrücken, obwohl sie die Kohle eigentlich nicht haben.
Wenn die das mal zusammen rechen würden und dann über zwei bis vier Jahre aufaddieren ist so ne GPU auf einmal garnicht mehr so teuer... das wollen die aber alle nicht hören, weil die Wahrheit viel zu unbequem ist.
Genau bei denen, die sowas "einfach" kaufen, weils als Einmahlzahlung egal ist, wird auf regelmäßige Kosten wert gelegt.
Viele, die immer wieder in die Kerbe "wer soviel Geld für ne GPU hat, schaut nicht auf den Verbauch" schlagen, würden sich wundern, woher dieses Geld oft kommt. Meist von dem Bewusstsein für laufende Kosten.
Im Gegenzug seh ich genug Menschen, die im Grunde genau wirtschaften sollten, aber Netflix, Amazon Prime, Zinsen für unwichtige(!) Niedrigstkredite (dazu zählen auch Handyverträge mit teuren Geräten), Spotify (weil kostet ja nicht viel pro Monat), Youtube Prime und was weiß ich nicht alles (you name it... sei es Disney+, die Versicherung fürs eh auf Raten laufende Handy oder iPad) brav jeden Monat abrücken, obwohl sie die Kohle eigentlich nicht haben.
Wenn die das mal zusammen rechen würden und dann über zwei bis vier Jahre aufaddieren ist so ne GPU auf einmal garnicht mehr so teuer... das wollen die aber alle nicht hören, weil die Wahrheit viel zu unbequem ist.
Zuletzt bearbeitet:
legenddiaz
Lt. Junior Grade
- Registriert
- Dez. 2008
- Beiträge
- 341
Wovon träumst du?anexX schrieb:Wow, die 9070XT verbläst einfach mal ne 5080. :O - That hurts, Nvidia. ^^
Good job AMD !![]()
Die gigabyte rtx 5080 gaming ist mit Overclocking auf rtx 4090 Niveau + MFG Das sind mal geschmeidige 200fps+ mit der ich gerade cyberpunk 2077 zocke wohlgemerkt auf ultra+path tracing... (3440/1440 oled)
Ich erinner mich nicht wann sich ein Spiel mal wirklich so geil angefühlt hat
Cronos83 schrieb:@Swarley Die Leute in meinem Umfeld, die deutlich mehr als der Durchschnitt verdienen und sich so ne Karte mal eben rausschütteln, achten allesamt weit mehr auf laufende Kosten, als auf Einmalzahlungen.
Genau bei denen, die sowas "einfach" kaufen, weils als Einmahlzahlung egal ist, wird auf regelmäßige Kosten wert gelegt.
Viele, die immer wieder in die Kerbe "wer soviel Geld für ne GPU hat, schaut nicht auf den Verbauch" schlagen, würden sich wundern, woher dieses Geld oft kommt. Meist von dem Bewusstsein für laufende Kosten.
Im Gegenzug seh ich genug Menschen, die im Grunde genau wirtschaften sollten, aber Netflix, Amazon Prime, Zinsen für unwichtige(!) Niedrigstkredite (dazu zählen auch Handyverträge mit teuren Geräten), Spotify (weil kostet ja nicht viel pro Monat) und was weiß ich nicht alles brav jeden Monat abrücken, obwohl sie die Kohle eigentlich nicht haben.
Wenn die das mal zusammen rechen würden und dann über zwei bis vier Jahre aufaddieren ist so ne GPU auf einmal garnicht mehr so teuer... das wollen die aber alle nicht hören, weil die Wahrheit unbequem ist.
1. Das Zitiersytem hier ist einfach mal scheiße.
2. Anekdotische Evidenz.
3. Wenn ich so ein Bewußtsein für laufende Kosten habe, kauf ich mir keine Karte, die so teuer ist und im schlechtesten Fall 600W zieht.
Cronos83
Rear Admiral
- Registriert
- Feb. 2017
- Beiträge
- 5.718
@Swarley
1) Ist Gewöhnungssache
2) Ist auf die Gesellschaft heruntergebrochen Tatsache
3) Es ging in dem von Dir angeführten Fall um den Kaufpreis. Jetzt, wo jemand laufende Kosten gegen den Kaufpreis stellt kommst du mit "600 Watt Verbrauch im schlechtesten Fall" und nimmst das als Argument.
Du gehörst also zu denen, die die Diskussion so zu drehen versuchen, wie es für sie passt, wenn sie in diskussionstechnisch auf dem falschen Fuß erwischt wurden?
Eben gings Dir noch um Anschaffungspreise. Deine Aussage war: Wer den Kaufpreis zahlt, dem ist Verbrauch egal. Meine Aussage war runtergebrochen: Wer auf laufende Kosten achtet, kann den Kaufpreis zahlen - 600W Verbrauch würde sojemand NATÜRLICH der Effizienz gegenüberstellen. Das ignorierst Du DIREKT und brichst es auf Pauschalitäten herunter. Du hast die Quintessenz nicht verstanden. Dehalb triggert Dich die Aussage vermutlich auch so sehr.
->Zeitverschwendung! - > In der Summe direkt auf ingnore. Traurig, aber Du scheinst genau zur von mir erwähnten Gruppe zu zählen.
Ich zitier mich ausnahmsweise mal selbst:
Mehr sag ich dazu nicht.
1) Ist Gewöhnungssache
2) Ist auf die Gesellschaft heruntergebrochen Tatsache
3) Es ging in dem von Dir angeführten Fall um den Kaufpreis. Jetzt, wo jemand laufende Kosten gegen den Kaufpreis stellt kommst du mit "600 Watt Verbrauch im schlechtesten Fall" und nimmst das als Argument.
Du gehörst also zu denen, die die Diskussion so zu drehen versuchen, wie es für sie passt, wenn sie in diskussionstechnisch auf dem falschen Fuß erwischt wurden?
Eben gings Dir noch um Anschaffungspreise. Deine Aussage war: Wer den Kaufpreis zahlt, dem ist Verbrauch egal. Meine Aussage war runtergebrochen: Wer auf laufende Kosten achtet, kann den Kaufpreis zahlen - 600W Verbrauch würde sojemand NATÜRLICH der Effizienz gegenüberstellen. Das ignorierst Du DIREKT und brichst es auf Pauschalitäten herunter. Du hast die Quintessenz nicht verstanden. Dehalb triggert Dich die Aussage vermutlich auch so sehr.
->Zeitverschwendung! - > In der Summe direkt auf ingnore. Traurig, aber Du scheinst genau zur von mir erwähnten Gruppe zu zählen.
Ich zitier mich ausnahmsweise mal selbst:
das wollen die aber alle nicht hören, weil die Wahrheit viel zu unbequem ist.
Mehr sag ich dazu nicht.
Das Pathtracing so krass auf Nvidia zugeschnitten ist, macht mir schon Sorgen.
Wenn das stimmt, dann ist das für uns Kunden ziemlich schlecht. Nvidia hat so einen hohen Marktanteil, dass die sowas halt durchdrücken können. Was hindert Nvidia daran mehr solcher "Features" bei den Entwicklern durchzudrücken, um AMD auszubremsen? AMD muss dringend mehr Marktanteile zurückgewinnen. Ob das mit den neuen Karten klapp, wage ich irgendwie zu bezweifeln. Dafür sind die dann doch preislich zu nah an den Nvidias dran.
- Full Raytracing wurde bis dato ausschließlich auf GeForce-Grafikkarten für GeForce-Grafikkarten entwickelt wird – damit können Radeons vermutlich gar nicht auf ein vergleichbares Ergebnis kommen.
ColinMacLaren
Lt. Junior Grade
- Registriert
- Feb. 2012
- Beiträge
- 501
Swarley schrieb:3. Wenn ich so ein Bewußtsein für laufende Kosten habe, kauf ich mir keine Karte, die so teuer ist und im schlechtesten Fall 600W zieht.
Ich kann eine 5090 auch bei 2-2,5GHz und <200-350W laufen lassen. In Marvel Rivals Full-HD MAX Details, Framegen und so 350-450fps zieht die dann 150W, bei 2,5GHz 200W. Da braucht mein Intel-Laptop fast mehr Strom als der Desktop mit X3D und 5090 für weniger FPS. Ich experimentiere zudem gerade mit Hybrid Graphics für den Idle-Verbrauch.
@Topic:
Ich hatte jetzt kürzlich Assasin's Creed Mirage einmal auf einer 7900XTX und einmal einer 4080 Mobile am gleichen Monitor gespielt und mich sofort gewundert, warum das auf der AMD so unscharf aussieht. DLSS Transformer ist wirklich gut und ich sehe da Fortschritte bei AMD, aber de facto sehen die Spiele halt leider schlechter aus.
Hinzu kommt, dass es viele Games gibt, die nur FSR2 oder gar kein FSR, wohl aber DLSS unterstützen. Oder sie unterstützen FSR Framegen, aber kein Anti Lag 2. Dann fängt man jedes Mal an mit Optiscaler, fakenvapi, nukems, LukeFSR etc. da dran rumzumodden. Manchmal geht das easy und schnell (Cyberpunk, Robocop) oder es ist katastrophal (RE4-Engine). Das geht mir auf dem Legion Go so auf den Senkel, dass ich überlege, den wieder zu verkaufen. Allein bei Dragon's Dogma 2 hatte ich damals bestimmt 10h reinversenkt, nur um es dann aufzugeben und ausschließlich am Laptop zu spielen.
Auf der anderen Seite ist z.B. eine 5080 nur 20 % schneller, kostet aber Straßenpreis das Doppelte, eine 5090 ist doppelt so schnell, kostet aber mehr als das Vierfache. Ich bin am Überlegen, ob ich die 5090 zurückschicke, erstmal eine 9070XT für sub 700 EUR nehme (wegen Bastelinteresse und Preis) und dann im Sommer mal schaue, wie die Preise für 5090 aussehen.
Syrato
Vice Admiral
- Registriert
- Juni 2012
- Beiträge
- 7.092
Cronos83
Rear Admiral
- Registriert
- Feb. 2017
- Beiträge
- 5.718
Welche Aussage von mir hast Du so interpretiert?Syrato schrieb:@Cronos83 aha, 3k für eine GPU ezpz rausblättern und sich dann über 2 Cent pro KWh Gedanken machen 🤡.
Das hab ich nämlich an keiner Stelle so geschrieben und auch nie so gemeint.
Ps.: Wo kommen auf einmal die 3k her?
Syrato
Vice Admiral
- Registriert
- Juni 2012
- Beiträge
- 7.092
Auf das.Cronos83 schrieb:Die Leute in meinem Umfeld, die deutlich mehr als der Durchschnitt verdienen und sich so ne Karte mal eben rausschütteln, achten allesamt weit mehr auf laufende Kosten, als auf Einmalzahlungen.
Genau bei denen, die sowas "einfach" kaufen, weils als Einmahlzahlung egal ist, wird auf regelmäßige Kosten wert gelegt.
Lasse hundert Leute FSR4 Performance vs. DLSS4 Performance + MFG spielen. 99% der Leute werden danach nicht erstere Erfahrung kaufen wollen.
Der CB-Test ist insofern als Kaufberatungshilfe mir persönlich zu rückwärtsgewandt.
Der vermeintliche Verlierer 5070 lässt die 9070XT in einem solchen Vergleich wie last gen aussehen. Das könnte sich an vielen Stellen in den nächsten Monaten zeigen und so mancher wird sich fragen, warum er auf die 'AMD-Revolution' gesetzt hat, die daraus besteht, niedrige Erwartungen zu übertreffen. Für FSR4 freut es mich, aber der Test lässt leider auch die Verbreitung der Featureunterstützung unterbewertet.
Der CB-Test ist insofern als Kaufberatungshilfe mir persönlich zu rückwärtsgewandt.
Der vermeintliche Verlierer 5070 lässt die 9070XT in einem solchen Vergleich wie last gen aussehen. Das könnte sich an vielen Stellen in den nächsten Monaten zeigen und so mancher wird sich fragen, warum er auf die 'AMD-Revolution' gesetzt hat, die daraus besteht, niedrige Erwartungen zu übertreffen. Für FSR4 freut es mich, aber der Test lässt leider auch die Verbreitung der Featureunterstützung unterbewertet.
Zuletzt bearbeitet:
Syrato
Vice Admiral
- Registriert
- Juni 2012
- Beiträge
- 7.092
Bekommt man aktuell eine 5090 günstiger?Cronos83 schrieb:Ps.: Wo kommen auf einmal die 3k her?
Cronos83
Rear Admiral
- Registriert
- Feb. 2017
- Beiträge
- 5.718
Also hast du die 3k mal schön aus der Luft gegriffen und die 2 Cent pro KWh auch.Syrato schrieb:Auf das.
Die Grundaussage hast Du verstanden? Oder soll ich die nochmal ganz langsam aufdröseln?
Edit: Die von mir zitierte Aussage bezog sich auf einen Post in dem von 1k+ GPUs gesprochen wurde.
Aber JA! Natürlich gilt das ERST RECHT für noch teurere GPUs (von mir aus Deine 3k... oder lass uns direkt 5k nehmen).
Die Aussage war: Die Leute die die Kohle haben das in einem Rutsch ohne Raten zu bezahlen achten in der Regel auf laufende Kosten - und oft ist genau deshalb Geld für so hohe Einmalzahlungen da! Ja! Genau das war die Aussage
Und ob Du das jetzt mit den von Dir erwähnten 2 Cent oder von den von mir erwähnten laufenden, und weit verbreiteten Kosten wie Netflix, Amazon Prime, Spotify, Handyvertrag in Relation bringen willst, bleibt Dir überlassen
Und Du lachst da vielleicht, aber JA, da wird auch oft auf 2 Cent Unterschied bei der KWh geachtet.
Ums also nochmal GANZ klar zu machen:
GENAU das ist im Grunde der Fall, egal, ob da jetzt 1K, 2K, 3K oder 5K stehen - Sofort bezahlte Einmahlzahlungen machen einen nicht arm.@Cronos83 aha, 3k für eine GPU ezpz rausblättern und sich dann über 2 Cent pro KWh Gedanken machen 🤡.
Dauerzahlungen (Handy auf Raten, Netflix, andere Abos, etc.), gerade bei Leuten, die sich diese Kleinstkredite oder Abos nicht als Sofortzahlung leisten können schlagen meistens weit mehr aufs Gemüt und/oder die verbleibende Zahlungsfähigkeit, und werden oft, in ihrer Gänze von den Zahlenden nicht überblickt. Einfach mal alles aufrechnen öffnet dem Ein oder anderen die Augen. Das dann mal 2 bis 4 Jahre sparen, und ne "teure" GPU ist auf einmal bezhalbar. Ohne Raten. Genau das war meine Aussage.
Und JA - ich kenne genug Leute die da auch auf deine 2 Cent pro KWh beim Stromanbieter achten.
Zuletzt bearbeitet:
KeinNutzerName
Commander
- Registriert
- März 2004
- Beiträge
- 2.190
Ich würde eher formulieren, geringere Ansprüche als ein Highend-Gamer. Die meisten spielen mit Midrangekarten ruckelfrei auf Mittel oder Hoch. Diese Anzahl der Spieler ist erheblich höher als die Anzahl der Highendgamer. Weil wer wirklich geringe Ansprüche hat zockt mit einer "Dulli-Billo" ARC 770LE 16GB auf FullHD alles mit maximalen Einstellungen. Und warum macht der das ? Genau! weil er es kann.Pisaro schrieb:Wenn du sehr geringe Ansprüche hast stimmt das. Willst du aber gute Details bei 100 FPS mit hoher Auflösung brauchst du high end.
Wenn es danach geht: Kein Mensch braucht einen Gaming PC!
1. Mag seinCronos83 schrieb:@Swarley
1) Ist Gewöhnungssache
2) Ist auf die Gesellschaft heruntergebrochen Tatsache
3) Es ging in dem von Dir angeführten Fall um den Kaufpreis. Jetzt, wo jemand laufende Kosten gegen den Kaufpreis stellt kommst du mit "600 Watt Verbrauch im schlechtesten Fall" und nimmst das als Argument.
Du gehörst also zu denen, die die Diskussion so zu drehen versuchen, wie es für sie passt, wenn sie in diskussionstechnisch auf dem falschen Fuß erwischt wurden?
Eben gings Dir noch um Anschaffungspreise. Deine Aussage war: Wer den Kaufpreis zahlt, dem ist Verbrauch egal. Meine Aussage war runtergebrochen: Wer auf laufende Kosten achtet, kann den Kaufpreis zahlen - 600W Verbrauch würde sojemand NATÜRLICH der Effizienz gegenüberstellen. Das ignorierst Du DIREKT und brichst es auf Pauschalitäten herunter. Du hast die Quintessenz nicht verstanden. Dehalb triggert Dich die Aussage vermutlich auch so sehr.
->Zeitverschwendung! - > In der Summe direkt auf ingnore. Traurig, aber Du scheinst genau zur von mir erwähnten Gruppe zu zählen.
2. Quelle?
3. Ja, klar. Ignore. So geht das.
Ergänzung ()
Ich glaube Du und der mich ignorierende haben ein Verständnisproblem.ColinMacLaren schrieb:Ich kann eine 5090 auch bei 2-2,5GHz und <200-350W laufen lassen. In Marvel Rivals Full-HD MAX Details, Framegen und so 350-450fps zieht die dann 150W, bei 2,5GHz 200W. Da braucht mein Intel-Laptop fast mehr Strom als der Desktop mit X3D und 5090 für weniger FPS. Ich experimentiere zudem gerade mit Hybrid Graphics für den Idle-Verbrauch.
@Topic:
Ich hatte jetzt kürzlich Assasin's Creed Mirage einmal auf einer 7900XTX und einmal einer 4080 Mobile am gleichen Monitor gespielt und mich sofort gewundert, warum das auf der AMD so unscharf aussieht. DLSS Transformer ist wirklich gut und ich sehe da Fortschritte bei AMD, aber de facto sehen die Spiele halt leider schlechter aus.
Anhang anzeigen 1592098
Hinzu kommt, dass es viele Games gibt, die nur FSR2 oder gar kein FSR, wohl aber DLSS unterstützen. Oder sie unterstützen FSR Framegen, aber kein Anti Lag 2. Dann fängt man jedes Mal an mit Optiscaler, fakenvapi, nukems, LukeFSR etc. da dran rumzumodden. Manchmal geht das easy und schnell (Cyberpunk, Robocop) oder es ist katastrophal (RE4-Engine). Das geht mir auf dem Legion Go so auf den Senkel, dass ich überlege, den wieder zu verkaufen. Allein bei Dragon's Dogma 2 hatte ich damals bestimmt 10h reinversenkt, nur um es dann aufzugeben und ausschließlich am Laptop zu spielen.
Auf der anderen Seite ist z.B. eine 5080 nur 20 % schneller, kostet aber Straßenpreis das Doppelte, eine 5090 ist doppelt so schnell, kostet aber mehr als das Vierfache. Ich bin am Überlegen, ob ich die 5090 zurückschicke, erstmal eine 9070XT für sub 700 EUR nehme (wegen Bastelinteresse und Preis) und dann im Sommer mal schaue, wie die Preise für 5090 aussehen.
Entweder ich kann 1k€ oder mehr für eine Graka ausgeben, dann ist der Strompreis irrelevant ODER der Strompreis ist relevant, dann kann ich aber nicht 1K€ für eine GraKa ausgeben.
Zuletzt bearbeitet:
BAssDad
Lieutenant
- Registriert
- Mai 2022
- Beiträge
- 825
Das wäre weder eine Evo noch Revolution sondern schlichtweg ein Überwunder.wern001 schrieb:Eine echte Revolution wäre: Leistung einer 5090 bei nur 100 Watt verbrauch
Cr4y
Captain
- Registriert
- Mai 2007
- Beiträge
- 3.985
Er bedient sich einer aneckenden Rhetorik, aber in der Sache hat er ja recht: technisch ist AMD jetzt meistens fast auf Augenhöhe zu nvidia.Windell schrieb:@Quidproquo77 Findest du es nicht merkwürdig das du in sovielen Diskussionen aneckst bei verschiedenen Usern wegen deiner großen Sympathie für Nvidia?
Das primäre Argument für AMD ist aktuell der Preis, oder?
Ähnliche Themen
- Antworten
- 1.241
- Aufrufe
- 114.056
- Antworten
- 105
- Aufrufe
- 12.407
- Antworten
- 176
- Aufrufe
- 19.322
- Antworten
- 667
- Aufrufe
- 54.229
- Antworten
- 141
- Aufrufe
- 12.963