News AMD Radeon R9 390(X): 8 GB VRAM für 340 Euro werden heute 10 Jahre alt

@SweetOhm Ganz ehrlich? Mit dem Gedanken habe ich auch schon gespielt. Aber andererseits ist der Unterschied nicht sooo groß und zum anderen waren sie mir dafür bislang zu teuer, wobei so langsam geht es in eine gute Richtung. Ich beobachte jedenfalls die Entwicklung.
 
  • Gefällt mir
Reaktionen: SweetOhm
Unti schrieb:
RX5000 war in der Mitteklasse gut, RX6000 war überlegen, RTX3000 war Schrott (Fertigungsbedingt).... Wenn AMD einfach eine 600W Karte designed hätte mit den doppelten Einheiten, wäre die Karte schneller als eine 4090 und nahe an einer 5090... aber AMD wollte sich das bei 92% Marktanteil halt nicht geben....

RX5000 hatte aber massive Startschwierigkeiten. Es hat ewig gedauert, bis sie das Blackscreen Problem gelöst hatten und im Nachhinein war Turing die bessere Architektur dank DLSS Support. RX6000 war nicht schlecht, aber auch nicht überlegen. Bei steigenden auflösungen wurden die Nvidias stärker. Zudem konnte man auf den nvidias Raytracing nutzen, auf den Radeons ging es nur mit deutlichen Einschränkungen. Und auch hier war DLSS ein echter Punkt. In der Zeit wurde DLSS brauchbar und AMD hatte keine Antwort.

Es sollte ja eine Chiplet basierte RDNA 4 GPU geben, die eingestampft wurde. Bei so weit fortgeschrittenem Entwicklungsstand war es wohl nicht mehr wirtschaftlich möglich, einen komplett neuen monolithischen Die zu designen und wirtschaftlich anzubieten. Das RTX5000 eher enttäuschend ist, spielt AMD da sehr in die Karten. Klar, eine 5090 ist außerhalb der Konkurrenz, aber der Rest vom portfolio wird ja doch ganz gut bedient. Klar schlägt man auch eine 5080 nicht (bis auch ein paar Spiele) aber 5070Ti, 5080 und 9070XT sind am ende so dicht zusammen, dass man bei keiner der Karten im Schnitt wirklich deutlich spürbar viel mehr Leistung hat. Und dafür ist die 9070Xt gut preislich positioniert. Jetzt wo AMD endlich auch Raytracing vernünftig beherrscht und mit FSR4 einen nutzbaren Upscaler liefert, hat man sich stark positioniert. Viel stärker, als ich es vor einigen Monaten noch gedacht hätte, wo ich mit deutlich weniger gerechnet hätte.

SweetOhm schrieb:
Wenn dann wurde Pascal an die Wand genagelt, bzgl. RX 580/90 vs. 1060, Vega 56 vs. 1070, Vega 64 vs. 1080 und Radeon VII vs. 1080Ti, im Schnitt (20 Games 4 Auflösungen)

Die 1060 war dafür aber deutlich effizienter und der wirkliche Leistungsvorteil der 580er kam auch erst dann, als beide Karten zum alten Eisen gehörten. Vega 56 hat gut gegen die 1070 abgeschnitten, Vega 64 kam aber selten an die 1080 ran. Und auch da erst wieder lange nachdem die Karten zum alten Eisen gehörten. Due Radeon VII war nie der Gegenspieler zu der 1080Ti. Die Radeon VII kam fast 2 Jahre nach dem 1080Ti Release. Damals lautetete der Gegenspieler schon RTX2080, gegen die sie auch beim Start nicht anstinken konnte.
 
  • Gefällt mir
Reaktionen: _Sebu_
Shoryuken94 schrieb:
Die Radeon VII kam fast 2 Jahre nach dem 1080Ti Release. Damals lautetete der Gegenspieler schon RTX2080, gegen die sie auch beim Start nicht anstinken konnte.
Hab ich ja geschrieben, dass sie zu spät kam. Aber war dennoch High End Vega vs. High End Pascal.
Danach war sie auf RTX 2070 Niveau ...
 
Die Rechenleistung hat sich also selbst in ähnlichen Preisregionen vervier- bis -fünffacht; nur der Grafikspeicher, dessen Bandbreite an einem 128-Bit-Interface netto sogar schmaler wurde, will partout nicht wachsen.
Na die (maximal verfügbare) Zahl der FP32 Alu's scheint sich sowohl im Consumer/Gamer wie Profi Sektor aber auch nicht wirklich nennenswert verändert zu haben. Auch wenn sich die Zahl der der FP32 Ops je Takt sich verdoppelt hat und sich der Boost-Takt sich vielleicht vervierfacht hat. Und die neuen Datentypen für KI dazugekommen sind.

Aber vielleicht hängt das Eine (Speicherbandbreite) und das Andere Ops je Takt ja auch inhaltlich zusammen ..
 
Zuletzt bearbeitet:
SweetOhm schrieb:
Okay, die "guten Modelle" (von Sapphire :D) liegen deutlich über 600 €. Aber selbst 599 € für die Acer sind noch ziemlich weit weg von den inflationsbereinigten 420 € einer R9 390.

Das Preisgefüge hat sich, meiner Meinung nach, um eine Stufe nach oben verschoben. Dann lieber nach dem Vorbild der Nvidia Titan... Da konnte man seinem Ego und dem Portmonee noch besser die Unsinnigkeit einer solchen Investition einreden.(Gut, der Vergleich klappt auch nicht... Bei Nvidia würde eine neue Titan vermutlich schon 4.000 € kosten und auch nur wenn man sich mit 7,5 GB Speicher zufrieden gibt :evillol:)
 
  • Gefällt mir
Reaktionen: SweetOhm
conf_t schrieb:
Hatte die 390x, nach 9 Monaten flog sie raus. Das war mein erste und bislang letzte Grafikkarte mit > 200 Watt TDP. Brauche ich nicht, das Teil war der reinste Heizlüfter.
Dann musst du ja bald nur noch mit der IGPU zocken, wenn das mit den Verbräuchen absichtlich weiter so hochgekurbelt wird ^^
Das hat sich in den letzten 10 Jahren verdoppelt, und die neuen Spezifikationen und Netzteile lassen böses ahnen und in den Serverracks stehen schon jetzt 1400 Watt an.
Die große Energuiewende besteht übrigens darin, den Verbrauch weltweit vor allem durch massiv mehr KI-Rechenzentren und E-Autos einfach noch schneller zu erhöhen, damit noch mehr Kohlekraftwerke, Gasanlagen und Atomkraftwerke extra nur dafür neu gebaut werden müssen.
Man denkt sich irgendwelche angeblich tollen Sachen aus, und verwendet das dann als Greenwahing.
Irrsinn. :-(
 
Zuletzt bearbeitet:
Nö, muss ich nicht, gibt ja noch einige Grafikkarten in dem Bereich, der für mich interessant ist. Gesamt gesehen, also abseits der Enthusiastenforen, dürfte die Sub 200 Watt Klasse mehr als die Hälfte der Verkäufe ausmachen.

Da braucht ma nur mal in die Steam HW Stats zu schauen:

https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Das meiste stellen die x600 (XT) und x060 (TI/XT), x050 und x070 (non-Suffix) Fraktion.
 
Zuletzt bearbeitet:
PeacemakerAT schrieb:
Und wieder wird die 8GB VRAM Sau durchs virtuelle Dorf getrieben. Langsam wirds langweilig auf dem Thema in jedem zweiten Artikel herumzureiten, das ist ohnehin das falsche Publikum (30% 4090/5090 Dichte) hier für eure Missionarsarbeit :schluck:
Stimmt. Zur Abwechslung bitte mal die 5070 12GB im WQHD Test richtig zerstören.
Da ist sogar eine 5060 Ti 16GB bei entsprechenden Spielen und Einstellungen teilweise schon jetzt massiv schneller!
Damit könnte man vor allem den ganzen grünen Fanboys ein weiteres mal Pipi in die Augen treiben, die das nicht lernen wollen und trotzdem wieder blind sowas kaufen.
:-P
 
  • Gefällt mir
Reaktionen: SweetOhm
BxBender schrieb:
Zur Abwechslung bitte mal die 5070 12GB im WQHD Test richtig zerstören.
Ja mach mal, wenn man lang genug nach Games und Settings sucht um den VRAM zu sprengen kann man sicher einen Testparcour kreieren der genau das zeigt.
Gilt halt auch anders rum, man könnte alternativ auch zeigen mit welchen Settings zocken "Sinn" hat ohne gleich eine Niere für eine 5090 opfern zu müssen.
Leider wird hier immer stumpf Ultra Max PT @ 4K verglichen, am besten noch gemodded. PC Gaming fängt nicht erst dort an. Keine Ahnung ich hatte früher nie das Geld für High End Hardware und die Settings dementsprechend auch nicht auf max, war komplett egal. Heute hätt ichs, aber sehe den Sinn dahinter nicht ;-)
 
0x8100 schrieb:
das sind die spiele, die am meisten gezockt werden. wo reichen da 8 GB nicht?
Super, hast mein Argument nicht verstanden. Setzen 6, nochmal lesen.

0x8100 schrieb:
gigabytes an geometrie, soso. das hast du dir eben fein ausgedacht. schau dir die wireframe-darstellung einer szene in einem spiel an und du siehst die geometrie, denn das ist einfach nur die menge der dreiecke. da sind keine "gigabytes"...
Nix ausgedacht, ich bin/war selbst in der Branche unterwegs. Was meinst du denn, wie die Dreiecke auf die Grafikkarte kommen? Wird alles im vram abgelegt, solange es zum Rendern gebraucht wird.
Und hast du irgendeinen Schimmer, was alles an Information für jeden der Punkte dieser Dreiecke im Grafikspeicher abgelegt wird?

Man merkt mal wieder: wer laut meckert, hat wenig Ahnung.
 
Powl_0 schrieb:
ich [...] war selbst in der Branche unterwegs.
na das erklärt einiges...
Powl_0 schrieb:
Und hast du irgendeinen Schimmer, was alles an Information für jeden der Punkte dieser Dreiecke im Grafikspeicher abgelegt wird?
ja, tatsächlich. und in relation zu den texturen ist das wenig.
 
  • Gefällt mir
Reaktionen: SweetOhm
BxBender schrieb:
Stimmt. Zur Abwechslung bitte mal die 5070 12GB im WQHD Test richtig zerstören.

Prinzipiell lässt sich natürlich jede Hardware "zerstören". Einfach nur die Settings hochballern, eventuell Auflösung, dazu im Football Manager eine Custom-Datenbank, die die ganze Welt vollsimuliert, um die CPU zu sprengen. Oft reichen sogar Mods für Uralt-Spiele... Ginge das nicht mehr, sollten sich alle mit u.a. 3000-Euro-Grafikkarten Sorgen machen. Denn das würde bedeuten, dass Hersteller nicht mal mehr versuchen würden, all diese PlayStation-Multiplattform-Games einigermaßen fürn PC zu skalieren, der (nach oben) so offen ist wie ein 24-Stunden-Dönershop. :p


Apropos: Mein Browser will mir gerade erzählen, es kam ein neues Sparbrötchen raus. Laut Frank Azor mögen die meisten in Full-HD spielen -- aber von Null-HD war nie die Rede! Und: Jetzt reichts aber wirklich mit dem SPEICHERGEIZ. :D

amd.png
 
Zuletzt bearbeitet:
Kommt drauf an was man vergleicht, vor 10 Jahren hatten Einsteiger/Mitteklasse 2-4GB, High End 6-8GB.
Die 1080Ti mit mehr (11GB) kam dann erst 2017.
 
  • Gefällt mir
Reaktionen: conf_t
Und die Titan RTX kam 2018 mit 24 GB, also mehr VRAM und sogar mehr als das doppelte gibt es schon lange. Und bei den Grafikkarten für normalsterbliche war afaik die Radeon VII die erste mit 16 GB (2019)
 
@conf_t Nur kam die RTX Titan am 18. Dezember 2018 und die Radeon VII (3 Wochen später) am 09. Januar 2019.
2699 € vs. 699 € ... :freak:
 
ReactivateMe347 schrieb:
Schon irgendwie Irre, dass hier die Verdopplung 10 Jahre gedeuert hat.

Ich komme mit meinem Fiesta samt Fluxkompensator-Upgrade gerade aus der Zukunft und kann dir erzählen: Die Weiterentwicklung wird außer im Pro-Bereich nicht mehr wahnsinnig schneller werden. Und wer noch lebender Upgrade-Zeitzeuge vom C16/64 auf den Amiga und von da auf Pentium 166 MMX mit 3dfx-Karte ist -- der hat bereits den Peak in Sachen Technologie-Warpsprung hinter sich. Zumindest, was "konventionelle" Computersysteme angeht. :heilig:


Aber sieh doch mal das Positive, und das selbst in Sachen seichtem Home-Entertainment:

Vielleicht müssen sich Entwickler irgendwann auf Inhalte konzentrieren. Statt dieselben semi-interaktiven Filmchen, Open-World-Fragezeichen und sonstigen Jahr-2005-Konzepte in siebter Optik-Neuauflage zu bringen. Und womöglich kriegen TES-Ultras zwanzig Jahre nach Skyrim ihr TES 6 statt ein Remurks von ollen Kamellen, weil sich das Konzept "Alte Schinken, frisch gestrichen" nicht mehr frischer streichen und Vollpreis-monetarisieren lässt.

Es wird nicht alles schlecht! :D
 
Zuletzt bearbeitet:
@SweetOhm was willst du damit sagen? Es geht doch darum, dass die 390(x) die erste mit 8 GB war und einige behaupten, erst 10 Jahre später seien 16 GB verfügbar. In beiden Fällen geht es nicht um das, was die breite Masse kauft ( gekauft hat), sonder einfach um die maximale VRAM Größe am Markt. Und 2015 werden die wenigsten eben sofort auf 8 GB gegangen sein. Mainstream war da ja teilweise noch 2 GB.
 
  • Gefällt mir
Reaktionen: SweetOhm
conf_t schrieb:
Es geht doch darum, dass die 390(x) die erste mit 8 GB war und einige behaupten, erst 10 Jahre später seien 16 GB verfügbar.
Die erste 8 GB Karte (R9 290X) wurde im März 2014 angekündigt und erschien im Mai 2014.

https://www.computerbase.de/news/gr...ikkarte-fuer-spieler-wird-11-jahre-alt.92634/

Die erste 16 GB Karte war laut meinem Wissen nach die Radeon VEGA Frontier (Vega 10 XTX) von 2017.
2019 erschien dann noch die Radeon VII und eine RX 570 mit 16 GB ...

https://www.pcgameshardware.de/Rade...apphire-16-GiByte-GB-GPU-Mining-Grin-1273501/
 
Zurück
Oben