News GPU-Gerüchte: AMD RDNA 5 (UDNA) erscheint Mitte 2027

Blackfirehawk schrieb:
Also ein voll Ausbau für Server und Ki und Krümel für den Endnutzer
Tjo, so wie es schon bei NV der Fall ist. Die werden jetzt auch anfangen wollen geld zu verdienen. :freak:
 
  • Gefällt mir
Reaktionen: SweetOhm
Loopman schrieb:
Speziell die 5090 ist natürlich was die Performance betrifft, einfach unglaublich.
Und genau das ist sie halt nicht. Schau mal wie viel % schneller eine 4090 im Vergleich zur 3090 war. Dann schau mal um wie viel % schneller eine 5090 im Vergleich zur 4090 ist.

Das ist ein Fakt, keine Meinung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, eXe777 und rentex
Fighter1993 schrieb:
Wenn da wieder kein High End dabei sein sollte
Wie jetzt? Deine 4080 kann sich in Raster gerade noch um 10% absetzten von der 9070 XT. Dabei hat die 9070 XT nur 4.096 Shader. Mit 6.144 Shader könnte RDNA 5 auf 6080 Niveau sein.
 
  • Gefällt mir
Reaktionen: danyundsahne, Norebo und SweetOhm
@Alesis Raster interessiert doch gar nicht mehr. Für Raster sind alle Karten ab RX 9070 schnell genug.
Erst mit RT wird es interessanter. Das ist doch auch der Grund warum eine 7900XTX so kläglich altert.
 
Alesis schrieb:
Wie jetzt? Deine 4080 kann sich in Raster gerade noch um 10% absetzten von der 9070 XT.
Seit wann ist eine 3+ Jahre alte Karte, die schon damals nicht das Maß der Dinge war, die heranzuziehende Referenzgröße?
 
Fighter1993 schrieb:
Raster interessiert doch gar nicht mehr. Für Raster sind alle Karten ab RX 9070 schnell genug.
What? Ich habe glaube ich 2 oder 3 Spiele die RT überhaupt besitzen. Interessiert mich null. Und nein, je nach Auflösung, Details und Wunsch FPS ist eine 9070/XT nicht genug.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
So gut wie jedes neue große Spiel was erscheint wird RT besitzen, von daher ist das schon die Richtung wo es hingeht.
Ich besitze z.B. eine zweistellige Anzahl an RT Games.
 
NerdmitHerz schrieb:
jedoch nur wenn man 4k ultra + RT/PT spielen möchte
Kommt darauf an - ich merke, ich habe zu viel Zeit. Wie geschrieben, dank DLSS/FSR/XeSS stimme ich dir da absolut zu. Für 4K braucht man - selbst mit RT - keine RTX 4090 oder RTX 5090. Dank DLSS und/oder FSR hab ich quasi keine Spiele, die wirklich unter 60 fps fallen, selbst

Allerdings - und ich glaube ich hab mich da missverständlich ausgedrückt - ohne DLSS/FSR/XeSS wäre es selbst für die RTX 4090 und RTX 5090 in so manchen aktuellen Spielen eben sehr schwer, wirklich "spielbare" Framearten von 60 fps zu schaffen.
NerdmitHerz schrieb:
stellt von ultra auf sehr hoch - hoch schon können es auch keine karten die nicht 1000 € kosten würden
Wenn ich mir meine Erfahrungen mit meinem 4K-Monitor ansehe und einer RX 9070 XT und davor RTX 4090, muss ich da zum Teil wiedersprechen. Klar kann man mit den Einstellungen von den maximalen Settings runter gehen auf die nächst niedrigere Einstellung oder gar in die mittleren Details, wenn man 4K befeuern will und auf 60 fps kommen möchte, nur funktioniert das in der Regel eher so mäßig.

Ich hab gerade - bis auf bestimmte Spiele - vor einiger Zeit mal ein paar Spiele aus von 2016 - 2020 noch mal gespielt und darunter viele Titel die eben noch kein DLSS oder FSR konnten und gerade die RTX 4090 schaffte es gerade mal so bei manchen Titeln, dass hier 60 - 80 fps wirklich auf dem Monitor flimmerten. Alles unterhalb der RTX 4090 kommt mit Müh und Not auf die 60 fps in bestimmten Spielen und mit der Reduzierung der Details kratzt man an den 60 fps, so wirklich drüber kommt man allerdings nicht.

In aktuellen Spielen kannst du es quasi vergessen, dass irgendeine Karte "nativ" 4K schafft, bei annehmbarer Qualität. Und das ist eben der Punkt: 4K-Gaming war bis zum Erscheinen von DLSS, bis auf wenige Spiele, irgendwo das Ziel, allerdings immer mit Abstrichen verbunden. Erst mit DLSS und der da auch konstanten Entwicklung durch Nvidia und jetzt dem Nachziehen von AMD mit FSR 4, ist 4K nicht mehr nur den jeweiligen stärksten Grafikkarten vorbehalten, sondern quasi fast allen Grafikkarten, da die reduzierung der Renderauflösung in DLSS/FSR/XeSS deutlich mehr Leistung entfalten kann, als es die meisten Detaileinstellungen je schaffen würden.

Auf einer RTX 4090/5090 kann man viele Spiele in DLSS-Quality spielen in 4K, bei einer RTX 5080/4080 geht man halt auf Ausgewogen zurück und bei Bedarf kann man auch ohne größere Einbußen sogar DLSS Performance aktivieren und dann reicht für 4K teilweise auch noch eine 4070 oder nun 5060 Ti, ohne dass man optisch wirklich einbußen hinnehmen muss.

Also ja, du hast recht: Für 4K muss man keine 1000+ in die Grafikkarte investieren. Und Nvidia hat da mit DLSS auch einen Grundstein für gelegt.

(so viel dazu, dass ich über Nvidia nie ein gutes Wort verliere ...)
Alesis schrieb:
Dabei hat die 9070 XT nur 4.096 Shader. Mit 6.144 Shader könnte RDNA 5 auf 6080 Niveau sein.
Abwarten und Tee trinken. Im übrigen hat die RX 9070 XT - je nach Betrachtungsweise - bereits 8.192 Shader durch die Dual-Issue-Fähigkeit. Bei RDNA 5 ist aktuell auch in der Gerüchteküche die Aussage, dass die aktuellen WGP final zur neuen CU umgebaut werden, womit eine CU auf 128 Shader + 128 Shader (Dual-Issue) kommt, was dann bei 96 CU 12.288 Shader macht - mit Dual-Issue dann stolze 24.576 Shader.

Aber alles nur Gerüchte und Rätselraten.
 
  • Gefällt mir
Reaktionen: schneeland, SweetOhm und Nighteye
Alesis schrieb:
Mit 6.144 Shader könnte RDNA 5 auf 6080 Niveau sein.
Weiß keiner, vielleicht gar nicht so skalierbar, müsste man auch das Speicherinterface hochziehen usw ist immer alles leicht gesagt, wenns so leicht ist warum haben sie es nicht einfach gemacht? Bei heavy RT/PT wäre man immer noch deutlich hinter Nvidia, wäre also wieder nur eine reine Raster Schleuder geworden, im Highend will ich auch mit PT zocken
Ergänzung ()

Pisaro schrieb:
What? Ich habe glaube ich 2 oder 3 Spiele die RT überhaupt besitzen. Interessiert mich null. Und nein, je nach Auflösung, Details und Wunsch FPS ist eine 9070/XT nicht genug.
Wow da musst schon sehr picky sein um da RT auszuweichen, selbst Switch und Indytitel haben das schon, jedes UE5 Game hat quasi mit Lumen RT-Light
 
Ein Überraschung könnte es dann noch geben, wenn AT02 als Multichip Lösung für gamer gedacht wäre. Alle anderen Chip sind Single Lösungen, die für Notebook und Desktop gedacht sind.
Denn dann hätte ein dual AT02 Chip 80 CUs

AT01
Server GPU 92 Cus mit KI bla bla

Dual AT02
X90 80 Cus 384 bit
X70 64 Cus 256-384 bit

AT02 beschnitten
X60 mit 32 CUs 192 bit SI
(OC variante für Notebooks)

AT03
X50 mit 24 CUs 128 bit Si
Vllt 256 bit si gddr6 ?!

AT04
Notebook chip 12 CUs

Falls AMD endlich multichip fertigen kann, wäre es gar nicht so abwegig die flächengroßen Chips als dual Lösungen für den desktop zu fertigen. Den größten Chip aber für server oder „titan“ ähnliche hello Produkte.

AMD wird fix ein Produkt mit mind 64 CUs haben. Wieso?
Egal ob AMD oder NV, scheinbar dürften 64 CUs der sweetspot für Effizienz sein. Ab der Zahl benötigen beide Hersteller wesentlich höhere CU Rate um mehr GPU Power rauszuholen.
 
Zuletzt bearbeitet:
Ich sehe es nicht als tragisch an. Die aktuelle Gen und selbst die 7000er-Gen hat noch genug Power bis Mitte 2027.
Die aktuelle Situation mit der RAM-Krise wird es auch nicht besser machen. Eher schlechter.
Aber lieber soll sich AMD noch etwas Zeit nehmen und ein ordentliches Produkt auf den Markt bringen.
Bei nVidia gehe ich eher von einem Refresh aus, als von einer Neuentwicklung. Leistung haben wir ja aktuell genug. Dank der Helferlein, schaffen auch ältere Generationen spielbare Ergebnisse.

Just my 2 cents
 
  • Gefällt mir
Reaktionen: SweetOhm
incurable schrieb:
Das interessiert Nvidia nicht die Bohne. Das ganze Segment Endkundengrafikkarten, an dem Nvidia mal eben 92% Marktanteile nach ausgelieferten Einheiten hält, ist nicht mehr als eine Ablenkung, die halt nebenbei mitläuft weil bestellte Siliziumscheiben übrig sind und durch Flaschenhälse an anderer Stelle nicht für Beschleuniger verwendet werden können.
Exakt und korrekt beschrieben. Nvidia ist ausser Konkurrenz.
In dem Bereich ist AMD ein Tante Emma Laden gegen die Aldi Brüder.
Für uns Kunden ist das ziemlich schlecht.
 
  • Gefällt mir
Reaktionen: incurable
daknoll schrieb:
Adrenalin läuft aber sowas von astrein und stabil.
Kann ich bestätigen, bis auf eine Ausnahme: Dropt bei WoW bei einem Boss eins dieser neuen Housing-Items zerlegt es mir in der Regel komplett den Treiber sowie das Spiel. Möglicherweise ist da auch ein Addon mit im Spiel. Abgesehen davon läuft die 9070 astrein und ich habe den Wechsel von Team Grün noch keine Sekunde bereut.
 
  • Gefällt mir
Reaktionen: SweetOhm und daknoll
Ich muss ehrlich sagen, das mich AMD mit ihrer Taktik etwas ältere GPU´s nicht mehr unterstützen zu wollen bzw. neue features nicht nachzuschieben, doch hart getroffen hat. Die Karten kosten genug Geld, da quasi nach 2-3 Jahren nicht mehr supporten zu wollen, erinnert mich zu sehr an den Smartphone Markt, wo ich auch entsprechend aussortiert habe.

So könnte es sein das meine nächste Karte dann doch die erste Nvidia werden könnte, nachdem ich AMD 20 Jahre die Treue gehalten habe.

Das Image des kundenfreundlichen, preiswerten Unternehmens hat AMD meiner Meinung nach in den Sand gesetzt.
 
CrustiCroc schrieb:
Für uns Kunden ist das ziemlich schlecht.
Daran sind die massen von Horden an Nvidia Käufer Schuld.
AMD sagte ja 2024, die hatten die Lager voll mit alten Grafikkarten, weil zu wenig nachfrage, trotz starker Preissenkungen.
Daher sagte AMD zurecht, Ciao zu High End. Der Kunde hat so bestellt.
Ergänzung ()

Alex8 schrieb:
Ich muss ehrlich sagen, das mich AMD mit ihrer Taktik etwas ältere GPU´s nicht mehr unterstützen zu wollen bzw. neue features nicht nachzuschieben, doch hart getroffen hat. Die Karten kosten genug Geld, da quasi nach 2-3 Jahren nicht mehr supporten zu wollen
So könnte es sein das meine nächste Karte dann doch die erste Nvidia werden könnte, nachdem ich AMD 20 Jahre die Treue gehalten habe.
Das Image des kundenfreundlichen, preiswerten Unternehmens hat AMD meiner Meinung nach in den Sand gesetzt.
Kann deine Logik 0% Nachvollziehen.
Denn exakt die selben Vorwürfe hättest du Nvidia bei GTX 1000 auf RTX 2000 machen können.

Es ist sogar im gegenteil.
AMD hat Treiber Basierte Framegen (AFMF) für RDNA 2 & RDNA 3 & RDNA 4.
Nvidia hatte Treiber Basierte Framegen (Smooth Motion) zuerst nur für RTX 5000.
Später irgendwann für RTX 4000 nachgereicht, und für RTX 3000 garnicht.
Die können einem nicht erzählen das RTX 3000er das nicht könnten.
 
  • Gefällt mir
Reaktionen: Norebo und SweetOhm
Nighteye schrieb:
AMD sagte ja 2024, die hatten die Lager voll mit alten Grafikkarten, weil zu wenig nachfrage, trotz starker Preissenkungen.
Daher sagte AMD zurecht, Ciao zu High End. Der Kunde hat so bestellt.
Das passt schon rein zeitlich nicht causal zusammen.

Und dass nicht genug Käufer zu RDNA 3 Karten gegriffen haben hat sich für die Kunden inzwischen als richtige Entscheidung erwiesen, oder?
 
  • Gefällt mir
Reaktionen: maxrl und GOOFY71
incurable schrieb:
Und dass nicht genug Käufer zu RDNA 3 Karten gegriffen haben hat sich für die Kunden inzwischen als richtige Entscheidung erwiesen, oder?
Würdest du das auch GTX 1000 Käufern sagen nachdem RTX 2000 den Cut gemacht hat ?
Ich nicht.
incurable schrieb:
Das passt schon rein zeitlich nicht causal zusammen.
Wird evtl eine Marktdaten Analyse aus 2022 oder 2023 gewesen sein von der sie 2024 dann erst sprachen.
RX 6800er gingen ja nicht weg und wurden 2023 für unter 400€ verscherbelt und auch im Jahr 2024 gabs noch RX6800XT für 389€ neu bis sogar 2025.
Also klare Überproduktion obwohl die Produkte gut waren.
 

Anhänge

  • 400€ Radeon vs 2000€ Geforce (2020).jpg
    400€ Radeon vs 2000€ Geforce (2020).jpg
    33,6 KB · Aufrufe: 33
  • Indiana Jones RTX 3080 10GB.jpg
    Indiana Jones RTX 3080 10GB.jpg
    43,2 KB · Aufrufe: 32
  • PCGH RX Vega 56 Retest.png
    PCGH RX Vega 56 Retest.png
    164,2 KB · Aufrufe: 30
  • Gefällt mir
Reaktionen: SweetOhm
Nighteye schrieb:
Würdest du das auch GTX 1000 Käufern sagen nachdem RTX 2000 den Cut gemacht hat ?
Ich verstehe den Vergleich nicht. Die 1000er Serie ist in der Breite wahnsinnig gut gealtert und bei vielen noch positiv in der Erinnerung, wenn nicht sogar noch aktiv im Einsatz.

Mein Aufhänger ist, dass es zu RDNA 3 Zeiten bei der Konkurrenz Karten gab, die nicht nur bereits damals bessere Bildqualität lieferten, sondern obendrein seitdem besser unterstützt wurden. Die große Mehrheit hat zur Konkurrenz gegriffen und wurde mit weiterem Fortschritt belohnt.

Nighteye schrieb:
RX 6800er gingen ja nicht weg
Und warum? Schlechte Unterstützung moderner Grafikoptionen und weniger Ertrag in der Mine.
 
  • Gefällt mir
Reaktionen: GOOFY71
tomsen78 schrieb:
So war das bei mir auch, der 25.9.1 war der letzte der bei mir ganz gut lief.
Ja, habe auch UV eingestellt, werde es aber jetzt auch mal komplett weglassen.
Bisher war es so, dass Games, die nicht mit dem UV klarkamen, einfach abgestürzt sind.
Wie auch immer, ich werde Adrenalin demnächst Default betreiben.
 
incurable schrieb:
Und warum? Schlechte Unterstützung moderner Grafikoptionen und weniger Ertrag in der Mine.
Ich bin Zocker durch und durch, aber 2020 und 2021 hatte DLSS für die Games die ich zockte keinen Support.
Ich finde das ist erst in den letzten 3 Jahren wirklich breiter geworden.
Und so schlecht war FSR dann auch nicht mehr, nachdem diese Techniken endlich mal in der Masse von Spielen ankamen. (Zumindest in meiner hohen Auflösung von 3440x1440 sieht FSR 2& 3 knackig aus)

incurable schrieb:
Ich verstehe den Vergleich nicht. Die 1000er Serie ist in der Breite wahnsinnig gut gealtert
Das kann man über die RX7900XT oder RX7900XTX doch auch sagen.
Die RX7900XTX kostete durchschnittlich Historisch halb so viel wie eine RTX 4090, hatte massig Vram und es gab auch Spiele wo die Karten rein von der FPS ca gleich gut waren. Also FPS pro € war die RTX 4090 sehr sehr viel Schlechter.
 

Anhänge

  • 1767094412786.png
    1767094412786.png
    53,9 KB · Aufrufe: 25
  • Stalker RX 7900XTX.jpg
    Stalker RX 7900XTX.jpg
    131,3 KB · Aufrufe: 28
  • Gefällt mir
Reaktionen: danyundsahne und SweetOhm
Zurück
Oben