News „Great Radeon Edition“: AMD soll noch vor RX 9060 (XT) eine RX 9070 GRE vorbereiten

CDLABSRadonP... schrieb:
Sie haben nur diese zwei Chips, Nvidia hingegen fünf bzw. vier im direkten Konkurrenzumfeld.
Ja, wie ich schon schrieb, hat man dann eben Lücken im Programm. Wobei Nvidia da auch ne kleine Lücke hat (nur eine GB205 Karte), von da aus ist so eine starke Kastrierung gar nicht nötig.
Man liegt halt dann leicht hinter der 5060Ti.
CDLABSRadonP... schrieb:
Das spart auch Geld, schließlich müssen sie weniger Masken auflegen.
Klar, man kann gleich gar keinen Chip bringen. Noch mehr gespart. Natürlich muss man Kompromisse eingehen wenn man so einen mickrigen Marktanteil hat. Aber dann muss man eben mit Lücken leben. Es macht keinen Sinn so einen großen Chip zu verramschen.
CDLABSRadonP... schrieb:
Und, das sollte nicht vergessen werden: Sie nutzen GDDR6, Nvidia hingegen bei allen Chips abseits des GB207 GDDR7. Und dieser erscheint bislang ziemlich knapp und dementsprechend teuer...
Du kannst sicher Preise nennen...
Wenn das so teuer wäre, hatten sie bei manchen Modellen einfach wieder GDDR6 genommen.
CDLABSRadonP... schrieb:
Nvidia setzt übrigens in fast jeder Gen diverse krass teildeaktivierte Chips ein und zwar im Notebooksektor.
Da ist nichts krass. Eine 7800GRE, 6800 oder diese diskutierte GRE ist mehr kastriert. Von deinem Vorhaben, den N48 gegen eine 5060Ti oder 5060 zu stellen ganz zu schweigen. Das ist absurd, wirst du in wenigen Wochen auch sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, Quidproquo77 und ETI1120
TheInvisible schrieb:
Na hoffentlich gleicher "shitstorm" wie die 5070 wegen nur 12gb.
Kannst dann besser schlafen ? :rolleyes:
 
SweetOhm schrieb:
Meinst Du die Deneb CPUs ?
War von meinem Vorredner übernommen, hätte ich besser noch mal kontrolliert den Namen :D
Nice, dass der noch läuft :) meinen X4 955 habe ich schon sehr sehr lange abgegeben... nach Phenom kam ja leider nur noch holpriges mit Bulldozer, so dass ich ins Intel Lager geflüchtet bin... war aber ne tolle Plattform mit dem Phenom :)
 
  • Gefällt mir
Reaktionen: SweetOhm
CDLABSRadonP... schrieb:
Von daher sehe ich dass als unproblematisch. Insbesondere auch, weil...

...es nun einmal GDDR6 gibt, der die Geschwindigkeitsziele nicht trifft, wie sie auf den HighEnd-Karten gegeben sind. Also ganz praktisch gesprochen: Nur 16GBPS statt 20GBPS.
Also ist GDDR6 Vram doch ok? Also so interpretiere ich jetzt deine Aussage. Für die 9070 (XT), die in deinen Augen keine Highend Karten sind, ist es also ok?
 
  • Gefällt mir
Reaktionen: SweetOhm
Casillas schrieb:
Für die 9070 (XT), die in deinen Augen keine Highend Karten sind,
In wessen Augen sind das Highend Karten? Die 70 wurde ja nicht wahllos gewählt - eine 5070 ist auch keine Highend Karte.
KillX schrieb:
Das sind keine "Gamingkarten" sondern GPUs. Welche Berechnungen man damit machen lässt bleibt dem Anwender überlassen. Ich zocke zwar auch viel aber diese Karten werden bei weitem nicht nur zum zocken gebaut.
GPUs haben immer eine Zielgruppe, hier mal was AMD offiziell zur 9070 (XT) schreibt:
AMD Radeon™ RX 9000-Serie Grafikkarten wurden entwickelt, um alles bereitzustellen, was Sie für ultraschnelles Gaming brauchen
https://www.amd.com/de/products/graphics/desktops/radeon/9000-series/amd-radeon-rx-9070xt.html

So viel dazu :p Speziell für KI-Anwendungen gibt es dann wieder andere GPUs …
 
Zuletzt bearbeitet:
bensen schrieb:
Wenn das so teuer wäre, hatten sie bei manchen Modellen einfach wieder GDDR6 genommen.
Machen sie beim GB207 ja auch, für die 5050. Und die Sache ist halt, dass er anscheinend noch so knapp und entsprechend teuer ist. Mittelfristig wird es sicherlich nicht dabei bleiben...
 
Casillas schrieb:
Also ist GDDR6 Vram doch ok? Also so interpretiere ich jetzt deine Aussage. Für die 9070 (XT), die in deinen Augen keine Highend Karten sind, ist es also ok?
Darum geht es nicht.

Es geht darum, dass du GDDR6 am Rande des technisch machbaren produzieren kannst. Das ist HighEnd-GDDR6 und solcher kommt auch auf 9070 (XT) zum Einsatz. Damit ist er natürlich nach wie vor generell weniger am Rande des technisch machbaren als GDDR7 oder gar HBM3E. Aber innerhalb des GDDR6-Angebots ist 20GBPS-GDDR6 aktuell HighEnd und 16GBPS ziemlich LowEnd.
 
  • Gefällt mir
Reaktionen: ruthi91
IThome vermutet einen gegenüber der RX 9070 weiter beschnittenen Chip, dessen Speicherinterface auf 192 Bit reduziert wird, über das folglich nur noch 12 GB Videospeicher angebunden werden können.

Ich verstehe nicht warum gleich zwei 32-bit-Speichercontroller abgeschaltet werden. Warum nicht einfach nur einen abschalten, so wie Intel bei der B570 gemacht hat. Mit nur einem deaktivierten 32-bit-Speichercontroller hätte man immerhin 14GB VRAM. Das wäre ein guter Kompromiss für WQHD-Auflösung.
 
Weedlord schrieb:
Naja, der Kommentar ist irgendwie komisch.

Ich hab bis vor einer Woche noch mit ner rtx 3080 mit 10 gb vram in 4k gespielt. Und das lief auch zuletzt sehr gut. Hatte nur in Far cry 6 probleme, lag da aber an einer künstlichen Limitierung von Ubisoft für hd texturen für gpus mit weniger als 11 gb vram.
Zukünftige Karten meint er klar jetzt geht's noch aber in paar Jahren wohl nicht mehr
 
Na was soll AMD mit den teildefekten GPUs ja denn sonnst machen? Wegschmeißen?
Und wenn der Preis stimmt, werden sich auch Käufer finden.
 
  • Gefällt mir
Reaktionen: SweetOhm
CDLABSRadonP... schrieb:
Es geht darum, dass du GDDR6 am Rande des technisch machbaren produzieren kannst. Das ist HighEnd-GDDR6 und solcher kommt auch auf 9070 (XT) zum Einsatz. [...] Aber innerhalb des GDDR6-Angebots ist 20GBPS-GDDR6 aktuell HighEnd und 16GBPS ziemlich LowEnd.
Technisch machbar wären 24 gbps-GDDR6. AMD hat diesen Speicher bei Samsung aber nicht bestellt.

https://www.computerbase.de/news/gr...ddr6-speicher-beschleunigt-auf-24-gbps.81168/

20Gbps GDDR6 sind demnach nicht am Rande des technisch machbaren, sondern 24 gbps. 20 Gbps GDDR6 ist im Jahr 2025 Mainstream.
 
  • Gefällt mir
Reaktionen: SweetOhm
KillX schrieb:
@Pontus @Pisaro
Das heißt man kann mit diesen GPUs nicht Streamen, Videos beschleunigen, CAD 3D rendering, Etherium schürfen, KI Tools nutzen oder vielleicht sogar einen grafischen Desktop darstellen lassen, weil AMD im Marketing diese für das Gaming vermarktet?
Warum stellst du mir eine Frage deren Antwort du kennst? Mit einem Butter Messer kann man auch Käse schneiden. Besser darin ist aber ein käsemesser. Natürlich kannst du mit deiner (Bspw) 9070 mit deinen Programmen arbeiten. Ändert nichts daran, dass die Karten primär fürs zocken gedacht sind und so auch ausschließlich vermarktet werden.
 
conglom-o schrieb:
Brauchen wir nicht. Wir brauchen eine "bezahlbare" Mittelklasse und ich denke, das sieht AMD ähnlich.
Ja aber doch nicht wieder mit 12GB?! ://

Man diese Stagnation ist so ein Trauerspielen….
Ich von einer 6700XT mit 12GB kommend würde niemals jetzt wieder zu 12GB greifen… und auch diese potentiellen 12GB 9070 GRE würde locker 500€ kosten schätze ich. Ich habe damals 480€ bezahlt 😵‍💫…

Hätten wir mal kein Upscaling… dann müssten die Hersteller sich noch Mühe geben und die Devs kräftig optimieren!!
 
So lange Nvidia noch Karten mit 8 und 6 GiB Vram bringen will, braucht man AMD bei 12 GiB nicht unbedingt so verurteilen.Abgesehen davon hat sich NV ja auch mit der 5000er Reihe genug geleistet.Das sage ich als NVIDIA Nutzer.
Mehr als 16 GiB wären zwar für die 9070 xt wünschenswert, aber wie die Testungen bei CB zeigten, geht es auch in 4k noch grade so.
Was dann aus den GRE Modellen wird, regelt der Markt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Xedos99 schrieb:
So lange Nvidia noch Karten mit 8 und 6 GiB Vram bringen will, braucht man AMD nicht unbedingt so verurteilen.
Ach so. AMD braucht man nicht verurteilen, aber NV schon :P?
 
  • Gefällt mir
Reaktionen: Quidproquo77
CDLABSRadonP... schrieb:
Darum geht es nicht.

Es geht darum, dass du GDDR6 am Rande des technisch machbaren produzieren kannst. Das ist HighEnd-GDDR6 und solcher kommt auch auf 9070 (XT) zum Einsatz. Damit ist er natürlich nach wie vor generell weniger am Rande des technisch machbaren als GDDR7 oder gar HBM3E. Aber innerhalb des GDDR6-Angebots ist 20GBPS-GDDR6 aktuell HighEnd und 16GBPS ziemlich LowEnd.
OK. Und warum nennst du ihn dann Billo GDDR6?
 
Welches Segment soll die Karte bedienen?
 
Zurück
Oben