News Jetzt auch für Endkunden: Radeon AI Pro R9700 mit 32 GB nächste Woche im Handel

Holla die Waldfee, was hier teilweise steht, geht eigentlich auf keine Kuhhaut.

Die Grafikkarte richtet sich nicht an Spieler, sondern es ist eine Workstation-Karte - deswegen auch Blower-Design.

Und für eine Workstationkarte ist die Radeon AI Pro 9700 sogar relativ günstig. Was jetzt passiert ist: Die Karte kann auch „so“ bezogen werden. Bisher wurden nur OEMs bedient. Jetzt kann der Endkunde sie kaufen - kann man die „ehemaligen“ Quadros nun nur RTX Karten auch.

Hier geht es allerdings um zertifizierte Treiber, entsprechender Support und andere Sachen, die den Preis auch „treiben“.

Und mit 1300 $ wird die Karte NVIDIA hier an den richtigen Stellen auch „ärgern“ können. So wie eine B70 von Intel es aktuell auch mit 24 GB schon tut.
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Schinken42, Slvr und 19 andere
Zum Argument: Das wären 16GB VRAM für eine 9070 für 700 € Aufpreis.
Vielleicht ist das so.

Aber es spielt keine Rolle. Das ist die Marktlage und die gibt den Preis her:
Auf Geizhals kostet die günstigste Karte mit 32GB aktuell 1800€. Eine AMD W7800.

Insofern ist die Karte sogar günstig.
 
  • Gefällt mir
Reaktionen: trommelmaschine
Die NVIDIA GeForce RTX 4080 erreicht eine theoretische Rechenleistung von etwa 48,7 TFLOPS (FP32). Zusätzlich leistet sie in anderen Formaten:
• 48,7 TFLOPS FP16 (non-Tensor)
• 390 TFLOPS FP16 (Tensor-Kerne)
• 24,4 TOPS (INT32) für Integer-Operationen

Ich glaube, ich bin mit meiner alten RTX 4080 ganz glücklich 🙂.
 
In Kürze: 5070 mit 18GB Vram, 5070ti Super mit 24GB Vram, 5080 Super mit 24GB Vram. Ich denke als Gamer macht das mehr Sinn als dieses Ding hier - von dem spartanischen Krachmachkühler fang ich erst gar nicht an ... :rolleyes:
 
  • Gefällt mir
Reaktionen: DoS007
Vulvarine schrieb:
Wird da zukünftig mal was neues kommen, damit es auch auf AMD fluppt?
nein, das ist nicht vorgesehen. cuda performt einfach besser in jeglicher hinsicht.

es wird halt immer bastelprojekte geben damit es mit amd läuft, aber wie gesagt macht wenig sinn.

ist ja selbst für apple's silicon nicht optimiert, auch wenn so kisten wie der m4 max z.b. auch leistung hätten. läuft, aber läuft grottig langsam.
Ergänzung ()

SirKhan schrieb:
Das ist halt auch nicht mehr wahr. rocm läuft sehr gut, gerade auch auf der 9070XT worauf die Karte hier basiert.
naja, doch schon.

gibt nen grund warum professionelle serveranbieter nur 1 amd karte im portfolio haben (MI300x) aber 23 nvidia gpus :evillol: (l40s, pro 6000, h100, usw.)
 
DevPandi schrieb:
Die Grafikkarte richtet sich nicht an Spieler, sondern es ist eine Workstation-Karte - deswegen auch Blower-Design.
Ja und nein. Nicht jeder, auch nicht jeder gewerbliche, braucht eine "Workstation", was auch immer diese definiert (zertifizierte Treiber, ECC Speicher). Für viele gewerbliche ist das kompletter Blödsinn. Viele lassen sich das aufschwatzen, ja, seit Jahrzehnten. Der Schritt, diese jetzt auch an Endkunden eben außerhalb von "Workstations" zu verkaufen, ist der Schritt sie auch außerhalb dieses Segments anzubieten. Und da ist die Kritik eben schon gerechtfertigt, denn spätestens da greift das Argument "zertifizierte Treiber" nur noch sehr begrenzt.

Was hielt AMD davon ab, die 32GB Variante schlicht an die Boardpartner zu geben sodass die entsprechende "Gamingkarten" bringen können? Für ich sag mal 200 Euro Aufpreis, da sagt bestimmt der eine oder andere ja, der vielleicht auch mit AI rumspielt oder einfach nur die Reserven haben will. Aber so ist das doch total uninteressant, zumal man für viel Geld auch noch eine miese Kühllösung bekommt.

Nun ja, AMD hat ja nicht umsonst (wie auch in die CPU-Bezeichnungen) dieses lächerliche "AI" mit in den Namen gepackt, damit man da halt auch schön zulangen kann. Man hofft offensichtlich, dass es genug AI-Jünger gibt, die zahlen, und verprellt einmal mehr die traditionellen Kunden.

Und das finde ich (bekennender AMD-Fanboy) schäbig.

Der ganz hartgesottene Fanboy, der schon so lange auf über 1.000 Euro hockt und sie unbedingt "investieren" will, kann nun aber diese hier statt einer 5080 kaufen und das viele VRAM feiern und sich die Entscheidung dann mit Erscheinen der 5080S schönreden, denn 32GB wird man als Gamer wohl so schnell nicht brauchen. Der Zeitpunkt war schon gut gewählt, ähnlich wie die ganzen 5080 Special Editions noch kurz vor dem Refresh, die der Fan von etwas anderem dann auch zähneknirschend kauft. Bin mal gespannt welche Überraschung den AMD Fan dann beim Refresh erwartet.

(Kann mir einer erklären, warum man in "Workstations" ansonsten aus gutem Grund nicht mehr verwendete Krachkühllösungen "braucht"? Die Thinkstation an meinem Arbeitsplatz ist groß genug für normale Grafikkarten. Die T1000 da drin ist flüsterleise (ist auch voll wichtig zum Anzeigen unserer Browseranwendung), zum Glück. Gerade in professionellen Umfeld, wo es Arbeitsplatzrichtlinien gibt, muss doch leiser Betrieb im Fokus sein.)
 
  • Gefällt mir
Reaktionen: Raptor85
lazsniper schrieb:
Ja, Kurzsichtigkeit und oder Dummheit. Wie kann man nur froh sein, (mehr oder weniger) alternativlos abhängig zu sein?
Bei unserer Energie Abhängigkeit war es vor kurzem doch mehr als deutlich zu sehen. Trotzdem werden weiter fleißig Gasheizungen eingebaut und Gaskraftwerke geplant. Oder ganz aktuell Nexperia.
 
  • Gefällt mir
Reaktionen: SirKhan
lazsniper schrieb:
naja, doch schon.
Was heißt doch schon? Das lief auch auf meiner 6900XT bereits sehr gut. Habe ich Tonnen an Bildern mittels SDXL erzeugt. Fast alle wichtigen Frameworks werden von rocm unterstützt?

Anstatt AMD zu loben, dass sie aufholen, was für die Preisentwicklung nur gut sein kann, macht man sie bei jeder Gelegenheit nieder? Das ist einfach nur dumm.

p-trettin schrieb:
dieses lächerliche "AI" mit in den Namen gepackt
Weil genau das die Zielgruppe ist?! Das ist keine Gaming-Karte, auch wenn sie dafür genommen werden kann...
 
  • Gefällt mir
Reaktionen: fox40phil, Alphanerd, Wynn3h und 2 andere
SirKhan schrieb:
macht man sie bei jeder Gelegenheit nieder? Das ist einfach nur dumm.
macht man doch nicht, der markt bietet an was nachgefragt wird. im ai bereich (diffusion) wird amd (momentan) nunmal nicht gebraucht, deshalb wird alles auf cuda gemünzt. weil es halt einfach extrem performant läuft drauf.

bei anspruchsvolleren modellen wie WAN (das ist anspruchsvoller als flux, und flux ist anspruchsvoller als SD) läufts halt einfach besser mit cuda.
 
Was halt bei diesem Preisgefüge interessant ist..
wäre ein Leistungsvergleich in den entsprechenden Profi Programmen und KI workloads

Wie verhält sich die Karte gegenüber einer 5080-16gb (ca gleicher preisbereich) oder 5090-32gb


Wie die Karte in gaming abschneidet wissen wir im groben von der 9070XT.
Aber kann die Profi Karte auch in den entsprechenden workloads mit einer ähnlich teuren Gaminkarte der Konkurrenz mithalten?

Bzw schafft sie bei den Preis mehr als 50% der Leistung einer 5090 in den entsprechenden workloads..
Bzw ist die 5090 mehr als doppelt so schnell hier?

Diese Vergleiche vermiss ich etwas in dem Bericht..

Fürs gaming können wir das alles abschätzen.. ist halt ne 9070XT mit doppelten Speicher..
Aber was das andere angeht vermisse ich vergleiche... Mehr Vram ist halt nicht alles worauf es ankommt.. es geht auch um dessen Anbindung ect pp

In dem Bereich wo sie eingesetzt werden soll ist der Preis weniger das Problem wenn ne rtx5090 sie um den Faktor 2 schlägt.


Ich find jetzt auf Anhieb auch nicht wirklich viele vergleich benchmarks abseits von gaming..


FP32 (float)
GeForce RTX 5090
104.8 TFLOPS

Radeon AI PRO R9700
47.84 TFLOPS

Vram RAM Bandwidth
1.79TB/s
Vs
644.6GB/s


Die 5090 hat +119% leistung.. und fast 3x soviel RAM durchsatz..
und man bekommt sie bereits für deutlich weniger als das doppelte der AMD Karte
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teropet
"Sowas" kaufen Leute, die was damit anzufangen wissen. Schließlich ist das ja nicht die nächste Battlefield-Referenzkarte, sondern ein KI-Instrument. Wenn man lokal auf dem Rechner KI Modelle nutzen möchte benötigt man (wohl) min. 50 TOPS, was zum Beispiel die Ryzen AI-Modelle im Mobilbereich bereits bieten können... Das Ding hier beherrscht für einen sehr kleinen 4stelligen Betrag 1.500 TOPS. Ich denke schon, dass dies für Entwickler oder Kontentcreator eine willkommene Alternative zu den Rechenmonstern zum Preis eines Kleinwagens darstellten kann. Die 32GB RAM werden vermutlich nur selten Gaming-Texturen laden. KI-Modelle benötigen mit ansteigender Güte viel Speicher in der Karte. Ich könnt mehr sogar vorstellen, dass AMD da noch erheblich mir VRAM reinpacken wird - Stichwort X3D.

Vermutlich wird das aber für die meisten von uns hier keine Rolle spielen.
 
  • Gefällt mir
Reaktionen: xpad.c, fox40phil und TomH22
Blackfirehawk schrieb:
Die 5090 hat +119% leistung.. und man bekommt sie bereits für deutlich weniger als das doppelte der AMD Karte
Man hat dann aber auch gleich den doppelten VRAM wenn man zwei von den AMDs nimmt. Gerade LLMs skalieren sehr gut über mehrere GPUs.
 
  • Gefällt mir
Reaktionen: fox40phil und Alphanerd
@SirKhan Ja nur hat die 5090 mit ihren 512bit Interface + GDDR7 in etwa die 3 fache Ram Bandwidth wie die ProAI9700
1.800GB/s Vs 600GB/s

Ich sag ja ich vermisse hier entsprechende Benchmarks in den relevanten workloads..
Ergänzung ()

person unknown schrieb:
Das Ding hier beherrscht für einen sehr kleinen 4stelligen Betrag 1.500 TOPS. Ich denke schon, dass dies für Entwickler oder Kontentcreator eine willkommene Alternative zu den Rechenmonstern zum Preis eines Kleinwagens darstellten kann.
Die RTX5090 hat ca 3352 TOPs (laut Google) und kostet weniger als das doppelte der AMD karte..

Alles schwierig Vergleichbar für mich
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azdak und WauWauWau
Ich such gerade eine Karte für 70b Modelle. 24gb sind zu wenig sonst könnte man eine 3090 kaufen. Dann gehts Richtung 6000er das ist mir 48gb aber auch knapp. Und schon ist man bei mi210 o.ä. mit 64gb. Ich finds gut das hier zumindest mal 32GB kommen. Besser als nix. Und wie schnell das Ding in Spielen ist interessiert keinen aus der Zielgruppe.
 
  • Gefällt mir
Reaktionen: Hardware-Fan, fox40phil, person unknown und eine weitere Person
SirKhan schrieb:
Man hat dann aber auch gleich den doppelten VRAM wenn man zwei von den AMDs nimmt. Gerade LLMs skalieren sehr gut über mehrere GPUs.
Hast du dazu Infos, Links etc. Ich bin vom Gegenteil ausgegangen. Das wäre natürlich super.
 
lazsniper schrieb:
bei anspruchsvolleren modellen wie WAN (das ist anspruchsvoller als flux, und flux ist anspruchsvoller als SD) läufts halt einfach besser mit cuda.
Ja, rein von der Rechenleistung würde WAN mit meinen Settings auf einer 5080 schneller laufen. In der Praxis läuft es halt gar nicht weil die 16GB zu wenig sind, die 24GB meiner 7900XTX reichen gerade so aus.
Die 12GB Karten kann man sowieso komplett vergessen.

Die 6800XT die ich vorher hatte war bei inference auch deutlich langsamer als eine 3080, aber trotzdem liefen darauf Modelle die auf der 10GB oder 12GB 3080 gar nicht möglich waren.
 
  • Gefällt mir
Reaktionen: fox40phil, TomH22, lazsniper und 2 andere
Blackfirehawk schrieb:
DIe Karte muss auch entsprechend ihrer bepreisung abliefern können in einem entsprechenden workflow
Tut sie doch.

FabianX2 schrieb:
Hast du dazu Infos, Links etc. Ich bin vom Gegenteil ausgegangen. Das wäre natürlich super.
Nennt sich "Tensor Split". Im Prinzip haben die LLMs ja Layer um Layer und diese müssen nicht alle in der selben HW laufen. Die großen LLMs wie ChatGPT oder Gemini oder Grok brauchen mit entsprechenden Context über mehrere TBs an VRAM. Deswegen haben die dort so viele GPUs.

Mit koboldcpp kann man z.B. einen Teil in einer GPU und einen Teil mit der CPU rechnen lassen (wenn der GPU VRAM zu klein ist), oder auch auf verschiedene GPUs aufteilen.

Hier kann man rechnen: https://apxml.com/tools/vram-calculator
 
metoer schrieb:
Einige haben wirklich nur einen Horizont bis zur eigenen Nasenspitze, für eine neue Profi-Karte ist der Preis echt gut.

Für Bild und Video generierung wäre die super, aber mir reichen meine 24GB aktuell noch. Es gibt für ComfyUI schon sehr gute Nodes/Modelle die viel auf den RAM auslagern können, deswegen habe ich kürzlich von 32 auf 64GB aufgerüstet :)
Genau mein Gedanke! Ich arbeite beruflich mit Servern in denen Pro Grafikkarten für CFD Berechnungen verwendet werden und diese benötigen VRAM was geht. 3x 96GB RTX 6000 Pro Blackwell in meinem Fall. Schaut man sich dort die Preise an denkt man bei den AMD Karten vielleicht auch Anders. Es geht hier auch nicht zwingend nur um den Takt (daher gibts auch die Max Q Varianten bei NVIDIA)
LLM Hosting wäre da auch so ein Anwendungsfall…
Da im Thread viele die Pro als Anwendungsfall Gaming sehen ist die Karte halt zu teuer…
Dafür ist sie aber nicht gedacht. Für den Pro Bereich wie der Name schon sagt… Pro ist nicht Gaming. Und gerade im Pro Bereich ist die Karte ein Schnapper
 
  • Gefällt mir
Reaktionen: fox40phil, Kuristina, Wynn3h und 4 andere
lynx007 schrieb:
Aber auch ohnen Pooling habe ich halt 32 nich 24gb
Stand in diesem Ex-Twitter Post nicht was, dass das mit dem Pro GPUs gehen soll?
Oder was meinen die mit "brings scalable multi-GPU Performance"?
Dann hätte man mit 2 Karten schon 64GB VRAM.
 
  • Gefällt mir
Reaktionen: Dorve
SirKhan schrieb:
Tut sie doch.


Nennt sich "Tensor Split". Im Prinzip haben die LLMs ja Layer um Layer und diese müssen nicht alle in der selben HW laufen. Die großen LLMs wie ChatGPT oder Gemini oder Grok brauchen mit entsprechenden Context über mehrere TBs an VRAM. Deswegen haben die dort so viele GPUs.

Mit koboldcpp kann man z.B. einen Teil in einer GPU und einen Teil mit der CPU rechnen lassen (wenn der GPU VRAM zu klein ist), oder auch auf verschiedene GPUs aufteilen.

Hier kann man rechnen: https://apxml.com/tools/vram-calculator
Sehr spannend. Ich hab auch Grade ein ausgelagerten 70b auf einer 5080 laufen aber das ist halt verdammt langsam. Dann stellt sich die Frage: 2x6000? 3-4x 3090? 1-2M210? Oder wenn man mit Performance einbußen Leben kann sogar nur 2x3090 vs 1x6000 vs mi210 vs 3x12gb irgendwas, die hier 2x.

Hat das jemand für llms schon mal probiert? Ist der Overhead wirklich so gering wie im Rechner angegeben? Wie viel Kopfweh macht die Konfiguration?
 
Zurück
Oben