Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsJetzt auch für Endkunden: Radeon AI Pro R9700 mit 32 GB nächste Woche im Handel
Ist klar AMD vielleicht 50$ Mehrkosten in der Produktion zur 9070XT durch den doppelten Speicher aber dann gleich 700$ mehr für den Endkunden verlangen. Und dann heißt es immer nur Nvidia ist gierig.
Sei froh, daß sie ihre Chips noch auf 16GB Krüppelkarten mit weniger Marge packen. Alternative wäre einfach alle Karten für 50$ Mehrkosten als KI Karten zu verscheuern.
Eine 32GB 9070XT wäre auch deutlich teurer, alleine weil der AI Markt sie dann auch kauft. Völlig egal wie AMD die bepreist. Da können sie selbst lieber den Gewinn mitnehmen.
Aber ehrlich gesagt passen 16gb zur 9070xt schon ganz gut. Habe bisher keine Situation gehabt, wo die nicht gereicht hätten, für die Leistung die die Karte hat. Da habe ich dann lieber die günstigere Karte, die man schneller gegen einen Nachfolger tuscht, als viel Geld für Speicher zu zahlen, den man eh kaum bis nie ausnutzt. 24gb wäre noch halbwegs angemessen, aber mit gddr6 ist das halt nicht drin. Und selbst 24gb wären wohl schon aufgrund der Nachfrage deutlich teurer.
Eben...
Die RTX Pro 4500 als vergleichbares Nvidia Produkt (gleicher VRAM, etwas schneller) kostet das doppelte.
Die RTX Pro 4000 kostet ungefähr das gleiche, ist aber langsamer und hat nur 24 GB.
Wäre die AI Pro R9700 Teil des Nvidia-Portfolios, dürfte man also mit 1800-2000 Euro als Preis rechnen.
Das wäre mal interessant zusehen die 4500 hat ja den gleichen Chip wie die 5080 ist aber auf 200watt beschränkt. Die Ai pro 9700 darf sich die vollen 300watt genehmigen. Wie gross der Unterschied dann noch ist.
Ich kann dir sagen, dass ich bei der RTX auf die gleiche Weise reagiert hätte.
Das sind Workstation-Grafikkarten, die sich an professionelle Entwickler, Künstler, Architekten und Co richten, die entsprechende Software verwenden. Gerade abseits der "Kunstszene" gibt es sogar teilweise Software, die den Dienst auf normaler "Consumerhardware" sogar "verweigert" in bestimmten Szenarien, weil hier gewisse Anforderungen an die Simulation iund Co gestellt werden.
Workstationen-Karten sind dabei überhaupt nicht OEM-Exklusiv, es gibt genug Systemhäuser in Deutschland, die auch individuelle Workstations bauen und entsprechende Garantien geben und Supportverträge haben. Ich hab in einem Praktikum in so einem Systemhaus gearbeitet, in dem wir für ein Architekturbüro 20 individuell konfigurierte Workstations gebaut haben.
Wenn es ein Problem bei einer Radeon Pro - jetzt halt AI Pro - gibt, genauso bei einer RTX, hat man teilweise ein ganz anderen Support und auch - bei Softwareproblemen - sogar noch mal ganz andere Hilfe. Man zahlt hier nicht nur für die Hardware, sondern auch dafür, dass gewisse Sachen wirklich "funktionieren" und im bestimmten Umfeld muss man sogar sowas nachweisen - bei Versicherungen und Co.
Mal ganz blöd gefragt: Eigentlich sollte eine Grafikkarte mit 512GB doch herstellbar sein oder? Einfach die Platine größer und mehr Speicherchips drauf? Gibt es hier eine technische Limitation oder wird das Ganze marktseitig über mehrere Jahre gestreckt, damit schön gemolken wird?
Dir ist klar das Pro für Professionell steht also für Leute die damit bestimmte Arbeiten machen nicht für Gamer, und das die Werbefolien ausschließlich von LLMs also K.I. reden.
Wo soll da die verarsche sein, bei K.I. Entwicklern ist oft der VRAM der Flaschenhals, 32gb kriegst sonst nirgends billiger die werden sie sehr freuen. Aktuell ist die billigst Karte mit 32gb für 1800 Euro ne W7800 mit GDDR6 bei Nvidia musst das 2550 Euro zahlen. Selbst wenn sie vom Speed her nur die W7800 matchen sollte, wäre es ne deftige Preissenkung.
Aber K.I. Speed ist eh nicht identisch zu Rasterperformance, die Einheiten die FP8 stärker machen für FSR4 sollten auch bei LLMs helfen, lass mich aber gerne korrigieren.
Ergänzung ()
DevPandi schrieb:
Gerade abseits der "Kunstszene" gibt es sogar teilweise Software, die den Dienst auf normaler "Consumerhardware" sogar "verweigert" in bestimmten Szenarien
Das mag manchmal der Fall sein, oft scheinen es mir auch irgendwelche Limitierungen um die Grafikkarten teurer zu verkaufen zumindest in der Vergangenheit, man gibt einfach das SDK nicht raus für die Consumerhardware und dann kann die Softwarefirma dafür die Consumerkarten auch nicht unterstützen.
Na dann sollte AMD vielleicht einfach den Laden zu machen, wenn sich Software Entwickler Nvidia aufs Gehirn Tätovieren lassen haben und nen Hypocratischen Aid geleistet haben bis zu ihrem Tod nur Nvidia zu unterstützen.
AMD wird eine Stückzahl davon verkaufen die ihnen Gewinn bringt oder so viel mehr Ansehen bringt das es ihnen irgendwann in der Zukunft gewinn bringt, wenn du glaubst sie werden 0 davon verkaufen werden wir ja sehen.
AMD gewinnt momentan nach verlässlichen Parametern glaubhaft Marktanteile im Gaming dazu, auch mit Halo Lake siehts gut aus, Nvidias versuche da gegen zu halten verschieden sich unendlich, Konsolenzukunft sieht rosig aus, Handheld auch, aber schon klar alle K.I. Entwickler werden aus Prinzip den Support für deren Hardware verweigern.
Ergänzung ()
WinstonSmith101 schrieb:
Ich finde die Grafikkarte an sich toll, aber der Aufpreis für 16 GB mehr RAM ist einfach lächerlich. Absurd. AMD versucht, so viel wie möglich aus dem Ai-Hype herauszuschlagen.
Sollen sie Grafikkartenküchen einrichten und ihre Hardware an Bedürftige verschenken?
Ergänzung ()
ev4x schrieb:
Ist klar AMD vielleicht 50$ Mehrkosten in der Produktion zur 9070XT durch den doppelten Speicher aber dann gleich 700$ mehr für den Endkunden verlangen. Und dann heißt es immer nur Nvidia ist gierig.
Ja, das ist leider korrekt. Die M4 Max sind wirklich gut bei großen LLMs (hab 128 GB unified RAM bei mir drin), bei Bild- oder Videogenerierung ist meine alte 4090 3-4 Mal so schnell - da hilft auch das Mehr an Speicher nicht wirklich
Selbst da ist deine Kritik fehl am Platz es zwingt niemand die Karte zu kaufen offenbar gibt es Leute wo 24gb für selbst Davinci Resolve nicht reicht wie hier jemand gepostet hat, wenn man also 32gb will darfst bei Nvidia 2550 Euro blechen hier eben 1300 Dollar was gibts da zu meckern wenn VRAM der Flaschenhals ist, dann ist er das. Und die höhere Rechenleistung ist nicht so entscheidend wenn er 90% der Zeit vor allem seiner aufmerksamen Zeit im Editor rum arbeitet und ob da im Hintergrund während er nen Film schaut oder einkaufen fahrt oder was auch immer ne Stunde länger rendert ist dann vielleicht deutlich verkraftbarer als 1200 Euro Nvidia hinterher zu werfen gekoppelt mit immer wieder Stress unter Linux, wegen schlechtem Nvidia Linux support.
Und auch wenn man die Karte für zu teuer hält seit doch froh, das ist Quersubventionierung, damit das AMD irgendwo im Profibereich auch mal bisschen Marge machen kann, kann man ein paar Entwickler mehr bezahlen die dann im Zweifel auch support für Consumerkarten in ROCm und Co einbauen.
Genauso wie Autofirmen erst Airbags in Reichenautos eingebaut haben oder Zeug wie ABS und co entwickelt haben und dann als dadurch die Entwicklung bezahlt wurde konnte man es auch günstig in alle Autos ein bauen.
Ergänzung ()
Gigaherz schrieb:
Cool, kommt irgendwann auch mal ne CUDA Alternative? ich warte schon 10 Jahre.
Heißt bei AMD HIP, ist dazu da um extra einfach Code von Cuda zu AMD zu portieren. Wobei die Schnittstelle halt für Portieren da ist generell ist ROCm soweit ich das verstehe das allgemeinere und mehr Lowlevel.
AMD ist mit Rocm7 einen Schritt an cuda rangerückt.
"Die neue Version ROCm 7.0, kurz für „Radeon Open Compute“, bringt eine Reihe technischer Neuerungen mit sich, die AMDs Position im KI- und HPC-Markt signifikant stärken könnten. Allen voran steht die überarbeitete HIP C++ Schnittstelle, die sich nun noch stärker an CUDA anlehnt. Ziel ist klar: Entwickler sollen bestehende CUDA-Codebasen mit möglichst wenig Reibungsverlust auf AMD-Hardware portieren können. Das allein wäre schon ein kleiner Meilenstein, denn bislang galt ROCm oft als spröde, unvollständig oder schlicht inkompatibel zu vielen produktiven KI-Workflows."
Macht es halt teurer und treibt den Verbrauch hoch. Man bewegt sich aber in die Richtung, AMD z.B. bringt nächstes Jahr die MI400 mit 432 GB fürs Datacenter.
interessant was einem alles für worte in den mund gelegt werden
diffussionsbasierte ai ist auf cuda ausgelegt und optimiert, das hat nix mit fan-tum zu tun, sondern das ist die realität auf dem markt.
ich finde amd nicht schlecht, hab nen x3d drin. und der ist toll.
aber halt auch eine 5090 - weil das die speerspitze ist und bleibt. es kommt in zukunft auch nur ne 6090, 7090, etc. rein. der AI markt entwickelt sich zwar rasant, aber die cuda sache wird bleiben - man tauscht halt net einfach mal so schnell rechenzentren aus, wenn da momentan h100, h200, b200, etc. laufen.
Ich finde die Grafikkarte an sich toll, aber der Aufpreis für 16 GB mehr RAM ist einfach lächerlich. Absurd. AMD versucht, so viel wie möglich aus dem Ai-Hype herauszuschlagen.