Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSpeicherkrise: Nvidia soll RTX-50-Produktion wegen teurem GDDR7 zügeln
@blubberbirne Jo, das stimmt wohl. Bin auch grad erst angefangen, mich in das Thema Marketing einzuarbeiten. "Graphic Design School" arbeite ich grad durch, möchte einfach "mehr" aus dem Thema machen. Habe allerdings nen kleinen Rechnerpark daheim und auch Systeme mit mehr Bumms als 32 GB RAM und 8 GB VRAM, wenn es dann mal an Filialwand-große Werbung gehen sollte :-)
Naja, gut, zurück zum Thema hier: ich bleibe erst mal bei der 40er Generation. Wenn grad eine neue ran müsste... es wäre wohl die 5060 Ti für mich, 16 GB und ansprechend performant bei gutem Preis aktuell. Unter 500. Bin gespannt, ob die in dem Preisrahmen bleiben wird bei der aktuellen Situation.
Es werden aus einem den KI Chips wie dem GB100/200 und entsprechendem HBM Speichercontroller keine GB102/104 mit GDDR7 rausgeschnitten...es handelt sich nicht um Ausschuss, sondern um eigenständige Chips.
Die 5090 ist auch kein "Ausschuss" gegenüber dem Full Chip, sondern einfach strategisch teildeaktiviert.
Somit wäre jede Karte zur Produktsegmentierung "Ausschuss" die nicht den Full Chip verbaut haben, was auch nicht haltbar ist. 4090, 2080Ti, 3090 alles "Ausschuss".
MaverickM schrieb:
Als ob der "Ausschuss" plötzlich weniger werden wird pro Wafer.
Doch, genau das passiert durch yield improvement. Wenn TSMC den 4N oder 3nm Prozess zusammen mit Nvidias Produkt über Monate/Jahre optimiert, sinkt die Fehlerquote pro Wafer massiv.
MaverickM schrieb:
Das was nVidia hier vorhat bedeutet schlichtweg, dass selbst die Workstation-Karten in der Produktion zurück gefahren werden und Kapazitäten für die KI-Chips freigemacht/gebucht werden.
Das ergibt wirtschaftlich keinen Sinn, da die Workstation Karten enorme Margen haben, Nvidia wird sich kaum das eigene Hochpreissegment verknappen lassen.
MaverickM schrieb:
Keine Ahnung, wie man das positiv rechtfertigen will. Aber einige Fanboys schaffen es scheinbar (oder zumindest versuchen) es dennoch.
Du stellst alles negativ dar, während andere das pragmatisch sehen, denn vor den gleichen Problemen steht AMD auch.
Dass NVIDIA die lukrativsten Wafer priorisiert ist bestimmt richtig, aber Unternehmen müssen auch ökonomisch handeln.
Aber die Behauptung, Gaming sei nur KI Abfall ignoriert, dass NVIDIA für Gamer eigene Milliarden Beträge in die Entwicklung spezifischer Architekturen die für KI Server ungeeignet sind steckt und Nvidia als unangefochtenen Markführer zu kritisieren, sie würden nichts für Gamer tun, obwohl sie die ganzen Entwicklungen der vergangenen Jahre angestoßen haben ist auch nicht schlüssig.
MaverickM schrieb:
Gemäß der Jahreszeit, meine kurze Antwort: Humbug!
So bist du hier unterwegs, alles was nicht in den Kram passt ist "Humbug".
MaverickM schrieb:
Die Tatsache, dass sie bisher GPUs im Package-Deal mit DRAM Chips verkauft haben - und als Großabnehmer deutlich bessere Konditionen aushandeln konnten, als einzelne AIBs - ignorierst Du gekonnt.
Nvidia begibt sich mit einem ~13-fachen Volumen gegenüber AMD auch in ein ganz anderes Risiko und stößt an andere Grenzen. Auch wenn es für kleinere AIBs schlechter ist, so ist das Verfahren bei Notebooks schon seit langem so.
Ist das so? KI Branche und Distribution sind zwei Paar Schuhe. Hier geht um um die Speicherkrise und die Folgen. Und die Folgen komme nun mal in der Distribution früher an als beim Endkunden. Oder siehst Du das anders?
Ist das so? KI Branche und Distribution sind zwei Paar Schuhe. Hier geht um um die Speicherkrise und die Folgen. Und die Folgen komme nun mal in der Distribution früher an als beim Endkunden. Oder siehst Du das anders?
Nö, aber er behauptet, dass Nvidia die Produktion bremst, um sie zu KI zu verschieben. Dass mag so passieren, aber sie machen es nicht aktiv, weil sie Bock drauf haben, sondern weil die Ressourcen (hier GDDR Speicher) für RTX Karten fehlen. Warum sollen sie Chips produzieren, die nicht nutzbar sind? Ist doch sinnfrei.
Grundsätzlich ist es so das einige Modelle tatsächlich schlechter verfügbar sind als andere.
Aktuell ist das aber eher bei der 5090 so. Ab den den Gerücht etwas dran ist, wird sich in den nächsten Tagen zeigen.
Ich schätze aufgrund der Speichersituation werden wir ne längere Zeit nicht mehr so günstig wie aktuell an Grafikkarten rankommen.
Krass das sagen zu müssen, wo die gehobene Klasse in Form einer 5070 Ti knapp 800 € kostet.
Die 2070 Super, die dafür weichen musste, hat vor 5 Jahren hat noch um die 530 € gekostet.
Die 5070 war wegen ihrer 12 GB keine Option und die 5080 zu wenig Mehrleistung für den Aufpreis.
Klar, wer auf diverse Nvidia-exklusiven Features verzichten kann, kann auch 200 € weniger ausgeben und zu einer 9070 XT greifen. Mir waren die aber wichtig.
Hatte mir vor paar Monaten fast eine vierte 9060XT geholt bei den Preisen Die Karten sind einfach zu gut bei den Preisen^^ P/L unschlagbar.
Jetzt ist die Speicherkrise angebrochen und das dauert bis Ende 2028 laut News.
falls der KI Hype anhält, ...
bin sehr gespannt, wie das mit dem GPU Markt weitergeht
(Interesse der Hersteller am Consumer Markt, Verfügbarkeit, Preisentwicklung)
vielleicht kommen "nur" Karten mit KI Optimierung und angepassten KI Chips
also besseres DLSS upscaling und MFG und nicht unbedingt "mehr" (Raster)Leistung
mehr als die 575 W kommt hoffentlich nicht, die 800W von Asus bleiben hoffentlich ein Exot
melbar79 schrieb:
Oder manche beenden das Hobby Gaming und wenden sich anderen Dingen zu....
Wenn man vorher wie im von dir zitierten Kommentar eine 90er Grafikkarte gekauft hat? Dann kauft man eher eine Stufe niedriger, da werden die wenigsten direkt aussteigen, nur da man sich nicht mehr das Beste leisten kann …
ein Bekannter hat sich neulich ne 5070Ti gekauft, zockt damit FHD und ist zufrieden
wenn die 60er und 70er 100 oder 200 Euro mehr kosten, ist damit das Hobby nicht obsolet, man kauft vielleicht ein bisschen später neu oder eine PS / Steam Machine / Switch
Großes Unheil droht, Missernten und Verheerungen werden über uns kommen.
Deshalb hab ich meine 4070super erstmal bei den Kleinanzeigen rausgenommen.
Ersatz ist immer gut, oder für zukünftige Projekte.
Besser haben und nicht brauchen als brauchen und nicht haben.
Für den Erlös hätte ich ja ohnehin nicht mal 'n vernünftiges RAM-Upgrade bekommen...
Interessiert aber wenig, da die von dir erwähnten RX6000/7000 das nicht unterstützen (die 7900 GRE ist gerade einmal ein Jahr alt …) - dagegen unterstützten selbst die über 7 Jahre alte RTX 2000 DLSS 4 …
Deine einzige Antwort darauf war, „dafür unterstützen RX6000/7000 FSR FG - und? Das läuft auch problemlos auf einer RTX 2000 … versuch das mal mit FSR 4 auf einer RX6000/7000 …
Die fehlende Unterstützung von FSR 4 für RX6000/7000 ist somit (eigentlich selbstverständlich) der größere Nachteil …
No_Toxic_Gamer schrieb:
Es ist keine Antwort sondern eine Feststellung, so wie deine Aussage mit dem Upscaling. Was niemand abstreitet. Es ist nunmal so das die von Nvidia kein DLSS FG oder Smooth Smooth Motion Support anbietet für die alten Gens. Ich habe nur geschrieben was die Situation ist.
So wie RTX2000/3000 FSR FG nutzen können, kann RX6000, 7000 XeSS Upscaling nutzen oder eben den inoffiziellen Weg FSR 4 Int 8/Optiscaler.
Also sagst du selbst FSR 3 FG und DLSS FG sind ziemlich ebenbürtig? Check.
Wie kommst du darauf? Ich schrieb RX6000/7000 und RTX2000 können ebenbürtiges FG nutzen (entsprechend kein Nachteil wie du es klingen lassen willst) - allerdings nicht ansatzweise die selbe Qualität an Upscaling (FSR3 vs DLSS4) …
FSR FG läuft problemlos auf RTX 2000 - FSR4 auf einer RX6000/7000 dagegen selbst inoffiziell katastrophal …
Bisher? Nachdem man vor Kurzem den Treibersupport einstellen wollte halte ich es für unwahrscheinlich, dass sich daran etwas ändert.
No_Toxic_Gamer schrieb:
DLSS4 für RTX2000/3000 ist natürlich top, reicht aber nicht in allen Games alleine aus für flüssige FPS .
Bsp. Alan Wake. Ohne FSR FG fehlt den Karten der letzte Schwung an Leistung bei hohen Einstellungen mit RT/PT.
Passende Einstellungen natürlich für eine 7 Jahre alte Grafikkarte - wenn eine deutlich neuere GPU der Konkurrenz in derselben Leistungsklasse hier nicht mehr leisten würde, wäre auch stark verwunderlich.
Keine Ahnung wen das nun überzeugen soll, dass FSR3 + FSR FG besser sein soll als DLSS4 + FSR FG … FG werden die meisten sowieso niemals nutzen - mit DLSS/FSR sieht es eben ganz anders aus …
No_Toxic_Gamer schrieb:
Es gibt mehr als nur schwarz und weiß in solchen Themenbereichen.
Genauso wechseln Leute andersherum - der PC Gaming Markt ist nur am Wachsen, deine Aussage daher eben das typische „ich habe 2 Freunde“
Deine Aussage wird noch seltsamer, wenn man überlegt, dass eine PS5 (Pro) genauso GDDR nutzt und dieselben Preiserhöhungen mitmachen wird …
Zudem vergisst man beim subventionierten Anschaffungspreis gerne mal, dass:
für Multiplayer-Spiele ein PSN-Abo ab 72€ pro Jahr notwendig wird - am PC kostet das keinen Cent, nur 10 Jahre und man hat 720€ mehr gezahlt, mehr als den Wertverlust einer 90er von einer Generation zur nächsten …
die günstige Digital-Version nur teure PSN-Käufe erlaubt (kleines Beispiel - Battlefield 6 PC: 49€ PS5: 79(!)€
Ob man da nach mehreren Jahren Besitz wirklich günstiger dran ist, als mit der entsprechend schwachen GPU die einer PS5 ebenbürtig ist? Vermutlich nicht …
Ergänzung ()
Diablokiller999 schrieb:
Lieber auf Profikarten löten, in die eigenen Rechenzentren und dann eine Karte an x Leute zeitgleich vermieten/verkaufen. Bringt mehr ein...
Blöd nur, dass das für die meisten Multiplayer-Spiele, die die Masse zockt, überhaupt keine Option ist - entsprechend gering die Verbreitung … ohne Glasfaser braucht man das auch nicht einmal für Singleplayer-Spiele (was deutlich weniger Leute anspricht) nutzen - da fällt der Großteil der Weltbevölkerung weg …
Ergänzung ()
boonstyle schrieb:
@Diablokiller999 Was kostet der "Spaß" bei Nvidia 30, 40, 50 EUR im Monat.
Aktuell 750€ in nur 3 Jahren - deutlich mehr als eine 80er in der Zeit an Wertverlust hat … und wer glaubt der Preis würde bei einer gewissen Nutzerbasis nicht steigen ist einfach nur naiv. Zum Glück ist es technisch (aktuell) unmöglich hier eine vernünftige Lösung für Multiplayer-Spiele anzubieten … für mehr Kosten an Nutzungsgebühren als den eigentlichen Wertverlust sowieso nicht interessant für Kompression + Latenz …
Ich kenne wenige, die von Konsole auf PC zurück wechseln.
Auf meinem letzten Klassentreffen ("25-jähriges nach dem Abi") vor 2 Jahren waren bereits viele ehemalige "Nerd-Zocker" in ihrer neuen Rolle als Familienvater umgestiegen auf eine oder mehrere Konsolen. So viel zum Thema "2 Freunde"...
MalWiederIch schrieb:
Deine Aussage wird noch seltsamer, wenn man überlegt, dass eine PS5 (Pro) genauso GDDR nutzt und dieselben Preiserhöhungen mitmachen wird …
Doch ist es. In Games die kein FSR3 FG bieten weil RX2000/3000 eben keine Treiberbasierte FG nutzen können. Wie am Bsp. Alan Wake 2 beschrieben. Upscaling alleine reicht nicht immer mehr aus in neuen Games besonders bei den Älteren Karten.
MalWiederIch schrieb:
Interessiert aber wenig, da die von dir erwähnten RX6000/7000 das nicht unterstützen
Ich lasse nichts klingen. Du liest was du lesen willst damit es für deine Argumentation passt. Aber das ist okay.
Ich hatte zwar geschrieben das ich keine Hersteller vs Hersteller Diskussion möchte sondern einfach das man so ehrlich ist das beide Hersteller Kritikpunkte an ihren Produkten haben. Das mindestens ein weiterer im Forum das nicht akzeptieren kann und für seinen Hersteller in die Bresche springt war mir aber bewusst.
XeSS + FSR FG nutzen, oder FSR 4 INT 8 via Optiscaler oder auf den anderen inoffiziellen Wegen die derzeit bereits möglichn sind.
Ich habe auch nie geschrieben das FSR3 gleich oder ebenbürtig mit DLSS 4 ist.
Wurde aber alles bereits geschrieben. Wir drehen uns also im Kreis und damit hat das Gespräch keinen Sinn.
Du würdest nie zugeben das dein Favorisierte Hersteller auch seine Kritikpunkte hat.
Ich habe hingegen geschrieben das mir die Schwachpunkte bei AMD GPUs bewußt sind und man die auch anerkennen muss. Ebenso so aber das Positive. Wie bei Nvidias Vorteilen ebenso.