cypeak schrieb:
mag sein dass deren fertigung in7nm teuer wäre, aber diese chipflächen sind im jetzigen 12nm verfahren erst recht nicht billig!!
ich behaupte das gegenteil: ein refresh der turings von 12nm auf 7nm wäre ein echter jungbrunnen für diese chips!
Sorry, du liegst hier falsch. Ich empfehle Dir dich mehr mit den einzelnen Fertigungstechniken vertraut zu machen. Natürlich sind Shrinks generell besser. Aber in der heutigen Zeit werden sie auch teuer und Yield, also die Ausbeute spielt auch eine Rolle.
TSMCs 16/12nm ist technisch voll ausgereift. Nur so sind Monsterchips mit fast 755mm² wie der 2080ti möglich.
Im Besten Fall bekommst du bei nem 300mm Wafer 34 voll funktionisfähige TU102-Chips dabei raus.
Sagen wir mal von den 35 defekten kann man noch 16 Stk verwenden, weil die 2080ti ist ja kein Vollausbau.

Chipkosten für 12nm dürften so bei 8000USD liegen.

Da kostet dich das pro Chip schon 160USD. Das ist viel! Denn PCB, Speicher etc. sind da alles noch nicht drin.
Jetzt gehen wir mal auf 7nm und zwar
ohne EUV. (EUV verbessert Yield durch einfach- statt vierfachbelichtung - nur so am Rande)
Wichtig ist bei 7nm nur zu wissen. Die Fertigungskosten pro Wafer sind quasi verdoppelt!
Und die vierfachbelichtung verschlechter Yield dramatisch.
Vega in 7nm ist von 495mm² (V10) auf 331mm€(V20) geschrumpft, (Faktor 0,66) hat aber statt 12Mrd Transistoren wegen der DP jetzt 13Mrd.
Rechnen wir wohlwollend 0,6 als Faktor. D.h. "TU202" als reiner Shrink wäre 452mm² groß.

Auf einmal bekommen wir wegen der schlechten Yield nur noch 19 voll funktionsfähige Chips, obwohl mehr Chips auf den Wafer passen. Gehen wir bei den teildefekten mal wohlwollend davon aus, dass noch 41 Stk. verwendet werden können und somit 60 Chips in eine 3080ti gepackt werden können, welche dann 30% mehr Takt haben wird. Ist ja eben nur ein Shrink.
Der Waferkosten liegen aber jetzt bei 15.000 USD.
D.h. der Chip kostet nun schon 250 EUR.
Und nein,d.h. heisst nicht, dass die 3080ti dann 90EUR mehr kostet, sondern dass sie unbezahlbar wird.
Das ist nur ein relativ vereinfachtes aber noch wohlwollend gerechnetes Beispiel, aber man sieht selbst Nvidia sind Grenzen gesetzt.
Was passiert, wenn man mit 7nm EUV die Yield halbiert(oder mehr), kann sich jeder selber ausrechnen.
https://caly-technologies.com/die-yield-calculator/
Solange beide Hersteller dann halbswegs wieder auf einer Höhe sind, rechne ich sogar nochmal kurz mit fallenden Grafikkartenpreisen. (ab 5nm und vor allem 3nm dann wieder stark steigend).
cypeak schrieb:
bis auf den hohen preis, sind die turings für den vergleichsweise kleinen sprung von 16nm auf 12nm, so schlecht ja nicht geworden -
Das ist kein "Sprung"! 16/12nm sind mehr oder weniger der gleiche Prozess.
Sind auf der Website auch zusammengefasst.
https://www.tsmc.com/english/dedicatedFoundry/technology/logic.htm
Die Mehrleistung von Turing kommt ausschließlich durch das Mehr an Shadern, was in größere Chips resultiert
(und ein kleines vernachlässiges bisschen IPC).
Zusätzlich wurden die Chips noch durch die Tensor- & RT-Cores aufgebläht.