News BGM-G31-GPU: „Big Battlemage“ kommt, aber nicht als Arc für Spieler?

Ai im genauen will nur tensor also fp16 performance aktuell arbeitet nvidia mit cuda an einen fp8 modell
Das ist viertel genau LLLm sind um genau zu nehmen Statistiken diese sind am effektivsten bei einfacher Genauigkeit aber auch am langsamsten da die Modelle an der Bandbreite und vram am verhungern sind.
Dies lässt sich lösen indem man die bisherigen gpu also den normalen alu dies berechnen lassen oder spezifizierte hardware dies übernimmt asics werden sich durchsetzen da billiger und weniger Energie benötigt wird. Aber und das ist das problem sie sind ungenau ein mix aus doppelter Genauigkeit und asics wird die Lösung sein.
Dafür braucht man aber den neuesten node und neue Halbleiter in analoger Technik
Das wird aktuell entwickelt
bismut Halbleiter sind vermutlich Mitte 2030 bereit für Massenfertigung
analoge pc später ende der 2030er

neue nodes bis dahin wäre zum Übergang gaa und bspd das den verbrauch zumindest senkt aber die chips sind groß und teuer. +- 360mm² nach gaa halbiert sich die Belichtungsfläche der wafer
Dies kann man nicht mehr in consumer gpu designen und müssten dediziert für ai Beschleuniger entwickelt werden. bsp 16 tensor kerne per sm (derzeit 4) mit 256 alu (derzeit 128) an min doppelter L1 L2 cache was dann 512kb (derzeit 128kb) und L2 auf 8gpc (derzeit 12) 512mb (derzeit 128mb) sind. Das geht ist aber dann das absolute maximum. Gaming wäre so ein chip nicht schneller als ne rtx4090.

Darum kommt ein hybrid der kann nur als apu kommen für lokale ai. Mit mehr alu und gleichen tensor kerne wie bisher bis maxed 200w tdp .mit intels razer lake auf 18a foveros apu perf auf etwa dem level der rtx5090 mit Fokus auf vgpu.
Die Stagnation ist sicher und nein das hat keine api limitierung oder fertigungsgründe sondern schlicht ai hat Vorrang.
Den normalerweise wäre man längst in taktrennen bei dgpu gewesen bei 5,0ghz dgpu und min doppelter alu also dann mit derzeitiger design bei 384 sm mit 4,0ghz und 500w tbp aber gaming ist nicht der Fokus sondern ai.
Der a16 node verspricht bis zu 5,1ghz bei gleicher tbp
bei cpu kommt glücklicherweise der halbe Weg bis 8,0ghz hin (zen7 auf am6) normal wäre man bei 9,5ghz
zumindest wird dass cpu limit ab zen6 (q1 2027) Geschichte sein (6,7ghz)
 
craxity schrieb:
Wieso bist du so sicher, dass es eine Blase ist? Man kann KI produktiv für legale Zwecke nutzen. Warum sollte man damit wieder aufhören?
KI wird sicher nicht verschwinden. Aktuell ist es aber extrem gehyped und man versucht überall KI einzubauen und gleichzeitig werden Unsummen dafür aufgewendet.
Irgendwann ist aber der Punkt gekommen, wo man erkennt, dass man den Invest vielleicht gar nicht mehr zurück bekommt, da man nicht jeden KI Einsatz monetarisieren kann. Nicht jede Situation zieht einen Nutzen aus KI und wenn die Anwender dafür dann auch noch zahlen sollen, wird der Hype schnell abebben und KI nur noch da übrig bleiben, wo es wirklich funktioniert.
Wenn der Punkt gekommen ist, wird der Geldfluss abebben und dann ist die Frage wie die Rechenzentren dann bezahlt werden sollen. Das kann sogar so weit gehen, dass die Finanzierung für den Betrieb schon in Frage gestellt wird.
In dem Moment verschwindet dann auch die Nachfrage nach noch mehr Speicher, noch mehr Rechenleistung und der Markt kippt.
Ob man das jetzt als Blase bezeichnen kann ist wohl Blickwinkel abhängig.
 
Intel versagt echt nur noch auf allen Ebenen. Offenbar geht's ihnen immer noch nicht schlecht genug.
 
craxity schrieb:
Und wo siehst du Parallelen? Deine Argumentation ist bisher sehr abstrakt.
Mische mich mal ein, die Parallele ist, dass viel viel viel Geld investiert wird, mehr als aktuell damit verdient werden kann. Selbst OpenAI sprach davon, Zitat Finanzchefin: "Man müsse die Lücke schließen, die zwischen den Möglichkeiten von KI-Systemen und der Art und Weise besteht, wie Menschen und Unternehmen diese nutzen.".
D.h. nix anderes, als man hat eigentlich kein Produkt, dass stark gefragt ist und jetzt sucht man danach!
Die ganzen Investitionen in diesem Bereich wurden/werden getätigt, weil man sich eine horrende Summe an Geld damit zu verdienen versprach, allerdings ist da noch kein von der Masse gefragtes Produkt heraus gekommen, aber unendlich viele Beschleuniger und Rechenzentren verbaut...
Dazu kommen die fragwürdigen Kreisgeschäfte, z.B. NVidia investiert 100mrd Dollar in Open AI und diese wiederum kaufen bei Nvdia die Hardware. Wenn es crasht geht ganz ganz viel Kohle kaputt und nicht nur deren, sondern auch aller Investoren....
 
@TausendWatt Es ist interessant zu sehen, dass du dich für eine selektive Wahrnehmung entschieden hast. Die Kernaussage des verlinkten Artikels ist, dass der Umsatz von OpenAI durch die aktuell verfügbare Rechneleistung begrenzt ist. Auf dieser Grundlage ist deine Schlussfolgerung "man hat eigentlich kein Produkt, dass stark gefragt ist und jetzt sucht man danach" nicht haltbar. Wenn man aber mehr Rechenleitung braucht, um mehr Umsatz zugenerieren, ist es klar, dass man jetzt investieren muss, um später Umsatz zu generieren.

Natürlich möchte OpenAI auch die Nutzerbasis erweitern. KI ist noch recht neu und viele Menschen haben sich noch nicht daran gewöhnt KI im Alltag einzusetzen. Dass OpenAI auch auf Werbung setzen wird, ist ebenfalls keine Überraschung. Der Werbemarkt ist riesig und es wäre verrückt ihn nicht anzapfen zu wollen. Zusätzlich koppelt man seinen Umsatz von den Abo-Gebühren ab.
 
craxity schrieb:
@TausendWatt Es ist interessant zu sehen, dass du dich für eine selektive Wahrnehmung entschieden hast.
Interessant wieviel du selektierst bzw. keine Ahnung hast: Umsatz ist ungleich Gewinn, du kannst Mehr Umsatz als NVidia machen und trotzdem in der Verlustzone zu sein.
Zumal das im Artikel beschriebene "Umsatz" Problem erstmal nix mit Profitabilität zu tun hat und eine relative Kennzahl ist, somit keine Bedeutung in Bezug auf die "Blase" hat...
Darüber hinaus, Nutzerzahlen sagen primär nicht aus wieviel Umsatz du generieren kannst, erst wenn du es monetarisierst und deine Nutzer es auch annehmen, hast du was gewonnen. Aktuell und das sieht ja auch OpenAI so,, bzw. die Finanzchefin höchst persönlich, dass das aktuelle Angebot eben nicht das ist was sie für gute Geschäfte brauchen und die Frage immer noch nicht beantwortet ist, wieviele Menschen zu welchem Preis KI einsetzen wollen und werden, also wenn es dann irgend wann mal was kostet und nicht for free oder für kleine Abogebühren zur Verfügung steht.
Aber ich sehe schon, ich rede gegen rede gegen eine Wand.
 
Zuletzt bearbeitet:
@TausendWatt Jedes marktwirtschaftliche Unternehmen will und muss seinen Umsatz steigern. Der Umsatz von OpenAI hat sich zuletzt verzehnfacht, wird aber durch die beschränke Rechenleistung limitiert. Deshalb muss OpenAI in Rechenleistung investieren. Wo kommst du nicht mit?

Dass du nach Gewinn fragst, zeigt, dass zu keine Ahnung hast. Leider zeigt die Frage auch, warum Europa immer öfter abgehängt wird. KI ist ein neuer Markt. Jetzt geht es darum die Technologieführerschaft zu haben und sich einen möglichst großen Marktanteil zu sichern. Gewinn macht man später. Natürlich ist ein Risiko immanent. Aber wenn man das Risiko nicht eingeht, hat man schon verloren.
 
Ich finde es nicht zwingend verkehrt wenn Intel versucht vom AI Boom zu profitieren solange es ihre GPU Sparte am leben hält. Denn dann profitieren wir früher oder später auch davon.

Die neuen CPU's und iGPUs sehen vielversprechend aus.
 
craxity schrieb:
@TausendWatt Jedes marktwirtschaftliche Unternehmen will und muss seinen Umsatz steigern. Der Umsatz von OpenAI hat sich zuletzt verzehnfacht, wird aber durch die beschränke Rechenleistung limitiert. ?
Die Frage ist doch was du nicht verstanden hast. Du hast den Artikel wohl nicht aufmerksam genug gelesen . Die 20MRD sind annual revenue run rate. D.h. nicht der wahre Umsatz, sondern eine Hochrechnung, die den Monat mit dem höchsten Umsatz einfach mal 12 multipliziert. D.h. daraus lässt es keine Rückschlüsse weder auf das Wachstum noch auf steigende oder fallen Nutzerzahlen zu. Real könnten es auch nur 15MRd sein und wäre somit nicht mehr das 10fache. Es ist einfach eine weitere relative Kennzahl, die mit anderen relativen Kennzahlen verknüpft wurde. Man stellt also fest, dass man den Umsatz steigern konnte und das aktuell mehr oder weniger linear zur Kapazitätserweiterung geschieht, rein rechnerisch/relativ.

Wenn man aber den tatsächlichen Umsatz, der nicht erwähnt wurde (wohl um die Investoren bei der Stange zu halten) und der evtl. doch nicht 20 MRd entspricht, sondern evtl. darunter liegt (Warum sollte man ihn sonst zurückhalten und hinter einer Kennzahl verstecken, positive Nachrichten würde man wohl direkt kommunizieren) gibt es eine Schere zwischen Investition (Kapazitäterweiterung) und Umsatzsteigerung, d.h. man baut mehr Kapazität als gerade gefragt wird... Was die Kapazitätserweiterungen in Frage stellen könnten aus Investitionsicht.
Was du Marktanteile nennst, sind noch keine Anteile, was da gerade passiert ist eine riesen Wette auf einen möglichen Markt, einen potentiellen Markt, die entweder aufgeht oder nicht. Die Analogie zum damaligen Goldrausch ist treffend.
In jedem Fall werden die großen bleiben, allerdings dann mit einem Markt der wohl nicht so groß wie erhofft und das meinen eigentlich alle mit Blase. Denn aktuell wird soviel Geld rein gebuttert, wir reden hier von Billionen und dagegen sind 20mrd ein Fliegenschiss bzw. Taschengeld.
Was du aber auch unter den Tisch kehrst, dass mit steigender Kapazität die laufenden Kosten mit skalieren und das natürlich ein weiterer Faktor ist, der die Wirtschaflichkeit und den break Even torpediert. Gerade im Techsektor, wird man aber auch nur ein paar Jahre damit auskommen, dann braucht es neue Beschleuniger, die wiederum nicht billiger sein werden...
D.h. Wenn die das Produkt KI der Masse und nicht nur einzelnen Unternehmen/ Techieblase wirklich schmackhaft machen können, so dass diese bereit sind monatlich massives Geld in die Hand zu nehmen, weil es nicht mehr aus dem Alltag wegzudenken ist, wird das Ding im großen Stile scheitern, d.h. nicht das KI weg ist, nur nicht so groß wie erhofft und viel Geld kaputt ist...
 
spyro2000_de schrieb:
Intel versagt echt nur noch auf allen Ebenen. Offenbar geht's ihnen immer noch nicht schlecht genug.
Weil sie eine viel zu alte GPU nicht für den Consumer-Bereich veröffentlichen?

Die B770 hat eine relativ großen Chip und dürfte teuer in der Produktion sein, auch eine B580 dürfte teuerer in der Herstellung sein als vergleichbare Konkurrenzmodelle. Was ist an einer völlig logischen Entscheidung von Intel hier "versagen"?

Intel hat die letzten 12 Monate riesige Fortschritte bei der der Treiberentwicklung gemacht, die B580 ist eine valide Option in der 250€-Klasse die man nahezu bedenkenlos empfehlen kann, was vor einem Jahr und mit Alchemist noch nicht der Fall war.
 
Die kämen wohl eher als Arc Pro B65 und Co, statt als "B65 Pro" - da das bisherige Line-Up z.B. bereits als "Arc Pro B60" oder "Arc Pro A60" verfügbar ist.

Ich finde gut, dass Intel "mitmischt" - mein MSI Claw habe ich bereits mit dem AI Playground von Intel herumgespielt und muss sagen: das sind die Einzigen bisher, die es schaffen, es normalen Nutzern auf ihrem PC (ohne Config-/Library Orgien) zugänglich zu machen.

Diffusion- und Sprachmodelle (in begrenzter Größe natürlich je nach Hardware) werden automatisch geladen und wahlweise Bilder erzeugt, hochskaliert oder Texte "quergelesen".

ROCm von AMD habe ich noch als Gebastel in Erinnerung, NVIDIA läuft ootb, wenn man sich erstmal LM-Studio/vllm/Ollama/Comfy und Co selbst runtergeladen/eingerichtet hat. Mit Mausklick fertig macht das aktuell niemand besser als Intel.

Und es erledigt die Anfragen lokal auf dem Gerät - eine Sache, die mich aktuell noch viel mehr stört: Hardware mit AI-Badge verkaufen, um Anfragen dann Online gegen "Credits" oder Abos zu verarbeiten.
 
Zurück
Oben