News Schnelle AI-Beschleuniger: Chinesische Firmen wollen Millionen Nvidia-H200-Chips bestellen

Cool Master schrieb:
Ich finde es immer wieder lustig, wie Leute nach wie vor meinen KI wäre eine Blase. Da wird nichts platzen,
Es hat aber keine sinnvolle Anwendung in allem, so wie derzeit propagiert. Wenn man dann mal merkt, das es immer noch viele Bereiche gibt wo das ein sinnloses Feature gibt und man sich nur noch auf die sinnvolle Anwendung konzentriert, aber bis dahin soviel Leistung in Servern aufgebaut hat, dann wird es erstmal ein Rückgang der Nachfrage geben.
 
braindamage10k schrieb:
Der Punkt imho ist der, das AI ja direkt mit der Geschwindigkeit korreliert. Daher ist jeder Zuwachs an Geschwindigkeit direkt ein Gewinn.

Und da die Berechnungen immer komplexer werden, muss natürlich auch die AI Leistung steigen.

Das stimmt halt so auch nicht. Es gibt bedeutende Hebel jenseits der reinen Rechenleistung.

Ein aktuelles Beispiel ist das gestern veröffentliche neue Forschungspapier des Teams von DeepSeek, mitverfasst von Gründer Liang Wenfeng. Es schlägt ein grundsätzliches Überdenken der zentralen Deep-Learning-Architektur vor.

Konkret wurde ein neuartiges Trainingsverfahren namens „Manifold-Constrained Hyper-Connections“ (mHC) entwickelt. Dieses löst ein Kernproblem der Skalierung: die zunehmende Instabilität bei der Vergrößerung von Modellen.

Während der übliche Ansatz zur Leistungssteigerung in einem intensivierten Informationsaustausch zwischen Modellteilen besteht, führt dies oft zu Instabilität bis hin zum kompletten Versagen. Die mHC-Methode ermöglicht es nun, diese interne Kommunikation auf kontrollierte und stabile Weise signifikant zu erhöhen. Die Studie zeigt, dass so sowohl die Trainingsstabilität als auch die Recheneffizienz selbst bei zunehmender Skalierung bewahrt werden können.

Das könnte das Fundament der Architektur der bisherigen LLMs auf den Kopf stellen.

Kurz gesagt: Fortschritt entsteht nicht nur durch mehr Rechenkraft, sondern auch – und vielleicht entscheidender – durch fundamental effizientere Architekturen und Trainingsmethoden.

https://arxiv.org/pdf/2512.24880
 
  • Gefällt mir
Reaktionen: DeusExMachina, Luthredon, dideldei und 2 andere
Für LLMs und Co gibt es nicht soviele sinnvolle Anwenduingen - für spezialisierte AI schon

Nur mal IT nahe Beispiele, gibt es in fast jedem Fachgebiet inzwischen

Mathe:
https://deepmind.google/blog/advanc...d-at-the-international-mathematical-olympiad/

Programmierung
https://deepmind.google/blog/gemini...-collegiate-programming-contest-world-finals/


AI steht am Anfang aber sie legt erst langsam richtig los.

Wie fasst eine AI den Lebenslauf eines Losers in einem Satz zusammen "ich habe am ersten Tag nach der Frühstückspause aufgegeben, weil ich da nicht alles erreicht habe, was ich mir für die nächsten 10 Jahre vorgenommern habe."

Es ist viel wichtiger zu beobachrten was kann eine "Durchschnmitts AI" heute lösen was vor einerm Jahr noch nicht oder nicht so gut - und nicht zu sagen ja aber eine AI ist doch nicht perfekt und absolute Perfekltion ist doch der Massstab.

Und schon heute denke ich ist AI langsam auf Durchschnittsabsolventen Level in vielen Fachbereichen - zumindest die grossen Modelle - die freien oder günstigen sicher nicht, aber die sind aber auch zum Teil extrem abgespeckt.
 
Zuletzt bearbeitet:
Cool Master schrieb:
KIs, die auf spezielle Einsatzgebiete wie Krebserkennung oder Bildergenerierung ausgelegt sind, sind oft besser als ein menschlicher Spezialist, der teilweise 30+ Jahre Erfahrung hat. Diese spezialisierten Modelle sind viel kleiner und agiler, benötigen weniger Ressourcen und laufen auf kleinerer Hardware. Selbst wenn diese Hardware 50k bis 75k Euro kostet, ist das immer noch günstiger als ein Spezialist, der das Doppelte im Jahr verdient. Ein Modell mit z.B. 70 Milliarden Parametern, das auf ein bestimmtes Gebiet spezialisiert ist, wird einen menschlichen Spezialisten schnell ersetzen vor allem, weil die KI keine Gehaltserhöhung, Urlaub, Müdigkeit oder andere menschliche Faktoren kennt und man viel automatisieren kann damit das Modell 24/7 läuft. Dazu kommt einmal trainiert kann auch mit RAG gearbeitet werden um das ganze zu Erweitern.
Ähm du meinst die ganzen Aktionen die in Pilotstudien laufen, da "herausragende" Ergebnisse liefern, dann aber den "Produktivbetrieb" nicht überleben und eingestampft werden?

Insbesondere in der Medizin muss man höllisch aufpassen das klinische Studien nicht das Selbe sind wie der Einsatz in der Regelmedizin. Zudem war bis jetzt bei allen Veröffentlichungen die ich dazu bisher gelesen habe immer von Problemen die Rede, die sich aber mit weiterer "Reifung" der Technologie dann auch beheben sollen. Blöd nur das die Halluzinationen inherent sind und nicht weggehen. Die sind halt dann aber der ShowStopper.

In der Forschung und insbesondere der Medizin wird da teils sehr Sensationell berichtet.

Cool Master schrieb:
Natürlich kann ich mich auch täuschen, aber logisch betrachtet macht das Sinn und passiert ja auch schon so z.B. Support Mitarbeiter werden mit KI-Chat-Bots ersetzt etc.

Support Mitarbeiter sind auf Level 1 bessere Bandansagen. Klar kannst du die leicht durch ne KI ersetzen. Die tun ja ofr eh nur irgendwelche Skripte/Standardprozesse herunterbeten.

Mit L2 wird es aber schon schwieriger und bei L3 sehe ich aktuell nicht wirklich Potenzial für die KI.
 
  • Gefällt mir
Reaktionen: DeusExMachina, NHEADY55 und Toni_himbeere
Flunkiii schrieb:
Wo gerät die an ihr Limit?
Bei Indiana Jones habe ich keine 60fps erreicht. War in 2024 aber auch in ein paar anderen Spielen der Fall. Mit DLSS, DLAA, FG und was es alles gibt, geht's zum Teil. Die optische Umsetzung gefällt mir aber in vielen Spielen noch nicht (flimmern und Co.)

Ich meine auch eher den Zeitraum 2026-2028. Erst Recht wenn's bis dahin einen 45+" 4-5k Monitor gibt.

(In dem Zeitraum gibt's natürlich einen neuen CPU, wahrscheinlich den neuen Intel Ende 2026)
 
Alphanerd schrieb:
Keine große. Nur eine Situation wie 2008. Vlt um den Faktor 10 verstärkt. Nix Wildes.
Diese AI "Blase" wird wenn dann wohl eh nur die treffen die versuchen mit Geld noch mehr Geld zu verdienen. Mein Mitleid hält sich in Grenzen.
 
  • Gefällt mir
Reaktionen: RuhmWolf und NHEADY55
braindamage10k schrieb:
Diese AI "Blase" wird wenn dann wohl eh nur die treffen die versuchen mit Geld noch mehr Geld zu verdienen
Nein. Es wird wie immer alle treffen. Gewinne werden privatisiert, Verluste sozialisiert.

Die USA werden von jetzt auf gleich bemerken, dass sie schon länger in einer Rezession stecken. Das gesamte GDP Wachstum des letzten Jahres basiert alleine auf diesen Investitionen, die Realwirtschaft stockt, bzw ist rückläufig. Und dann erfolgt der übliche Schneeballeffekt.

Da hängen ja auch ganze Rentensysteme dran, nicht nur Zocker. Mein ETF zb zwangsläufig auch.
 
Alphanerd schrieb:
Nein. Es wird wie immer alle treffen. Gewinne werden privatisiert, Verluste sozialisiert.
Kommt auf die Sichtweise drauf an. Der der eh nichts hat wird davon recht wenig betroffen sein, und jene die sich über ihre ETFs Gedanken machen können, sollten im Vergleich zur anderen Gruppe ebenfalls keinen großteiligen negativen Effekt verspüren.

Börse und Aktien betreffen nur die die welche haben. Für alle anderen ist das vollkommen irrelevant.
Alphanerd schrieb:
Die USA werden von jetzt auf gleich bemerken, dass sie schon länger in einer Rezession stecken. Das gesamte GDP Wachstum des letzten Jahres basiert alleine auf diesen Investitionen, die Realwirtschaft stockt, bzw ist rückläufig. Und dann erfolgt der übliche Schneeballeffekt.
Für mich hat sich die USA durch die Widerwahl Trumps als vertrauenswürdiger Partner komplett disqualifiziert. Die Sache dürfte sich für Jahrzehnte erledigt haben.

Man kann die aktuelle Situation leider nur schwer von der politischen trennen. Die USA unter Trump ist viel zu unberechenbar als das man da auch nur irgendeine valide Prognose abgeben könnte.
 
braindamage10k schrieb:
Für mich hat sich die USA durch die Widerwahl Trumps als vertrauenswürdiger Partner komplett disqualifiziert. Die Sache dürfte sich für Jahrzehnte erledigt haben.

ok, dann schau doch mal in die ukroine und deren staatsführung...

oder einfach mal hier in d
 
supermanlovers schrieb:
Ich fürchte die 6090 kommt erst Anfang 2028. So lange möchte ich meine 4090 nicht verwenden. Dennoch für die geringe Mehrleistung keine 5090 zum UVP kaufen. Vielleicht baue ich irgendwann eine Wasserkühlung drauf und übertakte meine 4090 aufs Maximum um noch 2 Jahre zu überbrücken.
Ich habe eine kostenlose Alternative für Dich. Dreh einfach die Regler unter Grafik so weit nach links bis es wieder flüssig läuft und das wird bei der 4090 nicht zu weit links sein auch auf einige Jahre nicht 🤗
 
  • Gefällt mir
Reaktionen: NHEADY55
Ich bin erst davon überzeugt wenn die Dinger auch tatsächlich an China geliefert wurden. Es gilt immer noch die Beschränkung für staatliche Datacenter in China, dass keine ausländischen Chips eingesetzt werden dürfen. So lange Open AI nicht an der Börse notiert ist, kann der Hype noch weiterlaufen. Erst dann wird man sehen was die Firma tatsächlich wert ist und ob die versprochenen Aufträge an die KI Unternehmen auch bezahlt werden können. Aktuell gibt man ja mehr Geld in Aktien Optionen an die Mitarbeiter aus, als Umsatz erzielt.
 
Red_Bull schrieb:
ok, dann schau doch mal in die ukroine und deren staatsführung...

oder einfach mal hier in d
Beides stabile Demokratien die einen totalen Fail von einen Tag auf den anderen nicht ermöglichen.

Die USA is durch. Akzeptier das. Niemand vertraut mehr den USA. Weder ein Staat noch die Wirtschaft.
 
braindamage10k schrieb:
Beides stabile Demokratien

satire musst du kennzeichenen, sonst kann es zu missverständnissen kommen
 
  • Gefällt mir
Reaktionen: RuhmWolf
supermanlovers schrieb:
Bei Indiana Jones habe ich keine 60fps erreicht. War in 2024 aber auch in ein paar anderen Spielen der Fall. Mit DLSS, DLAA, FG und was es alles gibt, geht's zum Teil. Die optische Umsetzung gefällt mir aber in vielen Spielen noch nicht (flimmern und Co.)
Aber nutzt du denn sonst nie DLSS?
Also ich spiele meistens in 1440p mit FSR4 Balanced und das Bild ist makellos. Ich kann mir nicht vorstellen, wie das noch besser werden soll. Viel besser als nativ mit TAA. Wenn du in 4k spielst ist die Ausgangsauflösung selbst mit der Performance-Einstellung noch höher als bei mir. Und damit sollte es doch eigentlich überall 60fps geben. Manche Einstellungen ergeben auf Ultra auch keinen Sinn. Meistens Schatten.
Indiana Jones habe ich aber noch nicht gespielt.
 
Fake news von Reuters. Nvidia versucht alles!:jumpin:
 
Uzer1510 schrieb:
Für LLMs und Co gibt es nicht soviele sinnvolle Anwenduingen - für spezialisierte AI schon

Nur mal IT nahe Beispiele, gibt es in fast jedem Fachgebiet inzwischen

Eigentlich gibt es die in fast keinem Fachgebiet ausser in speziellen ausgesuchten Cases deren praktische Anwendbarkeit gegen 0 strebt. Und meistens nicht mal als Grundlage taugt da die Herleitung der Lösung oft nicht nachvollziehbar ist.
Man könnte fast meinen das die Zitierten Studien gezielt aus der Masse heraus gepickt werden um sicher zu gehen das sie das Narrativ unterstützen

Und es lassen sich sicher genug finden die das Gegenteil belegen


QUOTE="Uzer1510, post: 31204094, member: 923167"]
Mathe:
https://deepmind.google/blog/advanc...d-at-the-international-mathematical-olympiad/
[/QUOTE]

Die Aufgaben sehen recht formalisiert aus. Und relativ einfach wenn man die Grundlagen beherrscht. Immerhin sollen die Teilnehmer das un knapp 2 Std schaffen.

Sicher das da wissen generiert wurde und nicht "einfach" bestehende Lösungen recycelt wurden
Je formaler und spezifischer etwas ist desto eher liegt ein llm richtig weil die wahrscheinliche Nähe der Tokens Antworten diktiert.

Die Tests aus den deutschen Bundeswettbewerb für Mathematik schafft Gemini immer noch nicht

Der Frosch Fridolin auf dem Zahlenstrahl ist da sehr traurig.

QUOTE="Uzer1510, post: 31204094, member: 923167"]
Programmierung
https://deepmind.google/blog/gemini...-collegiate-programming-contest-world-finals/
[/QUOTE]

Du hast das aber schon gelesen?
Ersten wurde kein Programm generiert sondern nur innerhalb des Zeitlimits ein Lösungsvorschlag generiert (Programm war ja auch nicht gefordert)

Und zweitens hat die KI für seine Lösung einfach die Szenario Parameter geändert bzw eine neue Annahme hinzugefügt.
Was innerhalb der Wettbewerbsregeln nicht verboten war.
Auch hier ist der Zeitfaktor interessant
Und es ist wenig überraschend das wenn man einen Limitierenden Faktor hinzufügt eine Maschine die schneller parallel arbeiten kann den Menschen schlägt
Dafür haben "wir" sie ja erfunden um genau das zu tun

Uzer1510 schrieb:
AI steht am Anfang aber sie legt erst langsam richtig los.

AI vielleicht.
LLMs sind schon ziemlich am Ende
Aber Solange alle auf dieses eine One Trick Pony setzen und hoffen das sie dadurch eine Eierlegendewollmilchsau erhalten wird das nix mit den richtig los legen

Und AI ist nur ein willkommener Vorwand damit Manager ihren Machtfetisch ausleben können und sich ihren kick beim Leute feuer abholen können
 
SavageSkull schrieb:
Es hat aber keine sinnvolle Anwendung in allem, so wie derzeit propagiert.
Also ich finde es gibt eine Reihe sinnvoller Anwendungen. Ich sehe KI übrigens nicht dazu den Menschen zu ersetzen, sondern um diesen zu unterstützen.

Heute schon wird KI beim Hautkrebsscreening (FotoFinder) oder beim MRT verwendet. Eigentlich alles was mit bildgebenden Diagnostik zu tun hat kann davon profitieren.

Pfizer hatte damals mit Hilfe von KI den Covid Impfstoff entwickelt
Die rasche Entwicklungszeit wurde möglich, da wir unser langjähriges Know-how über die Herstellung von Molekülen mit künstlicher Intelligenz und maschinellen Lernverfahren kombiniert haben.
 
Nun die Aufgaben sind aber so dass an einer ALLE Finalisten Teams der teilnehmenmden Unis gescheitert sind - und es nehmen da ja immer sehr viele Unis weltweit teil

Naja aber das ist vermutlich eine der einfache Gemini LLM Varianten (free, Pro etc) die da getestet wurde.

Die grossen Varianten spielen doch auf hohem univeristären Level in Mathematik, das glaube ich nicht dass der dt Mathe Wettbewerb auf dem Niveau ist - vor allem weil Deutschland im Bereich MINT Bildung sogar hinter Polen bei PISA zurückgefallen ist.


Die Advanced Gemini Aufgaben waren die hier
https://storage.googleapis.com/deep...medium=referral&utm_campaign=gdm&utm_content=
 
Zuletzt bearbeitet:
Kassenwart schrieb:
Also ich finde es gibt eine Reihe sinnvoller Anwendungen. Ich sehe KI übrigens nicht dazu den Menschen zu ersetzen, sondern um diesen zu unterstützen.
Das war ja meine Aussage. KI wird nicht verschwinden, weil es sehr gute Anwendungsfälle dafür gibt. Aber der aktuelle Hype will KI überall verwenden. Nur passt es eben nicht überall. Frei aus der Luft genommen sage ich Mal ein Drittel wo heute KI gehypt wird zieht gar keinen Nutzen daraus. Wenn jetzt nach dem Schwung diese Anwendungsfälle KI wieder fallen lassen, könnte der Hype schon einbrechen.
Irgendjemand muss die Rechenzentren (und so Auswüchse wie neue Atomkraftwerke) zum Schluss auch bezahlen.
Wenn die Anwendung kaum Nutzen aus der KI zieht und damit auch keine Kunden bereit sind zu bezahlen wird das passieren.
Das ist keine Blase, wie sich viele da wünschen, aber der Hype wird dann schon gebremst werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kassenwart
Zurück
Oben