News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

Quidproquo77 schrieb:
Bei der 3090 gab es die nicht
Doch, gab es auch da schon und zwar genau 1x pro 8-Pin Connector.

ElliotAlderson schrieb:
Nein! Die haben die jeweiligen Stecker überwacht, aber nicht die einzelnen Adern
Generell geht es darum, dass ein 8-Pin Connector nur maximal 150W liefern kann. Selbst wenn du bei jedem der 8-Pin Stecker zwei der drei 12V-Leitungen durchschneidest, laufen höchstens 150 W über die verbliebene 12V-Leitung. Das ist zwar unschön, aber mit maximal 12,5A noch sehr weit weg von den 50A, die jetzt theoretisch möglich wären.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jonderson, catch 22 und qiller
@Capthowdy Das ist aber nicht das, wovon Roman sprach. Die 5090 hat auch einen pro Connector.
Buildzoid und Roman kritisieren aber, dass Nvidia nicht die einzelnen Adern überwacht. Das macht keine Karte außer vielleicht die 3090 TI.
Viele hier haben nicht mal das Video von Roman verstanden, aber wollen den anderen erzählen wie der Hase läuft.
 
Gnodab schrieb:
Nvidia hätte ein vernünftiges Kabel designen können.
NVidia HAT das Kabel und den Stecker nicht designed.

Dieser Fokus auf die Firma ist schon krass. Ehrlich.

Es ist schade, dass man nicht Nägel mit richtigen Köpfen gemacht hat. Und da ist NVidia sicher auch mitschuld. Genau wie alle anderen in dem Konsortium. Wer da genau welchen Input hatte, weiß man von außen nicht. Auch die Netzteilhersteller sind da mit an Board.

Man muss sich schon fragen, warum die alle einen solchen elektrischen Murks fabrizieren. Ich kann nicht verstehen, dass man nicht auf ein einzelnes Leitungspaar umgeschwenkt ist. Der neue Standard wäre die Chance gewesen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
ElliotAlderson schrieb:
@Capthowdy Das ist aber nicht das, wovon Roman sprach. Die 5090 hat auch einen pro Connector.
Buildzoid und Roman kritisieren aber, dass Nvidia nicht die einzelnen Adern überwacht.
Stimmt so nicht ganz. Buildzoid sagt in seinem Video ganz klar, dass das alte Design mit den 8-Pin Connectoren einen mehr als ausreichenden Sicherheits-Overhead hat. Nirgendwo kritisiert er, das man dort alle Adern einzeln hätte überwachen sollen. Wozu auch? Bei der 3090 Ti das gleiche: es werden nicht alle Adern einzeln überwacht, sondern 3x2 Adern. Das ist insgesamt gesehen schon mal schlechter als vorher, aber besser als nichts.

Was ist jetzt dein Argument? Da vorher etwas nicht gemacht wurde, weil es aufgrund des anderen Designs schlicht nicht nötig war, braucht man es jetzt auch nicht machen? Die neuen Karten haben nur noch einen Stecker. Was bleibt deiner Meinung nach übrig, außer die Adern einzeln zu überwachen, wenn man ein mit dem 8-Pin Stecker vergleichbares Sicherheitsniveau erreichen will? Man könnte einfach vier 16-Pin Stecker verbauen und dann diese Überwachen. Würde auch reichen, ist aber wohl kaum das, was man mit dem neuen Stecker erreichen wollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Das MatZe, qiller, FrankN84 und 3 andere
ElliotAlderson schrieb:
Soweit die Theorie, aber in der Praxis müssten alle Kabel auffällig sein, sind sie aber nicht. Wie oft noch?
Nein. Wie oft noch?
Deswegen gibt es Sicherheitspuffer. Alles ist eine Tendenz, eine Skala, kein Schwarz und Weiß oder An und Aus. Bei allen Rückrufen der Welt waren nicht ALLE Teile auffällig. Aber alle hatten eine zu große Wahrscheinlichkeit auszufallen. Daher ändert man etwas, so wie nVidia nochmal am 12Vhpwr Hand angelegt hat. Das ist eine Tatsache, auf die du ja großen Wert legst.

ElliotAlderson schrieb:
Kein einziges Thema hat in der Vergangenheit so viel Aufmerksamkeit bekommen wie der 12 VHPWR

Und wo ist deine Statistik dazu? Soll das jetzt ein Beweis sein, dass die Berichterstattung übertrieben ist? Andersrum wird aber kein Schuh draus, also wenns darum geht, dass an den Defekten dran sein könnte? Du merkst es selbst, dass das zweierlei Maß sind, oder?

Es geht auch überhaupt nicht darum, wer "schuld" ist. Ich persönlich möchte hier weder nVidia den schwarzen Peter zuschieben oder verteidigen. Die haben sogar damals einen 10-Pin Molex vorgeschlagen anstatt dem 12VHpwr.

Dem Rest stimme ich zu: halten wir uns an die Fakten und die sprechen physikalisch nicht für das Kabel, vor allem bei einer Belastung die sich den 600W nähert. Wir haben heute andere Gegebenheiten als früher einfach (z.B. 575W vs 450W TDP). Das mit den durchgeschnittenen 8-Pin Kabeln wurde auch hier im Thread berechnet. Die Karte wäre weitergelaufen und die Spezifikationen wären überschritten worden, allerdings wäre nichts passiert weil eben genug Sicherheitspuffer da war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Das MatZe, qiller und Capthowdy
ElliotAlderson schrieb:
Ich gebs auf. Das Internet ist voll von abgebrannten 8 Pin Steckern. Weitaus mehr als 12 VHPWR.
Wir haben etwa !4x! so viele Ausfälle mit 12VHPWR und 12V2x6 als mit klassischen 8Pin Steckern, offensichtliche Anwenderfehler und Umbauten auf andere Adapter bereits abgezogen. Also bleiben die Kabel und als letzter Verursacher im Glied, der auf Kante genähte Standard. Es geht nur um die 4090, 4080 ist normal.
Also da ist definitiv ein "Problem" über die üblichen Maßen vorhanden. Das ist weit entfernt von wirklich relevant, weil die absoluten Zahlen lächerlich sind, aber so ist es nun einmal. Das sollte nicht geleugnet werden.

Wird alles protokolliert und in einer Datenbank erfasst.

ElliotAlderson schrieb:
Es geht wohl auch darum, dass der alte Standard so gelobt wird und das dort angeblich nicht passieren würde. Wenn ich beim 8 Pin aber das gleiche machen kann, wo ist dann da der Schutz? Ja der hat vielleicht mehr Spielraum, aber das wars dann auch.
Der Schutz ist nicht beim Stecker selbst, sondern an der Verschaltung vor dem Stecker, auf dem PCB.
Klar, ob ich diesen unbedingt brauche ist wieder eine andere Debatte. Meiner Meinung nach nicht, aber das entscheiden schlicht die Ausfallzahlen, die ich zur neuen Generation nicht kenne.

Von ca 2500 PCs mit 5080 keine Probleme.
Von ca 250 PCs mit 5090 keine Probleme. Bisher. Wenn mehr wie 1% wegen dem Fehler retourniert wird, dann braucht man das ganz offensichtlich.

Was ich persönlich nicht nachvollziehen kann ist das Gehabe von wegen Nvidia hat hier einen riesen Bock geschossen. Das hat man schon so oft die letzten Jahre gehört und am Ende war es meistens Clickbait.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, Grestorn, Capthowdy und eine weitere Person
Capthowdy schrieb:
Stimmt so nicht ganz. Buildzoid sagt in seinem Video ganz klar, dass das alte Design mit den 8-Pin Connectoren einen mehr als ausreichenden Sicherheits-Overhead hat.
mag sein, dass war aber nicht dein initialer Kritikpunkt/deine Aussage. Du springst jetzt nur zum nächsten Punkt, nachdem dir klargemacht wurde, dass es nicht stimmt.
 
  • Gefällt mir
Reaktionen: Grestorn
ElliotAlderson schrieb:
Du springst jetzt nur zum nächsten Punkt, nachdem dir klargemacht wurde, dass es nicht stimmt.
Wo hast du mir klargemacht das meine Aussage nicht stimmt? Ich glaube du verrennst dich gerade gewaltig.
 
  • Gefällt mir
Reaktionen: Wintermute
ElliotAlderson schrieb:
Du springst jetzt nur zum nächsten Punkt, nachdem dir klargemacht wurde, dass es nicht stimmt.
Hier wurde nicht der Torpfosten verschoben, was du mit deiner Aussage unterstellst. Es geht darum, dass irgendwie abgesichert wird. Entweder durch eine aktive Kontrolle, eine sinnvolle aktive oder passive Lastverteilung oder eben genug Sicherheitsmargin, damit im besten Fall auch bei Anwenderfehlern nichts oder wenig passieren kann. Das sind Consumer-Produkte die von jedem verbaut werden dürfen. Da wurden schon weitaus absurdere Sachen abgesichert ("Bitte Hund nicht in Mikrowelle packen" Sticker).
 
  • Gefällt mir
Reaktionen: CadillacFan77, jonderson, qiller und 2 andere
Helge01 schrieb:
Ist ja auch logisch, wie viele Jahre gibt es den 8 Pin Stecker? Wie wurde die Steckverbindungen von Laien bisher behandelt? Wurden da auch immer auf korrekten Sitz und Biegeradius geachtet? Waren die Kabel immer Fabrikneu und wurde da auch auf die Steckzyklen geachtet?
Es hat schlichtweg keinen interessiert, weil es solche Fälle schon so lange gibt wie die PCs. Fehler passieren, Sachen gehen kaputt, dabei können auch Kabel drauf gehen oder Stecker in Mitleidenschaft gezogen werden. Nur "damals" machte man keinen Aufriss deshalb, weil Roman und Co. noch anderweitig ihre Brötchen verdient haben oder noch gar nicht auf der Welt waren.

Ich kann jedem nur die schöne alte "dau-alarm" Seite empfehlen, die ist zwar seit über 20 Jahren nicht mehr gepflegt, zeigt aber gut wie alt solche "PC Probleme" sind.
1739618296499.png

http://dau-alarm.de/gallery.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hyourinmaru
Quidproquo77 schrieb:
Wir haben etwa !4x! so viele Ausfälle mit 12VHPWR und 12V2x6 als mit klassischen 8Pin Steckern
Quelle? Alle Stecker oder nur bestimmte Typen?
Ergänzung ()

Wintermute schrieb:
Hier wurde nicht der Torpfosten verschoben, was du mit deiner Aussage unterstellst. Es geht darum, dass irgendwie abgesichert wird. Entweder durch eine aktive Kontrolle, eine sinnvolle aktive oder passive Lastverteilung oder eben genug Sicherheitsmargin, damit im besten Fall auch bei Anwenderfehlern nichts oder wenig passieren kann. Das sind Consumer-Produkte die von jedem verbaut werden dürfen. Da wurden schon weitaus absurdere Sachen abgesichert ("Bitte Hund nicht in Mikrowelle packen" Sticker).
Diese Sicherheit gab es vorher auch nicht und wenn es sie nun gäbe, würde sie keine geschmolzenen Stecker verhindern, sondern im besten Fall die Anzahl der Fälle minimieren. Ihr tut hier so als wäre das die Lösung und das Problem würde danach nicht mehr auftreten.
 
metoer schrieb:
Wie kommst du darauf? Wenn es den Youtubern nur um Klicks geht würden sie sich auch auf Ausfälle von 8-Pin Steckern stürzen, das macht für sie doch keinen Unterschied, es gibt keine Lobby hinter den 8-Pin Steckern die Meldungen dazu unterdrücken will.
Es ist kein Markt dafür da und kein Opferlamm was man (aus)schlachten könnte. Wen will man nach 30 Jahren beschuldigen? PCI-SIG? Die hat 3x8-Pin niemals abgesegnet, maximal sind 2x8-Pin und 300W erlaubt! Man würde sich nur zugestehen müssen, man gräbt ein totes Thema aus, über das 30 Jahre lang nicht berichtet wurde und für das es längst einen besseren Nachfolger gibt.

Es ist aber nicht richtig, dass über die Probleme nicht berichtet wurde. Unter anderem hat Igor umfassend und ausführlich über den 8-Pin Mist einen Artikel verfasst.
1739618621077.png

1739618639641.png

1739618807355.png


https://www.igorslab.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung/6/

Aber hier liegt eben der Unterschied zwischen Berichterstattung mit hohem Informationsgehalt und schlichtweg nur Klicksammlerei. Auf Romas Videos haben jetzt bestimmt tausende Leute geklickt, den hervorragenden Artikel bei Igor, kennt zumindest hier aus dem Thread scheinbar kaum einer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, Grestorn und ElliotAlderson
  • Gefällt mir
Reaktionen: xexex
Grestorn schrieb:
NVidia HAT das Kabel und den Stecker nicht designed.

Dieser Fokus auf die Firma ist schon krass. Ehrlich.

Es ist schade, dass man nicht Nägel mit richtigen Köpfen gemacht hat. Und da ist NVidia sicher auch mitschuld. Genau wie alle anderen in dem Konsortium. Wer da genau welchen Input hatte, weiß man von außen nicht. Auch die Netzteilhersteller sind da mit an Board.

Man muss sich schon fragen, warum die alle einen solchen elektrischen Murks fabrizieren. Ich kann nicht verstehen, dass man nicht auf ein einzelnes Leitungspaar umgeschwenkt ist. Der neue Standard wäre die Chance gewesen.

Absolut niemand hat Nvidia dazu gezwungen diese Kabel, die an der Grenze Arbeiten und darüber hinaus, zu benutzen.
Niemand hat Nvidia dazu gezwungen eine GPU zu Bauen die 600 - 900 Watt verbraucht.
Nvidia ist wie gesagt ein 3 Billion Dollar unternehmen. Sie wollen 2300 € für diese Karten.
Da soll kein Geld für Tests und Qualitätssicherung übrig sein?
Keiner kann mir ernsthaft erzählen das sie nicht in der Lage waren etwas vernünftiges zu nutzen oder herzustellen.

Deswegen.
JA. Nvidia IST das Problem. Sie wollen das schließlich so.

---------------------------------------------------------------------------------------------------------------
Deswegen an alle die diesen Mist verteidigen.

Lasst es sein. Da gibt es absolut nicht zu verteidigen.
 
  • Gefällt mir
Reaktionen: up.whatever, Das MatZe, jonderson und eine weitere Person
ElliotAlderson schrieb:
Nein! Die haben die jeweiligen Stecker überwacht, aber nicht die einzelnen Adern und darum ging es in dem Video.
Du kannst bei der 980 TI zwei Adern eines beliebigen 8 Pin Steckers durchschneiden und sie läuft trotzdem. Fehlt der ganze Stecker, dann allerdings nicht, aber das ist beim 12 VHPWR ebenfalls so. Ist halt nur ein Stecker, aber müsstest du zwei verwenden, würde die Karte mit einem auch nicht starten. Das ist was völlig anderes als das, was Roman fordert.
3080 und 3090 Founders Edition hatten auch schon den 12VHPWR Stecker und trotzdem zwei Rails die überwacht wurden. Auch bei der 4090 hatte man noch drei Shunts nach dem Stecker die dann aber auf ein Rail zusammengefasst werden. Das heißt Load-Balancing ist im Gegensatz zur 3090ti nicht möglich.

Mit der 5000er FE Serie hat man es nochmal auf die Spitze getrieben und gleich im Stecker alles auf ein Rail zusammengefasst und nur mehr einen Shunt verbaut, somit kann man nichteinmal mehr messen ob etwas schief läuft bei der Lastverteilung. Genau das kritisiert Roman, entweder hat der Stecker genug Reserven, das heißt zwei 12V-2x6 Buchsen bei der 5090 verbauen, oder man muss jeden Pin überwachen, aber auf beides zu verzichten ist einfach lächerlich schlecht.
 
  • Gefällt mir
Reaktionen: Gnodab, Headbangerle, Das MatZe und 3 andere
metoer schrieb:
Ja du hast recht, das ist scheiße, wenn es nur eine Möglichkeit gäbe die 12V die über die 6 Pins kommen aufzuteilen, aber leider ist die Technologie noch nicht so weit.
(Doch eben auf Grund eines Quotes das Posting gesehen)

Diesen Satz verstehe ich überhaupt nicht. Wieso 12V aufteilen? Von was sprichst Du?

Wenn man die gesamte Leistung über einen Strang überträgt, muss man nichts aufteilen.

Wenn man die Leistung über 6 parallele Pins überträgt, hat man immer potentiell Probleme, wenn die Widerstände nicht exakt identisch sind. Man muss einen großen Aufwand treiben, das auszugleichen und zu überwachen. Aber selbstverständlich existiert die Technik, sie ist nur höchst unnötig, da es eben auch viel einfacher geht.

Von welcher Technologie, die noch fehlt, sprichst Du bitte?
 
Capthowdy schrieb:
Stimmt so nicht ganz. Buildzoid sagt in seinem Video ganz klar, dass das alte Design mit den 8-Pin Connectoren einen mehr als ausreichenden Sicherheits-Overhead hat.
Man kann viel sagen wenn der Tag lang ist. Getestet hat das am Ende auch kaum einer. Es gibt genügend HD 6990 und 295X2 denen das durchgeschmort ist. Und ich würde die Qualität der alten Connectoren und dem was man da täglich so sieht nicht die Hand ins Feuer legen. Die kommen schon schief und krumm aus der Produktion. Die neuen Micro Fit sind definitiv weit hochwertiger.
Capthowdy schrieb:
Was ist jetzt dein Argument? Da vorher etwas nicht gemacht wurde, weil es aufgrund des anderen Designs schlicht nicht nötig war, braucht man es jetzt auch nicht machen?
Man braucht das im Endeffekt gar nicht. Genauso wie ich keine Stützräder brauche wenn ich Fahrrad fahre oder keine Schwimmflügel wenn ich ins Wasser gehe.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
ElliotAlderson schrieb:
Ihr tut hier so als wäre das die Lösung und das Problem würde danach nicht mehr auftreten.
Nein. Der einzige hier, der nach Absolutismen sucht, bist du. Der große Rest sucht nach einer sinnvollen, gangbaren Lösung, die das Risiko minimiert.
 
  • Gefällt mir
Reaktionen: Das MatZe, Ja_Ge, jonderson und 2 andere
Gnodab schrieb:
Absolut niemand hat Nvidia dazu gezwungen diese Kabel, die an der Grenze Arbeiten und darüber hinaus, zu benutzen.
Doch! Es ist einfach nicht praktikabel 4-6 Stecker an eine Karte zu klemmen. Vom Kostenfaktor mal ganz abgesehen. Die Galax 4090 HOF hat zwei 12 VHPWR Anschlüsse. Wie viele Stecker willst du da dranklemmen? 8?!

Man brauchte einen neuen Standard, um viel Strom über eine kleinere Fläche bereitstellen zu können.

Die Leute haben bei der 3090 schon rumgeheult, weil die so groß war, dass sie in fast kein Gehäuse passt.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Grestorn
Gnodab schrieb:
Absolut niemand hat Nvidia dazu gezwungen diese Kabel, die an der Grenze Arbeiten und darüber hinaus, zu benutzen.
Nein, NVidia wollte einen neuen Stecker. Der alte (6+2) ist nicht zertifiziert und unpraktisch. Also ja: NVidia hat die Sache angeschoben.

In wie weit sie für das Ergebnis die Verantwortung tragen, können wir von außen nicht sehen.

Im Prinzip könnte man auch sagen, dass es unverantwortlich von AMD & Co. ist einen Stecker und Anschluss zu verwenden, der nie zertifiziert und geprüft wurde. Auch wenn er technisch sicher mehr Sicherheitsspielraum hat, aber letztlich doch die selben Probleme mit sich bringt.
 
Zurück
Oben