News GeForce RTX 5090 FE: Schmelzende Stecker in Folge fehlender Lastverteilung?

Quidproquo77 schrieb:
Und ich würde die Qualität der alten Connectoren und dem was man da täglich so sieht nicht die Hand ins Feuer legen. Die kommen schon schief und krumm aus der Produktion.
Das fand ich auch schon immer sketchy. Da ist generell Luft nach oben.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und ElliotAlderson
ElliotAlderson schrieb:
Doch! Es ist einfach nicht praktikabel 4-6 Stecker an eine Karte zu klemmen. Vom Kostenfaktor mal ganz abgesehen.
Man gut dass NVIDIA das im Blick hatte und die Karten somit zum Schnäppchenpreis auf den Markt bringen konnte.
 
  • Gefällt mir
Reaktionen: Das MatZe, Ja_Ge und jonderson
ElliotAlderson schrieb:
Ich sehe aber Nvidia nicht in erster Linie als schuldigen, sondern Corsair. Das fehlerhafte Produkt war ein Corsairkabel, dafür ist Nvidia nicht verantwortlich. Hätte Nvidia mehr tun können? Ja. Würde das verbrannte Stecker verhindern? Nein.
Sry, bei einer 2.4k€ Grafikkarte trägt auch der Hersteller der Grafikkarte eine Mitschuld, selbst wenn das Corsair-Kabel defekt wäre. Und natürlich würde das Risiko verbrannter Stecker deutlich verringert werden, da die Grafikkarte bei einem dermaßen starken Ungleichgewicht der Stromführung, wie bei Roman zu sehen, gar nicht erst starten würde. Mit entsprechender Anzeige würde der Nutzer dann auch gewarnt werden. Gibt und gab es alles schon bei billigeren Produkten. Bei einer dermaßen teuren Grafikkarte, wo man weiß, dass die Stromzuführung auf Kante genäht ist, zu sparen, ist für mich ein klarer Design-Fail.

Und selbst wenn hier einige meinen, dass es sich nur um Skandalvideos für Clicks handelt, so sind diese doch inhaltlich vollkommen berechtigt. Ich würde bei verstärkt auftretenden verschmorten 8-Pin Steckern genauso "draufklicken", wenn es sie denn gäbe. Ist ja nicht so, dass es nicht jede Menge Grafikkarten da draußen mit 8-Pin-Headern gibt.
 
  • Gefällt mir
Reaktionen: Das MatZe und jonderson
Wintermute schrieb:
Soll das jetzt ein Beweis sein, dass die Berichterstattung übertrieben ist?
Ja, die ist komplett übertrieben. Es wird quasi nur noch gewartet ob irgendwo eine Verbindung mal abraucht und das wird dann mit einem Mitleidserweckendem Gesicht in die Kamera gehalten, so als hätte man einen Alienbesuch vorausgesagt, der nun eintritt.
Wintermute schrieb:
Dem Rest stimme ich zu: halten wir uns an die Fakten und die sprechen physikalisch nicht für das Kabel, vor allem bei einer Belastung die sich den 600W nähert.
Physikalisch würde alles für 4-5 8 Pin Kabel sprechen. Viel Spaß beim Einbau.
Wintermute schrieb:
Das mit den durchgeschnittenen 8-Pin Kabeln wurde auch hier im Thread berechnet.
Womit ich ein Szenario schaffe, dass gar womöglich gar nicht existiert. Bisher gab es weltweit niemanden, der das 8auer Problem hatte. Das sollte ja nun wirklich eher beruhigen. Aber man ist weiter im Panikmodus, Häuser brennen ab usw.
 
  • Gefällt mir
Reaktionen: Wintermute und ElliotAlderson
ElliotAlderson schrieb:
Das tat sie aber nie, auch beim 8 Pin Stecker nicht (3090 TI mal ausgenommen).
Bei Karten mit (mehreren) 6-/8-Pin Steckern gab es durchaus Absicherungen, wenn vielleicht auch nicht bei allen Karten. Nämlich pro Stecker meist ein Shunt-Widerstand. Das ist auf den ersten Blick zwar nicht mehr als jetzt mit einem Shunt-Widerstand für den gesamten 12V-2x6 Stecker, macht bei den "abgesicherten" Stromstärken aber einen riesigen Unterschied.

Über den 12V-2x6 gehen bis zu 600W, was bei 12V eben gesamt 50A sind. Da der Shunt-Widerstand aber nur die Belastung des Steckers als ganzes misst und somit erst bei >50A anschlägt, kann es eben im Worst Case vorkommen, dass diese 50A über eine einzige Ader gehen. Denn es kann ja nicht festgestellt werden, wie sich die Last auf die 6 Adern verteilt.

Beim 8-Pin Stecker überwacht der Shunt-Widerstand zwar auch nur den Stecker als Ganzes, der überträgt aber auch keine 600W, sondern maximal 150W. Die Messung am Shunt schlägt also schon bei 12,5A Gesamtlast an und entsprechend kann im Worst Case eine Ader auch nur mit maximal 12,5A belastet werden.

Also auch wenn in beiden Fällen nur ein Shunt pro Stecker genutzt wird, ist man beim 8-Pin deutlich sicherer unterwegs als beim 12V-2x6.
 
  • Gefällt mir
Reaktionen: derLordselbst, Das MatZe, CadillacFan77 und 3 andere
ElliotAlderson schrieb:
Hat witzigerweise kaum jemanden interessiert.
Man muss es halt nur richtig verkaufen! Eine fundierte Berichterstattung über Missstände bei Netzteilen und Grafikkarten? Ganz ohne Sensationsfunde? Mit Hinweisen und der Bitte solche Kabel nicht zu verwenden? Wer liest sowas? Bis heute werden Netzteile mit Y-Kabeln ausgeliefert, die nun mal nachweislich Mist sind.

Das ist halt der Unterschied zwischen der Bild und Team Wallraff, Roman und einige andere Youtuber bedienen die Bildleser, Fakten gibt es von Aris oder von Igor wenn er sich nicht gerade auf "Abwegen" bewegt. Die "Bildleser" wollen nur schlagkräftige Schlagzeilen lesen, damit sie sich beim nächsten Kneipengespräch über etwas auslassen können und keine fundierten Informationen.

Man kann es auch simpel vergleichen... Sensationen verkaufen sich halt gut, Informationen weniger.
1739620170447.png

1739620151303.png

1739620216853.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
ElliotAlderson schrieb:
Nein, der große Rest behauptet es besser zu wissen als Nv, Corsair und co.
Große Unternehmen haben also noch nie Fehler gemacht? Was für eine Argumentation... Apples Butterfly Tastatur? Akku Rückruf Note 7? Degradierende 14900er? Oft verderben BWL- und Marketingköche den Ingenieuren den Brei, das ist doch kein großes Geheimnis. "Schuldige" können von außen ohnehin nicht gefunden werden, müßige Diskussion. Wir können nur das beurteilen, was vor uns liegt. Und das hat faktisch Probleme.

Dazu scheinen es andere besser zu wissen als Roman, Igor, Buildzoid, Steve, Jay und wen es noch so alles gibt, mit eingeschlossen einiger sehr qualifizierter Foristen hier, die ihre Qualifikationen offengelegt und sich die Mühe gemacht haben alles auch noch auszurechnen und detailliert darzulegen.

Quidproquo77 schrieb:
Ja, die ist komplett übertrieben. Es wird quasi nur noch gewartet ob irgendwo eine Verbindung mal abraucht und das wird dann mit einem Mitleidserweckendem Gesicht in die Kamera gehalten, so als hätte man einen Alienbesuch vorausgesagt, der nun eintritt.
Ja, passt. Die Art der Berichterstattung ist die eine Sache und ein anderes Thema, die physikalischen Gegebenheiten eine andere. Deine Meinung ist okay, du siehst es nicht als Problem, andere tun das. Wir sind hier eben in einer Grauzone gelandet und man wird sehen, wie sich die 5090er Situation entwickelt. Es gab bisher eben auch keine Karte, die derart ans Limit des Standards geht.

Die Alternative wäre übrigens ein besseres Kabel, da wurden auch einige Designs vorgeschlagen, anstatt 5 8-Pin Steckern. Ich bitte darum nicht immer derart schwarz weiß zu malen ... vor allem wenn du das bei anderen ankreidest (Häuser brennen etc. ...). "OMG 5 KABEL!!!!!" .... Nein, ein einzelnes, gescheites bitte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Das MatZe, jonderson und Quidproquo77
ElliotAlderson schrieb:
Nein! Die haben die jeweiligen Stecker überwacht, aber nicht die einzelnen Adern und darum ging es in dem Video.
Ein 8 Pin Stecker hat 3 12V Leitungen die 3 dazugehörigen Erdungen und ein Maximum von 150 Watt
Es ist nicht nötig die einzelnen Adern zu überwachen weil da nicht mehr als 12,5 Ampere drüber laufen.

Deswegen nimmt man ja einen 2. Stecker wenn man mehr Watt benötigt und damit gibt es das Problem nicht das 5 von 6 Leitungen ausfallen und eine Ader 50 Ampere stemmen muss weil das bedeuten würde das 1 von 2 Steckern komplett kaputt ist und dementsprechend die Überwachung schaltet.

Ob ein Stecker ein Maximum von 150 Watt bei 3 Adern, oder 600 Watt bei 6 Adern hat ist schon ein deutlicher Unterschied und dementsprechend macht es auch einen Unterschied ob man Stecker oder Adern überwachen muss.
Bei 600 Watt wären 4 8pin Stecker nötig, und wenn einer ausfällt geht nichts mehr, der Unterschied zu einen 12 pin Stecker sollte da schon langsam klar sein
Ergänzung ()

Quidproquo77 schrieb:
Physikalisch würde alles für 4-5 8 Pin Kabel sprechen. Viel Spaß beim Einbau.
wäre ja schon besser gewesen wenn sie 2 12pin verbaut hätten wenn für 4 8pin kein Platz ist
Wobei ja Platz das einzige Argument für den neuen Stecker ist, nur ist die Frage ob dann ein 2 Slot Design mit 1 Stecker wirklich sinnvoll ist weil Platz ja nicht unbedingt das Problem im PC ist
 
  • Gefällt mir
Reaktionen: Das MatZe, jonderson, qiller und eine weitere Person
ElliotAlderson schrieb:
Quelle? Alle Stecker oder nur bestimmte Typen?
"Eigene". Cable Mod und Chinaware bereits abgezogen. Das heißt nur Originaladapter bzw. native Kabel des Herstellers. Klar kann ich nicht sagen, was wo wie genau Kunden damit angestellt haben. Aber ich kann auch nicht alles auf den Anwender schieben. Entscheidend ist jetzt die Stichprobengröße.
Wie viele Fälle weltweit vs. wie viele Karten. Aktuell wissen wir von 3, wovon einer definitiv ein Anwenderfehler ist. Also bleiben 2, auf wie viele Karten weltweit? 5000 5090? Viel mehr sind es nicht.
Capthowdy schrieb:
Doch, gab es auch da schon und zwar genau 1x pro 8-Pin Connector.
Du musst dich bei den Zitaten geirrt haben. Es verlinkt zu meinem Beitrag, aber das schrieb ich nicht.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Was mich fast mehr erschreckt als das Thema der Stecker selbst ist das Verhalten einiger Youtuber, im Speziellen von Aris aka. HardwareBusters. Besonders sein Rant-Video von gestern. Unprofessioneller gehts ja wohl kaum. Das wirft für mich persönlich auch ein ganz schlechtes Licht auf Cybenetics.
 
Zuletzt bearbeitet:
Grestorn schrieb:
Es wird zu viel Gewicht auf den Stecker gelegt. Der ist einfach nicht das Problem.
Ne, meiner Meinung nach ist der Stecker das Problem. Klar, PC selbst zusammenbauen, ist nicht idiotensicher etc. Aber man lernt in den meisten Studienfächern, die was mit der Entwicklung von Gebrauchsgegenständen zu tun haben, dass man damit rechnen muss, dass wenn was schief gehen kann, wird es schief gehen. Man muss als Entwickler etwaige mögliche Fehlbedienungen mit einplanen und dagegen absichern. Kann ich eine mögliche Fehlbedienung nicht gänzlich verhindern, sollte ich es zumindest so absichern, dass nichts schlimmes dabei passiert.

Der Stecker ist einfach viel zu krass auf Kante genäht. Da sind im Falle der 5090 mit ihren fast 600W fast keine Sicherheiten mehr drin. Du kannst als Hersteller doch nicht davon ausgehen, dass jeder weiß, was jetzt ein gutes Kabel ist und was nicht, oder nach wie vielen Steckzyklen das Kabel getauscht gehört.
Romans Kabel hat ja anscheinend die ganze Zeit funktioniert, und dem anderen sein kurzes auch. Also warum sollten so Leute jetzt einfach davon ausgehen, dass ihr über die Jahre zuverlässiges Kabel auf einmal nicht mehr gut genug ist?

Jetzt einfach hingehen und zu sagen "ja war halt ein schrott Kabel, ist doch klar", ist finde ich zu einfach. Wer sagt denn ab wann ein Kabel ein schrott Kabel ist? Ich hab doch als Enduser überhaupt keine Anhaltspunkte, ob jetzt mein Kabel noch gut ist oder nicht.

Der Stecker ist einfach zu unterdimensioniert. Er ist insgesamt für 600W spezifiziert, da sind wir mit 575W schon so gut wie dran. Die einzelnen Kabel sind für 9,5A spezifiziert und da sind wir auch an der Grenze und wie andere Tester schon festgestellt haben, sogar teilweise drüber.
Ich würde ja nichts sagen, wenn der Stecker Uralt wäre und einfach nicht mehr Zeitgemäß, aber der ist doch fast noch nagelneu. Es muss sich doch zu der Zeit schon abgezeichnet haben, dass die Leistungsaufnahmen in den nächsten Jahren weiter steigen wird.

Und wenn man unbedingt diesen bescheuerten Stecker nehmen muss, dann macht halt wenn man so knapp an der Grenze ist zwei davon drauf. Hat man bei den alten 8 Pin ja auch gemacht. Dort wurden auch oft schon 2 oder mehr drauf gemacht obwohl man es mit einem grenzwertig auch machen hätte können.
Aber dann schreit wieder einer, dass ein weiteres Kabel sein geiles RGB Licht verdeckt...

Grestorn schrieb:
AMD wird hier - mal wieder - heilig hingestellt, dabei machen sie es keinen Millimeter besser.
Wo kramst du jetzt auf einmal AMD aus? Ich hab jetzt nicht jeden Kommentar zu 100% gelesen, aber AMD hat doch keiner erwähnt? Verfolgungswahn?

Quidproquo77 schrieb:
Das ist erst einmal die Auslegung des Standards. Es ist auch kein Problem wenn dort 11 oder 12A drüberlaufen,
Puuuhhh schwierig... Spezifikationen sind nicht unbedingt da um die zu überschreiten. Klar wird nicht gleich was in Flammen aufgehen, wenn man da bissi drüber ist, dafür gibts ja den Sicherheitsfaktor. Aber toll ist es nicht und würde ich auch nicht unbedingt anstreben. Deshalb find ich es auch nicht besonders toll, dass es doch einige gibt wie CB, bei denen das schon überschritten wird. Sonst wird doch auch immer ein Fass aufgemacht, wenn ne Karte etc. über den PCI Slot mehr zieht als sie darf usw.

Oder bei Temperaturen sind alle immer so unfassbar kritisch, obwohl AMD, Intel oder Nvidia sagen die Chips sind bis zu 90° spezifiziert, wird da immer ein Drama gemacht, wenn z.b. eine CPU bei 80° ist. Aber Stromkabel über Spezifikation laufen lassen? Easy :D
ElliotAlderson schrieb:
Ich gebs auf. Das Internet ist voll von abgebrannten 8 Pin Steckern. Weitaus mehr als 12 VHPWR. Wenn man das natürlich ignoriert, macht es keinen Sinn weiter zu diskutieren.
Den Stecker gibt es auch schon etliche Jahre. Und klar kann da auch eine Überlastung auftreten, aber halt einfach deutlich schwieriger. Und viele der Bilder werden Kurzschlüsse sein, was wieder was anderes ist wie eine einfache Überlastung.
Mein Hauptproblem ist einfach der Stecker. Wenn man schon einen neuen Standard verabschiedet, sollte der doch in allen Belangen besser sein als der alte. Aber das einzige was der besser macht, ist weniger Teile und Optik, was natürlich heutzutage das wichtigste ist. Man ist von mehreren Steckern mit größeren Pins auf einen einzigen Stecker mit kleineren Pins gegangen. Das ist soo bescheuert.



Da hab ich aber auch mal eine allgemeine Frage: Warum überwachen das eigentlich die Netzteile nicht? Wäre es nicht das einfachste, die Regelung am Netzteil zu machen? Das NT ballert ja die Leistung raus und da muss es doch relativ einfach sein, die einzelnen Pins zu überwachen und ggf. zu regeln, oder im Notfall halt komplett abzuschalten.
 
  • Gefällt mir
Reaktionen: Das MatZe, jonderson, Laphonso und 3 andere
Solche Karten richten sich eindeutig an Enthusiasten. Was wollen solche Leute? Immer das Neueste und Beste. Auch wenn nur die Mehrleistung im einstelligen Bereich liegt. Heißt also, dass sich diese Leute alle 2-3 Jahre eine neue Karte holen. Preise sind da schon fast egal.

Und da kommen wir nun zum Netzteil samt 12V Stecker. Es mag vielleicht sein, dass aktuelle 4090/5090 Besitzer weitestgehend (noch) nichts merken und die Karte fehlerfrei läuft. Aber in den kommenden Jahren kann es auch dort zu diesem Problem kommen. Die 5090 raus und die 5090TI/Super (?) oder 6090 rein, gleiches 12V Kabel dran und fertig. An ein neues Netzteil und/oder 12V Stecker dürfte wohl niemand denken.

Wer garantiert dann, dass das Kabel immer noch in einem ordnungsgemäßen Zustand ist? Insbesondere, wenn dieses im Zeitraum X nahe oder über dem Grenzwert lief? Niemand. Kabel-Empfehlungen würde ich selbst nicht aussprechen wollen. Über mögliche Fertigungsmängel brauchen wir gar nicht erst anfangen.

Nochmal: wir reden hier von einer GPU, die etwa 600 Watt zieht (Lastspitzen nicht eingerechnet). Sowas gab es bisher im Consumer Bereich nicht.

Diese Kabel-Diskussionen würde es nicht zuhauf geben, wenn die Platinen ausreichenden Schutz bieten würden. Und wenn es nur eine Warn-LED ist, besser als nichts! Wir reden hier von keiner 400-500 € Karte, sondern 2000 € aufwärts mit einer enormen Verlustleistung. Nach oben sind dabei kaum Grenzen gesetzt (OC).

https://www.pcgameshardware.de/Gefo...als/Schmelzende-12VHPWR-12V-2x6-1465859/3/#a4

Nun heißt es Abwarten und zuschauen.
 
  • Gefällt mir
Reaktionen: Das MatZe, jonderson, qiller und 3 andere
xexex schrieb:
Aber hier liegt eben der Unterschied zwischen Berichterstattung mit hohem Informationsgehalt und schlichtweg nur Klicksammlerei. Auf Romas Videos haben jetzt bestimmt tausende Leute geklickt, den hervorragenden Artikel bei Igor, kennt zumindest hier aus dem Thread scheinbar kaum einer.
Igor hat auch einen wirklich sachlichen und faktenbasierten Artikel zur aktuellen Thematik rausgehauen.
Ohne Schaum vor dem Mund. Ohne Theatralik.
 
FrankN84 schrieb:
Diese Kabel-Diskussionen würde es nicht zuhauf geben, wenn die Platinen ausreichenden Schutz bieten würden. Und wenn es nur eine Warn-LED ist, besser als nichts!
Warn-LED wurden vor mehr als einen Jahrzehnt eingeführt und sind nichts neues.
1739620501904.png


Richtig ist, auf der FE hat man der Optik Vorrang gegeben und ist an mehreren Stellen technisch Kompromisse eingegangen. Da muss man dann aber differenzieren, denn es ist kein 12V-2x6 Problem, sondern wie die Lösung auf der FE implementiert wurde.
 
  • Gefällt mir
Reaktionen: FrankN84, Quidproquo77 und inge70
ElliotAlderson schrieb:
Quelle? Alle Stecker oder nur bestimmte Typen?
Geh doch einfach mal logisch an diese Sache heran:
8-Pin Stecker = maximal 150 W über eine 18 AWG Leitung = 12,5 A
16-Pin Stecker = maximal 600 W über eine 18 AWG Leitung = 50 A

Wie kommst du auf die Idee dass der 8-Pin Stecker häufiger abbrennen könnte, als der 16-Pin Stecker? Weil du ein paar mehr Bilder bei Google findest? Überlege mal wie lange es diesen Stecker schon gibt und wie viele Karten im Vergleich den 16-Pin Stecker haben. Allein die obige Berechnung sagt schon welcher Strecker eher ein Problem verursachen wird, auch wenn du das scheinbar nicht wahrhaben willst.

ElliotAlderson schrieb:
Man brauchte einen neuen Standard, um viel Strom über eine kleinere Fläche bereitstellen zu können.
Entbindet das von der Pflicht, so etwas auch für alle sicher zu implementieren? Wo ist das Problem wenn man, statt wie vorher die einzelnen Stecker zu überwachen, nun eben die Adern einzeln überwacht? Ich sehe da kein Problem, trotzdem wird es auf kosten der Sicherheit nicht gemacht!

ElliotAlderson schrieb:
Vom Kostenfaktor mal ganz abgesehen.
Dein Ernst? Wir reden hier über Beträge im einstelligen Euro-Bereich, bei Karten die jede Generation teurer und teurer werden, während nVidias Gewinne steigen und steigen...

Quidproquo77 schrieb:
Das sollte ja nun wirklich eher beruhigen. Aber man ist weiter im Panikmodus, Häuser brennen ab usw.
Was soll einen daran bitte beruhigen? Was ist dein Argument für die fehlende Überwachung der einzelnen Adern und die damit erst mögliche Sicherheitsabschaltung der Karte?

Ich sehe keinen rationalen Grund, warum man das Risiko eines Brandes eingehen sollte, und sei es noch so klein, außer dass ich mir auf Kosten der Sicherheit anderer noch etwas mehr die Taschen füllen kann!

Die Karten bieten heute weniger Sicherheit als vorher, sind aber erheblich teurer. Warum? Warum kannst du es nicht lassen, genau diesen Umstand ständig kleinreden zu wollen? Bekommst du Geld von nVidia?

Würde jemandem wie dir, der einen riesen Konzern in Schutz nimmt und solche völlig unnötigen Unzulänglichkeiten relativiert, wegen sowas der Rechner oder die Bude abfackeln, wäre das Geheule sicher groß.
 
  • Gefällt mir
Reaktionen: Das MatZe, jonderson, Drullo321 und eine weitere Person
Quidproquo77 schrieb:
Igor hat auch einen wirklich sachlichen und faktenbasierten Artikel zur aktuellen Thematik rausgehauen.
Ohne Schaum vor dem Mund. Ohne Theatralik.
Wayne? Aris ebenfalls! Die Meute interessiert sowas aber nicht, sie stürzen sich lieber auf die Showmacher! Was weiß schon Aris, im Vergleich zu Roman oder gar Steve? ;)
Cybenetics' CEO, Chief Testing Engineer, Hardware Busters owner and editor in chief, Telecommunications Engineer, PhD Computers Science, Executive MBA business administration and Management, General, Bachelor Cultural Technology & Communication

Wären Menschen an Fakten interessiert, würde in den USA sicherlich nicht die Tomatenfresse an der Macht sein und viele andere Dinge würden ebenfalls völlig anders laufen. Menschen sind aber nicht an Fakten interessiert, sondern rein an der Show. Ein Blick in unsere Politik zeigt ein ähnliches Bild, aber da werde ich nicht weiter drauf eingehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und inge70
Grestorn schrieb:
Wenn man die Leistung über 6 parallele Pins überträgt, hat man immer potentiell Probleme, wenn die Widerstände nicht exakt identisch sind. Man muss einen großen Aufwand treiben, das auszugleichen und zu überwachen. Aber selbstverständlich existiert die Technik, sie ist nur höchst unnötig, da es eben auch viel einfacher geht.

Von welcher Technologie, die noch fehlt, sprichst Du bitte?
Nein, man muss keinen großen Aufwand Betreiben, wir reden hier von Bauteilen im niedrigen einstelligen Euro oder eher im Cent-Bereich. Diese Schaltungen wurden schon auf, nach heutigen Maßstäben, Billig-Karten vor 10-15 Jahren verbaut.

Deswegen mein sarkastischer Kommentar auf die schon längst vorhandene Technologie die Nvidia aus "Gründen" nicht verbauen will.
 
  • Gefällt mir
Reaktionen: jonderson, qiller und Capthowdy
Wintermute schrieb:
Nein. Der einzige hier, der nach Absolutismen sucht, bist du. Der große Rest sucht nach einer sinnvollen, gangbaren Lösung, die das Risiko minimiert.
Also da kann ich nicht zustimmen. Die gangbarste und einfachste Lösung wäre einfach sich ein ordentliches Kabel zu holen und das sauber einzustecken. Damit sind 99% der Probleme gelöst, Fakt!
Und nachdem man das getan hat, kann man dann sachlich darüber reden ob Nvidia vielleicht wieder drei shunt Widerstände für 3 Leitungspaare verbaut, oder ob sie so weitermachen wie bisher.

Man hat mehrere Ebenen und man gräbt sich zur untersten Ebene vor, weil man ein Exempel statuieren will und möchte dass die Firma damit komplett baden geht. Man muss sich nur die Kommentare anschauen.
Nichts weiter als Häme und undifferenzierter Unsinn. Abgesehen von ein paar vernünftigen Kommentaren.
Youtube ist durch solche Videos von der8auer und den teilweisen Falschinformationen völlig steil gegangen.
Wintermute schrieb:
Das fand ich auch schon immer sketchy. Da ist generell Luft nach oben.
Bei der Gelegenheit könnte dort auch jemand mal die einzelnen Adern durchmessen.
qiller schrieb:
Sry, bei einer 2.4k€ Grafikkarte trägt auch der Hersteller der Grafikkarte eine Mitschuld, selbst wenn das Corsair-Kabel defekt wäre. Und natürlich würde das Risiko verbrannter Stecker deutlich verringert werden, da die Grafikkarte bei einem dermaßen starken Ungleichgewicht der Stromführung, wie bei Roman zu sehen, gar nicht erst starten würde.
Die würde schon starten, aber die theoretisch maximal mögliche Last eben dritteln, womit maximal 16,67 Ampere auf einem Pin ankommen. Das kann immer noch durchbrennen, ist aber wesentlich unwahrscheinlicher. Allerdings und der Punkt geht irgendwie völlig unter: Bisher gibt es keinen klaren Nachweis dafür. Die Analyse das Kabels was der8auer verwendet hat, steht nach wie vor aus.

Es sind und bleiben bis zum Beweis Spekulationen, die als Fakten umgedeutet werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
Quidproquo77 schrieb:
Man braucht das im Endeffekt gar nicht
Ist das so? Im Autobereich gibt es Rückrufaktionen wegen Teilen, deren Ausfallwahrscheinlichkeit geringer ist, die erheblich mehr kosten und die trotzdem ausgetauscht werden. Komisch, oder?

Quidproquo77 schrieb:
Nichts weiter als Häme und undifferenzierter Unsinn.
Davon sehe ich hier nichts, nur deine völlig unnötigen Realtivierungen, als stündest du auf nVidias Gehaltsliste. Keine Ahnung was du glaubst hier für einen Auftrag zu haben, aber es hat langsam was von Fremdschämen. Dass du Igor hier so oft ins Spiel bringst, ist auch erheiternd. Wie gesagt ist er einer der größten Kritiker an diesem Stecker.
 
  • Gefällt mir
Reaktionen: derLordselbst, jonderson, retrozerky und eine weitere Person
Zurück
Oben