News ROP-Defekt bei Gaming-Blackwell: Neben RTX 5090 & 5070 Ti ist auch die RTX 5080 betroffen

Simonte schrieb:
AAAABER AMD ist viel schlimmer. Guckt mal hier!
ElliotAlderson schrieb:
..dass für mich Nvidia nicht besser/schlechter ist als AMD...
Der deutschen Sprache bist du schon mächtig?
Die nehmen sich beide nichts, aber das kann man als AMD Fanboy in einem Hetzthread gegen Nvidia natürlich nicht stehen lassen :D
 
ElliotAlderson schrieb:
Der deutschen Sprache bist du schon mächtig?
Jetzt wurde brav Falsch zitiert.
Die Posts gehören nicht zusammen :schaf: 😋
Vom Thema ja aber nicht wie du es darstellst :)
 
Quidproquo77 schrieb:
Wir haben das mal intern getestet. Man muss die Pins schon malträtieren oder teilweise beschichten um ein solches Szenario auszulösen. Also ohne Gewalteinwirkung keine Chance.

Nein, das ist nicht nötig! Hier kann man sehen was einmal den Stecker neu stecken für Unterschiede machen kann. Deswegen kaufen die Leute nun Stromzangen oder Infrarot Thermometer um zu prüfen ob sie Glück hatten beim einstecken.

Dein Fingerzeig Richtung "User ist zu doof" kannst du dir also sparen, ich glaube die Tester wissen schon halbwegs wie man den Stecker einstecken sollte.

Such uns mal die Berichte zu den schmelzenden Steckern bei der 3090Ti raus... (die hatte noch eine Lastverteilung).
 
  • Gefällt mir
Reaktionen: Sennox
iron_monkey schrieb:
Nein, das ist nicht nötig! Hier kann man sehen was einmal den Stecker neu stecken für Unterschiede machen kann.
0,5 A über der Spezifikation. Das sind nun keine Messungen die das irgendwie bestätigen würden.
iron_monkey schrieb:
Deswegen kaufen die Leute nun Stromzangen oder Infrarot Thermometer um zu prüfen ob sie Glück hatten beim einstecken.
Dafür braucht man keine Stromzange, dafür braucht man lediglich seine Hand um zu schauen ob da was warm wird. Wir haben nie über 10A im Höchstfall gemessen, bei 100en 5090. Ob es daran bei den bisherigen Fällen lag, ist reine Spekulation. Mehr nicht. Defektes Kabel Ende der Geschichte.
iron_monkey schrieb:
Dein Fingerzeig Richtung "User ist zu doof" kannst du dir also sparen, ich glaube die Tester wissen schon halbwegs wie man den Stecker einstecken sollte.
Wer nimmt bitte eine Verlängerung oder ein Modify Kabel der letzten Generation für eine 3000 Euro Karte? So ganz aus der Rechnung ist der Anwender nun einmal nicht.
iron_monkey schrieb:
Such uns mal die Berichte zu den schmelzenden Steckern bei der 3090Ti raus... (die hatte noch eine Lastverteilung).
Such mir mal die Fälle auf der 4090 mit nativen Netzteilkabeln raus ( Kein ASUS) ohne Adapter. Die sind quasi null. Du hast überhaupt keine Belege für das was du behauptest.
 
Zuletzt bearbeitet:
Artikel-Update: Nvidia hat bestätigt, dass auch die GeForce RTX 5080 von dem Fehler betroffen ist. Es soll sich um eine früh produzierte Charge entsprechender GPUs handeln. Eine Angabe zum Anteil an den bisher ausgelieferten Grafikkarten dieser Klasse macht Nvidia dieses Mal nicht.

Ben Berraondo schrieb:
Upon further investigation, we’ve identified that an early production build of GeForce RTX 5080 GPUs were also affected by the same issue. Affected consumers can contact the board manufacturer for a replacement.
 
  • Gefällt mir
Reaktionen: bullit1, DJMadMax, Patrick030 und 8 andere
Simsalartist schrieb:
Schade, dass AMD den High-End-Markt nicht bedienen will. Andernfalls könnten sie NVIDIA in dieser Generation verdientermaßen richtig weh tun. Wenigstens im gehobenen Mittelklassesegment könnte es aber klappen und der ist ja in der Masse wichtiger als High-End.
Wenn der Preis wirklich gut ist, kann die RX 9070 XT ein Erfolg werden.

Aber ich verstehe, dass AMD sich gar nicht am high end versucht, da es vergebene Liebesmüh ist.
Wer das Geld für "high end" ausgibt, der möchte auch ein möglichst perfektes Ergebnis und das kann AMD nicht liefern...auch wenn die Rohleistung stimmt.

Wenn ich mir angucke, wie viel besser DLSS4 upscaling aussieht gegenüber dem CNN Model, dann beneide ich AMD nicht, damit verglichen zu werden.

Selbst wenn sie mit viel weniger Entwicklungszeit/Geld an das CNN Model herankommen, was Nvidia über Jahre optimiert hat, ist da noch ein enormer Abstand zu Nvidias Transformer Model.

Und bei Nvidia wird es einfach sein, das Transformer Model in diverse ältere Spiele zu übertragen indem die DLL ausgetauscht wird. Bei AMD geht das erst ab FSR 3.1, was nur wenig Verbreitung hat und so bleiben viele Spiele auf AMD Karten mir schlechtem Upscaling...egal ob das neue FSR gut wird oder nicht.

Dann ist da die Optimierung seitens der Spieleentwickler...Nvidia ist die Nr.1 auf die optimiert wurde und es gibt natürlich viele Spiele, wo AMD GPUs trotzdem gut laufen, aber eben auch eine Reihe Spiele, wo sie ihre Rohleistung nicht "auf den Bildschirm bringen".

Ich kenne das aus eigener Erfahrung mit AMD GPUs und es stört mich so sehr, dass ich eigentlich wieder zu Nvidia wechseln wollte.

Gerne unterstütze ich den Underdog und strafe das grauenhafte Verhalten von Nvidia mit meiner Kaufentscheidung ab, aber es muss sich irgendwie rechtfertigen lassen.

Als ich mir eine Vega64 und später eine Radeon VII gekauft habe, gab es noch kein RT und kein DLSS/FSR. Da habe ich gerne die überteuerte Radeon VII gekauft und mich mit etwas weniger Leistung in einigen Spielen abgefunden.

Jetzt sind neue Spiele(vor allem Unreal Engiene) zwangsweise unscharf oder unruhig im Bild.
Das ärgert mich enorm und DLSS ist die einzige Alternative, die ein relativ scharfes Bild ermöglicht...und das ist jetzt nochmal verbessert mit dem Transformer Model.

Im niedrigpreis Segment mag AMD ganz ok sein, solange genug Rohleistung da ist.
Wenn der Käufer eh nur einen 1080p Monitor hat und dann FSR native AA nutzen kann, kann er/sie auch AMD kaufen.

Aber bei 1440p/4K will ich dann auch ein scharfes Bild.

Und ja...ich weiß, dass hier Fans von TAA existieren, die das schöner finden..schön für euch, da werdet ihr mit AMD glücklich....das bin halt nicht ich und wenn ich mir die Testberiche zur Grafikqualität angucke, sich die fast ausschließlich auf meiner Seite.

Also Fazit:
Ich denke nicht, dass AMD die High end Kunden ansprechen kann, da diese dann auch einen höheren Anspruch an die Bildqualität habe und AMD das nicht liefern kann(Eventuell ja doch, wenn KI-FSR super wird und alle Spiele updates bekommen).
Zumindest ist das Erlebnis stark vom Spiel abhängig und es gibt viele faule Eier.

Nvidia nutzt das natürlich aus und betreibt absolute Gewinnmaximierung, ohne Rücksicht auf ihren Ruf. Das ist abstoßend, aber sie können es sich leisten.
AMD kann weiter langsam sterben, oder sich mit agressiven Preisen in der Mittelklasse wieder ein Standbein aufbauen...High end sehe ich für viele Jahre nicht als Option.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Jan schrieb:
Es soll sich um eine früh produzierte Charge entsprechender GPUs handeln.
Wie schafft es so eine Charge in den Handel? Und warum fällt das niemandem auf? Ich checks nicht.
 
  • Gefällt mir
Reaktionen: bullit1, cma_i, iron_monkey und 8 andere
Quidproquo77 schrieb:
Wer nimmt bitte eine Verlängerung oder ein Modify Kabel der letzten Generation für eine 3000 Euro Karte? So ganz aus der Rechnung ist der Anwender nun einmal nicht.
Haette ich ne 5090, wuerde ich definitiv das Kabel nehmen, mit dem ich die 4090 betreibe.
Ist ein Kabel direkt von bequiet, das ich nachtraeglich zum Netzteil nachgekauft hatte.
Ob das mit der 5090 einwandfrei funktioniert? Who knows!

Aber macht ja nix, wenn nvidia meint so mit Kunden umgehen zu koennen, koennen sie mich mal!
 
  • Gefällt mir
Reaktionen: iron_monkey, Zarlak, the_IT_Guy und 3 andere
Ich bin ja doch etwas verwundert, dass die Karten "selbst" merken, dass da ein ROP defekt ist und diesen einfach deaktivieren. Ist denn 100%ig sicher, dass diese nicht im Werk bereits deaktiviert [oder gar via laser cut getrennt] wurden (also wissentlich)?

Ich hätte ja ansonsten eigentlich erwartet, dass alle ROPs da sind aber die Karte entsprechend durch den fehlerhaften ROP Fehler/Probleme verursachen.
 
  • Gefällt mir
Reaktionen: Zarlak
Wie geil muss das Leben gerade für Tech-Youtuber sein. Die können quasi jeden Tag ein neues Video über Nvidias 50er Debakel veröffentlichen :evillol:
 
  • Gefällt mir
Reaktionen: bullit1, Wowka_24, Patrick030 und eine weitere Person
Quidproquo77 schrieb:
Wer nimmt bitte eine Verlängerung oder ein Modify Kabel der letzten Generation für eine 3000 Euro Karte? So ganz aus der Rechnung ist der Anwender nun einmal nicht.
Unabhängig wie es im konkreten Fall des Abrauchens aussieht ist diese Aussage halt Murks, weil man sich genau dafür auf Standards einigt und davon ausgehen darf, dass diese zwischen Generationen, Herstellern und unterschiedlichen Geräten greifen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1, Wowka_24, iron_monkey und 12 andere
Ich hab das Grafikkartenthema schon lange nicht mehr verfolgt, aber kann es sein, dass die ürsprünglichen 70er/80er/90er mit diesen geringeren ROPs auf dem Markt geplant waren in einer frühren Phase um dann mit dem gleichen Chip noch mehr Puffer für eine spätere Ausbaustufe zu haben?
Ggf würde dann der Plan verworfen weil sie sich nicht weit genug abgesetzt haben von den alten 4000er Modellen am Markt?
 
  • Gefällt mir
Reaktionen: bullit1, Wowka_24 und KingL
Ich finde GN hat da völlig recht. Nividia und ihre Partner haben hier wissentlich beschnittene Hardware im Umlauf gebracht. Das grenzt meiner Meinung nach schon fast an Betrug.
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: Teropet, Wowka_24, Patrick030 und 7 andere
LuciusFerrum schrieb:
Aber auf Schadenfreude AMD in die Höhe zu heben ist nunmal auch nicht das Gelbe vom Ei. Zum erstenmal ist nämlich z.B. AMD geizig beim Vram.

Auch noch einmal für Leute wie dich: Der Chip kann nur 16GiB VRAM. Die nächste Stufe wären 32GiB. Dazwischen gibbet keine Ausbaustufe - es sei denn, du bekommst GDDR6 in 3GB-Bausteinen.

LuciusFerrum schrieb:
Eine 9070 mit etwas mehr RT Leistung (immer noch hinter Nvidia zurück), die womöglich aber nicht ganz an die 7900XTX ran kommt zum fast identischen Preis, so wie es derzeit aussieht, anzubieten ist auch nicht zu bejubeln wenn man bedenkt dass sie dann auch noch weniger Vram besitzt.

Hmm... also nur 'etwas mehr RT-Leistung' Und die Preise kennst du auch schon?
Könnte ich mit bitte einmal deine Glaskugel leihen?

LuciusFerrum schrieb:
Und was ich so von Kollegen höre die eine besitzen hat sich das nicht sonderlich bei den leistungsstärkeren Karten von AMD geändert.

Allem Anschein nach sind wir keine Kollegen. Meine 6900XT (eine XTX Merc) war (und ist bei meinem Bruder noch) gut undervoltbar und schön leise.
 
  • Gefällt mir
Reaktionen: eXe777, Sennox und Baal Netbeck
"Upon further investigation, we’ve identified that an early production build of GeForce RTX 5080 GPUs were also affected by the same issue. Affected consumers can contact the board manufacturer for a replacement."

Also der gleich Fehler?
Dann also keine falschen SM Deaktivierungen, sondern doch ein Produktionsfehler?
Oder ist der Chip der 5080 doch kein perfekter Vollausbau, sondern wird ebenfalls beschnitten?

Naja sonderlich klar ist die Aussage nicht und eventuell werden wir nie erfahren, was passiert ist.

Eventuell ist die Aussage auch einfach zurecht gebogen, um sich nicht gegenüber Klagen angreifbar zu machen.

Wenn die Karten mit fehlenden ROPs die Werke verlassen haben, dann wussten die Hersteller und Nvidia zu 99% davon und haben es in Kauf genommen.
Gamers nexus war da sehr deutlich, dass die Software zur Qualitätskontrolle, auch die Spezifikationen wie ROPs prüft.

Wenn sie die ROPs noch hatten, als sie die Qualitätskontrolle durchlaufen hatten, haben wir ein viel größeres Problem, als ein gieriges Unternehmen...dann gehen da ROPs im laufenden Betrieb kaputt....was extrem unwahrscheinlich ist, aber aus meiner Sicht in Betracht gezogen werden sollte.

Ich würde auch erwarten, dass "kaputtgehende" ROPs zu Abstürzen und nicht zur Deaktivierung führen würden, aber irgendwo müssen ja Verbindungen nachträglich mit einem Laser zerstört werden können um die üblichen Deaktivierungen durchführen zu können.
Eventuell arbeitete der Laser hier nicht immer perfekt und es ist zu Fällen gekommen, wo die danebenliegende Verbindung mit beschädigt wurde...oder nur so halb und im Betrieb(Heat cycle) ist das dann erst unterbrochen worden?
Reine Spekulation....bitte nicht zu ernst nehmen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Patrick030, Zwirbelkatz, boypac007 und 3 andere
1776 schrieb:
Haette ich ne 5090, wuerde ich definitiv das Kabel nehmen, mit dem ich die 4090 betreibe.
Also einen ordentlichen CM 90 oder 180 Grad Adapter? 😉
1776 schrieb:
Ist ein Kabel direkt von bequiet, das ich nachtraeglich zum Netzteil nachgekauft hatte.
Ob das mit der 5090 einwandfrei funktioniert?
Ist ja ein Natives Originalkabel. Wo soll da das Problem liegen? Solange man damit nicht 100 Steckzyklen draufhat, sollte da nichts fehlen.
1776 schrieb:
Aber macht ja nix, wenn nvidia meint so mit Kunden umgehen zu koennen, koennen sie mich mal!
Ja ganz schlimm.;)
 
DonDonat schrieb:
...weil Nvidia nicht 1-3 Cent mehr für ein Board ausgeben wollte was "Fail Safe" ist...

Ich gehe nicht einmal davon aus, daß diese '1-3 Cent' der Grund waren (die Erbsenzähler im Controlling nehmen die natürlich trotzdem gern mit).

NVidia hat sich zu einer Zwei-Slot-Multi-Platinen-Variante verstiegen.
Und für irgendwelche Lastüberwachungen, oder gar -Regelungen war da schlicht kein Platz mehr auf der Platine - also läßt man, der heiligen Oprik zuliebe, eben die entsprechenden Bauteile weg, anstelle auf 2,25 Slots zu gehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey, Zarlak und Baal Netbeck
Zurück
Oben