Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRTX 5070 Ti Super: Komplettiert diese 24-GB-Grafikkarte das Super-Dreigestirn?
Ist da die 8% günstigere, aber auch 8% schwächere 9070 XT mit schlechterem Featureset also die bessere Alternative und nicht „KRANK“ teuer bei identischen P/L-Verhältnis?
Du mit Deinen alten/falschen Behauptungen/Zahlen.
Die 9070XT liegt im Schnitt (20 versch. Games in 4 Auflösungen) mit einer 5070Ti gleich auf (RR),
(so wie die 9060XT mit 16 GB vs. 5060Ti mit 16 GB / siehe GPU Index 2025 im Anhang)
ist über 100€/15% günstiger (690 € vs. 800 €) und hat sowohl bei RR wie auch bei RT das bessere PL Verhältnis.
(siehe Anhänge) Jetzt musst halt nur noch draufklicken, lesen und sacken lassen ...
Die 5070 Super könnte ein Lichtblick sein.
Trotz dem Schrottstecker, ja und trotz einer Überarbeitung.
Pfusch bleibt Pfusch.
Zu enge und fragile PINs
Bitte nicht zu eng Knicken (gilt normal nur für'n Gartenschlauch)
Null Kontrolle welche Ströme über einzelne Litzen fließen
Mono Rail Netzteile liefern eben ... was sonst
Genug über das Thema. Gleich schlechtes Konzept überarbeitet.
Shit in = Shit out
Nvidia zum Kunden: ihr seid schuld! Bald kommen teure Netzteile auf den Markt für die Schisser!
Irgend ein Hersteller wird unseren Mumpitz, den wir zusammen mit der PCI-SIG veranstaltet haben, schon ausbaden.
Aber sei es drum. Nvidia wird es auch mit den Preisen versauen und sich maßlos huldigen lassen.
Ich irre mich gerne!
Man kann nur hoffen das die Super Karten diese spannungsüberwachung wie die Astral haben, das risiko auf nen brennenden PC will ich nicht eingehen. Lieber wäre mir aber derklassische 6+2, der soll ja sogar weit mehr als 200W abkönnen pro stecker, während der 12 2x6 wohl mit den 600w am limit läuft, aber das wird wohl bei nvidia wunschdenken bleiben. Ich hatte vor einigen monaten auch schon das vergnügen mit dem lausigen stecker. War bombenfest drin und trotzdem wurde über die iGPU gebootet. Nach einigen raus und rein gib es dann komischerweise, weckt so auf jeden fall das vertrauen in den Stecker.
Ne 5080mit 24GB wäre wohl das was die meisten wohl von der regulären 5080 mit 16GB abgehalten haben. Entweder warten die halt noch aber haben sich inzwischen mit einer 5090 eingedeckt. Generell ist das komplette Linup unterhalb der 5090 sehr fragwürdig, die 5090m welche nur ne leicht abgespeckte 5080Desktop ist hat ja 24GB.
Und die „roten Jünger“ sind happy mit weniger Leistung? Kommt von dir eigentlich auch mal irgendwas das nicht auf abenteuerliche Art und Weise die mittlerweile unter 10% Marktanteile von AMD verteidigt?
Wer keine seltsame Brille trägt wird erkennen, dass sich 5070 Ti und 9070 XT beim P/L-Verhältnis nicht unterscheiden, die eine ist 8% günstiger, die andere 8% leistungsstärker. Entscheidend ist in dem Fall also das bessere Featureset oder eine harte Preisgrenze.
Keine Aluhüte, aber ganz einfache Cluckbaiter.
Das Steckerproblem wird halt künstlich aufgeblasen, weil sich Nvidia Bashing gut klickt.
Das Steckerproblem gibt es unter 400W Karten garnicht und nur bei den 5090ern vor. Und selbst da gibt es nur eine handvoll Fälle, von denen sich die meisten am Ende auf einen Anwenderfehler zurück führen ließen.
War bei der 4090 schon genauso.
Rein statistisch ist das Problem unbedeutend. Die RMA Quoten der Karten waren auch nicht wirklich schlechter als die der Vorgänger mit PCI-E Steckern.
Oh, how the tides have turned. Auf einmal sind genau die Hardwarejournalisten, die wahrscheinlich am wenigsten Clickbait betreiben - wie Igor, Aris und Roman - Clickbaiter. Wenn ich clickbaiten würde, dann wäre das folgende Video sicher kein über einstündiger und mit einer Fülle von Fakten und Erklärungen unterfütterter Bericht wie hier.
Da fragt man sich schon, auf wessen Seite die Paranoia eigentlich wirklich steht...
Fallout667 schrieb:
Und selbst da gibt es nur eine handvoll Fälle, von denen sich die meisten am Ende auf einen Anwenderfehler zurück führen ließen.
Ich finde es in Ordnung, wenn Probleme statistisch nicht besonders auffällig sind. Allerdings bleibt als Fakt, dass der Sicherheitspuffer der Kabel enorm zurückgegangen ist mit 12VHPWR und dass Hardwaretester reproduzierbar überlastete Einzeladern messen können und die Specs zum 12V-2x6 geändert wurden, MSI verbaut gelbe Stecker, es werden Anleitungen gebracht, wo man biegen darf und soll... Alles, weil es ja gaaar kein Problem gibt und die Anwender nach dem Steckerwechsel von 8-pin PCIe zu 12VHPWR plötzlich zu doof sind.
Es sind also die bösen "Clickbaiter", die unzählige Artikel und Videos mit technischen Erklärungen und Recherchen bringen, nicht etwa ein Multimilliarden-Dollar-Konzern, die seinen Aktienwert vervielfachen will.
Aber das liegt doch dann an den Leuten, die ihn nicht richtig reinstecken, statt an dem Stecker an sich. Dafür brauche es doch keine Farbe, sondern lediglich etwas Gefühl in den Fingern, es klickt doch sogar deutlich hörbar beim einrasten.
Die meisten Anschlüsse sind doch knapp neben dem CPU Kühler, wo eh kaum noch Platz ist. Da muss man schon Glück haben, um überhaupt in einem solchen Winkel schauen zu können, dass man da etwas Farbe sehen könnte...
Die meisten User waren auch schon vorher zu doof. Sind halt DAUs, war schon immer so. Von daher wundert mich das kein Stück.
Und klar, das sind Clickbaiter, auch wenn sie sich versuchen nen seriösen Anstrich zu verpassen. Natürlich geht es da ausschließlich um Clicks. Ist jetzt aber auch nichts neues.
Klar sind das technisch extrem versierte Youtuber, aber halt Youtuber die damit Geld verdienen mit teils eigenen Firmen. Roman verkauft ja seine Wireguards oder wie die Teile heißen. Die verdienen da schon ordentlich an der Empörung.
Natürlich ist der Stecker nicht das Gelbe vom Ei, aber der Shitstorm wie immer komplett übertrieben.
Ist halt die Social Media Seuche. Selbes Problem bei den angeblichen Migrationsproblemen, alles aufgeblasen wie doof, alles für den Profit. Typische Panikmache.
Und klar, das sind Clickbaiter, auch wenn sie sich versuchen nen seriösen Anstrich zu verpassen. Natürlich geht es da ausschließlich um Clicks. Ist jetzt aber auch nichts neues.
Und genau diese Behauptung deinerseits ist eine ziemliche Frechheit. "Seriöser Anstrich". Als seien Roman/TG, Aris/Cybenetics und Igorslab nicht seriös.
Man kann sich über Vieles unterhalten, aber diese Ad Hominem Geschichte samt inhaltlich unbegründeten Generalvorwürfen bin ich sowas von leid. Immer wieder kommt irgendein Schlauberger und bricht seinen Stab über Harwarejournalisten, weil die ja ansonsten seine gefestigten Ansichten ins Wanken bringen würden. Paranoid sind aber immer die anderen.
Schau dir deren Inhalte an und schreibe gerne auf, wo sie falsch liegen - aber diesen Kasperkram tu ich mir nicht weiter an.
Jemand, der sich hier so präsentiert wie du, sollte ein paar Dinge über "Aufblasen" wissen. Ich weiß ein paar Dinge über Rhetorik und Fehlschlüsse.
Zusätzlich zu deinem Ad Hominem Argument ignorierst du nämlich auch eine goldene Regel: Ein Argument sollte auf eigenen Füßen stehen können. Dein Rant gegen Hardwarejournalisten hat bei der Frage, wie gut oder schlecht der Stecker denn jetzt ist, die Aussage einer eines juckenden Ausschlags auf den Wetterbericht. Deshalb bist du auf die von mir geposteten Inhalte natürlich auch null eingegangen. Man müsste ja Argumente bringen.
Und um das auch noch einmal klarzustellen: Das sind keine "YouTuber", sondern Leute mit enormer Expertise und eigener Firma, die nebenbei YouTube-Videos machen. Wer Dr. Aristeidis Bitziopoulos oder Igor Wallossek als "YouTuber" bezeichnet, sucht wirklich händeringend nach Scheinargumenten.
Nach dieser Vorlage will ich dann doch mehr Bitterkeit dazu meinen
ein Schritt, den sich Gamer schon lange von Nvidia wünschen.
Aber wirklich Nvidia. Nachdem wir viel Geld gelassen haben, als Zeichen der Demut, wir uns auch beim Kauf ins Gesicht spucken lassen, würden wir noch zusätzlich einen Arschtritt hinnehmen für mehr Speicher.
Viele Grüße, natürlich in devoter Unterwerfung.
Komisch finde ich nur die TDP von 350W, denn eine 5080 hat ein paar wenige Prozent mehr Leistung als eine 4080S, mit 320W Verbrauch - hier fehlen aber nochmal knapp 1500 Shader Einheiten zur 5080 und sie verbraucht mehr/hat eine ähnliche Rohleistung wie eine 4080S?
Du mit Deinen alten/falschen Behauptungen/Zahlen.
Die 9070XT liegt im Schnitt (20 versch. Games in 4 Auflösungen) mit einer 5070Ti gleich auf (RR),
(so wie die 9060XT mit 16 GB vs. 5060Ti mit 16 GB / siehe GPU Index 2025 im Anhang)
ist über 100€/15% günstiger (690 € vs. 800 €) und hat sowohl bei RR wie auch bei RT das bessere PL Verhältnis.
(siehe Anhänge) Jetzt musst halt nur noch draufklicken, lesen und sacken lassen ...
Warum nicht simple das Leistungsrating von CB genommen?
Die Radeon RX 9070 XT ist wiederum 21 Prozent schneller als die GeForce RTX 5070, was aber nicht für die GeForce RTX 5070 Ti reicht. Sie ist zwar in Reichweite, bleibt im Parcours der Redaktion aber 8 Prozent schneller. Die GeForce RTX 4070 Ti Super schlägt die Radeon hingegen um 4 Prozent.
Wobei du mit dem Preis ja wenigstens Mal vernünftige Argumente bringst - das hat sich wohl in den letzten 2-3 Tagen gebessert, immerhin nun 15% günstiger bei 8% weniger Leistung. Seit Launch war das P/L-Verhältnis von beiden ansonsten identisch.
Ob das somit knapp 7% bessere P/L-Verhältnis hilft wieder über die 10% Marktanteile zu kommen? Hoffen wir es.
Die sehr schlechte Verbreitung von FSR 4 gegenüber DLSS 4 ist das nächste Thema - wo wir wieder beim Featureset sind …
RaptorTP schrieb:
Nvidia zum Kunden: ihr seid schuld! Bald kommen teure Netzteile auf den Markt für die Schisser!
Noch nicht einmal die Änderungen verstanden aber sinnfreies Bashing ohne Grundlagen vom Feinsten - alles weiterhin wie gehabt bei dir
Hast du übrigens Quellen zu den abgelehnten RMA Fällen von den RTX 5070 Käufern mit defektem Stecker? Ach stimmt:
Man das muss dich aufgeregt haben - gleich nochmal einen Beitrag
„Huldigungen“? Nicht jeder ist unfähig neutral zu urteilen - dementsprechend hatte ich vor der 4090 eine 6900 XT, im Server steckt ein Epyc - kein Xeon usw.
Wie es um dich steht wissen ja vermutlich alle hier
SweetOhm schrieb:
Deine falschen Annahmen/Angaben werden NICHT "richtiger", je öfter Du sie wiederholst !!
Das hab ich mich auch immer gefragt was die Leute dann da machen wenns bei der GPU schon zu schwer scheint.
Ja, ich auch. Muss jeder selbst wissen wie er sich einschränken möchte. Einfach mal sich selbst die Frage stellen was man machen würde wenn alle Karten diesen Stecker nutzen würden und nur z.B. Intel den 8 Pin hätte...eben . Manche Meinung ist genauso flexibel ,starr und fehlerbehaftet wie manches Kabel 😅.
Es gibt KEIN Problem mit Kabel bzw. Stecker.
Dass sich dieser Hoax immer noch in den Köpfen vieler User hält, zeigt welchen Schaden einzelne Influencer und Social Media heutzutage anrichten können. 🤮
Ändert aber nicht daran dass es ein Problem gibt. Kritik gehört hier ganz klar an Nvidia gerichtet, die kein Load Management auf der Karte verbaut haben, was bei Fehler am Stecker zu eben genau dem Fehlerbild führt.
Ich hatte lange eine 3090FE, da war es richtig gelöst und genau so sollte das auch in Zukunft auf jeder Karte mit 12V-2X6 anzutreffen sein.
Ergänzung ()
djducky schrieb:
Ich würde mich da mal etwas zurückhalten, denn Aris und Roman würde ich nicht unbedingt als Aluhüte bezeichnen...
Es gibt in dem Bereich den du ansprichst keine Ausfälle. Die gibt es auch kaum mehr bei der 5090, 95% der Ursachen wurden längst behoben. Dass der Standard mit 575 Watt dennoch nicht gerade das gelbe vom Ei ist ist mir auch klar.
q3fuba schrieb:
Da kann man ja gleich "offene Flammen" an Fertigvorhänge stellen und dann auf Urlaub fahren, ist auch nicht weniger fahrlässig!
Es gab noch keinen Brandfall weltweit.
Nur weil einige die Thematik primär zum Geldverdienen gerne zuspitzen, heißt das noch lange nicht, dass deren mit Flammen unterlegte Thumbnails und subliminale Panikmache irgendeine größere Bedeutung hat. Nicht mal auf Reddit oder Kanälen wie Northridgefix ist noch was los. Die Thematik ist totgeritten.
RaptorTP schrieb:
Die 5070 Super könnte ein Lichtblick sein.
Trotz dem Schrottstecker, ja und trotz einer Überarbeitung.
Aber das liegt doch dann an den Leuten, die ihn nicht richtig reinstecken, statt an dem Stecker an sich. Dafür brauche es doch keine Farbe, sondern lediglich etwas Gefühl in den Fingern, es klickt doch sogar deutlich hörbar beim einrasten.
War schon hilfreich. Beim ersten Einstecken hab ich zB gar kein Einrasten gehört. Wie auch wenn der Stecker da reingepresst werden muss. Joar, dann schluppt die Nase super sanft drüber ohne "Klick"
Von daher Fehlanzeige. Stecker hätte einfach die gleiche Pingröße & Abstand bekommen müssen.
Als absolutes Minimum. Das wäre die richtige Überarbeitung gewesen.
Das war der Käs aber schon gegessen und man versucht den Schrott zu retten.
Eigentlich hätte es eine riesen Rückrufaktion geben müssen und Weg mit dem Schmutz.
Aber nunja, saßen ja zuvor Experten zusammen.
Ist wieder nur Augenwischerei gescheite Refresh wären in meinen Augen
5060ti-S 12GB 32Gbit selbe UVP wie 5060ti-8GB
5070S- 18GB 32Gbit selbe UVP wie 5070
5080ti -24GB 32Gbit 384Bit UVP $1099 leistung wie 4090
5080&5070ti -$100 UVP
die 24GB für den GB203 bringen nichts dafür sind die Karten zu schwach
Wie kann Nvidia einen Marktanteil von 92% erzielen, wenn deren Preise "es versauen"? Immer wieder amüsant wie verzweifelt und verbittert einige zu sein scheinen und dann in diesem Fahrwasser immer wieder mit den gleichen Falschinformationen und Mythen ankommen.
RaptorTP schrieb:
Null Kontrolle welche Ströme über einzelne Litzen fließen
Schaut man auf Meta Daten, dann bewegen sich die Testergebnisse zwischen Raster + ~ 3-5% und + 20% mit RT. Nimmt das bessere Featureset und mehr Hardwaresupport der GeForce mit ist Preis Leistung identisch, wenn nicht gar besser bei Nvidia, zumindest diese beiden Karten betreffend.
Der Preisunterschied liegt aktuell bei ca 100 Euro und ist auch absolut notwendig.