News RTX 5070 Ti Super: Komplettiert diese 24-GB-Grafikkarte das Super-Dreigestirn?

Loopman schrieb:
vor dem Release der 5090 in das Gremium eingebracht
Die Steckerprobleme waren ja auch schon vor der 5090 bekannt. Mit der 5090 hat es sich aber zugespitzt, weil die am schnellsten tatsächlich den kritischen Punkt erreicht.

Loopman schrieb:
Was ja auch so empfohlen worden ist. Warum andere das nicht einbauen, ist halt die Frage.
Aber auch hier: Die handvoll Probleme die es gab, sind durch eigene Fehler, bzw. nicht standardisierte Kabel/Stecker verursacht worden.
Nvidia selbst hat auf den FE auch keine Pinüberwachung. Ebenso wenig auf dem AIB Ref Design.

Aber auch nochmal: User Error folgt hier auf Design Fehler. So ein kritisches Bauteil muss so entwickelt werden, dass es bei erwartbarer falscher Nutzung (abseits absichtlicher Beschädigung) sicher bleibt und keinen katastrophalen Zustand erreicht.
"You're holding it wrong" ist eine schlechte Ausrede, um von einer fehlerhaften Implementierung abzulenken.

Ob die betroffenen 3rd party Kabel bzw Stecker "nicht standardisiert" waren, bestreite ich auch (bis auf Ausnahmen?). Es waren genug betroffene Kabel dabei, die sich an die verfügbaren Spezifikationen gehalten haben und trotzdem abgefackelt sind.

Loopman schrieb:
So Probleme hat du in JEDEM Bereich, der mit Strom zu tun hat. 🤷‍♂️
Verbindest du es nicht richtig, gibt es ein Problem.
Wenn der User bereits beim üblichen Aufbau so einen kritischen Fehler so einfach herbei führen kann, ist das ein Design Fehler.

Du machst es dir viel zu leicht, das als "verbindest nicht richtig" zu vereinfachen. Wenn ich dran rumschnippel oder blind irgendwelche Kabel direkt an Kontakte halte, dann erwarte ich so einen katastrophalen Ausfall, ja.

Aber nicht, wenn ich den unbeschädigten Stecker in die unbeschädigte Buchse stecke und aus Versehen nicht ganz bis zum Klick geschoben haben. Oder wenn ich das Kabel etwas zu eng gebogen habe.

Bei allen möglichen anderen Steckern, die Laien so im Alltag benutzen, wird genau das im Design ja auch berücksichtigt. Wieso lässt du es hier also so einfach durchgehen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grundgütiger, qiller und Wintermute
Fallout667 schrieb:
Es sind immer noch Influencer die Geld mit den Clicks machen und nebenbei noch Produkte für eben genau dieses Problem verkaufen. 100% seriös sieht für mich anders aus. Stinkt eher gewaltig nach nem Interessenkonflikt.
Schwierig. Vielleicht sollte man es nicht übertreiben.

Es gibt so einige "Medien", die mit dem Bewerten von Produkten die Kosumenten beeinflussen können und mit Klicks Geld verdienen.

Wäre ich vorsichtig, da über all einen Interessenskonflikt zu sehen und einen potentiellen Hang zur Manipulation, den du ja suggerierst mit dem Absprechen von Seriösität.
 
  • Gefällt mir
Reaktionen: qiller und Wintermute
Plonktroll schrieb:
Bei 18Gb kannste noch nen 100er drauflegen die wird sich um die 700€ kosten .
Sehe ich nicht. Dafür ist dann die 9070 doch "zu gut". Und der Abstand zur 5060 Ti 16G wäre dann viel zu groß (429 USD zu 699 USD) .

Jensen will immer max Gewinn UND einen Sieg auf ganzer Linie. Mit 699 USD für eine 5070 Super wäre das wohl eher nicht der Fall.

Bei 599 USD würde es wohl folgendes für nV geben:
  • eine immer noch sehr, sehr gute Marge
  • gute bis sehr gute Kritiken bei den Fachmedien
  • "gut gelaunte" Zocker / Käufer, die das Gefühl haben, ein "Schnäppchen" zu machen
  • keine wirkliche Schwäche / negative Kritik
  • AMD wird weiter in die Bedeutungslosigkeit katapultiert (die Radeon Karten)


Die 5080 Super wird möglicherweise so weit geprügelt, dass man am Ende wirklich auf 4090 Niveau landet. Dann gibt es 4090 Performance, 24GB VRAM für "günstige" 1199 USD (statt knapp 2000). Auch hier wäre das wohl ein gefühltes Win-Win (nV und Zocker).
Die Frage lautet halt, ob man die 5080 so weit prügeln kann. Also mindestens 10, eher 15% mehr fps.


Die 5070 Ti Super dient der Margensteigerung. Im Vergleich zur 5070 Ti gibt es + 150 USD bei der MSRP, obwohl sich der Mehraufwand sehr in grenzen hält. Die 24GB VRAM werden aber bei vielen als Kaufargument reichen. 899 USD für 24GB VRAM? Gekauft! So wird es wohl bei einigen klingen.


Je länger ich darüber nachdenke, desto mehr macht diese Abstufung (für mich ;) ) Sinn:

429 USD 16GB 5060 Ti
599 USD 18GB 5070 Super
899 USD 24GB 5070 Ti Super
1199 USD 24GB 5080 Super
1999 USD 32GB 5090
 
D0m1n4t0r schrieb:
Alle die sich bei Release ne 5070 oder 5070ti gekauft haben dürften sich jetzt ordentlich verarscht fühlen.
Naja, ich brauch jetzt ne GPU. Bis zur 5070 Ti Super warten würde halt dauern.
 
Loopman schrieb:
Es sind und bleiben "Influencer" ☝️
Es sind KEINE Journalisten! ☝️
Auch wenn der Begriff rechtlich nicht geschützt ist...
Noch einmal: Genau. Influencer, die verkaufen wollen. So wie Igor, der permanent Koop-Aufträge ablehnt, um journalistisch unabhängig zu sein, jeden Tag einen neuen Artikel auf seiner Seite bringt und mal eben dreistellige (Edit: sechsstellige) Summen für eine WLP-Teststation hinlegt um sie gescheit testen zu können - zudem kenne ich kaum jemand, der bei solchen Dingen so transparent agiert.

Oder Aris, Chef von Cybenetics und einer der führenden Netzteil-Experten, der für alle großen Hersteller reihenweise Netzteile zertifiziert und für mehrere der größten Hardware-Magazine überhaupt schreibt. Der redet natürlich den bei seinen Kunden verbauten Stecker schlecht, damit er... womit mehr Geld verdient?

Noch so ein Schlauberger. Wieviel hast du von den dreien eigentlich schon gelesen oder geschaut?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FormatC und Wintermute
Man man man, schnitzt euch doch einfach eine Grafikkarte aus Holz, dann sind alle zufrieden und man muss hier den ganzen Unsinn nicht mehr lesen.

Als Beispiel: STALKER 2 verbraucht mit maximalen Details und in 4K gerade einmal 10-12GB VRAM. Jedenfalls ist es bei mir so. Nur damit der eine oder andere hier mal seine Aussage überdenkt...
 
die stellar blade demo hat mit 4k texturen schon eine zu wenig VRAM meldung mit meiner 5070 ti ausgegeben-

natürlich gleich schnappatmung bekommen 🤯
 
Casillas schrieb:
Ach so. Und die Effizienz sollte man ja auch nicht vergessen. Wird ja auch oft gerne genannt.
Und wird auch gerne unvollständig mit einem einzigen Spiel im FPS Limit gemessen, wohingegen es auch Gesamtbetrachtungen mit einer ganzen Palette an Spielen gibt. Die Radeon hat sich mit neuen Treibern ein paar Prozentpunkte verbessert, unterliegt aber insgesamt immer noch geringfügig bis sehr deutlich und mit neural shading und Directx Raytracing 1.2 wird Nvidia wohl eher eine Schippe drauflegen. Darum, mit Effizienz argumentiert es sich relativ schlecht.

Screenshot 2025-06-30 152533.jpg

Screenshot 2025-06-30 152644.jpg

Screenshot 2025-06-30 152739.jpg
 
D0m1n4t0r schrieb:
Alle die sich bei Release ne 5070 oder 5070ti gekauft haben dürften sich jetzt ordentlich verarscht fühlen.
Warum Alle? Manchen ist sicherlich bewusst dass es immer Super-Karten geben kann. Nur will man auch nicht immer warten. Wir wissen nicht wann sie genau kommen, wie viel sie am Anfang auf dem Markt kosten, wirtschaftliche Lage kann sich bis dahin verschlimmer, wie viele von dem gewünschten Modell lieferbar sind und sie werden etwas mehr Strom ziehen.

Müsdte sich nicht nur 5070/Ti Käufer verarscht fühlen sondern auch 9070XT Käufer weil es dann bis 1000,- mehr als 16GB Vram gibt.

Warten kannst immer auf bessere Modell. Wenn Super 5000er kaufst kommt 1 Jahr später die noch bessere 6000er die später vielleicht wieder Super Upgrade bekommt.
Manche wollen aber jetzt zocken gerade wenn msn von 2000er oder 3000er Karte kommt.
 
  • Gefällt mir
Reaktionen: -MK
MalWiederIch schrieb:
Da geht ja richtig mit der Fantasie durch mit dir heute :lol: In der Realität liegt eine 5080 bei 1.169€ UVP, eine 5070 Ti mittlerweile bei unter 800€ …
Ist da die 8% günstigere, aber auch 8% schwächere 9070 XT mit schlechterem Featureset also die bessere Alternative und nicht „KRANK“ teuer bei identischen P/L-Verhältnis? :lol:
Muss wohl ein Paralleluniversum sein, bei PCGH im aktuellen GPU-Index sieht es anders aus:

IMG_0018.jpeg

https://www.pcgameshardware.de/Graf...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/

Oder vielleicht doch mit der 7900xt verwechselt, denn da sind es 8%.
 

Anhänge

  • IMG_0018.jpeg
    IMG_0018.jpeg
    596,1 KB · Aufrufe: 75
  • Gefällt mir
Reaktionen: Oskar2k11
D0m1n4t0r schrieb:
Alle die sich bei Release ne 5070 oder 5070ti gekauft haben dürften sich jetzt ordentlich verarscht fühlen.
bisschen riecht das schon nach features zurückhalten um später nochmal abcashen zu können für mich...
 
djducky schrieb:
jeden Tag einen neuen Artikel auf seiner Seite bringt und mal eben dreistellige Summen für eine WLP-Teststation hinlegt um sie gescheit testen zu können
😂😂😂
3-stellig!!! WOW!

Und er zahlt natürlich nur drauf, verdient nicht damit zehntausende Euro im Monat 😂
Nur um Leuten wie dir zu helfen...

Naivität Overdrive 🤪
 
  • Gefällt mir
Reaktionen: DefconDev und Fallout667
Apollo1980 schrieb:
Normalerweise hätte es wie folgt aussehen sollen.

5060 -> 16GB
5070 -> 20GB
5080 -> 24GB
5090 -> 48GB
übertrieben, es würde reichen bis auf die70ti preise lassen und Vram hoch
GB206 RTX5060ti 12GB 128Bit
GB205 RTX5070 18GB 192Bit
GB203 RTX5070ti wie sie ist nur -$100
GB203 RTX5080 24GB
Zusätzlich eine 3080ti 130SM 24GB -384Bit $1499 als 4090 ersatz.

das die Suber nun aber laut 3dcenter auch noch teurer werden sollen ein no go dafür sind einfach alle zu langsam
 
  • Gefällt mir
Reaktionen: Alexander 65
Loopman schrieb:
😂😂😂
3-stellig!!! WOW!
Und er zahlt natürlich nur drauf, verdient nicht damit zehntausende Euro im Monat 😂
Nur um Leuten wie dir zu helfen...
Ich habe in den letzten zwei Jahren sogar fast eine halbe Million investiert und bin dazu verdammt, damit auch wenigstens einen ROI hinzubekommen. Und zwar mit nichtöffentlichen Tests, fürs Qualitätsmanagement und die Entwicklung. Wenn ich influenzen würde, hätte ich mit Sicherheit die Häfte der Industriekunden weniger :D
Wenn ich mein Equipment auch für die Artikel nutze, dann ist das natürlich schon ein gewisser Eigennutz, allerdings hätte man in dieser Zeit auch was Profitableres machen können.

Zehntausende im Monat sind zudem die typische, unwissende Forenromantik, wo man schnell vergisst, dass ein Arbeitstag auch schon mal 12-14 Stunden hat und die Fix- und Energiekosten im Monat barbarisch sind. Von Versicherungen und den sonstigen Nebenkosten mal ganz zu schweigen. Und nein, es sind auch vor Abzug aller Negativposten keine "Zehntausende" :)

Loopman schrieb:
Es sind und bleiben "Influencer" ☝️
Es sind KEINE Journalisten! ☝️
Auch wenn der Begriff rechtlich nicht geschützt ist...
Ich bin zahlendes (und geprüftes) Mitglied im Deutschen Journalistenverband (da liegen die Hürden ziemlich hoch), habe neben meinem Germanistik-Part aus den spätern 1980ern sogar noch eine entsprechende journalistische Berufsausbildung nachgeholt (Technischer Redakteur IHK, meine vierte). Influenzer sind die, die für Produktplatzierungen Geld nehmen und die früher Lamadecken und Rheumakissen auf Kaffeefahrten verkauft hätten...
 
  • Gefällt mir
Reaktionen: iSeeSharp, Balikon, BrollyLSSJ und 10 andere
Schön, dass Igor sich auch selbst äußert. Und unsere Laberbacken hatten mal wieder Freude, ihrer Paranoia zu frönen...

@Loopman
Das dreistellig war einfach ein Wortfehler meinerseits, ich meinte dreistellige Tausendersummen, also sechsstellig. Aber Hauptsache so einen dusseligen Post mit Lachsmiley absetzen statt mal nachzufragen...
 
  • Gefällt mir
Reaktionen: xXDariusXx, -MK, SweetOhm und 2 andere
SweetOhm schrieb:
Dich auch schon mal gefragt warum dies so ist ?
Deiner Meinung bestimmt, weil NV ihre Zocker so "geil" findet ... :rolleyes:
na weil Nvidia ihre Karten nicht los bekommt und alle AMD kaufen... Deswegen auch der große Marktanteil bei Steam und peddie für nvidia... Ups wait... :D
 
  • Gefällt mir
Reaktionen: Oskar2k11 und LeckerRK
Syrato schrieb:
24GB, das wird sich Nvidia vergolden lassen.

Ist dann eine gute einsteigerkarte für 4K - aber dafür ist dann eigentlich eher die 24GB 5080S interessanter in sofern sie auch nen höheren Leistungszuwachs als 4080 -> 4080S bedeutet

Syrato schrieb:
Preis + 100 pro xDDR Slot 😅. Die Leistung wird sich nicht gross ändern. 24GB, 350W, eine günstigere "4090" mit weniger Rohleistung aber mehr Features und günstigere UVP.

Die "kleine" 4090 wird dann vermutlich eher die 5080S - Allerdings auch wieder nur auf Halbzeit zu den 6000er Karten die u.U. nicht wieder nur ein "Refresh" sind...
 
Darkwater schrieb:
aber dafür ist dann eigentlich eher die 24GB 5080S interessanter in sofern sie auch nen höheren Leistungszuwachs als 4080 -> 4080S bedeutet
Unwahrscheinlich, die 5080 hat schon den Vollausbau des GB203. Mehr als Takt und TDP hoch ist da also nicht möglich. Der GB202 der 5090 ist doppelt so groß und entsprechend doppelt so teuer (verkaufbar), den wird Nvidia ohne Konkurrenz dafür sicher nicht rausholen.
 
Zurück
Oben