News RTX 5070 Ti Super: Komplettiert diese 24-GB-Grafikkarte das Super-Dreigestirn?

Die 5070 Super wäre mit ihren 18GB ein tolles 1440p Kärtchen. :daumen:

Kommt schonmal auf meine "Wishlist" ...
 
  • Gefällt mir
Reaktionen: Samuelz
Da aktuell für mich kaum Interessante Games auf dem Markt sind, welche auch die Leistung brauchen enthalte ich mich mit meiner 4070ti. So habe ich kein abbrennenden Stecker, muss mir keine Gedanken um meine alte CPU (5900X) machen und genieße weiterhin den Sommer. Hoffe die 6te Generation kommt von Anfang an mit genug Arbeitsspeicher und keine abbrennenden Stecker auf die Welt.
 
qiller schrieb:
gibt es da in meinen Augen absolut kein Misverhältnis, wenn man auf 24GB aufstockt. Dafür sind die Karten einfach viel zu teuer.
Spannend wäre doch, ob die Karten überhaupt bei den Gamern landen oder sich dann doch eher die KI-Fans freuen, wenn es die Consumer Karten endlich mit mehr VRAM gibt :P
 
MalWiederIch schrieb:
Cherrypicking ist genau dein Ding oder? :lol:
Aha, für Dich ist also der Schnitt aus 20 verschiedenen Games in 4 verschiedenen Auflösungen "Cherrypicking" ?!?
Ja ne, ist klar ... :daumen:

Wenn dann sind Deine 4K Benches "Cherry" ! Denn die 5070Ti/9070XT sind Midrange und KEINE 4K Karten.
Also wem genau nochmal ist das sein "Ding" ?!? :stock:
MalWiederIch schrieb:
Ach stimmt, das Ergebnis passt dir nicht :p
Ach stimmt, das Ergebnis (der Fakt) passt Dir nicht :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, JackTheRippchen, Alphanerd und eine weitere Person
Loopman schrieb:
Es gibt KEIN Problem mit Kabel bzw. Stecker.
So wenig Problem, dass die PCI SIG die Spezifikation überarbeitet hat und in ATX3.1 als 12V-2x6 erfordert...

So wenig, dass mehrere Hersteller eigene Workarounds entwickelt haben. Wir wissen ja, Firmen stecken gerne Geld in unnötige Entwicklungsarbeit.

Wenn fast alle beteiligten Konzerne und Konsortien das Problem ernst nehmen und überarbeiten, wird es kein kompletter Hoax sein.
 
  • Gefällt mir
Reaktionen: vascos, JackTheRippchen, Alphanerd und 2 andere
SweetOhm schrieb:
Die 9070XT liegt im Schnitt (20 versch. Games in 4 Auflösungen) mit einer 5070Ti gleich auf (RR),
(so wie die 9060XT mit 16 GB vs. 5060Ti mit 16 GB / siehe GPU Index 2025 im Anhang)
ist über 100€/15% günstiger (690 € vs. 800 €) und hat sowohl bei RR wie auch bei RT das bessere PL Verhältnis.
Quidproquo77 schrieb:
Schaut man auf Meta Daten, dann bewegen sich die Testergebnisse zwischen Raster + ~ 3-5% und + 20% mit RT. Nimmt das bessere Featureset und mehr Hardwaresupport der GeForce mit ist Preis Leistung identisch, wenn nicht gar besser bei Nvidia, zumindest diese beiden Karten betreffend.
Wenn man sich die Auflistung der Testergebnisse bei 3DCenter anguckt, liegen die Unterschiede bei:

Raster 4K : 3,4%
Raster 1440p : 2,6%

RayT 4K : 20,2%
RayT 1440p : 19,3%

Ergo. 3% Raster und knappe 20 % RT ist die 5070Ti schneller als die 9070XT.

Unterschiede im Featureset natürlich bedenken und etwas mehr als 15% Preisunterschied (Stand heute).

Zum Glück ist jeder in seiner Wahl frei.
Ergänzung ()

Ach so. Und die Effizienz sollte man ja auch nicht vergessen. Wird ja auch oft gerne genannt.

9070XT Effizienz 2.png


9070XT Effizienz.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Fallout667
Powl_0 schrieb:
Wenn fast alle beteiligten Konzerne und Konsortien das Problem ernst nehmen und überarbeiten, wird es kein kompletter Hoax sein.
Es nimmt keiner Ernst, außer die bekannten Clickbait-Influencer, keine Ahnung woher du so etwas nimmst....

Es sind ja nur ganz wenige Einzelfälle bekannt, wo sich ja nachher rausgestellt hat, dass die Leute 3rd-Party Stecker/Kabel verwendet hatten bzw. die Kabel nicht richtig befestigt hatten. 🤷‍♂️

Es fackeln jedes Jahr tausende Smartphones weltweit ab, hauptsächlich irgendwelche Android-Telefone. Da stellt auch niemand die komplette Strom/Akkuversorgung in Frage...
 
  • Gefällt mir
Reaktionen: Fallout667
TheInvisible schrieb:
Zur Info, Nvidia ist näher an bzw unter UVP sogar als AMD.
Dich auch schon mal gefragt warum dies so ist ?
Deiner Meinung bestimmt, weil NV ihre Zocker so "geil" findet ... :rolleyes:
Ergänzung ()

TheInvisible schrieb:
Stimmt vor allem die häuser die tagtäglich Abbrennen und schon so manche Stadt dahingerafft haben...
Zeedy 2.0 ;)
Ergänzung ()

TheInvisible schrieb:
Darf ich auch cherrypicken oder gilt das dann wieder nicht :D
Der Schnitt ist also "Cherry", sowie die "wiederlichen" 4K Benches für die Midrange Karten ? (siehe #164/#114)
TheInvisible schrieb:
Tja Forenblase und die realität, zum glück gab's damals keinen Artikel von CB zum Marktanteil sonst wärs noch eskaliert weil manche Rote nicht einsehen wollen das ihre Karten doch nicht so prickelnd sind
Oder den Artikel über die Verkaufszahlen bei MF :freaky: (Beides Whataboutism)
Ergänzung ()

kachiri schrieb:
So ein bisschen abheben sollen die sich ja dann doch ;)
Klaro, die klassischen 2 - 5 % halt ... :heul:
 
Zuletzt bearbeitet:
djducky schrieb:
Als seien Roman/TG, Aris/Cybenetics und Igorslab nicht seriös.

Man kann sich über Jemand, der sich hier so präsentiert wie du, sollte ein paar Dinge über "Aufblasen" wissen. Ich weiß ein paar Dinge über Rhetorik und Fehlschlüsse.
Es sind immer noch Influencer die Geld mit den Clicks machen und nebenbei noch Produkte für eben genau dieses Problem verkaufen. 100% seriös sieht für mich anders aus. Stinkt eher gewaltig nach nem Interessenkonflikt.

Ist halt schön das du was über Rhetorik weißt, nur beim kritischen Denken hapert es bei dir ganz gewaltig. Zudem ist das hier ein Technikforum, wenn du über Rhetorik reden willst bist du hier falsch.

Und der Einzige ohne Argumente bist doch du. Du glaubst scheinbar unreflektiert alles was diese Influencer von sich geben. Dabei produzieren die auch nur Schlagzeilen auf BILD Niveau.
Ihre technischen Fähigkeiten sprechen ich Ihnen auch nicht ab. Aber bei den paar Fällen die es weltweit gab, steht der dazu produzierte Shitstorm und Ragebait, in keinem Verhältnis.

Man hätte über das Problem auch wesentlich unaufgeregter berichten können. Und diese künstlich aufgeblasene Empörung ist bei jedem Techproblem hier in der Bubble das gleiche. Geht es dann noch um Intel oder Nvidia, dann prophezeien hier die meisten direkt den Weltuntergang und fordern Haftstrafen, oder schlimmeres, für die Verantwortlichen.

Bei tausenden Handyakkus die jedes Jahr abfackeln, regt sich niemand auf. Oder rät hier irgendwer vom Kauf eines Android Handys ab, weil da mal paar Akkus abgebrannt sind?
 
SavageSkull schrieb:
Die 5090 hat schon wie die 4090 das Problem, dass die beim reinen Gaming ihre Leistung gar nicht auf die Straße bringt.
Wobei aber RTX 4090 und auch jetzt die Quadro 6000 - mehr als die RTX 5090 - zeigen, wie mega effizient diese Chips agieren können. Das ist echt beachtlich.

SweetOhm schrieb:
Wenn dann sind Deine 4K Benches "Cherry" ! Denn die 5070Ti/9070XT sind Midrange und KEINE 4K Karten.
Alsoooooooooooo, auch wenn ich deine Beiträge durchaus verstehe und du natürlich mit Cherry-Picking durchaus Recht hast, so unrecht hat die andere Seite aber auch nicht. Cherry-Picking betreibt ihr beide da gerade etwas.

Mit einer RTX 5070 Ti und ebenso der RX 9070 XT kann man sehr gut in 4K-Spielen und dank DLSS4/FSR4 (sic!) auch recht flott. Ausgeglichen und Performance sehen weiterhin gut genug aus und bringt genug FPS auf den Schirm.

Wer jetzt eine RX 9070 XT kauft, macht nichts falsch, wer eine 5070 Ti kauft, macht nichts falsch. Beides sind super GPUs und super Karten. Frei nach Geschmack.

Weniger Zoffen wegen den Karten.
 
  • Gefällt mir
Reaktionen: N0Thing, Wichelmanni, SweetOhm und 2 andere
Vor 2026 kommt die ja eh nicht, oder?

Dann kauf ich mir jetzt lieber die normale 5070 Ti und dann irgendwann eine 7000er-Serie GPU.
 
  • Gefällt mir
Reaktionen: -MK
Loopman schrieb:
Es nimmt keiner Ernst
Die PCI SIG hat die Steckerspezifikation überarbeitet, um genau dieses Problem zu vermeiden. Das ist eine der zwei primären Änderung zwischen der ATX3.0 und ATX3.1 Spezifikation.

MSI hat davor bereits eigenständig auf überarbeitete Stecker gewechselt. Asus hat in den Matrix und Astral Karten eine eigene Überwachung pro Pin eingebaut. Ein paar Custom Karten haben Kühlerkontakt nahe der 12pin Buchse eingebaut. Das neue Wireview hat Pinüberwachung und Steckerkühlung.
Das nur als Beispiele, mal abgesehen von der investierten Zeit in Ursachenforschung seitens Nvidia, NT Herstellern, etc.

Das ist ziemlicher Aufwand bei verschiedenen Firmen, nur für "hoax", "nimmt keiner Ernst" etc. Das kostet die alles Geld, also wird es sicher nicht aus gutem Willen gemacht. Rein für Influencer Clout oder Verkaufszahlen wirds nicht gewesen sein, dafür interessiert das Thema außerhalb der Tech Bubble zu wenige.

Ich glaube dich betrügt da deine übereilte Voreinstellung zum Thema, anhand derer du alles weitere abwertest.

Loopman schrieb:
bzw. die Kabel nicht richtig befestigt hatten
Joa, ist halt ein Design Fehler, wenn ein nur halb eingestecktes Kabel trotzdem Betrieb zulässt und dann abfackelt.
Einer der Gründe für die 12V-2x6 Weiterentwicklung.

Genau das kriegste mit nem alten 8pin/6pin nicht so einfach hin.

Loopman schrieb:
Es fackeln jedes Jahr tausende Smartphones weltweit ab, hauptsächlich irgendwelche Android-Telefone. Da stellt auch niemand die komplette Strom/Akkuversorgung in Frage...
Doch, wenn es mit unüblich hoher Häufigkeit passiert. Hatten wir doch auch schon in der Vergangenheit.
Vielleicht kommt da ja noch deine selektive Wahrnehmung dazu ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und JackTheRippchen
Powl_0 schrieb:
Die PCI SIG hat die Steckerspezifikation überarbeitet
Nur wurden diese Änderungen schon WEIT vor dem Release der 5090 in das Gremium eingebracht, hat also mit den Problemen nicht wirklich das zu tun. Und Änderungen werden dauernd gemacht....

Powl_0 schrieb:
Asus hat in den Matrix und Astral Karten eine eigene Überwachung pro Pin eingebaut.
Was ja auch so empfohlen worden ist. Warum andere das nicht einbauen, ist halt die Frage.
Aber auch hier: Die handvoll Probleme die es gab, sind durch eigene Fehler, bzw. nicht standardisierte Kabel/Stecker verursacht worden.

Powl_0 schrieb:
Joa, ist halt ein Design Fehler, wenn ein nur halb eingestecktes Kabel trotzdem Betrieb zulässt und dann abfackelt.
Einer der Gründe für die 12V-2x6 Weiterentwicklung.
So Probleme hat du in JEDEM Bereich, der mit Strom zu tun hat. 🤷‍♂️
Verbindest du es nicht richtig, gibt es ein Problem.

Und again: der Fehler liegt nicht im Produkt, sondern bei den Usern. Sonst wäre das Problem ja viel weiter verbreitet.
 
  • Gefällt mir
Reaktionen: Fallout667
MalWiederIch schrieb:
Warum nicht simple das Leistungsrating von CB genommen?
Dann halt Leistungsvergleiche von CB ;) (siehe Anhänge)
Ergänzung ()

DevPandi schrieb:
Wer jetzt eine RX 9070 XT kauft, macht nichts falsch, wer eine 5070 Ti kauft, macht nichts falsch. Beides sind super GPUs und super Karten. Frei nach Geschmack.

Weniger Zoffen wegen den Karten.
Da geb ich Dir vollkommen Recht ! Beides gute Karten und absolut auf Augenhöhe.
Nur wenn "er" behauptet, die eine sei insgesamt die schnellere mit besserem PL Verhältnis, was De facto so nicht ganz korrekt ist, darf/muss man eben "diskutieren" ... :D
 

Anhänge

  • CB Steel Nomad RR.jpg
    CB Steel Nomad RR.jpg
    249,5 KB · Aufrufe: 64
  • CB Time Spy RR.jpg
    CB Time Spy RR.jpg
    264,9 KB · Aufrufe: 64
  • CB Speed Way RT.jpg
    CB Speed Way RT.jpg
    271,4 KB · Aufrufe: 65
Zuletzt bearbeitet:
Apollo1980 schrieb:
Normalerweise hätte es wie folgt aussehen sollen.

5060 -> 16GB
5070 -> 20GB
5080 -> 24GB
5090 -> 48GB

Ich bin zwar der letzte, der nein zu mehr Speicher sagt, aber dass man wie früher alle paar Jahre aufrüsten MUSS, weil einem der Speicher ausgeht und der VRAM Bedarf von Spielen explodiert ist auch nicht zielführend und längst nicht mehr tragbar. Hier das jüngste Beispiel: https://www.computerbase.de/artikel/grafikkarten/prozedurale-synthese-amd-rendern-baeumen.93326/

Heutzutage gibt es unzählige Systeme und Features, die den Speicherbedarf extrem weit drücken und dabei sogar noch einen Detailgrad erlauben, der vor einigen Jahren kaum denkbar war.

Das Problem ist die Software und nicht die Hardware.
Softwareseitig ist so viel mehr zu holen. Durch virtualisierte Geometrie und Texturen lässt sich das Problem sogar ein für alle mal lösen, da nur noch so viele Objekt- und Texturdetails aufgelöst werden müssen, wie für die zu rendernde Pixelanzahl benötigt werden. Das heißt, man kann mit einem fixen VRAM Budget praktisch unendlich hohen Detailgrad verwirklichen. Das ist der Ansatz bei der Virtualisierung.

Es sind halt nur immer wieder die ein, zwei Spiele pro Jahr mit völlig veralteter Steinzeit Technik, die dann den VRAM sprengen, obwohl sie in Sachen Detailgrad kaum was zu bieten haben. (oder man bohrt alte Legacy technik so weit auf, dass es grafisch zwar mithalten kann, aber läuft wie ein Sack nüsse)

Man muss natürlich ganz klar sagen, dass 8 GB VRAM mittlerweile auch für geringe Ansprüche einfach zu wenig sind und selbst 12 GB fragwürdig.. Keine Frage. Aber einfach ständig den VRAM hoch zu skalieren wird alleine auf Seiten Chipfertigung nicht möglich sein und es ist ja auch nicht sinnvoll, so große Datenmengen durch die CPU oder den PCIe Bus zu schicken, wenn das mit etwas intelligenterer Herangehensweise überhaupt nicht nötig ist und man nebenbei auch noch Frametimes verbessert und die CPU Last verringert.

Gerade die von dir vorgeschlagenen 48 GB halte ich für deutlich übertrieben, weil das ja indirekt suggerieren würde, dass in 2-3 Jahren dann vielleicht eine Mittelklasse Karte so viel VRAM bekommt oder vor allem benötigen würde. Zumindest wenn man klassisch die Entwicklung von vor 10 Jahren auf heute übertrtagen würde.

Man kann natürlich argumentieren, dass bei den hohen Preisen gefühlt locker 48, wenn nicht 64 GB fair wären, aber das mal außen vor. Mir gehts in erster linie um technische Sinnhaftigkeit in Bezug auf Spieleentwicklung. Und da hat man eben längst den Trend erkannt, dass es Hardwareseitig so nicht weitergehen kann und wird und man bessere Ansätze finden muss (und auch gefunden hat)
 
  • Gefällt mir
Reaktionen: Wichelmanni und Fallout667
Ich denke, wenn es zu den Speicherupgrades kommen sollte, dann macht das Nvidia nicht primär für das Gaming, sondern für die Nutzung von KI-Modellen. Mit den jetzigen KI-Agenten und entsprechenden LLMs, sofern das ganze lokal laufen soll, benötigt man weitaus mehr VRAM als für irgendwelche Spiele. Da Nvidia mittlerweile primär den KI-Weg bestreitet und entsprechend auch die Architekturen darauf ausrichtet, sind die Gaming-GPUs mit mehr VRAM mit Sicherheit auch außerhalb der Gamingwelt interessant.
 
Alle die sich bei Release ne 5070 oder 5070ti gekauft haben dürften sich jetzt ordentlich verarscht fühlen.
 
  • Gefällt mir
Reaktionen: eXe777, Icke-ffm und JohnMalkovich
@D0m1n4t0r Keine Sorge, Nvidia wird dafür sorgen, dass du das Gefühl auch nach dem Kauf einer Super Karte hast :D
 
  • Gefällt mir
Reaktionen: DefconDev
Das zu wissen ist sehr beruhigend xD ^^
 
Zurück
Oben