News Benchmarks zum Marktstart: Die neue GeForce RTX 5050 verfehlt die RTX 4060 knapp

Tharan schrieb:
15W mehr als eine 4060 und langsamer. Also vergiss das Ding komplett. Auch eine 5060 ist zur 4060 zwar 19% schneller, verbraucht aber 21% mehr Strom. Das ist alles vernachlässigbarrer Murks.


Dann doch gleich die 5060 bitte mit 12GB und nicht die 5050. Die 5050 kann ja ruhig 8GB haben, aber bitte mit 75W und ohne Stromstecker. Bei der Leistung ist dann auch die Speichermenge nicht mehr ganz so wichtig.
Die 5060 mit 12Gb kommt vielleicht ja noch im Januar als super. Sofern sich die 5050 und 5060 schlecht verkaufen, was zu hoffen wäre. Der Speicher kostet ja nun nicht mehr die Welt extra.
 
  • Gefällt mir
Reaktionen: Tharan
Tharan schrieb:
Nebenbei mal noch ein anderes Gerücht, mit einer 5060 Super und einer 5030: https://www.notebookcheck.com/Gerue...70-Ti-Super-und-RTX-5080-Super.1048450.0.html
Überraschenderweise soll Nvidia auch eine GeForce RTX 5030 entwickeln, die nur halb so viele CUDA-Kerne wie die GeForce RTX 5060 Super und 6 GB Grafikspeicher bieten soll.
Nein, doch oh... Da wird nichts entwickelt sondern GB207 von 20SM auf 16 SM und 96 Bit Speicher kastriert. NV wirft nichts weg.

Eine 5060 mit 32SM wäre nicht super.
Ergänzung ()

Abrexxes schrieb:
Für was? Die Karte war offensichtlich weder für 4K noch Raytracing gedacht/geeignet. Wer solche Tests/Seiten ernst nimmt hat es nicht besser verdient.
VRAM hat nichts mit der Auflösung oder Rohleistung zutun. Bei der 6700XT exakt das gleiche. Die Karten haben auch nicht weniger Rohleistung als die Gurke hier.
3GBit Chips lösen auch nicht das VRAM Problem sondern ermöglich es nur noch besser Speicherkrüppel zu verkaufen. 8Gb GDDR6 kosten laut Börse lächerliche 2.5$ im Durchschnitt.
https://www.dramexchange.com/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slim.Shady und Strahltriebwerk
Botcruscher schrieb:
VRAM hat nichts mit der Auflösung oder Rohleistung zutun.
Zumindest nicht sehr viel.
Abrexxes schrieb:
Was denn jetzt? Zuviel oder zu wenig oder egal? Zu warm? ^^
Der Framebuffer braucht Platz und manche Shader fressen bei steigender Renderauflösung auch mehr VRAM. Aber: Texturen sind das A und O. Man erhält ohne (bei den heutigen Texturfüllratem noch relevanten) Performanceverlust massiv bessere Bildqualität.
Botcruscher schrieb:
Bei der 6700XT exakt das gleiche. Die Karten haben auch nicht weniger Rohleistung als die Gurke hier.
Ja.
Botcruscher schrieb:
3GBit Chips lösen auch nicht das VRAM Problem sondern ermöglich es nur noch besser Speicherkrüppel zu verkaufen. 8Gb GDDR6 kosten laut Börse lächerliche 2.5$ im Durchschnitt.
https://www.dramexchange.com/
Achtung, der Preis muss noch mit acht multipliziert bzw. durch acht dividiert werden. Schließlich hat ein 8G(i)b-Chip eine Kapazität von 1GiB...
 
CDLABSRadonP... schrieb:
Der Framebuffer braucht Platz und manche Shader fressen bei steigender Renderauflösung auch mehr VRAM. Aber: Texturen sind das A und O. Man erhält ohne (bei den heutigen Texturfüllratem noch relevanten) Performanceverlust massiv bessere Bildqualität.
Es gibt ja darum das die 3060 als Target sicher nicht 4K hat beim zocken und mit 12 gut bestückt ist.
 
CDLABSRadonP... schrieb:
Daneben gibt es noch interessante produktpolitische Fragen:
  1. Wird AMD eine 9050 auf Navi44-Salvage-Basis bringen?


Eine RX 9050 wäre jedenfalls sehr zu empfehlen.

Zum einen wegen FSR4 (jetzt auch in 1080p brauchbar). Und massiv Marktanteile gewinnt man eh nicht mit 600-Dollar-MIttelklassekarten, die in Enthusiastenkanälen gejazzt werden wie Gratisdöner. Sondern ganz woanders, auch hinsichtlich möglichst günstiger OEM- und Fertig-Schlitten. Außerdem wäre es strategisch unklug, Nvidia hier die Party alleine feiern zu lassen. Hinzu kommt: Alte Serien laufen irgendwann aus. Bereits in der letzten Generation gab es am Desktop weder eine 4050 noch eine 7500 /XT.

FPS-Verwahrloste rümpfen vielleicht die Nase darüber. Nur: Darunter blieben irgendwann neu nur mehr APUs. Und selbst die integrierte Grafik eines Ryzen 8700G ist unterm Strich so langsam, dass sie im Schnitt nicht mal eine GTX 1650 schlägt. Heißt: Selbst eine olle RTX 2060 oder RX 5700 XT bringt das Vielfache an Rohleistung auf die Straße.

Überhaupt: Da ist der Enthusiasten-Bias am Werk: Alles, was in neue Leistungshöhen vordringt, ist bitter nötig (bislang übrigens auch mit stetig steigendem Anschaffungspreis, auch in der Mittelklasse). Alles darunter ist Verschwendung. Ich nehme mal aus Unbubble-Gründen eine mögliche Gegenposition ein: In einer Gaming-Welt, die von fünf Jahre alten Basiskonsolen regiert wird und in der selbst Reskins zwanzig Jahre oller Bethesda-Schinken gefeiert werden, ist die Verschwendung tendenziell am anderen Ende des Portfolios. :D
 
Zuletzt bearbeitet:
Abrexxes schrieb:
Es gibt ja darum das die 3060 als Target sicher nicht 4K hat beim zocken und mit 12 gut bestückt ist.
16GiB würde man einer 5050 16GiB, 5050 SUPER oder 5050 Ti nur verpassen, weil es technisch anders (beim Verbleib bei GDDR6) schlecht geht --- keine 3GiB DIEs halt. Ja, 12GiB wären für sie passend.

Bzgl. Target: Also Ausgabeauflösung UHD ist jetzt nicht unrealistisch. Ist ja nicht so, als ob es UHD erst seit gestern gibt und entsprechend haben sicherlich diverse potentielle Käufer schon ein derartiges Panel --- sei es, weil es der Fernseher ist, sei es, weil sie es damals gemeinsam mit ihrer 970 (um den letzten Geforce-P/L-Kracher überhaupt zu nennen) gekauft haben, sei es...
 
Botcruscher schrieb:
Da wird nichts entwickelt sondern GB207 von 20SM auf 16 SM und 96 Bit Speicher kastriert. NV wirft nichts weg.
Natürlich, aber ein Nachfolger für die legendäre 1030 wäre schon mal wieder was, nachdem die 1630 eigentlich nix war. Warum? Achja, weil teuer und was ist mit der Preisidee einer 5030? Ok, hast Recht, vergiss es. Also als kleine Low-Profile-Karte, passiv gekühlt, neueste Codecs, 100 EUR... Das wäre eine geile 5030...
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Ostfriese schrieb:
Naja, die 5000er-Generation ist mit Ausnahme des Spitzenmodells abgehakt
Du hast du 5060ti/16 vergessen.
Meiner Meinung nach die beste 5000er, von der Effizienz, Leistung und Kosten-Nutzen Rechnung.
Sogar noch mit 8-Pin Stromanschluss :)
 
Stillstand ist irgendwie auch Fortschritt - rückwärts bergab.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Quidproquo77 schrieb:
Manche glauben immer noch Nvidia würde ihre Hardware verschenken und die Preise für eine neue Gen so platzieren wie vor 10-15 Jahren.


Bitte was? Sowas gab's früher für 50€ aufm Grabbeltisch bei den Elektronikriesen. Zum Spielen nicht wirklich geeignet, aber eben einfache Displayadapter. 150€ wären für so eine Krücke schon zu viel, wenn man Inflation mit einrechnet.
Für 100€ gab's mal richtig spieletaugliche GPUs, mit denen alles auf hohen Details spielen konnte, für 200€ hatte man für eine Weile ausgesorgt. Jetzt kostet das Mindeste, mit dem man ältere Spiele mit niedrigen Details auf 1080p spielen kann, 250€. Grandios.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Bierliebhaber schrieb:
Jetzt kostet das Mindeste, mit dem man ältere Spiele mit niedrigen Details auf 1080p spielen kann, 250€. Grandios.

In mancher Konsole steckt auch nicht viel mehr Wumms.



Der Mark skaliert 1:1 durch, "ausgesorgt" hat man selbst mit der 450-Dollar-Karte nicht mehr, 600 Dollar aufwärts ist die neue Passat-Mittelklasse. Aber so wie du das sagst, war es wirklich mal ein paar Jahre. Allerdings waren die Karten fairerweise schon nach einem Jahr nur mehr einen Bruchteil ihres Anschaffungspreises wert. Habe gehört, heute machen Leute selbst eine Dekade olle 1080 Ti noch zu Geld am Gebrauchtmarkt. Es war nicht alles schlecht oder so. :D
 
Ganjafield schrieb:
Davon eine 12GB Variante wäre doch der perfekte Einstieg.
Eher einer 5060 Super mit 12 GB für ca. 349 € :freaky:
 
Die Konkurrenz durch den Gebrauchtmarkt ist natürlich riesig.
Warum sollte ich so viel Geld für eine künstlich klein gehaltene Einstiegskarte ausgeben, wenn ich auf dem Gebrauchtmarkt eine RTX 3070 oder Besseres bekomme?

250 Euro sind einfach zu viel für diese Karte. Noch vor ein paar Jahren gab es neue RX 570 und RX 580 für um die 100.-.
Und nun, im Jahre 2025 angekommen, debattieren wir darüber, dass die Einstiegskarte 250 Euro kosten soll und durch die 8GB stark limitiert ist.

Und vielen Dank an alle Ja-Sager und Nvidia-Jünger, welche die Preise rechtfertigen. So wie es klingt, könnte man meinen, Nvidia muss die GPU zum Selbstkostenpreis veräussern oder gar mit Verlust.

Ich weine innerlich, denn ich kann - nein ich will - mir nicht vorstellen, was es heisst, mit nur bescheidenen 64% Marge auskommen zu müssen. Wenn dieser ruinöse Kurs so weitergeht, landet die Belegschaft am Ende noch bei der Heilsarmee.

Gemäß den neuesten Finanzberichten und Aktienkursen von NVIDIA beträgt die aktuelle Betriebsmarge des Unternehmens 59.86%. Am Ende von 2025 hatte das Unternehmen eine Betriebsmarge von 64.39%.

Die Armen, da kann ich schon verstehen, dass eine Einstiegskarte 250 Euro kosten muss und man auch beim restlichen Lineup mit VRAM geizen muss...
 
@CDLABSRadonP... normales Office brauch keine xx GB Ram, aber zb drei Monitore und zusätzlichen Vram der denn Hauptspeicher entlastet, und da brauch es im Notfall soviel VideoCache wie man Pixel darstellt. Bei Animationen innerhalb (Echtzeitanzeigen) wird auch die CPU entlastet. Für all das brauch man keine 500€ Karte, geschweige denn 2500.
 
Zurück
Oben