Test GeForce RTX 5060 Ti 8 GB im Test: Die Zeiten von 8 GB VRAM sind so was von vorbei

Einfallslos2023 schrieb:
Ich hab die ganzen unspielbaren Spiele auf ner RX6600 8GB spielbar durch.
Das ging hier auch mit der 3060 Ti. Teilweise merkt man aber, dass der VRAM voll ist und die Bilder nicht "flüssig" nachgeliefert werden. Unspielbar wird es nicht. Ist halt die Frage, welchen Anspruch man hat. Manchmal werden Texturen auch einfach nicht geladen, wenn der Eimer voll ist.
 
  • Gefällt mir
Reaktionen: bttn
Antimttr schrieb:
Sie ist aber auch schneller wie die RX 6600, daher ist der Preis auch höher.
Wie alt ist denn die AMD Karte (?) ... hm, genau und die (maximal) moderate Leistungssteigerung von Generation zu Generation (in der Leistungsklasse) bei stagnierendem Speicher bei nVidia ist kein Grund/keine Rechtfertigung für eine Preisverdoppelung.

Die RX 6600 hat damals ansatzweise (mit gleichem Speicher in aktuellen Spielen) mehr für WQHD getaugt als jetzt eine stärker speicherlimitierte RTX 5060Ti mit 8GB und daran sollte sich der Produktpreis orientieren (für eine rückschrittige 720p 8GB Grafikkarte wie die RTX 5060Ti 8GB), über 200 Euro sollte dafür nicht mehr preislich angesetzt werden.
 
  • Gefällt mir
Reaktionen: eXe777
kachiri schrieb:
Wenn du genug VRAM hast, brauchst du dir keine Sorgen machen. Auch nicht mit nur 8 Lanes. Wenn du nicht genug VRAM hast, haut die dünne Anbindung natürlich gleich doppelt rein.


Selbst bei der 5090 macht PCIe 3.0 quasi keinen erwähnenswerten Unterschied. Klar. Die ist voll angebunden. Und klar, die ist mit 32 GB VRAM auch mehr als ausreichend ausgestattet.
Ah OK, danke für die Info. Mit ein paar Prozent Einbußen kann ich leben. 8GB kämen mir eh nicht mehr ins Haus. Habe seit einiger Zeit einen guten WQHD Monitor und muss daher immer mehr Abstriche bei Auflösung bzw. Settings machen. Kann ich momentan noch mit leben, aber eine neue GraKa ist nach über 3 Jahren auch mal wieder drin. Habe halt nur keine Lust auf einen Komplettumbau.

Man wird halt älter. Ist aber irgendwie schon lustig, früher wollte ich immer das beste und schnellste, hatte aber die Kohle nicht, jetzt habe ich die Kohle, bin aber zu faul oder kann die Ausgaben nicht vor mir selbst rechtfertigen. Zumal 1000€ und mehr allein für eine GraKa schon Wahnsinn sind. Das war früher auch mal anders, die guten alten Zeiten halt… 😉
 
kachiri schrieb:
Es geht gar nicht darum, NV zu verteidigen. Denn all das was hier zur 5060 Ti 8 GB geschrieben wird, zählt gleichermaßen für die kommende 9060 XT 8 GB ebenso.
Wobei man schon erwähnen darf, dass NV das mit dem Speichermanagement etwas besser hinbekommt und die 8 GB bei AMD noch einmal ein größeres Problem sind.
Also seine Argumentation ist jetzt die Unzulänglichkeiten der 5060ti mit 8GB mit der 9060 zu relativieren. Weil sie auch mit 8GB kommt.
Und die 9060 hast du schon Zuhause das du diese Aussage zum Speichermanagement geben kannst?
Ich würde Tests abwarten.
Denn eins hat und Blackwell gelehrt, auch Nvidia kann mal ins Klo greifen.
Und ob das Speichermanagement von Nvidia wirklich besser ist wenn man hier in GPU Tests sehen konnte das Spiele nur soviel speier reservierten wie das Topmodel von Nvidia zu bieten hatte z.b. 10GB obwohl man bei AMD 16GB hatte.
 
wir betrachten so eine 60er karte quasi als den untersten einstieg wenn man halbwegs ernsthaft spielen möchte und da sind 8gb vram inzwischen einfach fehl am platz - die preise tun ihr übriges, so dass man bei den aktuellen gpu's fast durchweg wesentlich mehr vram erwarten könnte.
das so eine "rtx5050" dann evtl. mit 8gb daherkommt mag noch akzeptabel sein, aber ansonsten kann ich mir ausserhalb irgendwelcher komplettsysteme in den kaufkraftschächeren regionen der welt solche 8gb karten kaum noch vorstellen - aber da werden sie wohl noch eine weile verkauift werden.
 
Die Fünftschwächeste Karte von einem Hersteller darf nach wie vor auch eine 8GB Variante haben. Die 8GB Variante ist ja dann in dem Sinne die Karte auf Platz 6 lol.
 
  • Gefällt mir
Reaktionen: frames p. joule
Knergy schrieb:
Was soll denn da für 600-700 € mit mehr als 8 GB angeboten werden?
Weil es sonst nur Schrott zu kaufen gibt bedeutet es nicht das es auf einmal akzeptabel wird teuren Schrott anzubieten wir reden hier nicht von einer 200€ Grafikkarte.
 
ThePlayer schrieb:
Und ob das Speichermanagement von Nvidia wirklich besser ist wenn man hier in GPU Tests sehen konnte das Spiele nur soviel speier reservierten wie das Topmodel von Nvidia zu bieten hatte z.b. 10GB obwohl man bei AMD 16GB hatte.
Das sieht man insbesondere in Spielen, wo der Speicher eben knapp oder zu wenig ist. Da schmiert AMD deutlicher ab, als NV. Bei gleicher Ausstattung. Das ist kein Geheimnis und nichts, was ich mir an den Haaren herbeiziehe.

https://www.computerbase.de/artikel..._benchmarks_in_wqhd_uwqhd_und_ultra_hd_update

Schau dir mal den Abstand zwischen der 4060 und der 7600 an. Die 4060 hat hier am Speicherlimit deutlich weniger Probleme als die 7600.

Das "Speichermanagement" ist btw. vor allem eine treiberseitige Geschichte.

Und die "Unzulänglichkeit" der 5060 Ti mit 8 GB kann ich ausgleichen, indem ich 50 Euro mehr investiere. Haben oder nicht haben. Wir sind alle frei genug, unsere eigenen Entscheidungen zu treffen da muss man nicht immer Menschen, die eine für sich selbst nicht nachvollziehbare Entscheidung treffen, nicht als unzurechnungsfähig bezeichnen. Was ja gern mal genau so dargestellt wird. Der arme uninformierte Kunde ohne Ahnung.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Perdakles schrieb:
Ich habe hier noch einen 1680x1050 Monitor auf dem Dachboden rumstehen. Der wäre ideal für dich laut deiner Aussage 😉 Ich mache dir einen Spitzenpreis
Na brauche ich nicht.Ich habe nen 1650x1050 Bildschirm als Reserve.Ein anderer Platz ist auch noch ein 1650x1050 Bildschirm rumstehend,der einer meiner Kumpels zum zocken verwendet. Sollte einer meiner Bildschirme mal defekt sein,steht da noch ein 24" Full HD Bildschirm,den mein zweiter bester Kumpel zum zocken verwendet als Reserve herum.Ich hole also zuerst den anderen Full HD ,dann bekäme er nen Bildschirm mit niedrigeren Auflösung.Probleme hat keiner von denen,zocken also auch mit kleineren Nativen Auflösung. Sollte mein Reserve Bildschirm in Benutzung sein,also keine Reserve mehr haben,komme ich gerne auf dein Angebot zurück. Denn das sind echt coole Bildschirme.Wobei so langsam mehr HZ bei mir in Zukunft wohl eher einzug halten wird.Zwar nicht mehr Auflösung,aber in andere Richtung.
Ich habe ja gesehen welchen Unterschied es ausmmacht,zwischen 60 & 120 vzw 144 HZ.Ich hätte auch nix dagegen mit kleineren Auflösung mit mehr HZ.Es lässt sich mit kleineren Auflösung das mehr an FPS eben leichter erreichen.
In welche Richtung in Zukunft die GPUS gehen werden,mal sehen.Die Leistung steigt ja auch so langsam in der naja sagen wir mal unteren Mittelklasse,endlich mal an.Das freut mich. Bis mal die 200-300 € Klasse mal mehr Leistung haben wird,das wird allerdings nicht dauern.Die Zeit und Geduld die bringe ich mit und der geringe Anspruch,der macht alles möglich.

Mein Bester Kumpel geht sogar noch ein Schritt weiter als ich,hat mit 60 Hz mit 30 FPS keine Probleme.Der ist noch anspruchsloser als alle anderen Menschen und sogar hier.
Hat deutlich schlechtere GPU und wird gewiss Indian Jones mit Low und 720p mit 30 FPS zocken,da bin ich mir absolut sicher.So ne geringe Schmerzgrenze hat echt kaum einer auf der Welt.Ruckler die sieht er nicht.Hat früher sogar mit nur 8 fps gezockt gehabt.Machte sich lustig das alles in Zeitlupe geht,ja da braucht man schon derbe Humor um das zu ertragen.
 
latiose88 schrieb:
Mein Bester Kumpel geht sogar noch ein Schritt weiter als ich,hat mit 60 Hz mit 30 FPS keine Probleme.Der ist noch anspruchsloser als alle anderen Menschen und sogar hier.
Kommt immer auf die Spiele an. 60 Hz 30 FPS bei Spielen wie Baldurs Gate 3 kann man machen, solange die 30 FPS auch konstant erreicht werden. Natürlich ist es mit mit 165 Hz, VRR und potenter GraKa „flüssiger“, aber das Spielerlebnis leidet darunter jetzt nicht gewaltig. Da ist eine möglichst hohe Auflösung fast wichtiger. Bei anderen Spielen wie z.B. Shootern sieht das natürlich anders aus.
 
Tulol schrieb:
Wozu?
Die 16GB Version wird es nicht juvken da alles benötigte auf der Karte im. RAM liegt und bei der 8GB Version wirds bei den Spielen bei denen die 8GB volllaufen nocht schlechter.
Und warum bindet man dann nicht einfach alle Karten mit PCIe 1.0 an, wenn es doch keinen Unterschied macht?

Zwischen PCIe 5.0 und 3.0 ist es ja schon ein Sprung - und irgendwie müssen die Daten ja auch zur Karte hinkommen, um den VRAM zu füllen. Also ich fände es schon interessant, das zu sehen.

Techpowerup kommt übrigens auf 4% weniger Leistung - als "nicht jucken" würde ich das nicht bezeichnen...
https://www.techpowerup.com/review/nvidia-geforce-rtx-5060-ti-pci-express-x8-scaling/31.html
 
@Buster75 der hat das bei Shootern so gemacht,wie Serious sam 3,ich selbst habe das große kotzen bekommen.Die GPu war unter den Mindestanforderung gewesen.Ich wusste nicht das es sogar startet,aber mit genug schmerz resistens scheint es kein Problem zu sein.Wenn man will kann man alles zocken.Nen Egoshooter mit 8fps ist aber für mich schon mehr als Schmerz.Für ihn kommt es nur aufs zocken an,ohne hang zu guter Grafik.Der zockt soggar alte Spiele mit nur 800x600 und ihm stört das nicht wenn es unscharf ist.Der schio0t auuf Grafikoptik wie der Hund zum scheißen. Ich konnte das nicht mit ansehen.Kennst du so einen der hauptsache ich kann das game zocken,egal auf Grfaik und so?
So wird auch mit Indiana Jones vor gegangen.Ist zwar unter den Midnestanforderung,aber wenn man die Auflösung richtig runter geht,geht alles.Kann Indiana Jones 800x600 bzw 800x640? Ich denke mal das er mit der niedrigsten Auflösung was so geht und niedrigsten Einstellung was geht.Ich denke mal wenn man es drauf ankommen lässt kann man auch Indiana Jones mit weniger als einer rtx 2060 Leistung zocken.Denke mal das es sogar starten wird,bei alles auf Low.Und fps kein Problem mit 30 oder weniger hat.
Dann ist das durchaus möglich.Empfehlen würde ich das allerdings nicht.So wie ich ihn kenne,wird er sagen,wieso das Game Startet doch,ich weis nicht was du hast.
Das es dann nicht gut läuft,kann man sich ja denken.Am besten man schaut nicht hin,wie er so zockt.Der Pc ist von 2018.Man kann sich ja denken,wie gut es auf einem i7 6700 so laufen wird.Da wird sogar die Cpu wohl limiteren.Dass hält ihm dennoch nicht davon ab,das Game zu starten.
Sein Bruder hat ihm weis machen wollen,das damit auch aktuelle Games laufen würden,weil super Leistung.
 
Es ist halt irgendwo auch interessant. Hier meckern die meisten (mich eingeschlossen) über diese VRam Bestückung. Der Großteil allerdings wird kein Problem mit der Karte haben. Da sind wir halt echt in unserer eigenen Bubble.

Kumpel von mir zockt mit seiner RTX 3070 in 3440x1440. Seine Aussage zum Thema aufrüsten: "Warum? Läuft doch alles".
 
Nvidia hätte auf diese karte verzichten sollen. Niemand wird wegen 50€ auf die 8GB variante zugreifen. Bei 4060 non Ti 8GB kann ich verstehen, aber nicht bei Ti.
 
ButterDieb schrieb:
Ich bin mal gespannt ob es dann die nächste Generation in diesem Preisbereich schafft, sich der 8GiB endlich mal zu entledigen.
Ja, es reicht zur Zeit für FullHD wohl in den meisten Fällen aus. Aber es ist schon ein stolzer Preis der aufgerufen wird für die Specs.
NV:1070/1080/2070/2080/3070=8 4070=12
1080 TI=11 2080 TI=11 3080=10 3080 TI=12
5070=12😂 5070 TI=16

AMD:5700 xt=8 GB 6700=10 6700/7700XT=12
6800/XT=16 7800 XT=16 9070/XT=16
 
  • Gefällt mir
Reaktionen: ButterDieb
Chismon schrieb:
von sich (als High-End Gamer in seiner Blase) auf andere zu schließen bzw. zu verallgemeinern und anderen Gamern mehr Kosten (eines WQHD PC Gaming Systems als Minimum) nahe zu legen oder womöglich gar (testseitig) vor zu schreiben, die sich das evt. nicht leisten können, finde ich schwierig.

WQHD Monitore bekommst du mittlerweile fast schon hinterhergeschmissen und gerade in diesen Zeiten durch die Upscaler hast du mit FSR/DLSS Quality auf einem WQHD Monitor ohnehin das bessere Erlebnis als auf einem FHD Monitor und benötigst dafür nicht mehr Leistung.

Früher war das noch schwieriger, weil die GPU passend zum neuen Monitor mitwachsen musste, heute stellt man einfach den Upscaler eine Stufe runter und bekommt immer noch ein besseres Bild bei gleicher Performance.

Das ging mir selbst auch so, ich hatte lange gehadert, von WQHD auf UWQHD zu wechseln, weil ich ja damit auch entsprechend mehr Pixel befeuern muss, aber im Endeffekt hab ich jetzt einfach nur von DLSS Quality auf DLSS Balanced runtergestellt^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Shio
In Bezug auf euren Podcast - der übrigens wieder äußerst unterhaltsam ausfällt, vielen Dank :)

Eure Frage:
Wieso macht man HDR "nur manchmal" an?
Antwort:
Weil es unter Windows einfach katastrophal aussieht. Auch Spiele, die HDR unterstützen, sehen nicht per se toll damit aus. Was hingegen - zumindest mit meinem Hisense 100E77NQ Pro - durch die Bank weg hervorragend funktioniert, sind Youtube-Demos und selbstverständlich abseits des PCs native 4K UHD Blu-rays über den Panasonic DP UB450.

So sehr Eyecandy in dieser Konstellation auch z.B. Encanto (importierte US-Scheibe, da bei uns nicht verfügbar) ist, so lasch ist alles andere, was ich bisher in Sachen HDR im Spielebetrieb gesehen habe.

Hat denn hier jemand explizite Empfehlungen, welche Spiele in HDR so richtig überzeugen können? Wenn ihr etwas empfehlt, welche Referenzwerte habt ihr sonst so?
 
gartenriese schrieb:
Danke. Geben die Daten aus der Steam-Umfrage da was her?
Die öffentlich einsehbare Auswertung macht da keine hilfreichen Angaben. Zu irgendwelchen Mainboard-Chipsätzen gibt es gar keine Angabe und bei den CPUs wird auch nur zwischen Hersteller, Kernanzahl und Takt differenziert, aber keine genauen Modelle oder Generationen.

Aber selbst wenn die einzelnen CPU-Modelle aufgeführt würden, ließe das auch nur eingeschränkt Rückschlüsse auf die Verbreitung der PCIe-Generationen zu. Denn bspw. Zen 3 kann sowohl mit einem 500er Board (PCIe 4.0) als auch mit den älteren 300er und 400er Boards (PCIe 3.0) verwendet werden.
Andersrum könnte man die Verteilung der Chipsätze auch nicht zweifelsfrei der verwendeten PCIe-Generation zuordnen. Denn selbst wenn das Board bzw. der Chipsatz PCIe 4.0 oder 5.0 könnte, ist bspw. mit einer Ryzen APU, also den G-Modellen, nur PCIe 3.0 bzw. 4.0 nutzbar. Denn AM4 APUs können unabhängig vom Board maximal 3.0 und AM5 APUs maximal 4.0.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und gartenriese
Zurück
Oben