Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRefresh gestoppt: Nvidia soll GeForce RTX 50 Super vorerst gestrichen haben
Ich wüsste nicht, warum eine kaum schnellere Super-Karte (bei der 4080 zu 4080 super waren das lächerliche 1-2% Mehrleistung) mehr Nachfrage und damit einhergehend mehr Umsatz generieren soll? Vor allem die Highend-Karten brachten absolut nichts Neues was der Kunde nicht ohnehin schon hatte.
Ein attraktiverer Preis würde den Umsatz vielleicht ankurbeln, aber doch nicht "Super" auf den Karton schreiben und im Promillebereich die Werte erhöhen
Selbstgemachtes Leid würde ich sagen. Selbst bei Konkurrenzfähigen Produkten von AMD wird ja oft lieber zu Nvidia gegriffen, weil man die immer kauft. Wobei 2 Marktteilnehmer insgesamt zu wenig sind. Leider sind bei Grafikkarten und Prozessoren die (finanziellen) Einstiegshürden zur Marktteilnahme so hoch, das es sich kaum einer leisten kann bzw. will.
Es gibt für NV aktuell eigentlich kaum Gründe, ins Gaming Segment zu investieren. Tun sie bis zu einem gewissen Grad aber noch. Vermutlich eben mit dem Gedanken: Warum ein Segment aufgeben, indem man immer noch unangefochtener Marktführer ist.
Nein. Aber sie brauchen willige und bilige Beta-Tester.
Denn tatsächlich ist der Gaming-Markt natürlich viel toleranter, was Fehler angeht, als Data-Center.
Dann war die Entscheidung von AMD auf GDDR6 zu setzen ein Volltreffer nicht nur bringt die höhere Speicherbandbreite bei Games nicht, noch wird potenziell die Geldersparniss in der Speicherkrise hier besser sein und der Nachteil das man keine 3gb Module benutzen kann lößt sich in Luft auf weil man sich eh nicht leisten kann/will das zu benutzen. So Win/Win/Win... Zumindest für den Preis- und Leistungsbereich in dem RDNA4 kam.
Ich finde die 5070 ist für heutige Verhältnisse angemessen eingepreist für knapp über 500€. Wer die zusätzlichen 4 GB will, kann zur gleich teuren 9070 greifen und muss dann halt mit der schlechteren Verbreitung von FSR leben. Gemäß meiner Signatur war mir mehr VRAM wichtiger.
Ergänzung ()
kachiri schrieb:
Wofür also mehr VRAM? Ich habe darauf bis heute keine Antwort bekommen.
Nein, wie kommst du darauf?
Kuck dir doch mal Netflix, Prime, usw. da ist nix gut für den Kunden. Du besitzt dann weder die Spiele noch die Hardware.
Du mietest nur. Bist also dem Anbieter ausgeliefert. Und der dreht die Daumenschrauben an, sobald er eine gewisse Menge an Abonnenten hat. Dann wirst du ausgeblutet.
Aus Kundensicht ist das fatal. Und für Unternehmen, Entwickler usw. auch. Die müssen dann richtig Geld ausgeben um Zugriff zu bekommen. Als 1-Entwickler-Studio wird es dann schwer.
Die großen Publisher und co werden dann richtig profitieren. Ganz zu schweigen von den Megacorps Google, Amazon, Microsoft usw. Wenn du selber keine Grakas mehr bekommst und um die Leitung im Rechenzentrum mit diesen Unternehmen konkurrierst, dann wirst du richtig untergebuttert. Das festigt die Marktdominanz.
Ganz zu schweigen, dass damit Nvidia ein Monopol aufbauen kann, dass das heutige in den Schatten stellt.
Ne danke, sowas brauche ich nicht.
Leider wird es wohl die Zukunft sein. Gamers nexus hat das auch mal beleuchtet worauf das hinauslaufen wird:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Hier im Forum wird die VRAM Frage immer etwas arg priorisiert. Ich musste wegen einer Reklamation auch zurück meine 4070ti mit 12 GB und spiele momentan problemfrei auf meinem 4k Fernseher: LoU, AC Shadows, KCD2 und CP77.
@kachiri
Danke, ich habe heute irgendwie den falschen Gedankengang. Die 3050 6GB ist mir sogar bekannt. Ich war irgendwie auf 75W aus, aber die GT 1030 hat ja 30W TDP und das hatte ich innerlich bei der 1630 auch gesetzt, aber gemerkt, dass die ja 75W TDP hat. Bei meinem Anwendungsfall fallen die aber raus: Single Slot und Low Profile gibt es beide nicht. Vermutlich habe ich die beiden deswegen verdrängt. Und deswegen hatte ich auch die Quadros genannt. Die A400 gibt es ja mit 50W und von PNY als extra Low Power Variante mit 30W TDP.
Bei jeder Gelegenheit wird dieses JPR Märchen gebracht - die einzige Quelle auf dem Planeten. Der gesunde Menschenverstand müsste einem schon sagen, dass nicht nur jede 15. verkaufte Karte eine von AMD sein kann.
Und schon gar nicht, weil die aktuelle AMD Generation deutlich besser ist als der Vorgänger, während Nvidia nur verwaltet.
Wenn ich eine Firma statistisch möglichst gut darstellen will, kann man mit Diagrammen hervorragend selektiv vorgehen.
Aber den Regler für die graka Einstellungen kannst du selbst noch bewegen bzw. Einstellen???
Mal im Ernst immer wirklich immer die selben Kommentare hier.... Zum Glück habe ich 20xx mir die so und so gekauft oder diese tolle Aussage wie... Ich brauche mehr vram Speicher... Man dann kauft doch einfach das top Model und gut ist. Immer diese mimimimi.
Ich kotze auch an bei den Preisen und ich lebe davon PCs zu bauen und zu verkaufen aber ich bin realistisch genug zu wissen das ich nur marginal daran was ändern kann. Aber solche Preis wünsche hier , sei es bei CPU oder GPU da Frage ich mich wirklich ob ihr einer Arbeit nachgeht und ob ihr dann vom Chef euch sagen lasst das euer lohn ihm zu teuer ist und er nur den Mindestlohn zahlen will.
Das ist die übliche Leier aber eben falsch - man kann klar sehen wie AMD/ATI in der Vergangenheit an Marktanteilen gewonnen hat nachdem eine gute Generation erschienen ist. Bspw. HD 4000 und 5000, wie auch RX 5000 waren solche Kandidaten…
ErnstHaft99 schrieb:
Bei jeder Gelegenheit wird dieses JPR Märchen gebracht - die einzige Quelle auf dem Planeten.
Der Markt besteht nun einmal nur aus einem sehr geringen Anteil aus dem Bastlergeschäft - im OEM-Markt ist AMD kaum vertreten, da wundern solche Zahlen überhaupt nicht …
ErnstHaft99 schrieb:
Und schon gar nicht, weil die aktuelle AMD Generation deutlich besser ist als der Vorgänger, während Nvidia nur verwaltet.
Mit der Leistung einer 7900 XT(X) und haben aber plötzlich weniger VRAM. Aber NV soll im Midrange-Bereich 18 oder 24 GB liefen. Jopp. AMD der Retter der Gamer/Consumer - nicht
Das ist doch auch wieder total einseitig. Bei RDNA3 wurde Raytracing berechtigterweise bemängelt. Darin liegt die Verbesserung. Effizienterer Stromverbrauch ontop.
Da die 5070 nur 12 GB bietet, kann man so auch nicht argumentieren. Aber hey, der Nvidia-Fanboy wird jetzt einwenden, dass die 4070 ja auch 12 GB hatte und damit wenigstens nichts weniger wurde.
Wieso ist das einseitig? Einseitig ist es, dass NV von Anfang an hätte mehr VRAM liefern müssen, während es bei AMD fein ist, dass es nur maximal 16 GB sind. Sind ja nur Midrange Karten. NVs Karten aber ja... angeblich nicht. Außer man braucht die Argumentation wieder anders, nämlich beim Preis, dann sind NV Karten wieder Midrange Karten die High End Preise haben
feris schrieb:
Nein. Aber sie brauchen willige und bilige Beta-Tester.
Denn tatsächlich ist der Gaming-Markt natürlich viel toleranter, was Fehler angeht, als Data-Center.
Diese Gedankenspiele mögen ja ganz interessant sein und im Kern sind die Überlegungen sicher auch nicht verkehrt. Aber es bleiben am Ende erstmal nur Gedankenspiele und nichts anderes. Oder hast du mal irgendwo eine Glaskugel für mich?
Bisher sind ziemlich viele Cloud Gaming Anbieter o.ä. ja eher gescheitert und ich bin mir auch nicht so sicher, ob der Markt wirklich so groß ist, als sich das lohnt. "PC Gaming" ist Nische. Immer noch. Wird es vermutlich immer bleiben. Die Masse spielt wohl eher Konsole und selbst Konsolen haben es ja immer schwerer, weil die Masse inzwischen recht leistungsstarke Computer in der Hosentasche mitschleppt.
Und auch in Bezug auf Musik- oder Filme: Wir haben nach wie vor die Wahl, ob wir uns Filme oder Musik auf Datenträgern kaufen - und sie damit faktisch besitzen. Oder ob wir Streamen. Das die meisten Leute lieber Streamen, ist halt eine Entscheidung der Menschen. Vermutlich, weil es einfach deutlich billiger ist.
Und nein. CDs, DVDs und Blurays sind nicht teurer geworden. Faktisch wird es sogar günstiger - eben weil es kaum wer kauft - außer der Sammler oder größte Fan. Deswegen kommen Musiker heutzutage ja immer wieder mit fetten "Releasepaketen" um die Ecke...
Es ging schlicht darum, dass auch bei reinen Konsumgütern ein geringer Wertverlust per se erst einmal etwas Gutes ist, und ja, das ist gilt für absolut alles, auch für das Auto. Ob der Grund dafür etwas weniger Erfreuliches, wie beispielsweise Innovationsarmut, ist, spielt dabei erst mal keine Rolle.
Außerdem entsteht Wertverlust des Alten nicht nur durch Innovation des Neuen, sondern schlicht auch durch Verschleiß. Selbst wenn die Autoindustrie in zehn Jahren immer noch exakt die gleichen Autos wie heute bauen sollte, wird deine dann zehn Jahre alte Karre derart runter sein, dass es - trotz null zwischenzeitlicher Innovation - trotzdem zu einem massiven Wertverlust kommt.
Umgekehrt ist Innovationsarmut alleine auch noch kein Garant für Wertstabilität. Wenn zum Beispiel die Nachfrage wegbricht - im Graka-Beispiel etwa dadurch, dass sich Leute massenhaft vom PC-Gaming abwenden - dann sinken auch die (Gebraucht-)Preise.
AAS schrieb:
Eine 10-Jahre-alte GPU ist technisch und softwareseitig praktisch obsolet.
Wie du uns gerade selber groß und breit erklärt hast, stimmt das so absolut nicht, sondern hängt von der technischen Entwicklung ab. So lange die stagniert oder in nur sehr kleinen Schritten erfolgt, wird auch erst mal nichts obsolet, weder Hardware noch Software.
Einseitig ist es, dass NV von Anfang an hätte mehr VRAM liefern müssen, während es bei AMD fein ist, dass es nur maximal 16 GB sind. Sind ja nur Midrange Karten. NVs Karten aber ja... angeblich nicht. Außer man braucht die Argumentation wieder anders, nämlich beim Preis, dann sind NV Karten wieder Midrange Karten die High End Preise haben
Es ist einseitig, weil du die Konkurrenz nicht betrachtest. So kann man nicht argumentieren. Wenn die Nvidia Karten nun 4 GB VRAM hätten, wäre es noch deutlich. Man muss doch immer den ganzen Markt sehen.
Das wäre so, wie wenn (Fantasiezahlen) der neue Mercedes 300 kg mehr wiegt, während die Konkurrenz von BMW trotzdem noch 200 kg schwerer ist.
Sowohl 5070 als auch 9070 sind Midrange-Karten und auch preislich eng beeinander.
Die 12 GB fand ich damals hinderlicher wie den Benefit der Premiumfeatures von Nvidia.
Mein Sohn hat sich eine 5070 gekauft. Er betreibt die Karte an einem alten 4k 144Hz Monitor von mir. Ich bin immer wieder erstaunt, wie gut die Spiele mit minimalen Anpassungen darauf laufen. Aktuell spielt er F1 25 mit DLSS Performance und FG2x mit RT (ohne PT) und ist fast immer bei 144 FPS. Und mir brauch keiner was erzählen, ich sehe das ja bei ihm. Er hat noch kein Spiel gehabt, was die 12Gbyte gesprengt hat. Ja ja ich weiß, aber Skyrim mit Mods unsw. Für ihn ist die Karte High End. Forenbubbles sind nicht die echte Welt BTW : Die MSI Gaming Trio hat im Angebot 550€ gekostet.
Bei der 5070 bekommst du das bessere Featureset, bei der 9070 mehr VRAM. Passt doch.
Bei der 5070 Ti bekommst du das bessere Featureset und genauso viel RAM wie bei der 9070 XT, dafür kostet die 5070 Ti aber auch ein Tick mehr wieder 9070 XT. Passt doch also auch.
Die 5080 hat quasi keinen direkten Konkurrenten von AMD, die 5090 sowieso nicht. Aber da die 9070 XT häufiger mal über der 5070 Ti liegt, ist das sicher ein Produkt, dass irgendwo noch Sinn macht. Da reichen aber auch die 16 GB, weil hätte sie mehr VRAM, würde die Zielgruppe die Karte vermutlich nicht mehr zu Gesicht bekommen
AMD verkauft ja quasi auch eine 9070 XT mit 32 GB für den doppelten UVP Preis einer 9070 XT. Dieselbe Leistung - nur mehr VRAM. Warum? Weil die Zielgruppe nicht der Gamer ist, der aus Sicht von AMD die 32 GB nicht benötigt.
Die 20 und 24 GB in den vorherigen Generationen bei den Gamer Karten war halt so klassisches Spezifikationen protzen. Die 20/24 GB braucht beim Zocken eigentlich kein Mensch. Auch viele Jahre später nicht. Aber haben ist ja besser als brauchen und außerdem liest sich das auf den Datenblättern wie gesagt immer so toll.
Das ist genauso wie die Argumentationskette, die es jahrelang zwischen iPhone und Android Geräten gab, die ja schon früher insbesondere beim RAM etwas "dicker" aufgelegt haben und Apple erst jetzt nachzieht. Wobei das "Nachziehen" letztlich genau im selben Grund für den "Speichermangel" liegt: Lokal ausgeführte AI.
Das habe ich nicht gemeint. Die ganze ständige Wiederholung dieser Zahlen beruht auf einer Quelle, wo nicht mal ersichtlich ist, wie da was zusammengefasst wurde. Allein wegen embedded kann man da schon diskutieren. In einer Ausarbeitung wäre das auch unseriös, weil man Bestätigungen durch andere Quellen braucht.
Bei der sehr schlechten RDNA3 Generation soll AMD 15% gehabt haben und nun mit dem deutlich besseren RDNA4 7%? Das ist doch völliger Schwachsinn.