News Teurer Speicher: AMD soll Radeon-Grafikkarten 10 Prozent teurer machen

blueGod schrieb:
Wird nicht passieren, KI ist gekommen um zu bleiben.

Hat aber ncihts mit der Blase zu tun! Und man braucht nicht einfach 10 mal GPT! 1x GPT reicht. War damals bei Yahoo, Bing und Google nicht anders.... einer setzt sich durch. Und jeder der aufs falsche Pferd gesetzt hat kann seine Kredite nicht abbezahlten und geht Pleite. Und macht Platz für diejenigen die ergebnisse Liefern.

Das da alle nur Mitverdienen wärend das Millarden an Strom und und Infrastruktur verschlinkst glaubst du doch selber nicht. AI wird bleiben. Aber es werden sich auch sehr viele eine blutige Nase holen. Quasi Dotcom 2.0. Da dachte auch jeder das Internet macht alles und jeden Reich. War dem dann auch nciht so.

Und wen man sich das anschau....

1764108200956.png

1764107532719.png




Also ich bin da zum Glück zu Arm um da drinnen zu sein. Aber wen da meine Millarden hin und herschwimmen würdne, würde mir das schon zu denken geben.
 

Anhänge

  • 1764108181207.png
    1764108181207.png
    371,6 KB · Aufrufe: 40
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd, Child, Brrr und 3 andere
Chismon schrieb:
und die mobile RTX 5060 ist immer noch deutlich leistungsfähiger als AMDs überteuerte aktuelle "Gaming"-APUs; bei mir mussten es dann schon noch mindestens 12 GB bzgl. der dGPU sein.
Mein Gaming Laptop (8C/16T) für 1599 € mit 6800M (WQHD/165 Hz) hat schon seit 4,5 Jahren 12 GB ! :freaky:
Ergänzung ()

Araska schrieb:
War das die mit ohne ReBAR?
:evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd, Chismon, OldNewUser und eine weitere Person
Norebo schrieb:
Turing war doch wohl die größte Mennscheitsverarschung und Kundenverhöhnung übehaupt, den Kunden eine fast völlig RT untaugliche GPU zu unerhörten Rekordpreisen anzudrehn, die dann mittels AI Features dazu gebracht werden mußte, die seltenen und oft unbeeindruckenden RT-Titel überhaupt auch nur annähernd in akzeptablen FPS darzustellen und von der GTX 1660 wollen wir mal schön schweigen...
Ja klar, mit den früheren Radeon Modellen kann man nicht mal RT only Titel starten, hat kein FSR4 und der Treiber für <RDNA2 wurde auf den Abstellgleis befördert. Aber Turing ist ja so schlecht lol

Boah was muss ich hier immer lesen, wird immer schlimmer :lol:
 
lynx007 schrieb:
Also ich bin da zum Glück zu Arm um da drinnen zu sein. Aber wen da meine Millarden hin und herschwimmen würdne, würde mir das schon zu denken geben.
Man ist aber nicht arm nur weil man kein Milliardär ist ... (Gelle Roberttt) :evillol:
 
Norebo schrieb:
Turing war doch wohl die größte Mennscheitsverarschung und Kundenverhöhnung übehaupt,
Schon schade,dass ich mich damals blenden habe lassen und die RTX 2070 super anstatt der RX 5700xt gekauft habe.
So musste ich glatt Cyberpunk (dank DLSS) mit über 60FPS spielen, während ich mit der RX 5700XT doch cineastische 30FPS haben hätte können.
Cyberpunk PCGH.jpg
1.png2.png

Norebo schrieb:
Es sind die Nvidia Kunden, die sich das Geld aus der Nase ziehn lassen!
So wirds wohl sein^^
 
  • Gefällt mir
Reaktionen: Quidproquo77
Norebo schrieb:
Erstmal scheint die non-XT die effizientere Karte zu sein - aber laut dem Computerbase Test ist die XT im Teillastbereich effizienter als die non-XT und das passt gut zu meinem Nutzerprofil, wo ich viele Spiele im Teillastebereich laufen hab und ein paar wenige frei drehen lasse, ich bekomm mit der XT also sowohl Effizienz als auch Leistung und schlag zwei Fliegen mit einer Klappe, die nur wenig mehr kostet.
Meine Argumentation war: Die XT liefert ca. 14% mehr Leistung, kostet in der Anschaffung 16% (bezogen auf die Reaper) mehr und im (Volllast-)Betrieb 38% mehr.
Die Anschaffung war für "The Last of Us 1/2", "God of War (- Raganrök)" und "Horizon Zero Dawn/Forbidden West", und in allen Games würde weder die non-XT noch die XT auf UHD im Teillastbereich laufen (ich stelle FPS-Limit auf 100 oder 120). Andererseits zocke ich (leider) zu wenig, somit würde sich die höhere Teillast-Effizient der XT bei mir nie amortisieren.

Ich denke auch, dass mein Seasonic PX-650 die XT geschafft hätte, aber Hardware wandert bei mir in der Familie im Ringtausch weiter, daher darf der Kühler nur 2 Slots benötigen und die Karte sollte (manuelle Senkung Spannung und/oder Leistungsaufnahme ist okay) auch mit 450...500W-Markennetzteilen lauffähig sein.
 
  • Gefällt mir
Reaktionen: Norebo
Ich bin inzwischen der einzige PC Nutzer hier, Tablets, Laptops und Smartphones haben das Ruder übernommen.

Wir hatten mal 3 PCs, 2 Amigas, 2 C64 und ein Sega Megadrive im Haus...die PCs waren auch anständig vernetzt, am Amiga gab es Splitscreen oder Nullmodem-Verbindung für Multiplayer.

Aber als einziger Desktop-PC-Nutzer und einziger Linux Nutzer kann ich nichts mehr weiterreichen.

Ist aber auch nicht so schlecht, weil mir damit die Arbeit für Fehlersuche und Prolbemlösung erspart bleibt, andrerseits bin ich inzwischen recht eingerostet diesbezüglich - hat alles seine Vor- und Nachteile! ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und JackTheRippchen
Im Augenblick scheint der Preis für AMD Grafikkarten eher nach unten zu gehen. Vor ein paar Wochen war die 9070 XT für 600 € noch die Ausnahme. Jetzt scheint sie die Regel zu werden.

Screenshot 2025-11-26 120942.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Alphanerd und Mcr-King
DaHell63 schrieb:
Schon schade,dass ich mich damals blenden habe lassen und die RTX 2070 super anstatt der RX 5700xt gekauft habe.
So musste ich glatt Cyberpunk (dank DLSS) mit über 60FPS spielen, während ich mit der RX 5700XT doch cineastische 30FPS haben hätte können.
Anhang anzeigen 1679156
Anhang anzeigen 1679157Anhang anzeigen 1679158


So wirds wohl sein^^
Bei mir ist es so, das ich Cyberpunk ganz passabel auf einem "altem" PC mt nem FX8350 und ner RX480 8GB von einer Festplatteninstallation mit im Mittel flüssigen 45 FPS bei ordentlichen Grafikeinstellungen von Tag 1 des Releases, sogar ganz ohne die vielen Probleme aller anderen, spielen konnte.
Im ganzen Spiel von der Releaseversion bis patch 1.3 hatte ich 10 T-Poser und 1 kaputte quest (wobei ich viele Fixerquests ausgelassen hab).
Als Phantom Liberty rauskam hatte ich im alten, dann hochgepatchten Cyberpunk Startgebiet Crash um Crash und erst ab Phantom Liberty lief es tadellos.

Cyberpunk sieht ohne RT excellent aus und ich hab RT auch heute noch nicht an, weil es mir weder gefällt, noch auffällt.
Ich spiel auch Witcher 3 Next Gen ohne RT weil es absolut fantastisch aussieht und man auch da RT komplett nicht braucht.

Die 20er Serie war halt die early early adopter Auflage der RTX Serie und early adopter haben selten einen preiswerten deal - vor allem wenn man die herausragenden GTX 10xx Karten dagegenstellt und die RTX 30er Karten, deren P/L von den Umständen gekillt wurde.

Meine RX9070XT ist jedenfalls auf dem Weg, mal sehn ob es sich lohnt - wobei ich im Moment noch etliche Stunden mit "Noblesse Oblige - Legacy of the Sorcerer Kings" beschäftigt bin, das ist ein RPG Maker Game im Progress mit jetzt 16 Kapiteln glaub ich und neben "Numina" ein Beispiel, das Grafik viel, aber nicht alles ist.
Läuft sogar unter Linux als ein zu Steam hinzugefügtes Spiel.
 
  • Gefällt mir
Reaktionen: SweetOhm
Norebo schrieb:
Bei mir ist es so, das ich Cyberpunk ganz passabel auf einem "altem" PC mt nem FX8350 und ner RX480 8GB von einer Festplatteninstallation mit im Mittel flüssigen 45 FPS bei ordentlichen Grafikeinstellungen von Tag 1 des Releases, sogar ganz ohne die vielen Probleme aller anderen, spielen konnte.
Mir ging es so mit CP2077 auf der PS4 Standard.

Natürlich wurde diese Fassung vom Hersteller unsupported, obwohl sie den vollen Preis gekostet hat.
 
  • Gefällt mir
Reaktionen: Norebo
DaHell63 schrieb:
Schon schade,dass ich mich damals blenden habe lassen und die RTX 2070 super anstatt der RX 5700xt gekauft habe.
So musste ich glatt Cyberpunk (dank DLSS) mit über 60FPS spielen, während ich mit der RX 5700XT doch cineastische 30FPS haben hätte können.
Starte mal Indiana Jones oder Dark Ages auf einer 5700xt ; )
 
SavageSkull schrieb:
Du würdest auf echte Frames verzichten?
Wir reden hier in den meisten Spielen von 10%, RT/PT eher oder Vorteil GeForce das sind Leistungsbereiche auf diese immer sehr viele verzichten können, solange es sich um eine Nvidia Karte handelt. Natürlich lässt sich dieser objektive Leistungsverlust in RR/Seichten RT Games mit dem besseren Upscaler im Performancemodus, MFG, mehr Reflex, dem ein oder anderen GameBundle bzw. GameSupport oder Remix usw. in den Titeln bestens kaschieren, womit einige dann lieber die GeForce nehmen, während andere auf die 16GB VRAM setzen, weil sie zum Beispiel einen 4K Monitor nutzen.

Es ist wie mit allem so, es ist rein auf die Fakten bezogen eine ziemlich enge Kiste welche Karte bevorzugt wird, das zeigen auch die Retailkäufe bei Amazon. Die 5070 (6000 Units) ist dort weit vor der 9070 (250)

Nur weil wir uns hier ein einer extremen Blase befinden und der unterlegene Marktteilnehmer, mit den insgesamt langsameren GPU Produkten über 50% Marktanteil stellt, während der andere (Intel) bei CPUs nur noch auf 20% kommt und das obwohl er der Marktführer ist.
Also rein faktisch gesehen, ist hier schon ein deutlicher Bias erkennbar.
SavageSkull schrieb:
(Eine 9070 ist schneller als eine 5070) Und das mit Fake Frames ausgleichen wollen?
Die 5070 ist ab 499 Euro erhältlich inkl. Arc Raiders, die Radeon beginnt bei 515 Euro, also grundsätzlich ähnlicher Preis, aber kein Bundle bei der Radeon. Mehr oder weniger 30-40 Euro teurer.

Screenshot 2025-11-26 142304.png

SavageSkull schrieb:
Die Renderzeiten werden nicht besser. Entweder es ist ohne das Feature flüssig oder nicht. MFG macht ein Spiel nicht flüssiger oder schneller.
Multi Frame Generation macht genau das, es macht Spiele flüssiger fürs Auge und kombiniert das mit Reflex, womit die Eingabelatenz in fast allen Fällen niedriger als Nativ ist.
So gesehen in Cronos The New Dawn, Ouer Worlds 2, hier spielt es sich selbst mit einer 5060Ti dank Reflex und MFG wie auf einer 9070XT. Was bringt mir also die Radeon in den Fällen?
Mit DLSS FG geschieht das automatisch. Bei FSR Frame Gen funktioniert das dagegen nicht, hier benötigt es deutlich mehr FPS für ein gutes Spielerlebnis als bei DLSS FG.
Screenshot 2025-11-26 143054.png

Mit der Radeon spielt du somit mit 95ms Latenz + zusätzlich jene aus der Framegenerierung.
MFG macht das Spiel hier wesentlich flüssiger, ohne merkbar die Latenz zu erhöhen.
Was sind denn schon 3ms?
SavageSkull schrieb:
DLSS war auch für mich lange ein relevanter Vorteil. Aber mit FSR4 habe ich die gleiche Qualität endlich auch mit AMD.
Die gleiche Qualität ist das nach wie vor nicht, auch wen DLSS4 teilweise Probleme mit dem UE5 Denoiser und Wasserdarstellung hat. Insgesamt ist DLSS vor allem im Performancemodus insgesamt noch ein gutes Stück besser (Bildstabilität), im Quality Modus ist das vernachlässigbar.
SavageSkull schrieb:
Valve pusht Linux gerade ziemlich stark und Nvidia ist da aufgrund ihres Treibers echt ein Nachteil
Linux ist eine ziemlich schwäche von Nvidia, da stimme ich dir zu.
Mcr-King schrieb:
Das stimmt, und allgemein sind die Treiber bei NV zurzeit eher bescheiden. Außerdem ist der Stromanschluss auch so ein Punkt, bei dem ich mir denke: Nee, lieber nicht.
Die Treiberprobleme sind mittlerweile schon seit gut einem halben Jahr Geschichte, bzw. Stromanschluss ist bei den wenigen Einzelfällen völlig irrelevant. Wenn es danach ginge, darfst du keine aktuelle GPU in irgendein System einbauen.
 
Zuletzt bearbeitet:
SweetOhm schrieb:
(8C/16T) für 1599 € mit 6800M (WQHD/165 Hz) hat schon seit 4,5 Jahren 12 GB ! :freaky:
Das war damals auch noch ein guter Deal (die letzte einigermaßen gute mobile dGPU-Generation von AMD, die nachfolgende 7000er Generation war eher eine derbe Enttäuschung, nicht nur aber auch wegen der schlechten Verfügbarkeit und zudem hohen Preisen und suboptimaler Modellkonfigurationen/-auswahl), aber mittlerweile ist AMD da leider komplett raus (m.E. ein großer Fehler) und nVidia hat nun eben ein Monopol auf mobile dGPUs und man als Verbraucher keine echte Wahl mehr.

Insgesamt bekommt man jetzt aber vergleichbar mehr mit einem RTX 5070Ti (12GB) Notebook (minimal langsamer als ein Notebook mit mobiler RTX 4080 (12GB), auch modell-/kühlungs- und anwendungsabhängig (z.B. im 3D Mark Time Spy schwächer, im 3D Mark Fire Strike besser)) für weniger Geld (unter 1900 Euro) als vor einem Jahr (vergleichbare Notebooks mit mobiler RTX 4080 nicht unter ca. 2300 Euro) und klar, wegen der Monopolstellung nVidias und nahenden Speicherkrise dürften potente Gaming/Content Creator Notebooks in Zukunft noch teuer werden.

Vergleichen sollte man Dein damals etwas günstigeres RX 6800M Notebook und die CPU aber nicht mit meiner Zen4 Dragon Range Refresh CPU und RTX 5070Ti (300Hz QHD+/1600p Display), was Leistung und Features angeht, und ich finde das preislich jetzt (während des Black Friday) bei meinem neuen Gerät noch halbwegs akzeptabel (bin von den "inneren Werten" des XMG Apex 16 Max bisher angetan, habe aber erst eine zweite SSD installiert und noch kein Betriebsystem bzw. es noch nicht im Betrieb ausprobiert ;) ).

Wenn AMD die ziemlich effiziente RX 9070 (non-XT) als mobile/heruntergetaktete Notebookversion (bei XMG) angeboten hätte für einen fairen Preis, wäre ich sicherlich auch dort fündig geworden, aber man hat sich bei AMD wohl leider entschieden komplett auf überteuerte/schwächere Strix APUs zu gehen.

Deine RX 6800M wird sicherlich noch eine Weile gute Dienste im Notebook leisten (und ja, eine Akkuerneuerung, wenn nötig, könnte sich für Dich/Dein 4,5 Jahre altes Notebook irgendwann lohnen anstatt nach einem neuen (vermutlich deutlich teureren) Gerät zu suchen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Ach ja, ein kleines Beispiel aus der Praxis mit dem tollen AMD Support.
Kunde möchte aktuelles Windows+Treiberpaket auf seinem MagicNUC 3550H System installiert bekommen. Hersteller stellt aktuelles BIOS zur Verfügung, Sicherheitsupdates, alles prima.

Nun kommen wir zur Installation des Grafiktreibers:
Letzte stabile Installationsmöglichkeit. 23.19.08 aus Ende 2023.
Sicherheitsupdates laufen auch über den Grafikkartentreiber.
Launch der APU war Januar 2019, nicht einmal 5 Jahre.

Aber unten in der Werbung steht "We Love Gamers". Galgenhumor. Saftladen.

,rschlekken.png
 
Zuletzt bearbeitet:
Eigentlich sollte 25.8.1 mit dem 3550H sprechen...
 
  • Gefällt mir
Reaktionen: Quidproquo77
Dachte ich auch..., alles schon versucht.
Läuft die Kiste eben mit nem 2 Jahren alten Treiber.^^
BugReport rausgeschickt.
 
Zuletzt bearbeitet:
Danke für deine Ergänzung. Hab ich mittlerweile auch gefunden, naja was will man da noch sagen, außer dass man von dieser Firma keine APU mehr guten Gewissens empfehlen kann, weil nach wenigen Jahren sämtlicher Support einfach gestrichen wird. Wird dann halt Lunar Lake oder ein 285H fürs Büro.
 
Zuletzt bearbeitet:
Zurück
Oben