News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

TopKak schrieb:
Ich hatte mir das Video gestern schon angesehen und neue Bilder hin oder her, aber sowas voreingenommenes hab ich selten erlebt. Wie man sich so lang an den banalsten Details stören kann und einem dann noch was von Fairness vorheucheln will ist schon echt ekelhaft. Der Typ hat nichtmal die Anschlüsse korrekt bezeichnen können obwohl er direkt im Anschluss Bilder zeigte, auf denen sie zu sehen waren. Meinungsmache vom feinsten.
Man kann den Clown auch nicht ernst nehmen^^
Aus der YT Szene kommt noch der beste Content von GamersNexus und "Harbourboxed"
 
  • Gefällt mir
Reaktionen: dr. lele
SavageSkull schrieb:
G-Sync ist auch so eine Situation, bei dem AMD Fanboys die Situation gerne verdrehen.
G-Sync Monitore waren auf dem Markt bevor HDMI sich nur ansatzweise irgendetwas im Standard bezüglich variabler Wiederholrate definiert hatte. Die ersten Freesync Monitore die auf dem Markt kamen hatten keinen Scaler der vom HDMI Standard oder AMD vorgegeben war, sondern eine Lösung dort zwar von AMD angesprochen werden konnte aber so bescheiden[...]

G-Sync Monitore haben auch kein VRR über HDMI geboten, da war am Anfang immer Display Port notwendig. Die dahinter liegende Technik ist auch nicht von Nvidia erfunden worden, sondern war schon lange im Einsatz um den Stromverbrauch von Bildschirmen an mobilen Geräten zu reduzieren. Nvidia hat das Prinzip dieses Features von Embedded DisplayPort 1.0 in Kombination eines Monitormoduls und bestimmten Anforderungen an Display und Overdrive-Parameter für den PC gebracht und als G-sync vermarktet.

AMD hat das Feature vom Embedded DisplayPort 1.0 für den Display Port 1.2 Standard portiert und der VESA zur Aufnahme in den Standard vorgelegt.
Daraus ist dann mit dem Display Port 1.2a das optionale Feature Adaptive-Sync geworden, wobei die Treiberumsetzung bei AMD dann Free-Sync genannt wurde. HDMI kam dann später als Erweiterung hinzu.
Im Gegensatz zu Nvidia hat AMD keine weiteren Vorgaben an die Monitorhersteller gemacht, deshalb hing die Qualität der Umsetzung immer am Aufwand, den sich der Monitorhersteller gemacht hat.
 
  • Gefällt mir
Reaktionen: Otsy, NMA, Inxession und 3 andere
@ZeroStrat
Die iCX Karten haben Sensoren auf dem Board verteilt mit denen man z.B zusätzliche Temps erfassen kann. Was man am Ende mit all den Daten anfangen soll bleibt mir allerdings ein Rätsel.
 
  • Gefällt mir
Reaktionen: KCX
ZeroStrat schrieb:
Klär mich auf bitte, ich kenne die Features der EVGAs nicht.
Bei EVGA kannst Du auch den Speicher usw. auslesen. Ging bei meiner 1080/1080Ti und anscheinend
auch bei den neuen Karten.
 

Anhänge

  • EVGA.PNG
    EVGA.PNG
    1,4 MB · Aufrufe: 422
  • 3000.PNG
    3000.PNG
    657,5 KB · Aufrufe: 409
  • Gefällt mir
Reaktionen: .Sentinel., Cpt.Willard, Onkel Föhn und 2 andere
Colindo schrieb:
Meinst du DLSS? Für etwas anderes werden die Tensor-Cores nicht genutzt. DXR ist für alle offen und heißt bei Nvidia nur RTX.
Tensor Cores kannst du für alles mögliche Nutzen. Die füren lediglich 4x4 Matrix Operationen in Form von D = A * B + C aus.
Damit eignen sie sich aber vor allen Dingen sehr gut für Neuronale Netze und deshalb werden dort so Dinge, wie DLSS, RTX Voice oder auch der KI Denoiser implementiert. Man darf nicht vergessen, dass das Denoising teilweise rechenintensiver ist als das Raytracing selbst und man durch ein gutes Denoising auch mit deutlich weniger Rays auskommt.
 
  • Gefällt mir
Reaktionen: stevefrogs, Onkel Föhn und cruse
Holindarn schrieb:
es geht nicht um die GraKa an sich sondern um AdaptivSync.
siehe z.b. hier https://www.prad.de/nvidia-kuenftige-g-sync-monitore-mit-adaptive-sync/

xexex schrieb:

Bin mir nicht sicher, ob ihr die Berichte gelesen habt,
das sind Vermutungen basierend darauf, dass NV in einem Interview gesagt hat:
"Ja, könnte sein."

Bislang gibt es keinen Monitor bei dem das G-Sync Modul durch eine AMD Graka verwendet werden kann.
Das gilt aktuell.

Ob Nvidia das macht, weiß niemand, glaub ich persönlich nicht, da G-Sync immer noch die größeren
Spannen ab 1 Hz abdeckt. Wenn sie also ihr Modul freigeben für AMD GPUs haben sie damit
auch diesen Feature Vorteil weggegeben, das wird nicht in nächster Zukunft geschehen.
 
hamju63 schrieb:
Wobei Du aber berücksichten musst, dass, wenn Du einmal in dieser Leistungsklasse angekommen bist, eine solche Investition dann alle 2-3 Jahre fällig ist.
Das muss man einfach sehen und sich im Vorfeld überlegen, ob man das grundsätzlich finanzieren will/kann
Naja kommt drauf an, ich habe seid der 9800 kein Highend mehr gekauft. Zur Zeit kommt auch kaum etwas heraus was mich interessiert. Ich habe da genug Titel in der Bibliothek die ich gern mit mehr FPS und einfach schöner sehen würde.
Ich würd mir gern das neue Rage Anschauen aber mit 1080p geht das nicht, ich bin 2k gewöhnt 😆
 
N0Thing schrieb:
Im Gegensatz zu Nvidia hat AMD keine weiteren Vorgaben an die Monitorhersteller gemacht, deshalb hing die Qualität der Umsetzung immer am Aufwand, den sich der Monitorhersteller gemacht hat.
hier stellt sich halt die Frage, was für mich als Kunde am besten ist.
Eine Plug & Play Lösung oder ein offener Standard der in den meisten Fällen mangelhaft umgesetzt wird.
Heute steht man halt vor dem Dilemma...
 
ZeroStrat schrieb:
Nope, sieht leider nicht danach aus.

Das ist doch einfach, sorry, absoluter Scheiß...
Die Chiptemperatur ist doch schon seit Jahren fast immer unkritisch. VRAM und VRMs sind die viel wichtigeren Temperaturen. Vor allem jetzt bei Ampere mit GDDR6x und allem.

Mal davon ab: Wer weiß ob z. B. die Asus-Kühler die bei den NV Karten gerne als sehr gut dargestellt werden nicht auch bei NV absoluter Rotz sind bzgl. VRAM und VRM Temperaturen...

ZeroStrat schrieb:
@DaHell63 OK, das gefällt mir. 👍
Das bietet EVGA soweit ich weiß aber auch nur bei den "FTW3" Karten an. - Alle anderen darunter haben die Sensorik ebenfalls nicht.

Aber ja Evga rüstet die manuell nach. Immerhin etwas. - Trotzdem irgendwie traurig seitens NV mMn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Otsy
@>_<

Bei dem Vergleich finde ich es immer besonders lustig das man die Karte erstmal so hinkippen mußte um auf die Ähnlichkeit zu kommen.
Noch lustiger finde ich aber all die Custom Designs vor den Turing Modellen die ähnlich aufgebaut waren aber unter den Tisch fallen gelassen werden.
:volllol:
 
  • Gefällt mir
Reaktionen: Kodak, Otsy und Beteigeuze.
SavageSkull schrieb:
hier stellt sich halt die Frage, was für mich als Kunde am besten ist.
Ich würde mich im Zweifelsfall für die Variante entscheiden, wo ich mich nicht an ein bestimmtes Geräte oder einen Hersteller binden muss. Und Adpative Sync ist ja jetzt auch nicht unbrauchbar schlecht, nur einfach nicht ganz so perfekt wie Gsync. Und mittlerweile hat AMD ja auch verschieden FreeSync-Stufen eingeführt mit definierten Mindesanforderung.
 
  • Gefällt mir
Reaktionen: Otsy, Onkel Föhn und Holindarn
DisOrcus schrieb:
Das ist doch einfach, sorry, absoluter Scheiß...
Die Chiptemperatur ist doch schon seit Jahren fast immer unkritisch. VRAM und VRMs sind die viel wichtigerne Temperaturen. Vor allem jetzt bei Ampere mit GDDR6x und allem.

Das ganze wurde mit den neusten Versionen von HWiNFO und GPU-Z gestestet. Es kann sein, dass eine Beta Version die Sensoren enthält. Ich gehe dem nochmal nach.
 
  • Gefällt mir
Reaktionen: DisOrcus
Jetzt hat sich AMD wohl gedacht, sie holen endlich auf mit einem zeitgemäßen Design der Referenzkarte und ziehen mit Nvidia gleich. Aber das war wohl nix, zumindest optisch ist Nvidia nun doch wieder einen großen Schritt voraus. Ob auch technisch wissen wir in ein paar Stunden.
 
SavageSkull schrieb:
hier stellt sich halt die Frage, was für mich als Kunde am besten ist.
Eine Plug & Play Lösung oder ein offener Standard der in den meisten Fällen mangelhaft umgesetzt wird.
Heute steht man halt vor dem Dilemma...

Bei Nvidia hast Du halt die Sicherheit, dass es immer ab 1 Hz losgeht und damit auch der Bereich 30-50 Hz abgedeckt ist. 30-50Hz, relativ unwichtig für 1080p und 2560x1440p, weil die meisten Grakas mehr FPS
liefern.
Ab 3440x1440 UWQHD und vor allem UHD dann wiederum sehr wichtig, weil selbst High-End Grakas in diesen Auflösungen bei sehr anspruchsvollen Titeln in die 30er Zone fallen.
Bei FreeSync Monitoren muss man sich also genau die Hz-Spanne anschauen, und die Auflösung mit
der eigenen Graka in Relation setzen.
Soweit meine Marktkenntnis geht gibt es aktuell nur einzelne FreeSync-Monitore, die in die 30er runterkommen.
Viele beginnen bei 48 Hz oder drüber.
 
Zurück
Oben