News Im Test vor 15 Jahren: XFX' Radeon HD 5970 brachte zwei GPUs ans Limit

andi_sco schrieb:
Spulenfiepen hatte ich auch bei einer, kannte ich bis dahin nicht.
War aber eine gebrauchte Karte, die nie richtig zum Einsatz kam.
Ich hatte bisher eigentlich noch keine XFX Karte ohne Spulenfiepen. Ich kann mich noch gut daran erinnern, dass mein Sohn und ich gleichzeitig eine 6800XT hatten. Ich eine Merc 319 und mein Sohn eine Gigabyte Aorus mit Display. Er hat zwar wesentlich mehr bezahlt, aber es war auch eine vom Gefühl her völlig andere 6800XT. Diese war flüsterleise und auch wesentlich besser verarbeitet. Der Unterschied liegt in den vergossenen Spulen bzw. deren Qualität. Auffällig ist auch die hohe Ausfallquote von XFX Karten im Gegensatz zu anderen Herstellern. So meine Erfahrung...
 
  • Gefällt mir
Reaktionen: SweetOhm
Die Lautstärke war schon brutal, war früher bei mir und meinem Freundeskreis aber zweitrangig. Hauptsache schnell und mehr FPS als der Kumpel :D Die Karte lag aber weit über unserem Budget, da reichte es nur für eine Geforce GTX 470 und da war man schon stolz drauf^^
 
  • Gefällt mir
Reaktionen: konkretor, coxon und GOOFY71
Wie kann man nur auf die bescheuerte Idee kommen, eine 2 GPU Karte mit entsprechender Leistungsaufnahme und somit Abwärme, mit solch einem lächerlichen Kühler zu versehen?
Aber gut, XFX ist in dieser Hinsicht ja nichts zu blöd.
Die haben auch heute noch immer wieder mit das mieseste Kühlsystem auf ihren Karten.
Bedeutend günstiger sind die Dinger dadurch trotzdem nicht.
 
Meine letzte MGPU Karte ... für immer hoffentlich. Hatte doch mehr Probleme als erwartet damit (speziell Profile für Spiele, Hitzeentwicklung, Lautstärke).
 
wagga schrieb:
Wenn man das mit heute vergleicht 5080,5090 waren die 1000 Euro doch noch im Verhältnis zu heute ziemlich günstig:)
Nein war es damals nicht.
Und ist es heute auch nicht.
Im Vergleich zu damaligen Single GPUs waren Multi GPU Systeme damals viel Energieintensiver, lauter, unkomfortabler und generell einfach scheiße.
Ich hatte das Drama locker 10 Jahre mitgemacht, bis ich mit der GTX1080 - x2 - aufgegeben hatte, es war mittelfristig mal i.O. sofern man ein passables Profil hatte.
Alle anderen Probleme mal dahingestellt, hatte man vll. mal 60-70% Mehrleistung pro 2te oder 3te Karte...

Und wenn ich sehe was mich damals 4x HD4870 (oder war es eine andere?!) und oder 3x GTX580 gekostet haben, muss man fairerweise sagen ,dass eine 5090 bezogen auf Inflation für 2300€ tatsächlich "günstig" wirkt, vor allem weil das Gerät sich nicht den VRAM teilen muss und immer die volle Leistung hat.

Ist keine Ausrede. Es ist ein zu überteuertes Produkt, aber am Ende verkennt man, dass Multi GPU damals das war, was heute die Halo Produkte von NV ganzen oben sind.

Aber was soll eigentlich dieses Preis-gebashe die ganze Zeit in den Vor 15 Jahren Artikeln? Muss das immer sein? Einfach mal in der Vergangenheit schwelgen wäre angebracht. Und wenn man nur an den Geldbeutel denkt bzw. erinnert wird zu früher, dann sollte man am besten mit Hardware direkt aufhören (zumindest als Hobby)....
 
  • Gefällt mir
Reaktionen: HtOW und SuperHeinz
Unreal_Playa schrieb:
rez_SD531701.jpg

Du hast nach mir rufen lassen? :D

73 fucking dB? Nix da! :D
Dat muss leise ballern, sonst taugt dat nix!
 
  • Gefällt mir
Reaktionen: LETNI77, konkretor, Unreal_Playa und 2 andere
Neodar schrieb:
Wie kann man nur auf die bescheuerte Idee kommen, eine 2 GPU Karte mit entsprechender Leistungsaufnahme und somit Abwärme, mit solch einem lächerlichen Kühler zu versehen?
Aber gut, XFX ist in dieser Hinsicht ja nichts zu blöd.
Die haben auch heute noch immer wieder mit das mieseste Kühlsystem auf ihren Karten.
Bedeutend günstiger sind die Dinger dadurch trotzdem nicht.
Naja laut Test war die Kühlung mehr als ausreichend. Was ich nur armselig Finde das man da auf so eine Turbine gesetzt hat. Obwohl damals schon bessere Lösungen am Markt waren. Da hätte man für die 1000 Euro auch was besseres verbauen können.
Ansonsten eine Total irre Karte. Für mich damals unbezahlbar. Damals war bei 350 Euro bei mir Schluss.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ist das nicht komisch, dass Dual GPU damals möglich und in fast jeder Generation normal war? Und heute komplett aufgegeben wurde obwohl man mit den heutigen technischen Möglichkeiten wie ML, Infinity Fabric und FG die Nachteile von Dual GPU viel besser im Griff hätte? Eine 9070XT2 wäre doch für AMD eine relativ kostengünstige Möglichkeit, im Enthusiasten Segment mitzumischen :D
 
  • Gefällt mir
Reaktionen: SweetOhm und coxon
zeedy schrieb:
Eine 9070XT2 wäre doch für AMD eine relativ kostengünstige Möglichkeit, im Enthusiasten Segment mitzumischen :D
Und dann wieder Microstutter? Ach ne, lass ma. :D
 
  • Gefällt mir
Reaktionen: konkretor und K3ks
Es ist für mich immer wieder erstaunlich, dass das schon 15 Jahre zurück liegt. Wo ist nur die Zeit geblieben?
Die Generationen habe ich damals komplett ausgelassen (Neue Freundin und damit Pause) und bin erst mit der GTX770 wieder zum PC Gaming gekommen. Danach dann aber komplett eskaliert und mittlerweile massenhaft Hardware angehäuft.
Diese Karte hier ist halt was extremes. Allein die Limitierung macht es besonders und sammeltwürdig. Hätte gern so eine in meiner Sammlung.
Lautstärke ist da zweitrangig.
 
  • Gefällt mir
Reaktionen: coxon
Unti schrieb:
Und wenn man nur an den Geldbeutel denkt bzw. erinnert wird zu früher, dann sollte man am besten mit Hardware direkt aufhören (zumindest als Hobby)....
Ich weiß ja nicht wie alt du bist. Aber bis vor wenigen Jahren hat man fürs gleiche Geld immer mehr Leistung bekommen. Meist ist der Preis dazu noch gefallen. Jetzt ist es so das du zwar mehr Leistung bekommst aber der Preis dabei immer leist steigt.
Wenn das so weiter geht. Dann wird unser geliebtes Hobby sterben. Weil es kaum noch Leute gibt die sich das leisten können oder wollen. Und dann bleiben nur noch die Konsolen.
 
  • Gefällt mir
Reaktionen: muvmend, Corpus Delicti, SweetOhm und eine weitere Person
zeedy schrieb:
Ist das nicht komisch, dass Dual GPU damals möglich und in fast jeder Generation normal war? Und heute komplett aufgegeben wurde
Ich bin mir relativ sicher, dass das irgendwann wieder kommt, wenn die Fertigungsprozesse für einen Chip ausgereizt sind.
 
Eine meiner Lieblingskarten und immer noch voll funktionsfähig in meiner Sammlung :)

Ich hatte die Karte ca. 2011 gebraucht im Forum gekauft. Mit Original Pistolenverpackung und Tragetasche. :D

IMG_20241208_133616025.jpg


Die Lautstärke ist wirklich brachial. Dafür bleiben die GPUs unter 70°. Das Platinenlayout der XFX hat als Modell für die Referenz HD6990 gedient, die allerdings nicht mehr auf Heatpipe Kühler, sondern auf Vapor Chambers setzt und damit deutlich leiser ist.
 
  • Gefällt mir
Reaktionen: LETNI77, Eller, RAZOR1997 und 11 andere
  • Gefällt mir
Reaktionen: konkretor, Galatian und Masterchief79
ThePlayer schrieb:
Naja laut Test war die Kühlung mehr als ausreichend.
Es ging mir in meinem Post nicht um die Kühlleistung, sondern eben um diese kranke Turbine, die da rödelte.
Das hätte man mit etwas mehr Aufwand beim Kühlerdesign halt deutlich leiser hinbekommen können. Heutige Karten mit ebenfalls ähnlicher Leistungsaufnahme/Abwärme beweisen das ja.
 
  • Gefällt mir
Reaktionen: ThePlayer
coxon schrieb:
Und dann wieder Microstutter? Ach ne, lass ma. :D
Naja deswegen schrieb ich doch, dass diese Dual GPU spezifischen Probleme mit den heutigen Möglichkeiten vermutlich gelöst werden könnn. Das ist für mich irgendwie widersprüchlich, dass damals, als die Fertigung noch vergleichsweise günstig war und man jede Generationen große Sprünge machen konnte, SLI/CF und mGPU über ein Jahrzehnt lang so verbreitet waren, und heute wo wir solche Nullnummer Generationen wie Blackwell haben, komplett ausgestorben.
 
  • Gefällt mir
Reaktionen: ThePlayer und SweetOhm
coxon schrieb:
Und dann wieder Microstutter? Ach ne, lass ma. :D
Ich frag mich halt echt ob mit DLSS und dem ganzen KI gedöns die Nachteile von SLI oder Crossfire nicht ausgemerzt werden könnten.
 
  • Gefällt mir
Reaktionen: Wanderwisser und SweetOhm
@zeedy naja, ne 5080 als DualGPU Lösung möcht ich nicht sehen, vor allem nicht wegen dem geisteskranken Verbrauch.
Ergänzung ()

@flying_ass ich denke nicht, denn du kannst keine zwei 1:1 identischen Chips herstellen die 1:1 synchron laufen. Das war doch damals das Problem von SLI/CF.
 
Nvidia braucht ja auch keine DualGPU Lösungen, da sie sich immer noch sehr große GPUs leisten können. Aber für AMD wäre das halt wie gesagt eine Möglichkeit der 5090 nahe zu kommen. Mit 2x 9070XT leicht grdrosselt auf 250W wäre das auch bei vergleichbarem Verbrauch möglich.
 
Zurück
Oben