Test GTX 295 im Test: Nvidias neue Multi-GPU-Karte ist kein eindeutiger Gewinner

Einen großen Vorteil hat man mit aktuellen Treibern aber auf seiner Seite [...] Nvidia hat das Problem Mikroruckler deutlich reduzieren können!
Sicherlich ist das erfreulich. Um diesen Umstand als Vorteil zu bezeichnen, hättet ihr auch mal die Mikroruckler der X2 untersuchen müssen mit aktuellem Treiber. Oder habt ihr es gemacht, aber nicht im Test aufgeführt?
 
Das Teil schrei(b ;))t ja nach einer Wasserkühlung. Auf einem P45 Board mit sicher eine gute Lösung, aber imo zu schwach von der Leistung, die 4870 X2 ist ja (fast) dran an der Karte.
 
hallo an alle!

kann mir jemand erklären warum die X2 bei call of juarez 240-260% schneller ist als die normale 4870(100%)? (also das sie nahe an die 200% geht, is schon sehr gute treiber arbeit, aber driber???)
oder anders: wie kann ein zweiter zusätzlicher chip eine 2,5 fache leistung bringen?
wurde mit unterschiedlichen treibern bei der ati fraktion gemessen?
(hoffentlich wurde nicht die bildqualität kastriert nur um bei den benches besser dazustehen)

gtx295:
stromverbrauch top
temps top
leistung an sich auch top
preis--- da kann man sich jz streiten
lautstärke wohl der grösste nachteil.

mfg
cor
 
Zuletzt bearbeitet:
Gab es da nciht mal ne Technik von Nvidia die die Grafikkarte unter Windows (idle) ausschaltet und nur noch die Onboard benutzt?
Also müßte die 295 doch im Idle nciht zu hören sein.
 
brabe schrieb:
Faszinierend find ich de Performance der X2 gegenüber der normalen 4870 mit dem ATI 9.xx Treiber. Da kommt ja fast das doppelte bei raus! (95% bei hohen Auflösungen mit 25xxer Auflösung)
Vielleicht hat Nvidia einen Teil der Skalierung geopfert, um die Microruckler zu verringern.
...obwohl ich das selber bezweifle, FPS sind schließlich viel werbetauglicher.

H3rby schrieb:
Interessant wird es hier erst, wenn die erste GTX295 mit 2 x 1536MB VRAM raus kommt.. :king:
Wohl eher, 2x1792MB ;)

Wolfgang schrieb:
Die GeForce GTX 280 sieht mit einem Rückstand von 66 Prozent nur noch die Rücklichter des größeren Bruders.
Der Rückstand sind nur 34%, sonst würde die GTX280 weniger als die Hälfte der GTX295 leisten.
Allgemein finde ich diese aufgeschriebene Form etwas unübersichtlich und leicht missverständlich. Diese Daten sind im Ranking schon optimal abzulesen. Es reicht hier mMn, die Auffälligkeiten und allgemeinen Tendenzen zusammenzufassen.

Trotzdem ein schöner Test. :)
 
Heretic Novalis schrieb:
dann doch lieber eine 4870 oder gtx260²/gtx280 (wenn der preis passt) ..
Soweit ist das mit sicherheit richtig - war aus P/L Sicht aber schon immer so dass solche enthusiasten modelle uninteressant sind.

Heretic Novalis schrieb:
genau wie kein vernünftiger mensch zu einem phII greifen wird
Danke das war dann wohl der dümmste Kommentar des Tages. Lern bitte eigenes Wunschdenken und die Realität zu unterscheiden.

Heretic Novalis schrieb:
eine frage hab ich noch: wer bitte spielt in auflösungen jenseits von 1680*1050 mit 8x/16x?
Ich nehme doch schwer an dass das die selben "enthusiasten" sind die sich ne Graka für über 400€ kaufen.
 
Kann CB mal bitte posten wann das "neue" NDA der GTX 285 ist !
 
SApitz schrieb:
Gab es da nciht mal ne Technik von Nvidia die die Grafikkarte unter Windows (idle) ausschaltet und nur noch die Onboard benutzt?
Also müßte die 295 doch im Idle nciht zu hören sein.

Ja, WENN die Technik benutzt wird. Hybrid Power eben, auf nForce7 Chipsätzen. Für alle anderen ist die Lautstärke der Karte selber natürlich schon relevant.
 
Schaue ich auf die Vorteile von der GTX 295 im Vergleich zur HD 4870 X2, fällt folgendes auf:

1. Leistungsaufnahme etwas geringer
2. Leistung in nicht maximalen Qualitätseinstellungen ein wenig höher
3. Mikroruckler treten bei etwas geringeren FPS-Bereichen erst auf
4. CUDA


Nun, wie ist das zu beurteilen?

1. Sicher ein Vorteil. Aber macht das in solchen Bereichen noch so einen großen Unterschied? Leute, die auf Strom gucken müssen, kaufen sich sowieso keine Dual-GPU-Karte.
2. Wer kauft sich solch eine Grafikkarte und spielt dann nicht in maximalen Einstellungen?
3. Ähnlich zu 2 glaube ich nicht, dass dieser Fall oft eintreten wird, aber prinzipiell ist es dennoch sicherlich ein Vorteil, den ich als einzigen hier für entscheidend halten wollen würde
4. Der Kreis der Leute, die damit was anfangen können und wollen, dürfte derzeit klein sein bzw. das dürfte für die meisten Leute kein Kaufargument sein.


Schaue ich mir dann die Vorteile der HD 4870 X2 an, nämlich teilweise deutlich bessere Leistung bei höheren Auflösungen und Einstellungen, der geringeren Lautstärke, den Preis und der generell maximal nur geringfügig vorhandenen Performanceeinbußen zur GTX 295, dann bin ich alles andere als überzeugt von der GTX 295.


Der erste Satz in der Beurteilung hier im Review ist sachlich nicht zu halten, weil die GTX 295 in Performance-Hinsicht eben nur teilweise schneller ist, aber nicht generell:

Nvidia hat es geschafft: Nach einer doch recht langen Durststrecke hat man mit der GeForce GTX 295 nun wieder die seit der GeForce 8800 GTX gewohnte Reihenfolge bei den Grafikkarten hergestellt. Mit der Multi-GPU-Karte erobert Nvidia den Platz an der Sonne zurück und verdrängt die Radeon HD 4870 X2 [...]
 
Heretic Novalis schrieb:
1.ein ähnliches bild wie bei den neuen phenoms: schnell, aber für die gebotene leistung zu teuer und somit uninteressant und unnötig.

[...] genau wie kein vernünftiger mensch zu einem phII greifen wird

2.eine frage hab ich noch: wer bitte spielt in auflösungen jenseits von 1680*1050 mit 8x/16x?
sind das dieselben leute, die 10db(a) hören oder den unterschied zwischen 200 und 202 fps wirklich sehen können?

1. Das nicht der Fall, anscheinend hast du beim PII Test was falsch gelesen. Der PII ordnet sich quasi perfekt ins AMD Portfolio ein und ist für AMD ein deutlicher Fortschritt, der sowohl AMD als auch den Kunden wesentliche Vorteile bietet, im Gegensatz zur hier vorgestellten Graka. Etliche Leute im Forum haben auch schon eine Kaufabsicht kundgetan im Übrigen.

2. Wenn die Monitorgröße immer dieselbe bleiben würde bei steigender Auflösung hättest du unter Umständen recht. Aber mit steigender Auflösung werden die Bildflächen immer größer, sodass die Pixeldichte pro cm² im Prinzip identisch bleibt. Somit ändert sich an der Treppenbildung nix. Zudem sorgt das einfügen von "Zwischen(farb)stufen" für ein deutlich harmonischeres und flimmerfreieres Bild. Naja und je mehr AF desto besser im Prinzip, das ist ja total auflösungsunabhängig quasi.

aspro schrieb:
Sicherlich ist das erfreulich. Um diesen Umstand als Vorteil zu bezeichnen, hättet ihr auch mal die Mikroruckler der X2 untersuchen müssen mit aktuellem Treiber. Oder habt ihr es gemacht, aber nicht im Test aufgeführt?

Wurde erläutert, nein, es gibt keine Veränderung bei der X2. Mikroruckelt genauso wie vorher.
 
Kann mich mal einer aufklären ?

GTX 285 = GT200b
GTX 295 = 2x GT200b

aber
GTX285 = 512 Bit
GTX295 = 448 Bit x 2

Warum stellt Nivdia nicht auf GDDR5 um ?
 
jopi24johannes schrieb:
Das Teil schrei(b ;))t ja nach einer Wasserkühlung.

Wäre ganz schön, aufgrund der Sandwich-Designs aber sehr schwer umzusetzen. Finde es eh merkwürdig, warum nvidia die Lüfterdrehzahl @idle nicht weiter absenkt. Die Karte taktet schließlich schon runter und wird damit mit Sicherheit niemals zu warm.

@MunichRules: die GTX260-216 55nm ist auch ein GT200b. Die GPUs auf der GTX295 sind quasi Hybride irgendwo zwischen der GTX260 55nm und der GTX285. GDDR5 ist hier nicht sinnvoll, da das SI so breit ausfällt. Da brauchst keinen so hohen Speichertakt, dass GDDR5 von Vorteil wäre.
 
Zuletzt bearbeitet:
moin zusammen,

kann man mal aufhören von der doofen 295er zu sprechen? :D
Mich interessiert mal stark, was AMD da in den neuen Treiber reingepumpt hat. Sehr sehr üble Performancesteigerung.
Kann mich noch an 2 Wundertreiber für R420/R520 erinnern bei denen OpenGL und das Speichermanagement groß verändert und ein extremer Sprung gemacht werden konnte.

Was verhilft diesmal zu solchen Zuwächsen?

MfG,
EdgarTheFace
 
Filtertricks oder verstecktes "Schrauben" an der Qualität? *duck und weg* :D Nein, ist schon enorm. Wäre vielleicht interessant für einen eigenen Bericht von CB.
 
fast hundert euro teuerer, ein zu vernachlässigender geschwindigkeitsvorteil bei mittlerer qualität.
wird bei hoher qualität von der "alten" ati abgehängt.
ich bin zwar nv fan, aber die karte zu dem preis ist quatsch. so toll wie erhofft, ist sie nicht...

freut mich fast etwas für ati ^^
 
Und wieder ist nVidia unter Preisdruck. Auf jeden Fall ist es schön, dass sie etwas gegen die Mikroruckler getan haben. Hoffentlich sieht jetzt auch ATI Handlungsbedarf. Warum aber nVidia den Lüfter im idle nicht etwas heruntergedreht hat verstehe ich wirklich nicht.
 
MunichRules schrieb:
Kann mich mal einer aufklären ?

GTX 285 = GT200b
GTX 295 = 2x GT200b

aber
GTX285 = 512 Bit
GTX295 = 448 Bit x 2
Nvidia wollte wohl nicht zuviele Speicherchips verbauen und den Verdrahtungsaufwand auf der Platine in Grenzen halten, damit die Karte nicht mehr als zwei Slots belegt und von der Länge auch noch in normale PC-Gehäuse passt. Außerdem ist es eine Kostenfrage.
Die Anzahl an Shadereinheiten oder Textureinheiten zu begrenzen, wäre dagegen unsinnig gewesen. Denn man spart ja dadurch nix. Die GTX 295 wird in nicht allzugroßen Stückzahlen gefertigt, dafür hat man genug vollwertige GT200b übrig, zumal die GTX 295 ja auch in einer Preisklasse angeboten wird, wo die Gewinnspanne einigermaßen groß ist.
Um mit weniger Shader- und Textureinheiten auf die gleiche Performance zu kommen, hätte man die Karte außerdem höher takten müssen, was wiederum höhere Spannungen und damit eine deutlich größere Leistungsaufnahme nach sich zieht.
In Punkto Leistungsaufnahme verweist die GTX 295 in der jetzigen Form eine Radeon HD 4870 X2 ja ganz klar in die Schranken, vor allem im idle.

MunichRules schrieb:
Warum stellt Nivdia nicht auf GDDR5 um ?
Tun sie doch im zweiten Quartal. Die 40-nm-GPUs im Performance- und High-End-Segment werden GDDR5 an einem 192-Bit- bis 256-Bit-Speicherinterface einsetzen. Der GT212 wird z.B. mit großer Wahrscheinlichkeit über 384 Shadereinheiten, 96 Textureinheiten und 1 GiB GDDR5-Speicher an einem 256-Bit-Speicherinterface verfügen.
Der Chip wird um Einiges kompakter werden als der GT200b (~270-290 mm² statt 480 mm²) und auch die PCB-Designs werden dank dem 256-Bit-Interface günstiger ausfallen. Dennoch kann man mit 20% Performancesteigerung gegenüber dem GT200b rechnen bei gleichen Taktraten wie bisher (wobei bei GDDR5 als Speichertakt der Befehlstakt zu verstehen ist, nicht der I/O-Takt).
 
Zurück
Oben