Test GeForce GTX 480 im Test: Nvidias neues Grafik-Flaggschiff sucht die Extreme

@ G3cko Wenn du Crysis mit 30fps als Spielbar bezeichnest... naja Crysis ist nen Shooter und bei Shootern müssen nunmal min 50 fps her. Sonst giubts so schöne Sachen wie Tearing usw..
 
jop seh ich genauso 30fps ist für einen shooter einfach viel zu wenig!
mit 30fps kannst du strategiespiele ala c&c spielen, dort ist es egal! aber shooter nicht!
 
blitzkid138 schrieb:
das war ja wohl nix ... da muss Nvidia aber bald noch nach legen das ist ja wohl echt nix ...

Ja... Langsam... Ist halt so bei neuen Archtikturen!

ATI wird in ein paar monaten auch Probleme mit der R900/Hekatoncheires Architektur haben.
Ist dann ja auch ein ganz neuer Ansatz.

Die werden immer erst besser wenn man aus den "Fehlern" gelernt hat und die Fertigung im Griff hat. bzw auf kleinere Strukturen (45nm -> 40nm - 32nm -> 22nm...) setzen kann.
 
Aber wenn die neue ATI-Architektur nur ein wenig schneller ist als die aktuelle, dann sind sie auch wieder ganz entspannt vor NVidia.
Sollte sie es nicht sein, ja dann bringt man die Karten gar nicht erst auf den Markt sondern taktet die HD5k noch ein bisschen und bringt dafür eine 5890...
Ich gehe halt nicht davon aus, dass sie den gleichen Fehler wie NV machen und eine neue Generation auf einem unbekannten Prozess laufen lassen.
Und wenn es der 40nm Prozess von TSMC bleibt, dann kann ATI mit der ganzen Erfahrung von 4770 und HD5k ein perfektes Design für die HD6k abliefern (perfekt zu fertigen).

Die Leistung wird dann schon passen und die Ideologie dahinter stimmt ohnehin.

Grüße vom:
Jokener
 
@Dr.Duschlampe
zu 1. Enorm bedeutet in diesem Fall trotzdem weit entfernt von wirklich flüssig, und das in 1680x1050 - nochmal: ohne Verzicht auf Details oder Qualität hast du besonders in höheren Auflösungen keinerlei Spielerischen Vorteil von dieser "enormen" Mehrleistung, weil man es so einfach nicht spielen kann oder möchte.

zu 2. Welchen Zweck hat es, ein Spiel Zeitgleich mit einer neuen Grafikgeneration eines Herstellers zu launchen, auf welcher der Titel nur bedingt bis nicht Spielbar ist? Was ist der Sinn dieses Titels? Als Benchmarkschlal**e für die nächsten 3-4 Jahre herhalten zu müssen? Ist das die Zukunft von Metro 2033?
Und da uch hier nochmal: Die Optik dieses Titels ist bei weitem nicht frei von Mängeln - klick dich mal hier durch, und lies die Kommantare zu den Screens.

zu 4. Nur der Betrachtung möglicher Zukünftiger Spiele wegen ist Metro 2033 ja sicher ein Blick Wert, aber bei weitem nicht maß aller Dinge. Es ist nur eines von mehreren derzeit erhältlichen DX11 Titeln mit Tessellation. Wie stark jene Zukünftig eingesetzt wird, wird die Zeit zeigen. Den Entwicklern ist zu Raten es nicht zu übertreiben, denn sonst würden sie einen Teil der Kunden aussen vor lassen, zumal auch der GF100 in der DX11 Performance nicht über allem erhaben ist, auch diese GPU bricht unter DX11 ein, und im Fall von Metro 2033 ist es auf Karten beider Hersteller langsam bis unspielbar.

Zu beachten dabei bitte auch, das Tessellation in Fall von Metro 2033 auch ziemlich übertrieben und optisch nicht gerade zum Vorteil implementiert wurde, schau die verlinkten Screenshots.
Ebenso bitte nicht Unterschlagen;
In Metro 2033 hat der GF100 auch unter DX10 einen gerhörigen Performance Vorteil, gegeüber den AMD Grafikkarten. Mit DX11 brechen sowohl die GTX 480 und die 5870 im prozentual gleichen Anteil ein, die Radeon um 51%, die GeForce um 45% gegenüber DX10.
Auch bei der GeForce gibt es keine Tessellation for free, und die Mehrperformance unter DX11 scheint hier in keinster Weise nur in der Tessellation Leistung des GF100 begründet, sondern wohl vielmehr auf der allgemeinen Architektur, oder der Optimierung des Spiels auf den Fermi, oder des Forceware auf das Spiel.

Ob und wie weit dann das endgültige Einbrechen den Treibern oder dem Speicher anzukreiden ist, wird sich zeigen.
 
Zuletzt bearbeitet:
john carmack schrieb:
Ja... Langsam... Ist halt so bei neuen Archtikturen!

ATI wird in ein paar monaten auch Probleme mit der R900/Hekatoncheires Architektur haben.
Ist dann ja auch ein ganz neuer Ansatz.

Ich glaube ATi wird unter allen Umständen vermeiden wollen die gleichen Fehler wie Nvidia zu machen. Die werden schion ganz genau testen. ich bin davon überzeugt das auch die HD6K Serie sehr gut wird.
 
Und wenn die HD6k intern nicht überzeugt, dann besteht aktuell wie gesagt kein Zwang zum Release.

NVidia wird noch einige Zeit brauchen, bis sich was tut.
Erstmal müssen die ihre Thermi's überhaupt in die Regale bekommen und verkaufen.
Das wird vor Ende April sowieso nicht passiert sein. Selbst Ende April wird die Dosis homöopathisch sein.
Und dann muss NV den kompletten Chip nochmal auf den Fertigungsprozess anpassen, was auch seine Zeit braucht.
-> Vor November ist bei Nvidia einfach nichts los. Denn auch die kleineren Fermi-Ableger sind nicht gut zu fertigen (Yields mögen okay sein, Eigenschaften der Chips noch lange nicht).

Und solange ATi die Karten verkauft, die sie produzieren und damit Geld verdienen, so lange müssen sie auch nicht zwingend einen draufsetzen.
Sie werden zwar alles tun und sich anstrengen, dass schnellstmöglich ein noch "besserer" (in welchen Eigenschaften auch immer) Chip rauskommt, aber dazu muss er eben auch besser sein.
Und alles was gegenüber der HD5k schlecht aussieht werden sie nicht an die Öffentlichkeit lassen.

Grüße vom:
Jokener
 
rooney723 schrieb:
@ G3cko Wenn du Crysis mit 30fps als Spielbar bezeichnest... naja Crysis ist nen Shooter und bei Shootern müssen nunmal min 50 fps her. Sonst giubts so schöne Sachen wie Tearing usw..

wo habe ich geschrieben das es 30fps waren? ich habe geschrieben >30, also mehr als 30fps. wieviel genau es mit meiner 6800gt waren interessiert mich beim spielen recht wenig.

btw habe ich damals mit meinem pentium3 in bf42 und 40fps auch schon alles weggerock also... O_o
 
Zuletzt bearbeitet:
Ich weiß gar nicht warum alle jetzt mit Metro 2033 als Vergleich kommen.
Ich hab mir vor kurzem das Spiel geholt und musste es weiterverkaufen, weil ich permanent Crashes hatte, die ich nicht beheben konnte.
Außerdem habe ich noch kein Spiel gesehen, dass einen solchen Hardwarehunger hat.
Erstens spielt es in geschlossenen Räumen (soweit wie ich gekommen bin) und zweitens war die Grafikqualität maximal oberes Mittelfeld (Wobei man ja die Grafik immer am schwächsten Teil misst und das sind bei Metro beispielsweise die Gesichter)
 
@G3cko -.- Es geht dabei ja nicht um 30 oder 40 fps sondern darum das man eine Gewisse Zahl von FPS braucht um kein Tearing usw. zu haben!
 
Mit 30 FPS Vsync an du bist ja witzig....
 
Tearing hab ich vor allem mit 55-65FPS, also nah an der Bildwiederholungsrate.
Mit 30FPS eigentlich nie...
 
Dann ist ja Vsync überflüssig! Wenns kein tearing gibt
 
Auch ich bin der meinung, das Nvidia verkackt hat mit dieser Karte.

Zwar c.a. 20% Schneller als die HD5870, wo sie dort (muss man sagen) gute arbeit geleistet haben, ABER :

-6Monate zu spät
- Selbstzahler der Kilowattstunde bekommen Augenkrebs wenn die sich ihren Zähler am Ende vom Jahr anschauen.
- DEUTLICH teurer als der gegner aus dem Haus von ATI.

Lautstärken Problem der karte sehe ich eher als 3.rangig an. Denn jeder Board Partner wird um vielfaches leisere Kühler bereitstellen in den nächsten wochen. Dann werden sich auch die Temperaturen von 90Grad erledigt haben. Also das sehe ich wirklich als garkein problem.

Wie gesagt, das P/L verhältniss stimmt 0,0.

Ich würde jeden, der eine Nvidia karte ( GTX 480 ) kaufen möchte fragen : WARUM die Nvidia ? Für 20% mehr leistung zu einem Preis der bei weit über 100€ Aufpreis der HD5870 stattfindet ?

Ich habe mal zum spaß, den mehrstrom bedarf pi*auge aufs Jahr hochgerechnet, auf den Aktuellen Strompreis von EnbW ,die gerade 19,65cent/kws verlangen.

365Tage im Jahr.
182Tage a 7Stunden Idle.
183Tage im 3D-Modus.

HD 5870 Idle : 182*7=1274std*166Watt = 211,48kw* 19,65cent = 41,55Euro
HD 5870 3D-Modus : 183*7= 1281Std*305Watt = 390,70kw*19,65cent = 76,77Euro

GTX 480 Idle : 182*7=1274std*25Watt = 31,85kw*19,65cent = 6,25euro/jahr mehrkosten.
GTX 480 3D-Modus : 183*7=1281Std*147Watt= 188,30kw*19,65cent=37Euro/jahr mehrkosten.

Das macht unterm strich ziemlich genau 43Euro mehr im Jahr. Das ist schon ein gutes Holz was da verbbrannt wird. Ich gehe mal von 183Tagen zocken aus, also einem verhältniss 50:50, denn ich glaube kaum das man sich eine HD5870/GTX480 nur zum IDlen besorgt ;)

Also das iss schon heftig der unterschied, wie ich finde.

P.s. Witzig ist ja folgendes :

Man muss sich immer eins vor augen halten : Die GTX480 ist der Konkurrent der HD5890 ! Denn diese liegen nicht so weit mit dem Preis auseinander ( stand heute ). Die GTX470 ist wiederrum der Konkurrent zur HD5870.

GTX 470 = 349euro ( stand heute geizhals )
HD5870 = 354euro = 5€ Differenz

Das sagt schon alles denke ich ;)
 
Zuletzt bearbeitet:
Paola86, 43€ ueber 12 monate verteilt sind nichtmal 4 € im Monat, daher eher vernachlaessigbar, M.m nach. Das einzige was mir an der Karte nicht gefaellt, ist die Hitze und damit verbundene Lautstaerke. Das Furmark Youtube Video zeigt dies sehr eindrucksvoll, erinnert mich stark an eine Modellbau Turbine beim Start
 
@Paola86
ähm woher hast du die preise bitte? habe gerade jetzt geschaut:

asus 5870 kostet bei micom (gb) 353€ und in de das billigste ist: 354€ bei pixmania.de..
die 480ger finde ich eu weit nur für: 463€

und die atis sind zu dem preis lieferbar.. die nvidias bei nichten;) da kann sich noch viel tun bei...
 
nospherato schrieb:
und die atis sind zu dem preis lieferbar.. die nvidias bei nichten;) da kann sich noch viel tun bei...

Ich vermute sogar, dass die Fermi mindestens genauso schlecht Lieferbar sein wird wie die AMDs, da dann so Umweltbewusst gerade viele Kiddys nicht sind.
Und dann wird auch der Preis der Fermi hoch gehen...
 
Zurück
Oben