Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Turing: Erste GeForce RTX 2080 (Ti) der Partner in Bildern
Dich stört es vielleicht nicht für die gleiche Größe an Speicher mehr zu bezahlen und das nur weil es ddr6 ist.
Die Preise der Grakas sind durch das Minen gestiegen und dies nutzt NV gnadenlos aus die neue gen teurer zu machen.
Neue Gens an Grakas sind immer schneller als ihre Vorgänger sonst würden sie sich nicht verkaufen.
Mal sehen, könnte ich mir gut vorstellen. Das sind noch immer super Margen und für Nvidia Verhältnisse waren das überraschend günstige Preise. Aber bei Pascal hatten anfangs die Offiziellen Preise auch nicht unbedingt etwas mit den realen Straßenpreisen zu tun
Aquaero schrieb:
Dich stört es vielleicht nicht für die gleiche Größe an Speicher mehr zu bezahlen und das nur weil es ddr6 ist.
Die Preise der Grakas sind durch das Minen gestiegen und dies nutzt NV gnadenlos aus die neue gen teurer zu machen.
Neue Gens an Grakas sind immer schneller als ihre Vorgänger sonst würden sie sich nicht verkaufen.
Ich bezahle für ein Gesamtpaket und aktuell sind 11GB kein Hindernis. Mich interessieren irgendwelche zahlen wenig, mich interessiert was dabei rumkommt! Architektonische Neuerungen bringen mir deutlich mehr als noch mehr Speicher. Sicher ist mehr Speicher gut für die Zukunftssicherheit. Aber 11GB werden heute nicht ansatzweise ausgereizt, nicht Mal in 4K. In den Auflösungen die gängig sind noch viel weniger.
Bis die neuen Konsolen kommen wird sich da auch wenig ändern.
Wenn du jemand bist der nur nach Zahlen kauft kenne ich eine Person mehr, für die Smartphones mit 10 Kernen, Kamerad mit 40 Megapixel und 40 Zoll Fernseher mit 4 K gebaut werden.
Einfach widerlich, dass die Karten nun RTX heißén anstatt GTX. Damit wird dem typischen Nvidia Fanboy vorgegaukelt das ganz große Ding haben zu wollen.
Niemand mit Verstand kauft AMD GPUs... Ich hab natürliuch auch ne Nvidia, aber meine GTX970 wird noch die nächsten 5 Jahre halten, wenn sie nicht kaputt geht. Nvidia Fanboys kaufen sich aber jedes Jahr unnötigerweise mindestens zwei neue Karten. Dass SLI Betrug ist verstehn die nämlich auch nicht.
Okay, dann nehme ich das zurück.
Aber ich finde den Ausdruck Fanboy generell saudoof, echt.
Bloß weil man etwas mag muss man doch nicht gleich ein "Jünger" sein.
Und Respekt vor deiner Aussage. Kann mir vorstellen, dass du hier gleich einiges an Kritik bekommst.
Einfach widerlich, dass die Karten nun RTX heißén anstatt GTX. Damit wird dem typischen Nvidia Fanboy vorgegaukelt das ganz große Ding haben zu wollen.
War das nicht Raider --> Twix? Snickers hat sich doch glaube ich nie geändert oder?
Edit: OK, Google sagt ich habe (natürlich wie immer! ) recht. Der Vorgänger von Twix war Raider. Als jemand, der immer Snickers bevorzugt hat, war mir das auch ziemlich egal, ob Raider Twix heißt oder nicht.
Snickers hat übrigens früher (so Mitte/Ende 80er Jahre) DM 0,70 gekostet, falls es die Jüngeren hier interessiert (vermutlich nicht, aber jetzt wisst Ihr Bescheid). Ich habe mir im Freibad immer gleich fünf Stück gekauft. Man wollte ja schließlich genug Energie für das Schwimmen tanken.
Bin ich alleine mit der Verwunderung über zweireihige DVI-Buchsen? Man möge mich korrigieren, aber sowas hats seit Gens nicht mehr gegeben bei nVidia, auch nicht bei den Referenzkarten/PCBs.
Bin ich alleine mit der Verwunderung über zweireihige DVI-Buchsen? Man möge mich korrigieren, aber sowas hats seit Gens nicht mehr gegeben bei nVidia, auch nicht bei den Referenzkarten/PCBs.
Wo siehst du denn die DVI-Steckplätze? Ich erkenne keine, im Gegenteil. Auf allen Bildern ist kein einziger zu sehen und eher zu sehen, dass die DVI-Steckplätze gar nicht mehr verfügbar sind.
Sollten die Daten in der Tabelle stimmen,
Ist das "Preis zu CUDA Cores-Verhältnis" bei der 2080 deutlich schlechter als bei der 2080 ti. Dazu kommt dann noch der RAM Unterschied.
Bei der 2070 würde das ganze wieder passen.
Falls es stimmt.... 2080 preislich völlig daneben im Vergleich zu den anderen beiden.
Das will ich sehen. Die 2080 soll nur einen Speicherbus von 256 bit und auch einen niedrigeren Takt besitzen, das müsste schon ein Wunderchip sein, um mit dieser Hardware schneller als eine Ti zu werden. Bezahlt wird immer für die Leistung und falls sie schneller wäre, müsste Nvidia auch mehr Geld für die 2080 verlangen, aber für eine Karte mit weniger RAM? Macht keinen Sinn, außer man zieht die Ti komplett aus dem Markt und das zügig.
Wo siehst du denn die DVI-Steckplätze? Ich erkenne keine, im Gegenteil. Auf allen Bildern ist kein einziger zu sehen und eher zu sehen, dass die DVI-Steckplätze gar nicht mehr verfügbar sind.
Ich mag mich irren. Man kann es wahrlich nicht gut erkennen und ich kenne solches nur von früheren DVI. Leider existiert kein Bild von der Slotseite her.
... wirst du nicht. Die Topmodelle der 1080ti haben nicht nur ein wesentlich höheren Speicherdurchsatz (528 statt 484), sondern können ebenfalls undervolted und übertaktet werden. Da stinkt die 2070 einfach in den höheren Auflösungen gnadenlos ab. Die 528GB/s sind schon bei der 1080Ti ein Bottleneck, da zieht die 2070 nicht die Butter vom Brot.
Deshalb schrieb ich ja Stock GTX 1080Ti Leistung, denn es ist schon klar, dass eine bis ans Limit uebertaktete RTX 2070 nicht auf das Niveau einer OCed GTX 1080Ti kommt (ich dachte das eigentlich relativ klar/verstaendlich dargelegt zu haben in meinem vorherigen Beitrag?).
Es ist doch klar, dass eine RTX 2070 bei geschaetzten 8% Mehrleistung gegenueber einer Stock GTX 1080 schneller als einer uebertaktete GTX 1080 sein duerfte und damit evt. auf Niveau einer Stock GTX 1080Ti liegen kann (auch wegen besserer Treiberoptimierung), aber natuerlich kann man letztere undervolten und uebertakten, doch aus dem Kontext war doch klar, dass es nicht wieder einer neue 70er Karte geben wuerde die auf dem Niveau einer 80Ti Karte der Vorgeneration sein wird (weil Turing weniger Mehrleistung zur Vorgeneration als noch Pascal bringt (wie sich RT-Raytracing - wenn es den implementiert wird - auswirkt, steht auf einem anderen Blatt), was ohne den grossen Shrink natuerlich auch einleuchtend ist).
Ausnahme koennte - wie erwahent - nur das RT-Raytracing sein, weil der GTX 1080Ti jegliche Raytracing-Kerne fehlen (da koennte eine RTX 2070 eine GTX 1080Ti sogar deutlich ueberfluegeln, und man muss man abwarten wie stark sich das auswirkt), aber das wird anfaenglich so ein Spezialfall ohne grosse Relevanz sein (und evt. insgesamt versanden wie seinerzeit PhysX).
Ergänzung ()
RYZ3N schrieb:
... irritieren mich die prognostizierten 5 (2060) und 7GB GDDR6 (2070). Auch wenn NVIDIA immer sehr konservativ (freundlichen ausgedrückt) mit VRAM umgeht, hätte es kein Upgrade auf 7GB (2060) und 9GB (2070) sein dürfen? Klar, auch das Speicherinterface spielt da eine Rolle.
Mittlerweile hat sich das "Geruechterad" weiter gedreht und eine RTX 2070 mit 8GB wird gemutmasst, so dass sich eine leicht staerkere (aber vermutlich ueberproportional teurere) RTX 2080 (zwischen RTX 2070 und RTX 2080Ti) nicht wirklich so lohnen duerfte/am unattraktivsten ist und deshalb vielleicht vorgezogen wird/mit kleinem zeitlichen Vorsprung (gegenueber RTX 2070 und 2060) auf den Markt kommen duerfte?
It also gives them more time to prepare supply – since you can be sure that there will be a much higher demand for these cards then the RTX 2080 Ti and RTX 2080. Depending on how the pre-order pricing goes these two cards will be the ones to go on and capture the mainstream market.
This setup also has the additional advantage of increasing sales of the GeForce GTX 1080 Ti and GTX 1080 during this month and a half period facilitated by any reduction in MSRP announced at the event tomorrow. Needless to say, this approach maximizes their profits and considering their last quarter earnings were not as perfect as they usually are, Jensen will be looking to overcome the drop in revenue from cryptocurrency mining dying.
Es werden genuegend Leute bei 12nm Turing anbeissen und im kommenden Jahr evt. aus den Wolken fallen, falls nVidia mit einem 7nm Refresh (der deutlich die Leistung und Effizienz aufbohren koennte) diese wieder zur Kasse bittet .