Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

CDLABSRadonP... schrieb:
Worin besteht das Problem?
Das hier ist kein Circlejerk, sondern ein Forum und dementsprechend sollte auch das Niveau sein.
Wir brauchen keinen x-ten Thread mit "mimimi Nvidia bad". Früher hat man sich auf technischer Ebene bzw. sachlich in solchen Foren ausgetauscht, heute herrscht hier nur noch Lagerkrieg.

Wenn ihr sowas braucht, dann geht auf /r/amd und schreibt den Scheiß den lieben langen Tag da, aber ich muss sowas nicht unter jeder Nvidianews haben. Mittlerweile sollte hier jeder verstanden haben, dass der Großteil der Community Nvidia/Intel hasst und AMD vergöttert.

CDLABSRadonP... schrieb:
Es ist Bedauern (und Mitleid für diejenigen, die jetzt eine Geforce brauchen), keine Hetze oder Spott, enthalten.
Da besagter User ständig über Nv/Intel herzieht und dafür sogar selbst Threads erstellt, Cherrypicking betreibt und alte Infos bzw. Fakenews postet, hat er ein klares Ziel: Nvidia so schlecht wie möglich machen, selbst wenn die Aussage falsch ist. Hauptsache draufhauen. Wo sind wir hier? Im Kindergarten?!

CDLABSRadonP... schrieb:
Knapp drei Jahre ist übertrieben. Aber sonst ist da nichts inhaltlich falsch dran...
Ach? Und das Blackwell nicht schneller ist als Ada ist wahr? Klar doch :D
Oder die Cherrypicks mit einem einzigen Game und ganz anderer Hardware als der Zitierte User ansprach hat auch nix mit nix zutun.

CDLABSRadonP... schrieb:
Naja, es ist ein pointierter, treffender Beitrag an einer frühen Position. Große Überraschung, dass das ankommt.
Es passt einfach mal wieder zu AMD Base.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, Quidproquo77, shaboo und 2 andere
(Vermutlich hat es schon jemand anderer geschrieben)

An den 4k Benches sieht man, dass jeder nächste Generations-Wechsel nur 2/3 der Mehrleistung des vorherigen bringt. Von 69%, auf 39% auf 26%.
Insofern hierbei eine zugrundeliegende Logik vorhanden ist müsste der nächste Spruch also 2/3 von 26% entsprechen. Also 17,3°%. Danach 11,5°%.
Merkt euch diese Zahlen und vergleicht sie bei den nächsten 2 Launches.

Ich kann mir zwar schwer vorstellen, dass NVIDIA so kleine Sprünge als sinnvoll erachtet. Aber falls sie technisch nicht anders können, machen sie es vielleicht dennoch.
 
  • Gefällt mir
Reaktionen: Qyxes, Corpus Delicti, SweetOhm und eine weitere Person
DerRico schrieb:
Ich finde die 5070 am beeindruckendsten - Sie zeigt auf, warum NV die Nr. 1 ist und AMD und insbesondere Intel keine Chance haben auf Sicht: Gleiche Node, 10% weniger Chipfläche und dennoch 18% mehr Leistung für das gleiche Geld.
Bei 25 % höherem Verbrauch (200 vs. 250 Watt) ! Ganz großes Tennis NV :daumen:
 
  • Gefällt mir
Reaktionen: Alphanerd, Qyxes, Boimler und 2 andere
themk schrieb:
machen sie es vielleicht dennoch.
Nicht vielleicht, sondern ganz sicher... Nvidia haut alle 2 Jahre was neues raus.
Ergänzung ()

SweetOhm schrieb:
Bei 25 % höherem Verbrauch (200 vs. 250 Watt) ! Ganz großes Tennis NV :daumen:
nicht mal die 5070ti beeindruckt mich, ausgehend von 4070.
 
  • Gefällt mir
Reaktionen: SweetOhm
Bierliebhaber schrieb:
Damals das legendäre RGSSAA von 3dfx, später AMDs SGSSAA, das mit RV870 eingeführt wurde, und dann als VSR bzw. dessen nVidia-Variante eingeführt wurde (wenn man Downsampling als besonders gutes Supersampling betrachtet).
Ich meinte KI-gestütztes Upscaling inkl. AA, unabhängig davon ob es nun DLSS, FSR(4) oder XeSS heißt. Dachte das wäre klar, da zwei von drei modernen Technologien Super Sampling im Namen tragen.

Imho schwierig die Begriffe "korrekt" zu nutzen, da sie ja mehrfach durch das Marketing aller Firmen anders (re-)definiert wurden.

AA, welches auf Downscaling basiert, hat schon immer enorm Leistung gefressen. Diese "starren" Algorithmen dahinter sind längst überholt.
 
ElliotAlderson schrieb:
Das hier ist kein Circlejerk, sondern ein Forum und dementsprechend sollte auch das Niveau sein.
Wir brauchen keinen x-ten Thread mit "mimimi Nvidia bad". Früher hat man sich auf technischer Ebene bzw. sachlich in solchen Foren ausgetauscht, heute herrscht hier nur noch Lagerkrieg.
Zustimmung bei der These, jedoch nicht bei der Beobachtung: Früher war das Niveau geringer. Da wurde noch aller mögliche Blödsinn geschrieben mit X ist selbst für Solitaire nichtvzu gebrauchen, Y ist Kernschrott und die Argumente gegen Z zählen nicht, weil es Z ist.
ElliotAlderson schrieb:
Wenn ihr sowas braucht, dann geht auf /r/amd und schreibt den Scheiß den lieben langen Tag da, aber ich muss sowas nicht unter jeder Nvidianews haben. Mittlerweile sollte hier jeder verstanden haben, dass der Großteil der Community Nvidia/Intel hasst und AMD vergöttert.
Die Stimmung ist in Bezug auf CPUs mMn bereits stark gekippt mit SummitRidge in Bezug auf CPUs und noch viel stärker mit Vermeer-X. Mein Headcanon ist: Wenn Leuten das gegeben wird, was sie wollten, dann sind sie auch zufrieden. Und insbesondere letzteres, mal wirkliche Gaming-CPUs, gehört halt hier ganz klar dazu.
In Bezug auf Grakas war die Stimmung vor RDNA4 sehr stark Anti-RTG und das zu Recht. Sie haben ja auch gefühlt jede Chance liegen gelassen.
ElliotAlderson schrieb:
Da besagter User ständig über Nv/Intel herzieht und dafür sogar selbst Threads erstellt, Cherrypicking betreibt und alte Infos bzw. Fakenews postet, hat er ein klares Ziel: Nvidia so schlecht wie möglich machen, selbst wenn die Aussage falsch ist. Hauptsache draufhauen. Wo sind wir hier? Im Kindergarten?!
Du fragst dich, wieso so viele Upvotes eintrudeln. Ein Grund dafür ist der, dass die Historie des Users nicht automatisch in einem Posting mitschwingt.
ElliotAlderson schrieb:
Ach? Und das Blackwell nicht schneller ist als Ada ist wahr? Klar doch :D
Das z.B. kommt nicht im zitierten Posting vor.
ElliotAlderson schrieb:
Oder die Cherrypicks mit einem einzigen Game und ganz anderer Hardware als der Zitierte User ansprach hat auch nix mit nix zutun.
Kenne ich auch, ist wieder das gleiche wie eben.
ElliotAlderson schrieb:
Es passt einfach mal wieder zu AMD Base.
Je nach Laune ist CB alles, siehe Signatur von @DevPandi --- BTW stammt der Artikel ebenfalls von @DevPandi.
 
  • Gefällt mir
Reaktionen: Alphanerd und SweetOhm
SweetOhm schrieb:
Und natürlich interessiert die USD UVP niemanden, sondern nur wieviel €uronen ich auf den Tresen legen darf ...
Sie interessiert, wenn man einem Hersteller vorwerfen möchte, dass Produkte über die Generationen übermäßig verteuert wurden.
Für einen zur Zeit von Ampere schwachen (0,84€) und zur Zeit von Blackwell eher starken(0,95€) Dollar kann Nvidia ja nix.

Dadurch wurden halt einmal aus $499 -> 419€ vor und 499€ nach Steuern.
Und einmal aus $549 -> 522€ vor und 621€ nach Steuern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, ElliotAlderson, NguyenV3 und 2 andere
Bierliebhaber schrieb:
Supersampling ist doch schon lange wieder gegangen? Seit Raytracing immer weiter verbreitet ist ist Supersampling doch tot. Bei den aktuellen Hardwareanforderungen und den geringen Leistungssprüngen, zumindest bei nVidia, ist Supersampling doch gar nicht sinnvoll nutzbar. Es gab immer wieder Zeiten, in denen Supersampling ne tolle Sache war. Damals das legendäre RGSSAA von 3dfx, später AMDs SGSSAA, das mit RV870 eingeführt wurde, und dann als VSR bzw. dessen nVidia-Variante eingeführt wurde (wenn man Downsampling als besonders gutes Supersampling betrachtet).

Im Gegenteil, wo man früher SSAA oder Downsampling genutzt hat, weil man ohnehin oft große Leistungsreserven hatte, muss man heute für FPS im spielbaren Bereich Upsampling nutzen.

Wenn man so will sind doch maximal die NativeAA-Modi von XeSS und FSR4 vergleichbar mit Supersampling, weil von der naiven Auflösung hochgerechnet wird.
mibbio schrieb:
Das ist überhaupt noch nicht gegangen, sondern das Upscaling von DLSS & Co. ist letzlich auch eine Variante des Super Sampling, nur mit anderem Ansatz. DLSS (Deep Learning Super Sampling) und XeSS (Xe Super Sampling) haben es ja sogar direkt im Namen.

Denn Super Samplling allgmein heißt nur, dass benachbarte Pixel nach einem bestimmten Muster (mehrfach berücksichtigt und) auf eine bestimmte Weise für das finale Bild miteinander verrechnet werden. Genau das passiert beim Upscaling von DLSS, FSR und XeSS (und auch Epics TSR) doch auch, nur dass die Pixel halt nicht im selben Frame benachbart sind, sondern zusammenhängende Pixel aus mehreren Frames (per KI) verrechnet werden, um damit das finale Bild in voller Auflösung zu bilden.
floTTes schrieb:
Ich meinte KI-gestütztes Upscaling inkl. AA, unabhängig davon ob es nun DLSS, FSR(4) oder XeSS heißt. Dachte das wäre klar, da zwei von drei modernen Technologien Super Sampling im Namen tragen.

Imho schwierig die Begriffe "korrekt" zu nutzen, da sie ja mehrfach durch das Marketing aller Firmen anders (re-)definiert wurden.

AA, welches auf Downscaling basiert, hat schon immer enorm Leistung gefressen. Diese "starren" Algorithmen dahinter sind längst überholt.
Als DLSS "1" beworben wurde gab es damals zwei Modi. Einer sollte DLSS 1x und einer 2x heißen und 1x sollte etwa so aussehen wie nativ mitsamt eines Pseudo-AAs, während 2x eben 2xSSAA (hoffentlich SGSSAA) erreichen sollte.

Der 2x-Modus erschien nie, DLSS "1" blieb eine Nullnummer, war insgesamt schon beinahe abgeschrieben und dann kam die Revolution ab DLSS 1.9. Doch auch dort stand wirkliches Supersampling nicht im Fokus, sondern Quality war eigentlich DeepLearningSampling und darunter war alles DeepLearningSubSampling. Erst mit DLAA erhielt auch Supersampling tatsächlich Einzug.

Insgesamt von der Benennung also ein großes Kuddelmuddel.
 
  • Gefällt mir
Reaktionen: Qyxes und SweetOhm
davidzo schrieb:
Die 2070 basiert auf dem Tu106, nicht Tu107.
Angepasst, stand auch im Text ja richtig. Ist einer dieser klassischen Vertipper, die einem dann auch nicht mehr auffallen beim lesen.
 
  • Gefällt mir
Reaktionen: davidzo, Alphanerd und SweetOhm
Taxxor schrieb:
Sie interessiert, wenn man einem Hersteller vorwerfen möchte, dass Produkte über die Generationen übermäßig verteuert wurden.
Für einen zur Zeit von Ampere schwachen (0,84€) und zur Zeit von Blackwell eher starken(0,95€) Dollar kann Nvidia ja nix
Wenn der Betrag allerdings jenen allein vom Kurs um einiges übertrifft, dann halt eben schon ...
 
@SweetOhm Er übertrifft ihn in dem Fall um 28€ bzw 4,5% und selbst wenn man diese 4,5% auf den Dollar Preis noch mit drauf legen würde, wäre die 5070 genau 15% teurer als die 3070, was über 5 Jahre auf ~2,9% Inflation hinauslaufen würde.

Der Rest sind Kursschwankungen, die halt mal zu unserem Vorteil und mal zu unserem Nachteil sind.
 
  • Gefällt mir
Reaktionen: MalWiederIch und ElliotAlderson
Letzter Beitrag für heute: Noch mal zwei drei Fehler korrigiert und SER auf der ersten Seiten aufgelöst. Da ging was beim Umstellen verloren.

Ansonsten würde ich euch mal allgemein bitten, etwas entspannter mit dem Thema hier umzugehen. Vor allem, lasst euch nicht ständig provozieren. @ElliotAlderson du schadest dir da teilweise selbst in der Diskussion, auch wenn du nicht Unrecht hast. Manchmal sollte man gewisse Sachen aber stehen lassen. Wenn du darauf eingehst, provozierst du am Ende genau das, was eigentlich wir alle nicht wollen.

CDLABSRadonP... schrieb:
Je nach Laune ist CB alles, siehe Signatur von @DevPandi --- BTW stammt der Artikel ebenfalls von @DevPandi.
Bin ja gerade schon froh, dass mir nicht die AMD Bias zum Vorwurf gemacht wird. ;) Wobei es dieses Mal ein leichtes gewesen wäre. Mein Gefluche über die Treiber haben schon teilweise Rohrspatz-Qualitäten gehabt,
 
  • Gefällt mir
Reaktionen: muvmend, floTTes, Boimler und eine weitere Person
CDLABSRadonP... schrieb:
Der 2x-Modus erschien nie, DLSS "1" blieb eine Nullnummer, war insgesamt schon beinahe abgeschrieben und dann kam die Revolution ab DLSS 1.9. Doch auch dort stand wirkliches Supersampling nicht im Fokus, sondern Quality war eigentlich DeepLearningSampling und darunter war alles DeepLearningSubSampling. Erst mit DLAA erhielt auch Supersampling tatsächlich Einzug.
Welche Schimpfwörter du den Techniken jetzt gibst, ändert letzlich nichts daran, dass das aktuelle Upscaling von DLSS (egal ob DLSS 1, 2, 3 oder 4), FSR und XeSS, effektiv zu "Super Sampling" zählt. Das Verfahren unterscheidet sich dabei halt nur sehr von den früheren Varianten wie SSAA, SGSSAA usw.

Denn es wird auch hier das Grundprinzip von Super Sampling angewendet, indem benachbarte Pixel zu Pixeln im finalen Bild verrechnet werden. Nur sind die halt nicht wie früher räumlich benachbart (im selben Quellframe), sondern halt (zusätzlich) zeitlich benachbart, also aus mehreren aufeinander folgenden Frames.
 
mibbio schrieb:
Welche Schimpfwörter du den Techniken jetzt gibst, ändert letzlich nichts daran, dass das aktuelle Upscaling von DLSS (egal ob DLSS 1, 2, 3 oder 4), FSR und XeSS, effektiv zu "Super Sampling" zählt. Das Verfahren unterscheidet sich dabei halt nur sehr von den früheren Varianten wie SSAA, SGSSAA usw.

Denn es wird auch hier das Grundprinzip von Super Sampling angewendet, indem benachbarte Pixel zu Pixeln im finalen Bild verrechnet werden. Nur sind die halt nicht wie früher räumlich benachbart (im selben Quellframe), sondern halt (zusätzlich) zeitlich benachbart, also aus mehreren aufeinander folgenden Frames.
Ich glaube nicht, dass du meine Intention verstanden hast. Es geht nicht um Schimpfwörter, sondern um eine Beschreibung, genauer gesagt um eine Differenzierung. SuperSampling steht für Überabtastung, Subsampling für Unterabtastung. Und genau das lag halt vor: Die niedrigen Modi sorgten eben bloß für eine Unterabtastung. Sie waren weiterhin effizienter als eine bloße Reduktion des ResScales, sie haben daraus mehr rausgekitzelt, aber sie haben eben nicht das Niveau von 100% erreicht (das wäre Sampling) oder übertroffen.
Mit der Zeit hat sich dieses Niveau immer weiter nach oben verschoben. Deshalb sprechen wir heutzutage davon, dass in manchen Spielen auch problemlos Performance gefahren werden kann.

Was meiner Meinung nach etwas unter die Räder geht ist dabei allerdings der Aspekt des Supersamplings: Die Qualität der hohen Modi steigt mir nicht stark genug. Ich glaube, im Sinne des EducatedGuessings, dass da deutlich mehr drinnen ist und es einfach aktuell brach liegt. Indizien für das EducatedGuessing? Oftmals sieht DLDSR & ein entsprechend niedriges DLSS-Preset besser aus als Quality, bei gleicher Performance. Das ist nichts als eine suboptimale Implementierung; sowas darf nicht passieren. Weiteres Indiz? Schon damals wurde DLSS 2x in der Praxis vernachlässigt. Noch eines? SGSSAA wurde auch stets im Marketing vernachlässigt.

Ich bin daher sehr misstrauisch — da geht sicherlich noch viel mehr!
mibbio schrieb:
Denn es wird auch hier das Grundprinzip von Super Sampling angewendet, indem benachbarte Pixel zu Pixeln im finalen Bild verrechnet werden. Nur sind die halt nicht wie früher räumlich benachbart (im selben Quellframe), sondern halt (zusätzlich) zeitlich benachbart, also aus mehreren aufeinander folgenden Frames.
Das zweifele ich auch nicht an. Nur war früher ein Spiel, in dem man die Auflösung pro Achse halbiert hat, dafür aber 4xSGSSAA angestellt hat, keines, das effektiv mit Supersampling lief. Hätte man dieses Verfahren in einen Container gepackt, dann hätte es den Namen 1xWhateverAA verdient gehabt.

Ich hoffe, die Unklarheiten konnten beseitigt werden.
 
  • Gefällt mir
Reaktionen: SweetOhm
Schau euch die Effizienz zwischen Ada und Blackwell an.
Einer Gründe warum in meiner Signatur eine AMD Karte steht.

An dem Thema Brechstange ist Intel schon mit der 13. und 14. Generation von CPUs gescheitert. Nvidia will das anscheinend mit ihren GPUs wiederholen.
 
  • Gefällt mir
Reaktionen: SweetOhm
themk schrieb:
An den 4k Benches sieht man, dass jeder nächste Generations-Wechsel nur 2/3 der Mehrleistung des vorherigen bringt. Von 69%, auf 39% auf 26%.
Insofern hierbei eine zugrundeliegende Logik vorhanden ist müsste der nächste Spruch also 2/3 von 26% entsprechen. Also 17,3°%. Danach 11,5°%.
Merkt euch diese Zahlen und vergleicht sie bei den nächsten 2 Launches.
Mein Gott, so viel Arithmetik für so viel Unsinn! Du glaubst wohl auch an das vielzitierte "Gesetz der Serie". :lol:

Da mit der nächsten Generation ein Fertigungswechsel verbunden sein wird, wird dort auch der Leistungszuwachs wieder größer ausfallen; das sollte mittlerweile auch der Letzte begriffen haben. Das gilt umso mehr deshalb, weil Nvidia sicherlich die zuletzt stagnierenden oder sogar sinkenden MSRPs/UVPs (Ausnahme 5090) dann auch gerne mal wieder erhöhen wollen wird, und das wird man kaum mit einer derart stagnierenden Leistung kombinieren wie zuletzt bei Blackwell.
 
  • Gefällt mir
Reaktionen: Quidproquo77
@CDLABSRadonP... DLDSR + DLSS sieht schlecht aus im vergleich zu reinem DLSS4, da der Downsampling Schritt unschärfe ins Bild bringt, die du mit reinem DLSS4 welches auf die native Auflösung rekonstruiert, nicht hast.
Außerdem hat DLDSR einen künstlich aussehenden schärfefilter, da dem Bild nen gewissen "AI" einschlag gibt.

DLDSR hatte seinen nutzen mit DLSS3, um die typische TAA unschärfe unter der DLSS3 litt loszuwerden. Die hohe Zielauflösung und das anschließende Downsampling hat viel von der temporalen schärfe eliminiert.
Aber seit mit DLSS4 das Bild stets perfekt scharf ist, ist DLDSR nur kontraproduktiv. Das Bild wird durch den Skalierungsschritt leicht unschärfer and dann wird ein Scharfzeichner drüber gelegt. Das ist alles andere als optimal und mittlerweile nicht mehr sinnvoll.


Ansonsten IST DLSS Supersampling.

Du scheinst davon auszugehen, dass bei DLSS im wahrsten Sinne upscaling geschieht. Das ist aber falsch. Es wird hier kein niedrig aufgelöstes Bild mit AntiAliasing glattgebügelt und dann via AI hochskaliert. Nein.

Das Bild wird in niedrigerer Auflösung vom Spiel gerendert. Also z.B. 1080p. auf einem 4K Monitor mit dem DLSS Performance Preset.

Dann werden ähnlich wie bei klassichem Supersampling eine unmenge an zusätzlichen Samples erzeugt. Bei klassischen Supersampling hat man die Samples noch einzeln und teuer berechnet, so als würde das gesamte spiel in einer viel höheren Auflösung laufen. Mit TAA und genauso auch mit DLSS werden die Samples aber aus vorherigen Frames interpretiert, was im vergleich zu klassischen Supersampling vielfach weniger Leistung kostet (und man bei reduzierter Renderauflösung sogar noch sehr viel performance dazu gewinnt). Man gewinn Samples, also Bilddaten über die Zeit statt über die Berechnung in der 2D Bildfläche. (Deswegen temporales verfahren, statt spatiales)

Das entscheidende ist, der Algorithmus nimmt dann diese Samples aus den alten Bilddaten + die Samples aus denen das aktuelle Bild zusammengesetzt ist (also das 1080p bild) und rekonstruiert daraus ein völlig neues 4K bild. Es wird nicht hochskaliert, sondern aus der Summe der Samples ein neues Bild zusammengebaut, also Resampled. Das ist der kleine aber entscheidende Unterschied.
Und da der Algorithmus idr. deutlich mehr als 8 Mio samples aus den vorherigen Bilddaten sammeln kann um sie in das neue Bild zu stecken, hast du effektiv supersampling und damit AntiAliasing + einen Zugewinn an Details.

Die tatsächliche renderauflösung spielt also praktisch keine große Rolle. Wichtig ist, (schon immer) aus wie vielen Samples das finale Bild zusammengesetzt wurde. Und in dem moment wo die Sampleanzahl die Pixelzahl deines Displays übertrifft, hast du technisch gesehen supersampling. Und da übertrifft DLSS eben idr. selbst klassische SSAA verfahren bei weitem. Nicht in allen Bildaspekten, aber bei den allermeisten.

Das Deep Learning bzw. die "KI" steckt bei DLSS auch nicht in der Bildbearbeitung bzw. einem Upscaling algorithmus, denn wie gesagt passiert ja gar kein Upscaling im klassischen sinne. Stattdessen wird das Deep learning dafür genutzt, um aus vorherigen Frames so viele verwertbare Bildinformationen wie möglich zu extrahieren um sie dann für das aktuelle Bild korrekt zu verwerten. In dem Algorithmus steckt die ganze "Magie" und genau da entscheidet sich wie leistungsfähig das Verfahren ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes, mibbio, SweetOhm und eine weitere Person
Bierliebhaber schrieb:
Es kommt doch auch drauf an welche RDNA2-Karte man nutzt. Ich bin von einer 6700XT auf die 9070XT umgestiegen und bekomme bei demselben Verbrauch die doppelte Leistung. In der Praxis lief z.B. CP2077 mit der 6700XT mit 1080p nur ohne RT vernünftig, mit der 9070XT dagegen kann ich auch mit 1440p maximales RT und sogar Pathtracing nutzen, und das dank FSR4 mit besserer Bildqualität.
Ja, das glaube ich. Wenn man sich RT anschaut, ist RDNA 4 natürlich ein Quantensprung. In meinen Augen ist das aber auch eine Frage der Optimierung. Es gibt Spiele, die RT gut implementieren (Spiderman Remastered bspw) oder Titel, die es nicht brauchen (TLOU). Solange es ein Grafikfeature ist, kann ich es auch ohne Bauchschmerzen abschalten. Mein Prüfstein wird das neue Anno werden, da ich eh viel Strategie spiele. Wenn die 6700 XT das noch packt, habe ich erst einmal keinen Druck zu wechseln.
 
  • Gefällt mir
Reaktionen: SweetOhm
Schön zu wissen das ich mit meiner 4070 RTX alles richtig gemacht habe. Die 50xx Serie macht kein Sinn für mich.
 
shaboo schrieb:
Mein Gott, so viel Arithmetik für so viel Unsinn! Du glaubst wohl auch an das vielzitierte "Gesetz der Serie". :lol:

Da mit der nächsten Generation ein Fertigungswechsel verbunden sein wird, wird dort auch der Leistungszuwachs wieder größer ausfallen; das sollte mittlerweile auch der Letzte begriffen haben. Das gilt umso mehr deshalb, weil Nvidia sicherlich die zuletzt stagnierenden oder sogar sinkenden MSRPs/UVPs (Ausnahme 5090) dann auch gerne mal wieder erhöhen wollen wird, und das wird man kaum mit einer derart stagnierenden Leistung kombinieren wie zuletzt bei Blackwell.

Ich zitiere aus meinem Beitrag:
"Insofern hierbei eine zugrundeliegende Logik vorhanden ist"

Das ist also keine logische Aussage darüber, dass hier eine zugrundeliegende Logik vorhanden wäre.

Und es stimmt, dass ich mir die Zahlen angesehen habe, ohne dabei Gedanken über den production node zu machen.

Das ändert aber nichts daran, dass wir seit längerem steigende Produktionskosten bei geringeren Fähigkeits-Sprüngen der Produktion sehen. Sowie, dass sich dies in den Leistungsdaten und Preisen der Grafikkarten niederschlägt.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP... und SweetOhm
Zurück
Oben