Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

RushSyks schrieb:
Und in 4K werden wir sicher kein CPU Limit erleben, damit ist die relative Performance auch bekannt.
Bei 4K spielt aber auch der VRAM mehr rein, nur weil die 3070 z.B. mit ihren 8GB in 4K vielleicht 5% hinter der 2080Ti liegen könnte, heißt das nicht, dass sie in 1080p nicht 10% vor ihr liegen könnte.
Bringt nur nichts, wenn in 1080p beide limitiert werden und man es nicht sieht.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Okay, der Fall könnte theoretisch auftreten. Wobei es dafür immer noch WHQD gibt ;)
Man kann nicht alle Fälle abdecken. CB ist nach meinem Eindruck schon immer eine Website, die explizit realistische Szenarien abbildet, wie auch mit Temperaturtest im Gehäuse statt Open Benchtable.

Solange das offen kommuniziert wird sehe ich überhaupt keinen Grund da von fachlichen Fehlern zu sprechen oder das der Test "wertlos" sei und genau gegen diese Extremposition wollte ich mich stellen. Für einen Großteil der Leute wird das eine sehr gute Vorhersage wie die Karten tatsächlich performen, repräsentativer als ein 10900K mit OC. Wer unbedingt die theoretischen Grenzwerte wissen will, der muss eben auf andere Portale ausweichen.
 
Ich hab jetzt drei Tage gebraucht um mich durch das Tränenmeer der Intel Fanbois zu kämpfen. Jetzt ist mein Popcorn alle. Habt ihr kein echtes Leben, dass ihr euch wegen so einer Nichtigkeit so zum Horst machen müsst und euch auch die fadenscheinigsten Gründe nicht zu blöd sind?
Es haben ja nun schon sowohl das CB Team als auch andere Forumsmitglieder versucht die Beweggründe zu erläutern. Auch wenn ihr jetzt noch mehrere Wochen rumheult: es ändert sich nichts mehr! PCI 4.0 ist die Zukunft, rafft das mal.
 
  • Gefällt mir
Reaktionen: Kodak, meXP, McTheRipper und 2 andere
Seid mal froh dass es AMD gibt sondern würden wir diese Tests mit einer 4C/8T CPU als Topdog sehen. Sachen gibts die paar Prozent sind geschissen drauf. Die relative Performance bleibt gleich, jede Karte hat die gleichen Vorraussetzungen. Und btw: Ein Bench bildet eh nie die gesamte Wahrheit ab. Je nachdem welche Szene verwendet wird gibt es bereits erhebliche Unterschiede. Ein Bench bildet nur einen Wert in einer bestimmten Situation. Sollte man sich vielleicht mal in Erinnerung rufen.
 
  • Gefällt mir
Reaktionen: Londo Mollari, Celinna, m2020 und 2 andere
RushSyks schrieb:
Und in 4K werden wir sicher kein CPU Limit erleben, damit ist die relative Performance auch bekannt. Sehe das Problem überhaupt nicht, halte es sogar für aussagekräftiger so.

Und genau das ist der springende Punkt mit der 3090, die CPUs fangen jetzt genauso an zu limitieren wie sie es bei der 2080 ti schon in FHD/WQHD tun.

Dazu kommt, dass manche Leute vielleicht jetzt die GPU upgraden, in einem Jahr aber schon wieder die CPU. Dann möchte ich doch wissen, ob ich vielleicht doch lieber eine Lsistungsklasse bei der GPU höher oder niedriger gehen kann, weil ich in 2 Jahren ja die GPU dann auch voll auslasten kann.

Ist es nicht gerade für die Ryzen Fraktion hier auf CB interessant was die Karten können? da werden ja die CPUs so oft gewechselt wie bei unseren Nerds die GPUs...

Was ist mit den Intel Usern die ihre 20-30% Mehrleistung haben wollen? für sie sagt der GPU Test einer 3090 mit nem ryzen einfach nichts aus.
Ergänzung ()

Dai6oro schrieb:
Seid mal froh dass es AMD gibt sondern würden wir diese Tests mit einer 4C/8T CPU als Topdog sehen. Sachen gibts die paar Prozent sind geschissen drauf. Die relative Performance bleibt gleich, jede Karte hat die gleichen Vorraussetzungen. Und btw: Ein Bench bildet eh nie die gesamte Wahrheit ab. Je nachdem welche Szene verwendet wird gibt es bereits erhebliche Unterschiede. Ein Bench bildet nur einen Wert in einer bestimmten Situation. Sollte man sich vielleicht mal in Erinnerung rufen.

ja stimmt der 5820K mit 6C/12T für 300€ war ja AMDs Verdienst. 2014 war der Druck durch den Ryzen schon so hoch...
 
  • Gefällt mir
Reaktionen: .Sentinel.
RushSyks schrieb:
Wobei es dafür immer noch WHQD gibt ;)
Wenn die Leistungssteigerungen so eintreten, dann wird das CPU Limit in WQHD genausostark vertreten sein, wie es jetzt in 1080p der Fall ist.

Der einzige Vorteil ist dann, dass die 1080p CPU Tests endlich mal weniger GPU-limitiert sein werden^^
 
  • Gefällt mir
Reaktionen: .Sentinel.
gunmarine schrieb:
Und genau das ist der springende Punkt mit der 3090, die CPUs fangen jetzt genauso an zu limitieren wie sie es bei der 2080 ti schon in FHD/WQHD tun.

Also erst einmal danke für deinen und Taxxors sachlichen Diskussionsstil. Einige andere hier im Forum haben ja schon im 3ten Post (!) ein solche unangemessene Kritik geschrieben, da musste ich einfach eine positive Gegenstimme setzen :)

Das die 3090 in UHD von der CPU limitiert wird glaube ich allerdings erst wenn ich es sehe. In modernen Spielen wird das ziemlich sicher nicht passieren, meine 2080Ti ist ständig am limitiern, obwohl in nur einen 3700X habe. Ausnahme wäre hier der Flight Simulator^^
 
  • Gefällt mir
Reaktionen: stevefrogs
guru_meditation schrieb:
Ich hab jetzt drei Tage gebraucht um mich durch das Tränenmeer der Intel Fanbois zu kämpfen. Jetzt ist mein Popcorn alle. Habt ihr kein echtes Leben, dass ihr euch wegen so einer Nichtigkeit so zum Horst machen müsst und euch auch die fadenscheinigsten Gründe nicht zu blöd sind?
Es haben ja nun schon sowohl das CB Team als auch andere Forumsmitglieder versucht die Beweggründe zu erläutern. Auch wenn ihr jetzt noch mehrere Wochen rumheult: es ändert sich nichts mehr! PCI 4.0 ist die Zukunft, rafft das mal.

Es hat 0,0 damit zu tun, dass es Intel ist, es geht einzig und allein dadrum, dass hier mit angezogener Handbremse ein GPU Benchmark durchgeführt wird, der falsche Ergebnisse produziert und das in Anbetracht der Stimmungslage durch die Community auch noch einen Faden beigeschmack hat, weil ständig der Eindruck entsteht, dass AMDbase die User nicht vergraulen will. Stichwort Ramhandbremse beim Intel und dann steht im Fazit „AMD ist kaum langsamer in Spielen“. Und wir testen selber und sehen dann zT Werte wo der Intel 50% schneller ist als ein voll übertaktetes Ryzen System. Ja lohnt sich dann echt nicht ein paar Euro mehr zu bezahlen sind ja nur 170 vs 100 FPS. Oder 120 vs rucklige 70 FPS.

Es soll doch jeder sehen können, was mit der Hardware möglich ist und nicht welchen fertig PC ich mir kaufe, den schwarzen mit der 3070 oder den blauen mit der 3080.

Das ist dann einfach nur noch Bild Niveau und hat nichts mehr mit einem vernünftigen Test zu tun der mehrere Zielgruppen anspricht. Nahezu alle Intel User können sich die Balken hier sparen, so kann man auch einen Teil der Leser relativ einfach wieder verlieren. Und mir waren die GPU Tests hier immer lieber sls im Luxx weil die ja auch gerne mal auf nem TR benchen.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
... würden wir diese Tests mit einer 4C/8T CPU als Topdog sehen ...
Ich wusste schon immer, dass du ein unvergleichlicher optimistischer Träumer bist ;p
 
HAse_ONE schrieb:
Welches Debakel? Dieses rumgeweine weil der versprochene Boost-Takt nicht eingehalten wurde?
Das mit dem Boost meine ich nicht, das war mir auch egal. Aber er hat halt nur bei jedem 3. oder 4. Verwuch erst gebootet, und das war schon mega nervig. Und nach ca 2 Monaten kam nen BIOS update, dann gings zuverlässig immer. Nur das meine ich.
 
gunmarine schrieb:
Und wir testen selber und sehen dann zT Werte wo der Intel 50% schneller ist als ein voll übertaktetes Ryzen System. Ja lohnt sich dann echt nicht ein paar Euro mehr zu bezahlen sind ja nur 170 vs 100 FPS. Oder 120 vs rucklige 70 FPS.

Auf den Benchmark warten wir seit etlichen Monaten von dir. Oder kommst du jetzt wieder mit SotTR ums Eck, dass genau für wieviele Personen interessant ist? :volllol:
 
  • Gefällt mir
Reaktionen: Kodak, McTheRipper und llax
Viel schlimmer als die 50 mhz finde ich, dass die CPUs unter Volllast quasi gar nicht mehr boosten können, nichtmal mit ner 1000€ Wakü bekommst du praktisch keine 4.5 ghz allcore mit oc durch Prime.
 
An alle die mit 10900k die NextGen GPUs getestet sehen wollen:
Macht eine eigene Techseite auf, da könnt ihr das machen wie ihr das für richtig haltet.

Denn soweit ich das mitbekomme gehen immer mehr Seiten wie Hardware Unboxed, PCgameshardware, Computerbase usw auf AMD 3900XT oder 3950X. Wichtigster Faktor ist PCI E 4.0. Andere werden folgen.
Im Endeffekt sind die Beweggründe aber auch egal.
 
  • Gefällt mir
Reaktionen: llax
@LencoX2
Der Punkt ist doch wenn die CPU eh schon am Ende ist und nicht mehr FPS liefern kann, wie soll dann PCI-E 4.0 hier noch anschieben können?

Genau. Gar nicht.
Weil die CPU nicht mehr FPS liefern kann.
 
  • Gefällt mir
Reaktionen: incurable, .Sentinel., gunmarine und eine weitere Person
Verstehe nicht, dass man hier nicht normal diskutieren kann ohne das wieder dieses AMD vs Intel Thema aufkommt.

Achja und an die Leute die meinen "in 4K ist die CPU egal" Das GPU Limit von heute, ist das CPU Limit von morgen. :D
 
  • Gefällt mir
Reaktionen: Esenel, gunmarine und incurable
gunmarine schrieb:
Da ist der Wechsel von Intel zu AMD einfach schlechte journalistische Arbeit.

Wenn das so weiter geht ist CB bald komplett für mich gestorben, weil die Benches einfach nichts mehr aussagen und nur noch für billige Mittelklasse PCs was taugen und die User, die sich für High End Hardware interessieren (10900K, Samsung B Dies, 3090) einfach nur einen Haufen Müll in den Testergebnissen lesen kann, weil schlecht gearbeitet wird.
tränchenwegwischend
Denke aber dran, dass wir alle immer noch auf deine Quelle "PCI-E 3 zu 4 würde nur 1~2% bringen" gespannt warten, bevor du mit voller Hose und nassen Hemd zu einer passend testender Seite wechselst.
 
  • Gefällt mir
Reaktionen: Kodak, Asghan, Sophisto und eine weitere Person
Esenel schrieb:
@LencoX2
Der Punkt ist doch wenn die CPU eh schon am Ende ist und nicht mehr FPS liefern kann, wie soll dann PCI-E 4.0 hier noch anschieben können?

Genau. Gar nicht.
Weil die CPU nicht mehr FPS liefern kann.
So simpel ist das alles nicht. Ein PC ist mehr als nur die CPU. Schon eine 5700 XT bringt auf dem identischen System in einigen neuen Titeln unter PCI 4.0 ein paar FPS mehr. Das ist eine Tatsache, weil schon mehrmals unabhängig berichtet.
Es liegt wohl daran, dass jeder Frame einen gewissen Datenoverhead auf dem Interface produziert. Also schnellere GPU noch mehr davon profitieren.

Es wird also eher andersrum ein Schuh draus
Die NextGen GPUs werden von PCI 3.0 künstlich ausgebremst.

Mal ganz von den FPS abgesehen, ist dann ja auch noch die NVMe . Auch hier wurde mehrfach nachgewiesen, dass es schneller ist.

Warum also sollte man bei einem modernen High End System auf Uralt PCI 3 setzen und damit Performance verschenken?
Genau das ist DAS Pro Intel Argument.

Wer in aller Welt daddelt eigentlich auf seinem High End PC nur Low End Games in Klötzchen Grafik bei 200 FPS und mehr?
 
  • Gefällt mir
Reaktionen: fox40phil, McTheRipper und llax
GroMag schrieb:
Wenn selbst der Unterscheid PCIe 3.0 x8 zu x16 im Bereich der Messungenauigkeit liegt, wo soll da der Mehrwert bei PCIe 4.0 herkommen?

So sind sie, die AMDisten.
Nicht schwaffeln - liefern!

Ich bin kein AMDist. Meine vorletzte 2, waren Intels. Der letzte - ist R5 1600x.
Also klappe, fanboy.
 
Zuletzt bearbeitet:
Zurück
Oben