RexCorvus schrieb:nicht immer davon aus dass jeder in 4K
Ich glaube genau davon davon ist er nicht ausgegangen als er "FullHD" schrieb.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
RexCorvus schrieb:nicht immer davon aus dass jeder in 4K
CB schreibt, was die Bubble lesen möchte. Wie so ziemlich die ganze Hardware Test Szene. Das Spiegelbild der Dekadenz.IBMlover schrieb:Also stimmt es nicht, was die Computerbase Redaktion in ihrer Grafikkarten Empfehlung schreibt?
Randnotiz schrieb:Diese Regler existieren bei PC-Spielen seither aus Gründen.
In aller Regel ist eine wischiwaschi Aussage.kachiri schrieb:Doch, reicht es, wenn man halt nicht das Ultra Preset wählt, das sich optisch jetzt auch nicht so sehr von Hoch oder Mittel unterscheidet - in aller Regel.
Du schaust also, dass die Batterie immer voll ist, damit nicht das Licht ausgeht von der Lampe auf der Stirn.kachiri schrieb:CB schreibt, was die Bubble lesen möchte.
Wir haben aber auch "seither" 8gb Gafikkarten.Randnotiz schrieb:Diese Regler existieren bei PC-Spielen seither aus Gründen.
IBMlover schrieb:@Randnotiz @kachiri @RexCorvus
Also stimmt es nicht, was die Computerbase Redaktion in ihrer Grafikkarten Empfehlung schreibt?
Zitat:
https://www.computerbase.de/artikel...erlaeuterung_zu_den_empfehlungen_fuer_full_hd
Wer ältere Spiele oder mit weniger Anspruch an die Grafikdetails spielt, kann natürlich auch mit schwächeren Grafikkarten noch glücklich werden.
Deswegen schrieb ich auch:kachiri schrieb:Dein Beispiel zeigt halt wunderbar die Bubble.
Und wenn man bedenkt, dass die 970 die 3,5+5 Geschichte hatteEL-Xatrix schrieb:..glaub nur die 970 wurde mehr verkauft wie die 960...
Wenn man die beste Bildqualität und den unoptimierten Dünnschiss will, den AAA-Studios gern raus rotzen, haben sie recht.IBMlover schrieb:@Randnotiz @kachiri @RexCorvus
Also stimmt es nicht, was die Computerbase Redaktion in ihrer Grafikkarten Empfehlung schreibt?
Ich bin einer der ersten, die hier und anderswo immer schreiben, was nVidia für ein dreckiges Spiel spielt und die Käufer übers Ohr haut.Alesis schrieb:Da stellt sich für mich die Frage, bekommt ihr was dafür und von wem? Denn freiwillig ohne Zwang ein Unternehmen zu verteidigen, welches einen Marktwert von 4 Billionen € hat, ist..... schreibe ich lieber nicht. Fakten sind einfach sinniger als wischiwaschi.
Wir haben seit langem 8GB Karten, jau und vieles läuft auch noch immer für die meisten ausreichend.Gigaherz schrieb:Wir haben aber auch "seither" 8gb Gafikkarten.
Widerspricht der Tatsache nicht, dass Nvidia die Karte als 25x14 bewirbt aber dafür nicht geeignet sind. Die Werbung müsste heißen, man kann auch je nach Spiel diese Karte mit einer 25x14 Auflösung nutzen. Zusätzlich müsste auf der Packung stehen, Vorsicht bei Systemen mit PCI-E 4.0. Man wird je nach Spiel erhebliche Leistungseinbußen haben.Randnotiz schrieb:Für Cyberpunk brauche ich keine 144fps oder Lichtspiegelungen.
Gerade deine Auswahl zeigt doch, dass man bereits mit PCIe 5.0 erhebliche Leistungseinbußen mit gleichen Settings hat, wie mit der 16 GB Variante.Alesis schrieb:Zusätzlich müsste auf der Packung stehen, Vorsicht bei Systemen mit PCI-E 4.0. Man wird je nach Spiel erhebliche Leistungseinbußen haben.
IBMlover schrieb:Was will ich mit 8Gig. Reicht ja nicht mal mehr bei aktuellen Titeln in FullHD.
Das nachgewiesener Weise besser aussieht als Nativ. So wo der Nachteil für den Kunden?EL-Xatrix schrieb:aber die wollen in letzter zeit eher ihr upscaling zeugs vermarkten...