News Nvidia G-Sync Pulsar: Die besonders „scharfen“ Monitore kommen jetzt wirklich

Samuelz schrieb:
VRR-Flicker tritt außerhalb von Ladebildschirmen oder Shader-Compile-Screens praktisch nicht auf. Im eigentlichen Gameplay ist dieses Problem nicht vorhanden.

Warum implementiert Asus dann ein peinliches Fake-Anti-Flicker, das VRR selbst in der niedrigsten Einstellung praktisch deaktiviert ?

https://www.reddit.com/r/OLED_Gaming/comments/1cwgk1c/comment/l4x252k/

Und auch wenn Du es nicht siehst - andere schon, und messbar ist es auch:

https://www.rtings.com/monitor/learn/research/vrr-flicker
 
Messbar und sehen bzw. tritt auch in Spielen auf, sind zwei unterschiedliche Sachen. Kannst du aber natürlich nicht wissen, sondern nimmst solche Berichte dann für das normale. Ich habe hier einen QD-OLED @ 4K @ 31,5" @ 240HZ stehen, ich habe keine VRR Flickering im Gameplay, es tritt nur in Ladescreens und Shader Compile Screens auf. Das stört aber nicht.

Hole dir selbst einen OLED und das wirst du sehen, hmmm, der Typ aus dem CB Forum hatte recht.

IMG_0798.jpeg
 
Samuelz schrieb:
Messbar und sehen bzw. tritt auch in Spielen auf, sind zwei unterschiedliche Sachen. Kannst du aber natürlich nicht wissen, sondern nimmst solche Berichte dann für das normale.

Ein besseres Schuldeingeständnis als das übertriebene Asus Anti-Flicker kann es nicht geben. Subjektive Einzelmeinungen sind wertlos.

Mein G-Sync-kompatibler IPS flackert selbst beim Shader Compiling und in Ladescreens nicht, und die Spiele, dir mir vom Gameplay her zusagen, unterstützen HDR sowieso nicht.

Mein alter TN-Monitor mit G-Sync der ersten Generation flackerte tatsächlich bei einstelligen Frameraten in Ladescreens, aber das ist lange her.

OLED werfe ich keinen Cent hinterher, auch nicht zum Testen.
 
Samuelz schrieb:
Messbar und sehen bzw. tritt auch in Spielen auf, sind zwei unterschiedliche Sachen. Kannst du aber natürlich nicht wissen,
Man muss sich nur ansehen, welchen Aufwand Rtings betreiben muss um den Flicker zu induzieren. Wer Games hat, bei denen die Bildrate ständig zwischen 10 und 100 fps schwankt, der sollte sich wahrscheinlich zuerst darum kümmern, dass das aufhört.
Ich finde es schon fast kriminell, dass Rtings dafür Screenshots von Cyberpunk in ihrem eigenen Flicker-Engine verwendet und somit suggerieren, dass man in Cyberpunk VRR Flicker sehen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: serve1chilled und Samuelz
JMP $FCE2 schrieb:
Ein besseres Schuldeingeständnis als das übertriebene Asus Anti-Flicker kann es nicht geben. Subjektive Einzelmeinungen sind wertlos.

Mein G-Sync-kompatibler IPS flackert selbst beim Shader Compiling und in Ladescreens nicht, und die Spiele, dir mir vom Gameplay her zusagen, unterstützen HDR sowieso nicht.

Mein alter TN-Monitor mit G-Sync der ersten Generation flackerte tatsächlich bei einstelligen Frameraten in Ladescreens, aber das ist lange her.

OLED werfe ich keinen Cent hinterher, auch nicht zum Testen.
Wundert mich nicht. Scheinst ein sturer Kerl zu sein. Ja, bitte mach was du willst. Weiterhin viel Spaß mit deiner LCD Krücke.
 
TheInvisible schrieb:
In anderen Industrien ist das ganz normal, warum sollte Nvidia hier jahrelang was entwickeln und AMD/Intel einfach so nutznießen? AMD macht es mit fsr4/Redstone auch so
Was ist ganz Normal in anderen Industrien? Etwa wie tenstorrent? https://tenstorrent.com/

Von einem Hersteller lock Profitiert nur der Hersteller.
 
Gegenbeispiele schließen die Existenz dieser Praxis aus?

Ich möchte jetzt keine Jubelgesänge auf Nvidia deswegen starten, ich vermute dass diese Technik zu sehr Nische ist als dass sie sich breit flächig durchsetzt und die meisten die es ernsthaft interessiert werden sowieso schon auf eine Nvidia Karte setzen.
Bzw. die die meinen es wegen eines Hersteller Locks nicht zu kaufen sind sowieso nicht ernsthaft interessiert :evillol:
 
Azghul0815 schrieb:
Wieviel FPS hat man denn in 4K bei CS2 mit einer 300 Euro GPU?
Also bitte.
In WQHD schafft ne 5090 vermutlich die 360fps im Schnitt.
Ich hab in CS2 mit ner 5090 in 4K 500-700 FPS in Esports Settings im Schnitt. Es gibt in CS zwar Frame Drops der 1% Lows auf fast runter auf 100 in Gefechten die hat aber jeder und die kommen von der CPU und treten selbst in 1280x960 auf bei Leuten die Esports spielen und mit ner 9800X§D CPU. Da haben sich die Pros erst vor kurzem drüber beschwert.
 
ev4x schrieb:
Ich hab in CS2 mit ner 5090 in 4K 500-700 FPS in Esports settings
Deshalb hab ich auch nach ner 300 Euro GPU gefragt.
CS knallt, je nach Szenario abwe auch mal voll auf die GPU. Ich war auch überrascht, dass beim Benchmark in 960p die 4070 TI damals 100 % ausgelastet war in gewisse Szenarien
 
Azghul0815 schrieb:
Deshalb hab ich auch nach ner 300 Euro GPU gefragt.
Du schreibst doch aber "In WQHD schafft ne 5090 vermutlich die 360fps im Schnitt." Und das stimmt halt nicht die packt deutlich mehr selbst in 4K
 
Zielgruppe sind dann Leute die Angst vor OLED Burn-In haben oder wer?
Selbst mit der nicht aktuellsten Karte ist OLED ein Game Changer.
 
  • Gefällt mir
Reaktionen: Azghul0815
Artikel-Update: Mit dem Februar 2026 soll der AGON PRO AG276QSG2 nur etwas später erscheinen, wie AOC heute mitgeteilt hat. Der UVP liegt bei 749,00 Euro.
 
Gäbe es nicht nur Briefmarkengroße Monitore die damit laufen wäre das ja toll. So leider einfach unbrauchbar.
 
@Blackvoodoo Anscheinend fürs erste auf eSports ausgelegt. Aber ja, wenn sowas an 32" und OLED kommt wird es interessant :D
 
@Thelnvisible auch das finde ich noch zu klein. Habe 42" OLED und will nichts kleineres mehr.
 
JMP $FCE2 schrieb:
OLED krankt an VRR-Flicker, G-Sync ist damit nicht vernünftig nutzbar.

Jede Display-Technologie hat damit zu kämpfen, mal stärker, mal weniger stark. Kein Grund, auf OLED zu verzichten.

derMutant schrieb:
Nun doch wieder warten?

OLED wird trotzdem die bessere Panel-Technologie bleiben. Und auch mit Pulsar werden IPS Displays nicht an OLED rankommen. Sofern keine Rahmenbedingungen bei dir gegen OLED sprechen (Stichwort Burn-In/Out), würde ich jederzeit OLED bevorzugen. Und das Budget es natürlich zulässt.
 
  • Gefällt mir
Reaktionen: derMutant und NerdmitHerz
TheInvisible schrieb:
Einfach Mal den Artikel lesen und das Nvidia Video ansehen bevor man postet, 250hz Pulsar entsprechen 1000hz regulär.
Dem würde ich prinzipiell wiedersprechen. Das ist Marketing Geschwätz. Da gibt es so viel Punkte zu beachten. IPS hat so langsame Pixel Umschaltzeiten da hat die Hz keinen Einfluss auf Bewegungsschärfe. OLED 120Hz gefällt mir viel besser weder ein 240Hz IPS Panel.
Wie war das, früher hatten LCD TVs auch 1000Hz…
 
Zurück
Oben