News Nvidia G-Sync Pulsar: Die besonders „scharfen“ Monitore kommen jetzt wirklich

Siebenschläfer schrieb:
WQHD ist das "HD-Ready 720p" des Jahres 2025.
Wie kommt man den darauf?
WQHD kommt langsam im Mainstream an. 4k kann ja keine GPU wirklich stemmen. Die wenigsten haben was davon einen 4k Monitor mit DLSS Ultra, 4xFramegen und Medium Details zu nutzen...
 
  • Gefällt mir
Reaktionen: EdgariuS, serve1chilled und Gohma
JMP $FCE2 schrieb:
Nur seltsam, dass das bei Röhrenmonitoren damals niemandem aufgefallen ist. Ab 85 Hz habe ich kein Flimmern mehr gesehen.
Wer ist "niemand"? Es war die Hölle! Unter 75Hz war es unerträglich und auch bei 100 Hz war es gerade so akzeptabel (ich hatte einen 22" Sony Trinitron CRT). Die Flimmerfreiheit eines LCD daneben ist doch wirklich jedem sofort aufgefallen. Und die LCDs damals waren verglichen mit den heutigen sogar Schrott (die hatten noch CCFL Backlight, das selbst manchmal geflimmert hat, allerdings mit viel höheren Frequenzen).

Ich empfinde allerdings aus schlechte LED-Beleuchtung als sehr störend, z.B. wenn Frequenz des Dimmers oder des Treibers zu niedrig ist. Meine Frau stört das hingegen kaum. Die Wahrnehmung ist da sehr unterschiedlich.
 
  • Gefällt mir
Reaktionen: Deinorius, Qyxes und .fF
War das nicht früher so, dass wenn man Blacklight Insertion aktiviert hat, Adaptive-/GSync nicht mehr funktioniert hat?

Wie soll den nun Screen Tearing verhindert werden?

Oder funktioniert die „neue“ Pulsar Technik mit variablen Refresh Rates?
 
Ich habe WQHD also 2560x1440 und bin zufrieden. Das ist mMn ein gute Kompromiss zwischen Leistung und Klarheit. UHD braucht 2,3 x mehr Leistung. Mit sind 70fps in WQHD lieber als 30fps in UHD.

Aber für mich scheint diese Technologie nichts anderes zu sein als Backlight Strobing. Also der Bildschirm haut da ein schwarzen frame rein, damit es weniger Schlieren gibt.

Überlegt mal: da macht man sich so viel Gedanken und dann aktiviert man im Game Motion Blur.
 
  • Gefällt mir
Reaktionen: Kokuswolf und Sekronom
Ein Einstieg für ein neuen Gaminmonitor 2025 wäre ja wohl 27" 4k und nicht dieser Pixelbrei.
 
  • Gefällt mir
Reaktionen: RedPanda05
Siebenschläfer schrieb:
Meine 300€-GPU kann es stemmen. Braucht man halt genug VRAM dafür, 16 GiB reichen aber.
Wieviel FPS hat man denn in 4K bei CS2 mit einer 300 Euro GPU?
Also bitte.
In WQHD schafft ne 5090 vermutlich die 360fps im Schnitt.

Aber gut. Wenn dir 4k besser gefällt und du halt mit weniger FPS auskommst, die Grafik nicht so wichtig ist usw.
Ist halt deine Meinung.
4k liefert halt für den Mainstream immer noch zu wenig FPS...Leider.

Edit:
Speziell im Kontext zu 360hz Monitoren jetzt hier.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: XerXes6900 und Sekronom
Azghul0815 schrieb:
Wieviel FPS hat man denn in 4K bei CS2 mit einer 300 Euro GPU?

Mit DLSS sollte das klappen (wenn von CS2 unterstützt). Mir reicht WQHD aber aus. Der C64 hatte nur 160x200 Pixel im Multicolor-Modus :daumen:
 
Die Tage mal ausprobieren, was sich tatsächlich in den eigenen Anwendungs-Fällen, auch in Kombination mit DLDSR, getan hat. Geht doch nichts über eigene, persönliche Erfahrungen.
 
Azghul0815 schrieb:
Wieviel FPS hat man denn in 4K bei CS2 mit einer 300 Euro GPU?
Das kommt ganz auf die Settings an. Aber warum sollte ich auf einem hochauflösenden Display überhaupt nativ rendern lassen? Bei 4K oder 5K auf 27" kann ich problemlos bis auf Skalierungsfaktor 0,5 runtergehen.

Azghul0815 schrieb:
Wenn dir 4k besser gefällt und du halt mit weniger FPS auskommst, die Grafik nicht so wichtig ist usw.
Ist halt deine Meinung.
In der Tat, mein persönlicher Eindruck ist, dass ein hochskaliertes Bild mit mehr Ausgabe-Pixeln auf dem Display besser aussieht, als niedrigauflösendes natives Bild. Deshalb habe ich keinen 27"-Full-HD-Monitor, obwohl der dann sehr viele FPS produzieren könnte.

Und vernünftiges Upscaling kostet keine FPS, es bringt FPS.

JMP $FCE2 schrieb:
Mit DLSS sollte das klappen (wenn von CS2 unterstützt).
Ich dachte, man nutzt Super-Sampling für mehr Bildqualität? Bei einem High-DPI-Monitor sehe ich gar keinen Anlass dafür.
 
sikarr schrieb:
bei 360hz flimmert eh schon nixmehr, zumindest nichts was du noch wahrnehmen könntest
Ich denke er nimmt Bezug auf das Backlight. Die LED Hintergrundbeleuchtung stimmt meist nicht mit der Bildwiederholrate überein und besitzt eine eigene Modulation (PWM).
Unbedenklichkeitsbescheinigungen werden z.B. bei RTINGS.com ab 1000Hz PWM für das Backlight ausgewiesen, wobei ab 650Hz bereits nur sehr wenige ein Flimmern noch wahrnehmen würden.
Je höher die Bildschirmdiagonale oder je heller das Bild, desto eher kann das Backlight bei derartigen Frequenzen aber auch noch als Flimmern wahrgenommen werden.

Allerdings kommt hier ja auch das "Backlight Strobing" zum Einsatz. Weiß jetzt nicht genau wie sich das auf eben jenes Problem auswirkt. Aber ich denke dass nVidia sich schon etwas Gedanken gemacht hat um derartiges zu verhindern / zu verschleiern ^^

Wie das mit der Standard PWM Angabe für das Backlight bei den hier genannten Monitoren ausschaut müssten erweiterte TechSpec's aufzeigen.
 
  • Gefällt mir
Reaktionen: Poink
Siebenschläfer schrieb:
Schärfer? Aber nicht WQHD auf 27". Das ist Pixelkrieg und nicht schärfer.
Siebenschläfer schrieb:
WQHD ist das "HD-Ready 720p" des Jahres 2025.
Würdest du das über 1920x1080 sagen, wäre ich noch einigermaßen bei dir. Aber WQHD hat immerhin 80% mehr Pixel als diese Auflösung und kann von Mittelklasse-GPUs aufwärts relativ einfach bespielt werden, was für 4K nicht in annähernd diesem Maße der Fall ist.

Davon mal ganz abgesehen geht es beim Thema Pulsar ganz offensichtlich um die Schärfe des Bildes in Bewegung, für die die Auflösung sehr sekundär ist.
 
  • Gefällt mir
Reaktionen: serve1chilled, stage, Melvyn und eine weitere Person
heroesgaming schrieb:
Aber WQHD hat immerhin 80% mehr Pixel als diese Auflösung und kann von Mittelklasse-GPUs aufwärts relativ einfach bespielt werden,
Ich verstehe immer noch nicht, warum man einen schlechteren Monitor braucht, wenn die GPU-Leistung für dessen Ausgabe-Auflösung nicht reicht.

Wenn mir die GPU-Leistung nicht reicht, dann sondern stelle ich Eingabe-Auflösung des Upscaling-Algorithmus runter, nicht die Ausgabe-Auflösung!

heroesgaming schrieb:
was für 4K nicht in annähernd diesem Maße der Fall ist.
Und was habe ich dann mit einer GTX 1050 Ti auf dem UHD-Monitor gemacht?
 
JMP $FCE2 schrieb:
Nur seltsam, dass das bei Röhrenmonitoren damals niemandem aufgefallen ist. Ab 85 Hz habe ich kein Flimmern mehr gesehen.
Hz ungleich PWM.

Radioaktive Strahlung fällt einem auch nicht unbedingt auf, obwohl sie der Gesundheit nicht zuträglich ist.
Es gibt Dinge, die bemerkt man nur indirekt oder man ist resistenter als Vergleichspersonen.
 
  • Gefällt mir
Reaktionen: Poink
Hä? Aber ich mag verschwommen und blurry!
Wenn ich meine Hand vor meinen Augen schnell hin und her bewege, dann sehe ich es doch auch verschwommen? Also was ist denn nun am Ende realistischer??
 
gibt ja jetzt schon Monitore mit über 500Hz und OLED da braucht man kein gsync und kein pulsar, da braucht man garnixmehr.

Gsync und Co war echt wichtig und gut wegen der lahmen Displays bis 144Hz und vor Oled, langsam braucht man es aber nichtmehr. Zumindest wenn man sich nen Highend Oled kauft mit viel Hz
 
Siebenschläfer schrieb:
Ich verstehe immer noch nicht, warum man einen schlechteren Monitor braucht, wenn die GPU-Leistung für dessen Ausgabe-Auflösung nicht reicht.
Vielleicht hatte man besagten Monitor bereits länger? Oder die eigenen Ansprüche schließen explizit hohe FPS bei nativer Auflösung ein? Oder man kann möchte, wie eben hier, in Sachen Features an der "bleeding edge" sein und WQHD ist dafür kein Hinderungsgrund?
Es wird schon Gründe geben, aus denen nicht an jedem System auf UHD gesetzt wird.
Siebenschläfer schrieb:
Wenn mir die GPU-Leistung nicht reicht, dann sondern stelle ich Eingabe-Auflösung des Upscaling-Algorithmus runter, nicht die Ausgabe-Auflösung!
Wenn der Monitor nativ mit WQHD auflöst, ist halt eventuell keins von beiden notwendig. Ich verstehe deine Präferenz für hohe Pixeldichte, aber das führt WQHD noch nicht ad absurdum. Die Nachfrage ist ganz klar vorhanden.
Siebenschläfer schrieb:
Und was habe ich dann mit einer GTX 1050 Ti auf dem UHD-Monitor gemacht?
Das kannst nur du beantworten. Ist aber für meine Aussage völlig irrelevant bzw. nicht dazu geeignet, sie zu widerlegen. Denn dass auch eine GTX 1050 Ti 2560x1440 schneller rendern kann als 3840x2160 wirst du ja auch nicht bestreiten, oder? Und nichts anderes hatte ich gesagt. Die Aussage war nie, dass eine solche Nutzung nicht möglich sei.
 
Siebenschläfer schrieb:
Und was habe ich dann mit einer GTX 1050 Ti auf dem UHD-Monitor gemacht?
Nicht gezockt wie das mit einem Monitor wie hier angedacht ist, die 1050 Ti wären den meisten auf Full HD damals schon viel zu lahm gewesen, moderne upscaler gabs ja auch noch nicht.
Betreiben heißt in dem Falle halt mehr als light gaming.
Du schreibst hier eine Menge Text für einen Monitor der ja offensichtlich so garnichts für dich ist, kann man doch einfach für sich stehen lassen, gibt ja noch genug anderes.
die.foenfrisur schrieb:
Spiele mit 32:9 OLED und sehe Gegner, die andere nicht sehen ;)
merke ich ganz oft.
Das kommt dann eher drauf an was man so spielt, selber aktiv beim shooter zocken bezweifle ich dass es real so der richtige Vorteil ist, da kann man sich ja nicht so recht auf einen großteil des Bildes konzentrieren.
 
Zurück
Oben