News Nvidia G-Sync Pulsar: Die besonders „scharfen“ Monitore kommen jetzt wirklich

heroesgaming schrieb:
Vielleicht hatte man besagten Monitor bereits länger?
Hier geht es erstmal um nagelneue 27"-IPS-LCDs mit WQHD-Auflösung, die 2026 frisch auf den Markt gekommen sind. Das habe ich kommentiert mit "Pixelkrieg" und ironisch mit "WQHD-Ready", denn ich finde IPS-Panels mit dieser Pixeldichte völlig antiquiert. Das war eine Anspielung auf "HD-ready" TVs, die noch jahrelang mit 1366x768 Pixeln verkauft wurden.

Tut mir leid, derart große IPS-Pixel waren so um 2009 Stand der LCD-Technik. Das darf man doch hoffentlich noch sagen, oder?

heroesgaming schrieb:
Oder die eigenen Ansprüche schließen explizit hohe FPS bei nativer Auflösung ein?
Wofür braucht man "hohe FPS bei nativer Auflösung", wenn diese native Auflösung des Displays zum Beispiel 5K (5120x2880) ist statt WQHD (2560x1440).

heroesgaming schrieb:
Denn dass auch eine GTX 1050 Ti 2560x1440 schneller rendern kann als 3840x2160 wirst du ja auch nicht bestreiten, oder?
Natürlich, diese GPU brachte meist sogar nur 1920x1080 Eingabe-Auflösung, die dann auf UHD Ausgabe-Auflösung hochskaliert werden musste - ohne dabei Leistung einzubüßen, nur die Bildqualität wurde besser. Mit Intel XeSS (den nVidias Machine-Learning-Algorithmen standen auf Pascal gar nicht zur Verfügung) sah das in jedem Fall besser aus, als wenn die GPU nativ auf ein gleich großes FHD-Display gerendert hatte. Die Pixel-Treppchen, die man zwangsläufig bei FHD auf dem LCD-Gitter gesehen hatte, waren bei UHD nicht mehr sichtbar.

Das Argument, dass man für Nicht-End-GPUs also unbedingt zwingend ein schlechteres WQHD-Display braucht, ist für mich absolut nicht nachvollziehbar. Und deshalb frage ich mich, warum man mir 2026 noch 27" WQHD IPS-LCDs andrehen will.
Ergänzung ()

JMP $FCE2 schrieb:
Tetris gespielt ?
Reicht der Witcher 3?
 
  • Gefällt mir
Reaktionen: Deinorius
TheInvisible schrieb:
Steam ist 1080p mit Abstand der "Standard"
Der „Standard“ wird aber auch konstant weniger, was nur den Schluss zulässt, dass es der Standard von gestern ist und Neuanschaffungen in höheren Auflösungen stattfinden.
 
die.foenfrisur schrieb:
Ich finde OLED zum zocken schon so unfassbar gut und ohne schlieren, wozu dann wieder dieser schwachsinnige proprietäre Mist?

Kauft OLED und seid häppy :P

Immernoch Burn-In oder mindestens Farb-Degradation nach langer Nutzung.

Immernoch purple black bei hellen Räumen / Tageslicht.

Wieso soll ich da happy sein? Weißt wie beschissen schwarze Inhalte aussehen aufm OLED in meinem Zimmer auf der Südseite mit stetig hell / Sonne? Das willste nicht.

OLED ist nicht der Heilsbringer und wird nicht ewig bleiben.
 
  • Gefällt mir
Reaktionen: EdgariuS
Siebenschläfer schrieb:
Hier geht es erstmal um nagelneue 27"-IPS-LCDs mit WQHD-Auflösung, die 2026 frisch auf den Markt gekommen sind. Das habe ich kommentiert mit "Pixelkrieg" und ironisch mit "WQHD-Ready", denn ich finde IPS-Panels mit dieser Pixeldichte völlig antiquiert. Das war eine Anspielung auf "HD-ready" TVs, die noch jahrelang mit 1366x768 Pixeln verkauft wurden.
Ist natürlich richtig. Die Anspielungen habe ich ebenso verstanden. Nur hast dus eben auf die Auflösung an sich verallgemeinert und auch 2025 und davor wurden moderne WQHD-Monitore veröffentlicht und verkauft. Der Verallgemeinerung bin ich dann gefolgt.
Meine beispielhaften gelisteten Argumente enthielten aber auch ein mögliches Szenario für einen 2026 neu gekauften Monitor, nur zitiert hast du es hier eben nicht. Der Punkt war letztlich: Gründe gibt's genug.
Siebenschläfer schrieb:
Tut mir leid, derart große IPS-Pixel waren so um 2009 Stand der LCD-Technik. Das darf man doch hoffentlich noch sagen, oder?
Niemand behauptet, dass man das nicht darf. Nur ist der "Stand der Technik" selten identisch mit flächendeckender Verbreitung oder auch großer Nachfrage, gerade im Hardwarebereich. Die Leute kaufen den Kram halt nicht dauernd neu oder adaptieren auch andernfalls langsam.
Siebenschläfer schrieb:
Wofür braucht man "hohe FPS bei nativer Auflösung", wenn diese native Auflösung des Displays zum Beispiel 5K (5120x2880) ist statt WQHD (2560x1440).
Eventuell stehe ich auf dem Schlauch, aber diese Fragestellung leuchtet mir nicht ein.

Fürs Protokoll: Ich habe verstanden, dass du auf dem Standpunkt stehst, dass ausschließlich hochauflösende Displays (lies: UHD oder höher) noch eine Daseinsberechtigung haben, da sich mit DLSS und co. alles hochskalieren lässt. Fair enough, entspricht der Marktrealität aber nicht.

Noch dazu gibt es die höchsten Refreshrates häufig zuerst in FHD- oder WQHD-Monitoren, hier eben mit Pulsar eine neue Technologie. Manchem sind 500 Hz dann eben wichtiger als 8 Mio. Pixel oder 140 dpi, so wie es für dich ja offenbar umgekehr ist.
Siebenschläfer schrieb:
Natürlich, diese GPU brachte meist sogar nur 1920x1080 Eingabe-Auflösung, die dann auf UHD Ausgabe-Auflösung hochskaliert werden musste - ohne dabei Leistung einzubüßen, nur die Bildqualität wurde besser. Mit Intel XeSS (den nVidias Machine-Learning-Algorithmen standen auf Pascal gar nicht zur Verfügung) sah das in jedem Fall besser aus, als wenn die GPU nativ auf ein gleich großes FHD-Display gerendert hatte. Die Pixel-Treppchen, die man zwangsläufig bei FHD auf dem LCD-Gitter gesehen hatte, waren bei UHD nicht mehr sichtbar.
Schön und gut. Es bleibt dabei: Eine GTX 1050 Ti (bzw. jede GPU natürlich, es ging mir im Original aber um weniger leistungsfähige) liefert in niedrigerer Auflösung mehr Leistung ab als in hoher.
Nicht mehr hatte ich gesagt, du hattest darauf mit einer Suggestivfrage ohne direkten Bezug dazu geantwortet.

Den Rest bezweifle ich nicht, er tut bzgl. des konkreten Abschnitts aber wenig zur Sache.
Siebenschläfer schrieb:
Das Argument, dass man für Nicht-End-GPUs also unbedingt zwingend ein schlechteres WQHD-Display braucht, ist für mich absolut nicht nachvollziehbar.
Muss es ja glücklicherweise auch nicht sein - umso mehr, da es niemand gemacht hat. Du hast es aber offenbar irgendwo hineingelesen, dazu passt dann auch deine GTX 1050 Ti-Reaktion. Von "unbedingt zwingend" war nie die Rede, sondern von unterschiedlichen Ansprüchen und Anforderungen.
Siebenschläfer schrieb:
Und deshalb frage ich mich, warum man mir 2026 noch 27" WQHD IPS-LCDs andrehen will.
Du gehörst ganz offenbar nicht zur Zielgruppe, ist doch in Ordnung. Auf den Markt gesehen ist WQHD aber alles andere als obsolet.
Bedeutet natürlich nicht, dass deine Position nicht legitim ist. Nur teilen sie viele nicht, kann man hier ja lesen.
 
  • Gefällt mir
Reaktionen: Stormfirebird
Heimkino - 135 Zoll

Schreibtisch - 27 Zoll WQHD OLED 240hz und mehr will ich gar nicht.

Ich struggle ja schon mit meiner 4080 bei einigen AAA und erst recht bei meinem wqhd triple screen im Simrig.
Danke nochmals für beschissenes optimieren von Games im Ausgleich für DLSS :freak:
 
  • Gefällt mir
Reaktionen: Lord B. und JMP $FCE2
@MichaG

Monitors Unboxed hat gerade ein erstes Hands On Video veröffentlicht.

Um meine Frage aus #44 zu beantworten:

Es läuft mit Adaptive Sync zusammen, was meiner Meinung nach die wichtigste Neuerung von G-Sync Pulsar ist.

Alle älteren Backlight Strobing Technologien setzten bisher (wie ich richtig in Erinnerung hatte) eine fixe Framerate voraus und waren aus diesem Grund inkompatibel mit Adaptive Sync.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: The Hillsman und MichaG
Mr.Zweig schrieb:
Es läuft mit Adaptive Sync zusammen, was meiner Meinung nach die wichtigste Neuerung von G-Sync Pulsar ist.
Aber ist das tatsächlich eine Neuerung? Asus hat ähnliches doch beispielsweise erstmals beim alten VG27AQ erstmals implementiert. Sie nannten es ELMB SYNC. Oder übersehe ich da jetzt etwas entscheidendes?

Kann natürlich sein, dass Nvidia das letztlich deutlich kantenfreier implementieren kann, aber allgemein existierten dazu durchaus schon Lösungen.
 
  • Gefällt mir
Reaktionen: Mr.Zweig
Neuerung nicht aber ELMB Sync war laut hörensagen nicht so der bringer.
Zumindest die Theorie ist eben dass Nvidia das hier mit verringertem Crosstalk hinbekommt und vermutlich auch den pixel overdrive besser tunen kann.
 
  • Gefällt mir
Reaktionen: Mr.Zweig
sikarr schrieb:
bei 360hz flimmert eh schon nixmehr, zumindest nichts was du noch wahrnehmen könntest

Aber dann keine passenden Grafikkarten wegen Speichermangel ;)
Das kannst Du so nicht sagen.
Timo Boll. Deutschlands Tischtennis-Legende. Der Mann mit dem Stirnband. Und der Mann mit den ultraguten Augen. In einem Interview verriet er einmal, dass ihm Mutter Natur eine Sehschärfe von 280 Prozent mitgegeben hat. Das ermögliche ihm, die Rotation des Balles anhand des aufgedruckten Stempels zu erkennen. https://www.augsburger-allgemeine.de/sport/timo-boll-der-mann-mit-den-adleraugen-hoert-auf-106663136
Ich kann dir auch sagen ob ein Bild 60, 75, 100 oder 120 Hz hat. Bei Bewegten Bildern sieht man das noch eher.
 
und das ohne 4k auflösung 🙈
 
na bei dem preis hole ich mir doch lieber nen richtigen oled monitor, oder nen "kleinen" oled tv 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Celinna und 9t3ndo
Das ultimative Seherlebnis müsste man dann ja eigentlich erst haben, wenn ich ein OLED Panel mit >=144Hz für den Bildwechsel entwickle, welches aber gleichzeitig alle Pixel mit einer Frequenz von 1000Hz ein und ausschaltet. Dann müsste das Spielgefühl in Bewegung dem eines alten CRTs entsprechen.

Vielleicht kommt ja sowas auch nochmal irgendwann. Das wäre dann, vielleicht sogar statt OLED als anorganisches µLED Panel ausgeführt, der ultimative Monitor. Zumindest in meinen Augen.

Möchte das GSync Pulsar gern mal live sehen. Aber nicht selbst erwerben, GSync-Modul-Monitore sind mir zu eingeschränkt nutzbar, da nur mit NVidia möglich.
 
Zuletzt bearbeitet: (Typo)
SonaN schrieb:
Wie ist dann eine Flimmerfreiheit gewährleistet?
Nun , das ist ganz interessant, dazu muss "gsync pulsar" nämlich deaktiviert werden.

Ansonsten geht der Artikel nicht mal ansatzweise auf die im Auge/Gehirn entstehende Sample&hold Unschärfe ein, sondern nur auf die tatsächliche Bewegtbildschärfe, welche aber nicht das einzig entscheidende Ziel des scanning backlights ist.
Ansonsten würde ein Display mit ausreichend geringen Pixelschaltzeiten wie oled bereits den gleichen Effekt erzielen, tut es aber nicht!
Es soll die MPRT, also sichtbare Frametimes/ Anzeigedauer des Frames reduziert werden, nicht allein die (scheinbaren) Pixelschaltzeiten.

https://blurbusters.com/gtg-versus-mprt-frequently-asked-questions-about-display-pixel-response/

Es handelt sich quasi um eine Imitation des rolling scan Bildaufbaus von CRTs, eine Art Weiterentwicklung der BFI (black frame insertion) mit eigens implementierter Dunkelphasenschaltung.
OLED würde ebenfalls massiv profitieren, dort existiert aber kein unabhängig ansteuerbares Backlight, weshalb es aufwendiger zu entwickeln ist.
Woled TVs der Jahre 2020/21 boten bereits eine solche Dunkelphasenschaltung, allerdings nicht in Kombination mit VRR verwendbar, 2022 wurde sie von LG Displays entfernt.


Ein ähnliches Prinzip nutzt auch G-Sync Pulsar, allerdings ist von pulsierenden Streifen des Backlights bei seinem „rolling scan“ die Rede. Dieser „Pulse“ sorgt dafür, dass beim Übergang zwischen zwei Bildern (Scanout) nicht wie sonst ein Schatten vom vorherigen Bild stehen bleibt. Denn letzteres ist bei einem dauerhaft angeschalteten Backlight der Fall, weshalb LCD-Monitore schon immer unter Schlieren und Geisterbildern litten.
An sample&hold Unschärfe leiden auch Displays mit noch so niedrigen Pixelschaltzeiten, sie entsteht nicht auf dem Display durch träge Pixelschaltzeiten und Reste des zuvor angezeigten Frames.
Die SaH Unschärfe zeigt sich übrigens auf beiden Seiten des sich bewegenden Objekts im Gegensatz zu diyplaybedingtem Ghosting und Nachzieheffekten.

Screenshot 2026-01-06 174641.png


https://testufo.com/

Das allein sorgt schon für flüssigere Bilder, doch G-Sync Pulsar soll die Bewegungsunschärfe soweit verbessern, dass die Darstellung effektiv einem Display mit über 1.000 Hz entspricht.
Bei wie viel FPS?
CRTs errecihten 1ms MPRT (1000fps/hz Bewegtbildschärfe) bereits bei 60Hz, ich bezweifel das Gsync Pulsar das ebenso gelingt, denn dazu müssten 15/16tel des Bildes verdunkelt werden, womit sich auch die Helligkeit entsprechend reduziert.
1600 cd/m^2 dauerhaft für 100 cd/m^2 Gesamtbildhelligkeit würden benötigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nap, lWllMl und SonaN
Da gibts von Nvidia selbst auch noch ein kleines Video dazu wen es interressiert:

 
  • Gefällt mir
Reaktionen: MichaG
DaBo87 schrieb:
GSync-Modul-Monitore sind mir zu eingeschränkt nutzbar, da nur mit NVidia möglich.
So wie ich das verstanden habe, ist G-Sync Pulsar direkt im Mediatek SoC implementiert und ist somit keine proprietäre Hardware Lösung im klassischen Sinne.

Die Technik wird man höchst wahrscheinlich bald auch bei AMD finden.
 
  • Gefällt mir
Reaktionen: DaBo87
Zurück
Oben