Test Asus ROG Swift OLED PG27AQWP-W im Test: Tandem-WOLED-Panel mit 720 Hz ist für Spieler toll

@Extraportion25 Hast du mal den Test mit einem Textdokument gemacht (#90)? Selbst auf einen 240 Hz OLED kann ich so gut wie nichts dabei lesen, auf einer Röhre aber schon.
 
  • Gefällt mir
Reaktionen: anexX
Extraportion25 schrieb:
Für "Retro" und low FPS natürlich angenehmer, aber 100hz dann keinesfalls nicht mehr.
Ich weiß nicht wovon du redest. Ich habe hier einen 240 Hz OLED ist der ist in Bewegung im Vergleich mit einem Röhrenmonitor total unscharf. Das ist für mich jedenfalls nicht angenehm. Ich möchte ein scharfes Bild in Bewegung und das bekomme ich bisher bei keinem LCD oder OLED.
 
  • Gefällt mir
Reaktionen: anexX
Ein 240(+)-Hz-OLED nützt leider nicht viel, wenn die Frameraten im einstelligen Bereich bleiben. Beim OLED ist die flüssige Darstellung eng an hohe FPS gekoppelt.
 
  • Gefällt mir
Reaktionen: anexX
Vigilant schrieb:
Beim OLED ist die flüssige Darstellung eng an hohe FPS gekoppelt.
Ich erwähne nicht jedes mal extra, dass ich einen 240 Hz OLED natürlich auch mit 240 fps befeuere, wenn ich die Schärfe beurteile.
 
Also ich schiebe keine Textdokumente umher, das ist absolut nicht das Usecase hier, sondern Gaming.
Für Office sind Standbildtechnologien wie LCDs besser, es sei denn man scrollt den ganzen Tag 😂.

@Nolag
Wie gesagt Trägheit ( Pixelnachleuchten = weicherer Bildübergang ) hat rein gar nichts mit der echten Bildschärfe zu tun, aber man nimmt es schärfer wahr weil die Übergänge weicher sind, wo Oleds bei unter 100 Bildern zu schnell schalten.
Diesen Vorteil streite ich ja nicht weg, wer nur mit low FPS spielt und in ♥️ mit CRT ist, kann doch gerne bei CRT bleiben. Wobei Auflösung, Verbrauch, größe und Format heute absolut nicht mehr zeitgemäß und irssinig ist wenn man nicht gerade auf Retro aus ist und zudem in keinem Verhältnis stehen. CRT sind zudem nicht scharf im Vergleich 🫣, die Pixelraster sind deutlich größer und im "Glas" der Röhre verschwimmen sie mehr.

Aber wir saßen nun mal zu tritt davor und ab 100hz war die Bewegtdarstellung im direktem Vergleich kein Thema, und in diablo 2 haben wir bewusst den "Lesetest" bei Bewegung / Schrift und Zahlen gemacht, eben weil das damals mit dem Wechsel von CRT auf LCD noch deutlich ein Thema war.

Und, als Anmerkung, was wir auch gecheckt haben, ist bei Oled TV für lowFPS Games wo man keinen Gamig Mode braucht, die aktivierung von Motion settings oder auch BFI sind hier die Gamechanger. Artefakte haben wir keine wahrgenommen. Das haben aber die wenigsten Gamingmonitore.
 
  • Gefällt mir
Reaktionen: anarchie99
Extraportion25 schrieb:
Also ich schiebe keine Textdokumente umher, das ist absolut nicht das Usecase hier, sondern Gaming.
Für Office sind Standbildtechnologien wie LCDs besser, es sei denn man scrollt den ganzen Tag 😂.
Woher wusste ich schon zuvor das genau diese Antwort kommt. :D

Zumindest weißt du jetzt was wir gemeint haben (übrigens hast du den gleichen Effekt auch beim Gaming, nur fällt es dort den meisten nicht so auf). Alle anderen wird man aber weiterhin nicht davon abhalten können das sie ihre Unwissenheit jedem mitteilen.
 
Extraportion25 schrieb:
Wie gesagt Trägheit ( Pixelnachleuchten = weicherer Bildübergang ) hat rein gar nichts mit der echten Bildschärfe zu tun, aber man nimmt es schärfer wahr weil die Übergänge weicher sind, wo Oleds bei unter 100 Bildern zu schnell schalten.
Ich weiß nicht wovon du redest. Bei 100 Bildern pro Sekunde hast du auf einem OLED 10 Pixel Bewegungsunschärfe bei 1000 Pixel/s. Das Bild ist auf der Röhre schärfer, weil du dort lediglich etwa 1 Pixel Bewegungsunschärfe hast.
Extraportion25 schrieb:
Also ich schiebe keine Textdokumente umher, das ist absolut nicht das Usecase hier, sondern Gaming.
Für Office sind Standbildtechnologien wie LCDs besser, es sei denn man scrollt den ganzen Tag 😂.
Also mich stört die Unschärfe auch in Games bei 120 Hz noch. Da hat man auch noch 8 Pixel Bewegungsunschärfe auf dem OLED bei 1000 Pixel/s. Da fällt halt öfter mal beim Gaming auf, dass die Gamertags in Bewegung nicht zu lesen sind. In Racing Games fällt es praktisch ständig auf, weil man nichts am Straßenrand scharf sieht, wenn man es mit dem Auge verfolgt.
Extraportion25 schrieb:
Diesen Vorteil streite ich ja nicht weg, wer nur mit low FPS spielt und in ♥️ mit CRT ist, kann doch gerne bei CRT bleiben.
Ich will ja keinen CRT, sondern dass moderne Monitore sich bei der Schärfe in Bewegung dem CRT annähern. Ich werde mir wahrscheinlich zusätzlich zum OLED einen G-Sync Pulsar Monitor holen, wenn die denn mal verfügbar werden sollten.
 
  • Gefällt mir
Reaktionen: Helge01
Amiga500 schrieb:
Bin ich der einzige hier, dem der hohe Stromverbrauch aufn Desktop abschreckt?

Im Vergleich zu anderen OLEDs sicherlich viel, aber selbst bei 540Hz immer noch die Hälfte von dem, was mein IPS laut Datenblatt frisst...
 
Hademe schrieb:
Gehen langsam die Verkaufsargumente aus oder wozu brauchts 720hz?!
Also bis 1000hz geht theoretisch dein Auge, was dem was Schärfe angeht dann vergleichbar mit einer Cathodenstrahl Röhre entspräche, wo bei 100 Bildern pro Sekunde, jeder Pixel für etwas eine Ms angesteuert wurde... eingetlich


Und das kann ein OLED nicht abbilden.... Ein CRT sendet dir eine ca 10ns licht auf die Maske die dne pixel etwas 1-3ms leuchten lassen.... 100 mal pro skunde, 768 zeilen, die es entlangwandert... der rest ist schwarz.... dennoch soviel photoen pro Pixel ... NIts lassen wir weck weil das aufgrund des vollschwarzemitiereres nicht übertrabar sein soll...

Aber ner CRT ist halt zu 99% schwarz, und für paar ms hell und zeigt deinem Gehirn das an was wichtig ist... Würde man das versuchen bei nem OLED zu machen, würde das Display schmelzen... die sterben ja ohnehin viel zu schnell....

Also um sich dem anzunäher braucht man viele Bilder pro Sekunde... in der Theorie 1000HZ... ab dann ist "Sample und Hold" dem Pulsverfahren was schärfe angeht wohl gleichwertig. Und OLED ist schnell.... aber leider Dunkel wie Sau in abhängkeit zu Lebensdauer. Sprich man steuert den Pixel "dunkel" einfach 1000 mal an, etwas was man bei nem IPS vergessen kannst wo bei so 4-5ms schluss ist, weil sich Kristale nciht schneller drehen.

Aber OLED gibt es das nicht. OLED kann in der Theorie echte <1ms, was nachtlich auch platz für 1000hz macht. Angebellich brauch ein Pixel um seinen Wert zu ändern nur 0,03 Nanosekunden. Das wären dann Theoretische 33000Hz. Wen man alle anderen Probleme davor gelöst hat. :evillol:

Wie und was 1000 bilder prosekunde generieren soll ist wiederum ein anders Thema. :evillol:

Funfakt: angeblich sollen selbst 10k OLEDs bei MIL Anwendung noch nützlich sein, weil dann Jet Tiefflug unschärfen verschwinden würden. Immer wieder überraschend wie gut unsere Biologie ist. Aber selbst 2k sollen noch indirekte anwendungsfälle haben. So soll ein OLED erst ab 2k zu "analgo-Glat" werden und auch praktisch keine Unterschiede feststellen können.

Jetzt kann man sich Fragen warum wir über eine Sichtaperatur verfügen die im Tiefluf im Jet unterschiede bis zu 10hz wahrnhemen kann, wen es die Technik gerade mal 100 Jahr gibt und es nicht mal 10k Jahre her ist wo wir noch mit Sperr und Steinen geworfen haben. Die Fachausdrücke nennen sich wohl Sakkadische Unterdrückung und Tracking, was es ermöglicht bis 700 Grad pro Sekunde potenzielle Gefahren bei Flucht scharf zu erfassen.

SPrich in kurz, wie sehen unterschied eim TIefflug bis zu 10k, weil alles andere dafür gesorgt hat das wir vor 10k Jahren übern Stein gefallen sind und vom Säbelzahntiger aufgefressen wurden
:evillol:
 
Zuletzt bearbeitet:
Nolag schrieb:
Das hat eigentlich nichts mit dem Erfassen des Bildes im Gehirn zu tun. Die Motorik des Auges sorgt dafür, dass das Bild stillsteht. Das Problem ist eigentlich einzig und allein das Wiedergabegerät. Der Monitor muss einfach schnell genug sein um die Bewegung pixelgenau wiederzugeben und bei 1000 Pixel/s bedeutet das eben 1000 Hz oder 1 ms Persistenz.


Alles richtig.

Bis diese Technologie allerdings Mainstream wird, dauert das bei der aktuellen Entwicklung noch mindestens fünf PlayStation- und ebenso viele GeForce-Generationen. Wobei auch das fragwürdig ist, weil die Grund-Frameraten auf Entry- sowie Lower-Midrange-PC-Hardware und PlayStation stagnieren. Und da reden wir von Frameraten, bei denen auch massivster Einsatz von FrameGen nicht ausreichen würde. Dies ist wohl nicht ganz ohne Zufall auch die einzige Hardwareklasse, deren Anschaffungspreis seit Jahren relativ konstant geblieben ist.

Im Prinzip wäre das alles schon seit Jahren gar kein Problem. Die Gaming-Industrie hätte sich bloß dafür entscheiden müssen, statt komplexeren Frames mehr davon zu pushen. Sprich: Das Pixelrüsten zu stoppen oder zu verlangsamen. Zugunsten Mehrperformance für alle. Aber das hat sie nicht. Andererseits: Wer würde auch das 15. Asssassin's Creed noch kaufen, wenn sich nicht mal mehr die Grafik verbessern würde? Und auch die nächste PlayStation würde es schwer haben, wenn sie keinen Pixelmehrwert gegenüber ihrem Vorgänger bietet. :)
 
Zuletzt bearbeitet:
Svennc schrieb:
Bis diese Technologie allerdings Mainstream wird, dauert das bei der aktuellen Entwicklung noch mindestens fünf PlayStation- und ebenso viele GeForce-Generationen.
Es sind ja nicht wirklich 1000 Hz und 1000 fps nötig. Ein Röhrenmonitor schafft die 1 ms Persistenz auch bei 60 Hz. G-Sync Pulsar soll ja etwa 1 ms Persistenz bei 240 Hz erlauben. Das ist dann schon etwas realistischer mit Hilfe von Frame Generation zu erreichen. Weil man dabei ungefähr 75% der Helligkeit verliert ist das leider noch nicht auf OLEDs praktikabel.
 
  • Gefällt mir
Reaktionen: Svennc
Nolag schrieb:
Das ist auch der Grund warum ein 25 Jahre alter Sony FW900 Monitor heute noch für mehrere tausend € gehandelt wird.
Verflucht echt jetzt? Hätte meinen damals doch nicht verschenken sollen. Aber ja, das war die beste Röhre (für nicht-professionelle Zwecke) die jemals gebaut wurde.

Extraportion25 schrieb:
und als Röhrenvertreter einen Top erhaltenen Philips 107E20 CRT 17"
Nunja, das war selbst als er neu war absolutes Low-End um nicht beleidigend zu werden und das als Schrott zu titulieren. Wie alles was von Philips kam. Wer etwas Brauchbares wollte, wußte daß man das nur von Sony, NEC und Eizo kaufen konnte. Und mit 60Hz hat sich wirklich absolut niemand zufrieden gegeben, mit auch nur ein bißchen Ahnung und Anspruch. Und ich meine da nicht einmal Gaming, sondern den tatsächlichen Office-Betrieb, also reine Textdarstellung. Das 60Hz Flackern konnte man schon am Desktop sehr deutlich erkennen. Ein Umschalten auf 75Hz sah jeder. Das war auch das absolut Mindeste was man hätte seinen Augen damals antun sollen. Wie auch immer, gute Monitore waren in der Lage selbst bei sehr hohen Auflösungen (größer als heute noch verbreitetes 1080p) Bildwiederholfrequenzen von über 90Hz zu erzeugen. Deshalb haben sie dann auch mehrere tausend DM gekostet. O.g. Sony GDM-FW900 z.B. ca. 5000DM, der konnte z.B. 2304 x 1440 @ 80Hz. Das können viele heutige TFTs nicht mal. Auch der erste 21"er (4:3) von Sony hat ca. soviel gekostet. Ich hab damals einen gebrauchten 21"er von einem befreundeten Händler als Teil eines größeren Deals für "geschenkte" 1500DM gekriegt, und war so glücklich damit. Damals hatten "normale" Leute noch einen 14-17"er.

Wie auch immer damals hat man für eine sehr gute GraKa (die kam ausschließlich von Matrox und hatte mindestens 2MB, wenn man es sich leisten konnte 4MB) 500DM gezahlt. Und der VRAM war keiner, sondern bestimmte einzig und allein die maximale Auflösung!

Nachtrag: Was ich eigentlich sagen wollte, so etwas wie ein gut erhaltener CRT ist technisch gesehen nicht möglich. Denn bei einem Röhrendisplay treten, immer und bei jedem, Alterungserscheinungen auf, die unumkehrbar und unumgänglich sind. Das betrifft die Heizkathode, das betrifft die Phosphorschicht, das betrifft die Alterung passiver Elemente (Widerstände und Kondensatoren), die unweigerlich zum Driften der internen Werte wie Konvergenz, Parallelität u.ä. führen, und, und und. Dabei zähle ich jetzt nur noch das auf was mir noch einfällt, 90% meines damaligen Wissens, als ich die Dinger noch reparierte, hab ich wieder vergessen.
 
Zuletzt bearbeitet:
Gaming-Opa schrieb:
Denn bei einem Röhren/OLED Display treten, immer und bei jedem, Alterungserscheinungen auf, die unumkehrbar und unumgänglich sind.
Hab es mal vervollständigt. ;)
 
1000pixel/sec
=> 10pix pro Frame bei 100hz
==> da kommen die 10ms her

hab ich hier gelesen..
und Röhre kriegte das mit 1pixel hin
korrekt ?
das wären dann die 1ms ?

weil der Strahl schnell wandert und jeder pixel nur ganz kurz aufleuchtet beim CRT
korrekt ?

wie ist das eigentlich bei VR-Brillen ?

Valve hat bei der index damals mit 0,33–0,53 ms persistence Persistenz geworben (144Hz)
das wäre ja eigentlich dann in der Wahrnehmung bezüglich Motionblur CRT-Niveau, oder?


sprich: Pixel leuchtet nur kurz auf - und ist dann bis zum nächsten Aufleuchten recht lange schwarz

hab gelesen, bei Oled-Monitore gibts das auch? aber nur max. 50%


diese Persistenz ist ja auch ein Problem bei der Vision Pro...
die hat 5000 nits helle OLED-Screens verbaut..

aber: wegen diesen schwarzen Zwischenframes + PanCake-Linsen
==> kommen im Endeffekt nur noch was um 100nits beim Auge an

die Dispalys liefern zu wenig Licht, weshalb man einen Kompromiss eingehen musste um überhaupt diese 100nits zu erreichen -> der Kompromiss ist: bei Bewegung leidet die Vision Pro an Bewegungsunschärfe..

bei ner Index war das wohl weniger ein Problem, da mit Fresnel-Linsen damals viel weniger Licht verloren ging

bei z.b. meiner Xreal One mit MicroOLED ists so:
die soll ca. 600nits ans Auge liefern

allerdings: wenn man Helligkeit voll aufdreht --> wenn man Screen verankert und dann Kopf bewegt ==> MotionBlur

erst so bei ca. 50% Helligkeit vershwindet der Motionblur bzw. reduziert sich auf ein Niveau wo es mich nimma stört oder mir nicht groß auffällt

ich kann mir das so erklären: bei voller Helligkeit werden nicht die Displays ansich soviel heller, sondern man verkürzt die Schwarz-Perioden zwischen den Frames (?) weil die Displays einfach nicht hell genug werden können

und wenn man die Helligkeit runterdreht, reduziert sich der Lichtbedarf und man kann die Schwarzphasen verlängern (statt die Displays ansich dunkler zu fahren) --> und so Motionblur reduzieren

Bildwieerholrate ist 120Hz

andere Werte:
also die Index soll eben 0,33–0,53 ms persistence haben (laut Valve)
die Rift-S 2ms
die Rift CV1 2-3ms
die originale Vive: 1,85ms bei 90Hz

sprich: bezüglich Motionblur sollten diese Headsets besser sein, als ein 240Hz Monitor? (nur bezüglich Motionblur.. Frames werden nur 120-144 dargestellt, nicht 240 wie bei nem 240Hz Monitor möglich wären)
Ergänzung ()

PS.: meine krasseste Erfahrung bezüglich Motionblur hatte ich vor wahrscheinlich 40 Jahren mit einem Schlepptop... Monochrome-Display
der war in so einem Hartschalenplastikkoffer verbaut (inklusive Drucker)

MS-Dos...
drauf hatte mein Onkel unter anderem Space-Invaders...
wenn man hier mit dem Raumschiff von einer Seite des Screens zur anderen Seite flog, verschwand das Raumschiff wärend der Bewegung, war nicht zu sehen.. erst wenn es wieder stehen blieb, tauchte es nach ner Sekunde oder so an der Stelle dann auf
 
Schön. Jetzt hab ich eine Alternative zu meinem 27" WQHD glossy WOLED.
Mein XG27AQDMG ist vielleicht nicht ganz so gut, was die Technik angeht, aber dafür hat der mich "damals" auch nur 700 € gekostet. :D

Wenn der mal die Grätsche macht, hab ich ja jetzt eine bessere Alternative, die bis dahin wohl auch entsprechend günstiger sein wird.

So in 10 Jahren. ;)
 
Schöner Test aber trotz CB Empfehlung glaube ich kaum das er ein Verkaufsschlager wird .
Rund 1200 € für 26 Zoll ist einfach zu teuer für so einen kleinen Monitor.
Egal wie gut er ist .
Wo ich auch hinkomme ich sehe überall nur noch große Monitore mit über 30 Zoll in den Wohnzimmern herumstehen.
Die Leute haben in den letzten Jahren viel aufgerüstet,
da kann ich mir nicht vorstellen das einer von 32 Zoll oder mehr wieder runter auf 26 Zoll geht.

mfg tomtom
 
Kraeuterbutter schrieb:
allerdings: wenn man Helligkeit voll aufdreht --> wenn man Screen verankert und dann Kopf bewegt ==> MotionBlur

erst so bei ca. 50% Helligkeit vershwindet der Motionblur bzw. reduziert sich auf ein Niveau wo es mich nimma stört oder mir nicht groß auffällt
Ja, die XREAL schaltet im anchored Mode laut diesem Video BFI ein und macht die Helligkeitsregelung dann mit einer 240 Hz PWM. Je dunkler das Bild, desto länger die sind die Dunkelphasen.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
Zurück
Oben