Test Asus ROG Swift OLED PG27AQWP-W im Test: Tandem-WOLED-Panel mit 720 Hz ist für Spieler toll

Ja, das ist mir schon bewusst, dass man es runterregeln kann. Es war ja auch nur Spruch von mir, mit der Sonne. :cool_alt:
 
  • Gefällt mir
Reaktionen: Pro_Bro
Gaming-Opa schrieb:
Hier 720Hz als einen Vorteil zu werten und dann auch noch das Wort nur im Zusammenhang mit 540Hz zu verwenden, das grenzt nicht nur an Irreführung des unwissenden Lesers, sondern ist genau das. Von einem ernsthaftem Redakteur würde ich eher erwarten, seinen Leser von solchem Marketing Schwachsinn zu warnen, nicht diesen auch noch zu unterstützen.
Als echter Gaming-Opa sollte man sich aber noch an die gute alte Röhre erinnern und daher wissen, dass das kein Marketing-Schwachsinn ist. Ich habe hier einen 240 Hz OLED und der ist bei der Schärfe in Bewegung im Vergleich zu einem Röhrenmonitor absoluter Mist. Mit 720 Hz kommt man dem dann aber schon sehr nahe.
 
  • Gefällt mir
Reaktionen: MiroPoch, mk77er, Celinna und 2 andere
So ab 1000 Hz soll es sich so anfühlen wie bei einem Röhrenmonitor, da ist noch etwas Luft.
 
  • Gefällt mir
Reaktionen: anexX, MiroPoch, Celinna und eine weitere Person
mehmet_b_90 schrieb:
Also mit meinem Monitor, der "nur" 400 cd/m² besitzt, ist es manchmal schon hell im dunkeln Büro. Wie ist es dann mit diesem? Da holt man sich ja die Sonne ins Büro?
bei einem Standbild ist der Helligkeitsnachteil eines OLEDs auch nicht so gut sichtbar. Erst wenn er anfängt die Helligkeit zu regulieren, z.B. wenn der Anteil größer wird als was er kann wird das Desaster erst zur Katastrophe.
 
Nolag schrieb:
Als echter Gaming-Opa sollte man sich aber noch an die gute alte Röhre erinnern
Und ob, ich hatte den besten (Serien-/Non-professional-)CRT der Welt damals , einen 16:10 24" mit Trinitron-Röhre von Sony. Aber verglichen mit meinem ersten, sehr billigen 28" 16:10 TN-Display (der größte Fehler meines Lebens) hat er eine sehr miserable Schärfe, schon im reinen Textmodus. Und ich wußte als Elektroniker sehr genau wie man einen CRT aufmacht und Konvergenz u.ä. an den entsprechenden Potis verstellt und optimiert, über das was das Menü an Möglichkeiten bot hinaus. Ich hatte den noch viele Jahre in der Garage rumfahren, weil es mir schwer fiel einen ehemals 5000 DM teuren Monitor wegzuschmeißen. Irgendwann tat ich ihn dann doch in eine "zu Verschenken" Rubrik. Er wurde von zwei CS-Dauerzocker abgeholt (einer allein hätte den nicht tragen können :evillol:). Die haben mir fast die Füße geküßt, so dankbar waren die. Verstanden hab ich es nie.

Mmn wird das Gaming nicht durch die Hardware bestimmt, sondern durch den Gamer. Es ist eine Sache des Talents, angeboren und nur in sehr engen Grenzen veränderbar, wie sehr vieles im Leben. Nehmen wir z.B. den LetMeSoloHer-Typen, der mir persönlich mehrmals den Arsch gerettet hat bei Malenia in Elden Ring. Selbst wenn ich jünger wäre und genausoviel oder viel mehr Zeit damit verbracht hätte gegen Malenia abzuloosen, ich würde niemals auch in der Nähe kommen was der Typ kann. Ein Punkt ist natürlich, daß ich in 4K auf einem TV zocke, der Input-Lag ist einfach grausam. Aber würde ein 240Hz Monitor etwas daran ändern? Mit 100% Sicherheit nicht, denn ich zocke zwar für mein Leben gern, bin aber nicht besonders talentiert. Ich bin sehr geübt darin und kann auf 40 Jahre Zockererfahrung (alles seit Pong gezockt) zurückblicken. Aber Malenia? Da hätte ich auch in meinen besten Jahren keine Chance gehabt. Da ändert ein 240/540/720/1.000.000 Hz Monitor auch nichts dran.

Ist genau wie bei Verstärkern. Dein Ohr hört nur was es hören kann. Und bei 0,5% Klirrfaktor ist Schluß. Da ich als Elektroniker früher einen (selbstgebauten) Tongenerator hatte, weiß ich daß ich damals über 19kHz hören konnte. Heutzutage ist bei mir bei ca. 13-14 kHz Schluß, das Alter eben. Was nützt mir also ein AVR der nicht nur 30 kHz Bandbreite hat, sondern 50 kHz?

Wenn man irgendwelche (Meß-)Werte einfach sinnlos vergleicht, dann ist das nur ein Beweis von mangelndem echtem Wissen, und schlichtweg irreführend. Wenn da wirklich eine technische Notwendigkeit (wie auch immer geartet) über 240 Hz hinaus existiert, dann bitte wo ist sie? Und ich spreche jetzt nicht von Subjektiven Meinungen (Meinungen sind wie Arschlöcher, jeder hat eines und jeder glaubt seines stinkt nicht), sondern echte faktische Beweise die auf Meßwerte beruhen. Also bitte man führe mir einen echten Beweis vor Augen, und ich werde mich in Aller Form entschuldigen für das Gesagte.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx, Odessit und -Ps-Y-cO-
Für welche Art von Spieler? Für die die in 4K zocken wollen schonmal nicht. Und für Shooter wo sowieso alles auf ultra-low eingestellt ist, für mich fraglich. Da bleibt dann nur noch der niedrige Inputlag übrig. Keine Ahnung warum das Teil ne Empfehlung bekommt.
 
Das wird ja immer verrückter.

Ob so ein gewaltiger Aufpreis für die paar ms weniger Input-Lag es wert ist, bezweifle ich doch sehr.
 
@Gaming-Opa Es geht um die Bewegungsschärfe.

Nimm ein Textdokument und führe mit dem Fenster kreisende Bewegung auf dem Bildschirm aus. Auf einer Röhre wirst du den Text dabei immer lesen können, auf einen 240 Hz OLED ist das kaum noch möglich und bei 60 Hz ist es absolut unmöglich.

Wie ich schon schrieb, ab ca. 1000 Hz wird es wieder so wie bei einem Röhrenmonitor sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch, Celinna und SchwabiSabi
Gaming-Opa schrieb:
Also bitte man führe mir einen echten Beweis vor Augen, und ich werde mich in Aller Form entschuldigen für das Gesagte.
Wer glaubt, dass man keinen Unterschied mehr zwischen 240 Hz und 480 Hz sieht, und einen 240 Hz OLED Monitor besitzt, der kann sich hier ansehen, dass der Unterschied zu 480 Hz deutlich sichtbar ist. Diese Blur Busters Demo zeigt auf der rechten Seite das unveränderte Bild und auf der linken Seite das mit dem CRT Beam Simulator verbesserte Bild, dass etwa 480 Hz entspricht: Blur Busters - CRT Electron Beam Simulator Shader
Links kann man die Straßennamen lesen und rechts dagegen kaum.
 
  • Gefällt mir
Reaktionen: Celinna und SchwabiSabi
Gaming-Opa schrieb:
Ich laß mir gern gefallen, daß 120Hz ein deutlicher Vorteil sind gegenüber 60Hz, aber selbst 240Hz machen bestimmt maximal 5% Unterschied aus, und das ausschließlich in kompetitiven Games. Wenn man irgendwelche Shooter auf allerhöchstem Niveau (Weltranglisten Top-Ten) mag ein 240Hz Monitor einen Sinn ergeben, aber alles darüber ist Marketing-Geblubber.

Es ist wirklich zum Haare raufen.

Wieso muss man eigentlich ständig wider besseren Wissens und trotzdem mit totaler Selbstsicherheit unter jedem Monitortest derartigen Blödsinn schreiben?

Und dann nicht mal mit irgendwelchen Fakten untermauert, sondern mit Floskeln wie "ich glaube", "ich kann mir nicht vorstellen" oder "das menschliche Auge kann doch sowieso nur 24FPS sehen!11!!" garniert.

Ganz ehrlich: Wenn man keine Ahnung hat, einfach mal...

Oder sich in das Thema einlesen (beispielsweise bei Blurbusters.com), bevor man sein Unwissen so öffentlich zur Schau stellt.

Wenn man da wirklich keine Unterschiede mehr sieht, sollte man vielleicht mal seine Augen untersuchen lassen.
 
  • Gefällt mir
Reaktionen: MiroPoch, mk77er und Celinna
Helge01 schrieb:
Nimm ein Textdokument ...
Ich kann mich dunkel erinnern (fast 20 Jahre her), aber beim Umstieg von CRT auf TFT fiel mir das sehr übel auf. Es war sehr übel. Aber weißt Du was? Man gewöhnt sich dran, ebenso wie an den Input-Lag. Ich zocke mittlerweile an einem Sony-TV. 49" 16:9 HDR (kein 32:9 Sehschlitz), 1000 Nits, echtes HDR bei 10 Bit Farbtiefe und Full Local Dimming, auf dem Schreibtisch in 1m Abstand, das gibt dem Wort Mittendrin-Gefühl eine gänzlich neue Bedeutung weil so groß wie vier 24" 16:9 Monitore gleichzeitig. Keine Hz der Welt könnten die Immersion dabei ersetzen. OK, zugegeben ich Spiele nicht kompetitiv, sondern meist RPGs, Openworld, Survival u.ä. Und ja 60Hz sind scheiße, deshalb überlege ich mir auch mittlerweile ein neueres Model mit 120Hz zu holen. Aber 27"? NoWay da hatte ich ja bereits vor 20 Jahren Größeres. Das mit Abstand wichtigste an einem Monitor ist die Größe, danach Auflösung. Danach kommt Kontrast, Farbtreue, Farbtiefe schließlich Schwarzwert.

Alles was es da so gibt in über 43" Zoll Monitoren macht maximal 450 Nits, ergo kommt nur ein TV in Frage wenn man in HDR bei voller Immersion zocken will. Meinm persönliches Fazit.


Nachtrag:

Nolag schrieb:
Diese Blur Busters Demo...

...ist genauso Sinn befreit wie jeder bildliche Vergleich eines (potentiell) besseren Displays auf einem schlechteren Display. Genauso gut könnte ich Dir meine 10Bit Farbtiefe Bildqualität auf deinem 6Bit+FRC Monitor demonstrieren. Solche "Demos" sind schon im Ansatz absolut falsch und irreführend.

Das menschliche Sehvermögen ist absolut auf Gewohnheit getrimmt. Auch wenn ein Flimmern dar ist, und man es wahrnimmt wenn man sich darauf konzentriert, weil man z.B. zwei Bildschirme vergleicht, nimmt man es in der Anwendung, sprich beim Zocken, nicht mehr wahr, ganz besonders wenn es hektisch und rasant wird. Denn man konzertiert sich eben (meist) aufs Überleben u.ä. Im normalem Sehmodus verarbeitet das Gehirn nur einen Bruchteil der eingehenden Informationen des Auges, der Rest wird quasi interpoliert, ganz so wie eine GPU Upscaling nutzt. Vor allem wenn man sich auf Anderes konzentriert, meist Reagieren mit Maus und Tastatur.
 
Zuletzt bearbeitet:
Gaming-Opa schrieb:
Das mit Abstand wichtigste an einem Monitor ist die Größe, danach Auflösung. Danach kommt Kontrast, Farbtreue, Farbtiefe schließlich Schwarzwert.

Sprich da bitte nur für dich, ich gewichte Dinge wie Bewegungsschärfe deutlich höher, auf dem Schreibtisch reichen mir 27" voll und ganz.

Und warum sollen wir dir beweisen, dass du Unsinn redest?

Beweis du uns doch, dass man ab 240Hz keine Verbesserungen mehr wahrnimmt, viel Erfolg.
 
  • Gefällt mir
Reaktionen: mk77er, hahaqp, Celinna und eine weitere Person
Hol ich mir nächstes Jahr wenn er auf 800€ gefallen ist. Hoffentlich gibt es bis Mitte des kommenden Jahres bei anderer Hardware Rabatt, damit sich das mit dem RAM und SSDs ausgleicht. Wollte dann ganz neuen Rechner holen.
 
SchwabiSabi schrieb:
Beweis du uns doch, dass man ab 240Hz keine Verbesserungen mehr wahrnimmt, viel Erfolg.
Deine Verbesserung liegt einfach in der Gewichtung. Da kannst du lesen und wissen was du willst.
Je höher die Frequenzen aktuell werden um so unschärfer muss das Bild davor erst gemacht werden.
Verbesserung liegt halt in der Gewichtung.
 
SchwabiSabi schrieb:
Es ist wirklich zum Haare raufen.

Ganz ehrlich: Wenn man keine Ahnung hat, einfach mal...
Kann man genauso umgekehrt sehen. Nur bleibe ich sachlich und argumentiere, und muß nicht persönlich werden, das müssen mMn nur Leute denen die Argumente ausgehen.

Diese Blur Busters Demo ist deshalb einfach unsinnig, weil der rechte Teil der Darstellung durch das darstellende Display beschränkt ist. D.h. diese Demo würde nur dann Sinn ergeben wenn ich über ein 720Hz Display verfügen würde. Dann könnte ich sehen wie viel schlechter ein 60/120/240/480 Hz Display wäre.

Da ich aber nur über ein 60Hz Display verfüge kann ich auch nicht mehr sehen. Das was diese Demo zeigt ist also absolut irreführend. Genauso wie ein Werbefilm der Dir die Bildqualität eines 10000€ TVs nahebringen versucht der auf YT läuft und auf einem 300€TV abgespielt wird.
 
Gaming-Opa schrieb:
Mmn wird das Gaming nicht durch die Hardware bestimmt, sondern durch den Gamer.
{...}
Ein Punkt ist natürlich, daß ich in 4K auf einem TV zocke, der Input-Lag ist einfach grausam. Aber würde ein 240Hz Monitor etwas daran ändern? Mit 100% Sicherheit nicht, denn ich zocke zwar für mein Leben gern, bin aber nicht besonders talentiert.
ich hatte mir beim Kauf meines 144Hz Monitors (Davor immer mit 60Hz gespielt)
auch erwartet, dass ich einen spielerischen unterschied bei CS auf unseren 2-3mal pro Jahr-Lanparties im Freundeskreis bemerken würde...
ne.. hat sich gar nix geändert

ja, ich SEHE an der maus am Desktop dass es flüssiger ist,
ich SEHE es beim Scrollen etc..

aber in der Highscoreliste und den Kills hat sich nicht wirklich was geändert
auch wenn ich es mir einrede, schließlich hat der Monitor 1000 Euro gekostet und der alte 60Hz Monitor davor war ein für 40 Euro gebraucht gekaufter 22" (nur für Lanparty, um meinen anderen großen MOnitor nicht mitzuschleppen)
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
540Hz...Wahnsinn. Merkt man den Unterschied noch?
Also 60Hz auf 120/144Hz ist ein satter Sprung den man immer spürt. Aber mit 120Hz war ich bisher immer zufrieden. Ein Monitor mit 240Hz würde mich ja schon reizen mal auszuprobieren...oder gleich 540Hz :D

Allerdings muss ich auch sagen, ein 27" 16:9 Monitor käme mir nicht mehr auf den Schreibtisch, da fehlt was. Mindestens 32" 16:9 mit UHD oder 34" WQHD sollten es schon sein. Noch lieber wäre mir eigentlich etwas in Richtung 40" WUHD aber da ist der Markt noch ziemlich dünn und viel Hz gibt's da eh nicht. Ich denke daher 34" UWQHD ist aktuell der Sweetspot. Den bitte jetzt mit so einem Panel, danke :D
 
Gaming-Opa schrieb:
Diese Blur Busters Demo ist deshalb einfach unsinnig, weil der rechte Teil der Darstellung durch das darstellende Display beschränkt ist. D.h. diese Demo würde nur dann Sinn ergeben wenn ich über ein 720Hz Display verfügen würde. Dann könnte ich sehen wie viel schlechter ein 60/120/240/480 Hz Display wäre.

Es gibt genügend Tests, die absolut nachvollziehbar die Unterschiede in Sachen Bewegungsauflösung abbilden, teilweise auch in Form von Videos, da braucht man selbst kein 480Hz Display.

Du kannst es gerne noch zwanzig mal wiederholen, deine Behauptungen sind falsch. Nicht gefühlt, nicht gewichtet. Sie sind einfach sachlich nicht korrekt und werden es auch nicht.

Willst du jetzt ernsthaft behaupten, du hättest mehr Expertise in diesem Feld als Mark Reijhon und Timothy Lotte, die gemeinsam das hier entwickelt haben?
 
  • Gefällt mir
Reaktionen: MiroPoch und CMDCake
Zurück
Oben