Siebenschläfer schrieb:
Hier geht es erstmal um nagelneue 27"-IPS-LCDs mit WQHD-Auflösung, die 2026 frisch auf den Markt gekommen sind. Das habe ich kommentiert mit "Pixelkrieg" und ironisch mit "WQHD-Ready", denn ich finde IPS-Panels mit dieser Pixeldichte völlig antiquiert. Das war eine Anspielung auf "HD-ready" TVs, die noch jahrelang mit 1366x768 Pixeln verkauft wurden.
Ist natürlich richtig. Die Anspielungen habe ich ebenso verstanden. Nur hast dus eben auf die Auflösung an sich verallgemeinert und auch 2025 und davor wurden moderne WQHD-Monitore veröffentlicht und verkauft. Der Verallgemeinerung bin ich dann gefolgt.
Meine beispielhaften gelisteten Argumente enthielten aber auch ein mögliches Szenario für einen 2026 neu gekauften Monitor, nur zitiert hast du es hier eben nicht. Der Punkt war letztlich: Gründe gibt's genug.
Siebenschläfer schrieb:
Tut mir leid, derart große IPS-Pixel waren so um 2009 Stand der LCD-Technik. Das darf man doch hoffentlich noch sagen, oder?
Niemand behauptet, dass man das nicht darf. Nur ist der "Stand der Technik" selten identisch mit flächendeckender Verbreitung oder auch großer Nachfrage, gerade im Hardwarebereich. Die Leute kaufen den Kram halt nicht dauernd neu oder adaptieren auch andernfalls langsam.
Siebenschläfer schrieb:
Wofür braucht man "hohe FPS bei nativer Auflösung", wenn diese native Auflösung des Displays zum Beispiel 5K (5120x2880) ist statt WQHD (2560x1440).
Eventuell stehe ich auf dem Schlauch, aber diese Fragestellung leuchtet mir nicht ein.
Fürs Protokoll: Ich habe verstanden, dass du auf dem Standpunkt stehst, dass ausschließlich hochauflösende Displays (lies: UHD oder höher) noch eine Daseinsberechtigung haben, da sich mit DLSS und co. alles hochskalieren lässt. Fair enough, entspricht der Marktrealität aber nicht.
Noch dazu gibt es die höchsten Refreshrates häufig zuerst in FHD- oder WQHD-Monitoren, hier eben mit Pulsar eine neue Technologie. Manchem sind 500 Hz dann eben wichtiger als 8 Mio. Pixel oder 140 dpi, so wie es für dich ja offenbar umgekehr ist.
Siebenschläfer schrieb:
Natürlich, diese GPU brachte meist sogar nur 1920x1080 Eingabe-Auflösung, die dann auf UHD Ausgabe-Auflösung hochskaliert werden musste - ohne dabei Leistung einzubüßen, nur die Bildqualität wurde besser. Mit Intel XeSS (den nVidias Machine-Learning-Algorithmen standen auf Pascal gar nicht zur Verfügung) sah das in jedem Fall besser aus, als wenn die GPU nativ auf ein gleich großes FHD-Display gerendert hatte. Die Pixel-Treppchen, die man zwangsläufig bei FHD auf dem LCD-Gitter gesehen hatte, waren bei UHD nicht mehr sichtbar.
Schön und gut. Es bleibt dabei: Eine GTX 1050 Ti (bzw. jede GPU natürlich, es ging mir im Original aber um weniger leistungsfähige) liefert in niedrigerer Auflösung mehr Leistung ab als in hoher.
Nicht mehr hatte ich gesagt, du hattest darauf mit einer Suggestivfrage ohne direkten Bezug dazu geantwortet.
Den Rest bezweifle ich nicht, er tut bzgl. des konkreten Abschnitts aber wenig zur Sache.
Siebenschläfer schrieb:
Das Argument, dass man für Nicht-End-GPUs also unbedingt zwingend ein schlechteres WQHD-Display braucht, ist für mich absolut nicht nachvollziehbar.
Muss es ja glücklicherweise auch nicht sein - umso mehr, da es niemand gemacht hat. Du hast es aber offenbar irgendwo hineingelesen, dazu passt dann auch deine GTX 1050 Ti-Reaktion. Von "unbedingt zwingend" war nie die Rede, sondern von unterschiedlichen Ansprüchen und Anforderungen.
Siebenschläfer schrieb:
Und deshalb frage ich mich, warum man mir 2026 noch 27" WQHD IPS-LCDs andrehen will.
Du gehörst ganz offenbar nicht zur Zielgruppe, ist doch in Ordnung. Auf den Markt gesehen ist WQHD aber alles andere als obsolet.
Bedeutet natürlich nicht, dass deine Position nicht legitim ist. Nur teilen sie viele nicht, kann man hier ja lesen.