Welche Grafikkarte für 27'' WQHD für 300-500 Euro?

Mit dem neuen Rechner möchte ich nicht unbedingt ins Internet. Vor allem, wenn ich mit dem neuen ins Internet gehe, bin ich vom Musikmachen zu sehr abgelenkt. In dem Fall bliebe immer eine Kiste aus. Darum 2 Rechner. Außerdem habe ich immer gerne einen zweiten, falls mit dem einen Rechner mal was ist, und ich nicht (hab ja jetzt allerdings auch ein iPad, womit das geht), damit ich ins Netz komme. Würden aber nicht zeitgleich laufen.

Warum ich ungerne auf 32" 4k gehe, ist, weil die Schrift dann für die DAW zu klein werden würde, und das wäre mir zu anstrengend. Wie ich von DAW-Usern hörte, soll WQHD der beste Kompromiss sein. Und da ich mit dem Rechner auch ebenso zocken will, muss ich mir das mit dem Spagat genau überlegen.

32" oder 34" ist zwischen den Nahfeldmonitoren natürlich auch schon eng, ging aber noch gerade. Ich bin also grundsätzlich nicht ablehnend gegenüber 32" 4k. Der Monitor stünde aber in etwa 60 cm Entfernung von mir.

Ich entschied mich damals auch für einen 23" FHD, weil ich dadurch eine nicht so starke bzw. teure GK benötigte.

Die XT Version für 60 Euro mehr mitzunehmen, wäre sicherlich nur dann angebracht, wenn manche Spiele dies auch erfordern würden. Mir fehlt leider die Erfahrung mit anderen Rechnern oder GK. Ein gutes Gegenargument ist aber, dass die Karte zu viel Strom frisst (ich lasse meinen 60" deshalb ja schon aus), und die ohne XT für die Spiele ausreichen würde. Ob das auch für höhere Einstellungen zuträfe, kann ich selber nicht beurteilen. Da müsste ich den Erfahrungen anderer lauschen. Ich weiß ja noch nicht mal, wie die Bildqualität unterschiedlicher Einstellungen genau aussieht, um zu wissen, was ich denn wirklich für meinen Geschmack benötige.

Ja, in einen Laden zu gehen und zu vergleichen, das ist natürlich sinnvoll. Ich habe z.B. noch nie einen 27" Monitor angeschaut. 32" TV dagegen kenne ich. 27" scheint mir von der Größe jetzt nicht sooo ein Unterschied zwischen 23" oder 24" zu sein. Vielleicht doch eher 32".
Fragt sich nur, ob 16:9 oder 21:9. Letzteres wäre blöd, wenn ich auf dem Rechner einen Film gucken will. Da fehlen wieder Bildinformationen. Für die Time Line ist 21:9 besser. Da sind wir wieder beim Spagat. Ich bevorzuge allerdings eher 16:9. Hm, denke ich mal. Auch Spiele könnten - weiß es aber nicht - darauf natürlicher abgebildet werden. Liegt vielleicht aber auch nur an der Gewöhnung an 16:9.

Zwischen 9070 und 9070 XT bin ich noch unsicher, aber der geringere Verbrauch ist mir schon recht, sofern sie auch für neuere Spiele noch geeignet ist.

Sind hier noch andere DAW-Besitzer, die ihre Erfahrungen zwischen WQHD und 4k berichten können, was die Scalierung von Plugins und die Schriftgröße betrifft?
 
Xes schrieb:
Für die RX 9070 XT zahlst du für +~15% Mehrleistung 60-80€ Aufpreis gegenüber einer RX 9070.
Bei Nvidia zahlst du für einen ähnlich großen (/kleinen) Unterschied zwischen einer RTX 5080 zur RTX 5070Ti aktuell knapp 300€ mehr für die etwas schnellere 5080.
Das ist zwar richtig, jedoch bringt dem TE die Mehrleistung nichts (ältere Titel) oder wenig (+9% in BF6).
Der Mehrverbrauch würde mich aber stören. +84W für fast nichts finde ich viel.
Natürlich könnte man auch den Aufpreis zahlen und ein Powerlimit setzten, aber dann hat man quasi wieder eine 9070 zum XT Preis.

Eine 5080 ist dagegen sogar effizienter als eine 5070Ti:
https://www.computerbase.de/artikel...-9#abschnitt_energieeffizienz_in_fps_pro_watt

1767796637089.png


Ich sage der Performanceunterschied spielt in der Praxis keine Rolle, wie schon schon bei Vega56/Vega64 beides die gleiche Liga, eine auf Effizienz getrimmt die andere auf max. Performance. Die einen freuen sich über den längeren Balken, die anderen über die niedrigere Stromrechnung und weniger Wärmeentwicklung im Sommer. Zu den 60€ Aufpreis kommen ca. 20€ zusätzliche Stromkosten pro Jahr, wenn man täglich im Schnitt 2h spielt. Außerdem denke ich auch, dass es die Karte mehr stresst, wenn sie 304 statt 220W verbrät.
 
Hast Du auch so eine Grafik für 3840 x 2160? Ah, schon gesehen. Da liegt die XT sogar unter der 9070.
Ich denke, ich nehme die 9070.
 
Zuletzt bearbeitet:
Ich würde bei 32" (aka in den meisten Fällen 4K Monitorauflösung) mit "nur" einer RX 9070 aber zumindest ein wenig zu Vorsicht raten, damit man sich die potentiellen Fallstricke klar macht:
(Starkes) Upscaling ist in dieser Auflösung eigentlich Pflicht. Für 4K native wird es mit der 9070 in neuen Spielen schnell eng.
Das bedeutet, dass man mit einem 4K Monitor in Kombination mit einer AMD-Karte stark davon abhängig ist, dass FSR(4) in die Spiele integriert ist. AMD scheint dies aktiv zu fördern und immer mehr Titel unterstützen es. Der Blick auf die Steam Hardwareumfrage zeigt aber auch, dass AMD im GPU-Bereich abseits dieses Forums nach wie vor ein starkes Nischendasein gegenüber Nvidia fristet.
Nicht alle Entwickler werden diesen Aufwand für lohnenswert erachten wenn (soweit ich das erkennen kann) in der aktuellen Steam Hardwareumfrage vom Dezember keine einzige RX 9000 Karte in der Top100 der meist genutzten Karten auftaucht.
Für mich persönlich war die geplante Aufrüstung auf einen 4K Monitor daher auch einer der Gründe dafür, dass es bei mir eine RTX 5070 Ti statt einer eigentlich ähnlich schnellen, günstigeren RX 9070 XT geworden ist. (DLSS hat gegenüber FSR4 nach wie vor die Nase vorne, was die Verbreitung angeht.)
Mit 27-28" (aka in den meisten Fällen WQHD Monitorauflösung) hat man hingegen ein "Fallback" denn diese Auflösung lässt sich notfalls mit einer RX 9070 auch noch nativ gut betreiben, wenn kein(, oder nur mit starken optischen Nachteilen verbundenes) Upscaling zur Verfügung steht.

AMD-Flo schrieb:
Das ist zwar richtig, jedoch bringt dem TE die Mehrleistung nichts (ältere Titel) oder wenig (+9% in BF6).
Der Mehrverbrauch würde mich aber stören. +84W für fast nichts finde ich viel.
Natürlich könnte man auch den Aufpreis zahlen und ein Powerlimit setzten, aber dann hat man quasi wieder eine 9070 zum XT Preis.
Die non-xt scheint ab Werk wesentlich mehr auf Effizienz getrimmt zu sein als die xt Variante, das stimmt.
Es würde mich aber wundern, wenn man den gleichen Chip in der etwas größeren Ausbaustufe nicht mit wenigen Klicks ähnlich effizient eingestellt bekommt und der Performancevorteil dabei nicht trotzdem nahezu erhalten bleibt.
Auf die Bf6 Benches würde ich auch nicht allzuviel setzen: Bf6 schwankt was die genaue GPU- und CPU-Auslastung angeht enorm je nach Map und Spieleranzahl. Da kann es durchaus vorkommen, dass auf auf einer Map 0% Unterschied hat, weil er mit seinem 265K möglicherweise sogar in ein CPU-Limit rennt und auf der nächsten Map greifen die mehr Shader + Takt voll durch.
Zumal Bf6 ja sicherlich nicht das einzige neue Spiel bleiben wird und in anderen Titeln liegt man teils sogar über +15%.
Vermutlich wird der Unterschied garnicht so groß sein und am Ende ist es vermutlich Geschmackssache. Ich persönlich würde den größeren Chip mit etwas mehr Leistung für den vergleichsweise geringen Aufpreis mitnehmen. Mit dem kleineren Modell macht man aber sicherlicher auch nichts falsch und ab Werk spart die auch noch Strom und damit Abwärme/Lautstärke was natürlich auch ein Vorteil ist.
 
@Xes
Schau dir mal die Spieleliste in #32 an, die Anforderungen sind niedrig bis moderat, das kann man mit der 9070 alles problemlos nativ in 4K spielen. Neue Titel in 4K nativ werden heutzutage die wenigsten spielen, in der Regel hat man mit Upscaling sogar die bessere Bildqualität. Wie bereits geschrieben, ist die Renderauflösung entscheidend. Vermutlich würde der TE auch mit einer 9060XT 16 GB oder 5060Ti 16 GB gut auskommen, aber die 9070 hat einfach mehr Reserven für die Zukunft. Wenn der 9070 die Luft ausgeht, rettet die XT das auch nicht mehr.

Der Vorteil der 5070Ti sehe ich hauptsächlich im Bereich Raytacing, insbesondere mit Pathtracing, allerdings ist die Karte nochmal deutlich teurer.

Xes schrieb:
Es würde mich aber wundern, wenn man den gleichen Chip in der etwas größeren Ausbaustufe nicht mit wenigen Klicks ähnlich effizient eingestellt bekommt und der Performancevorteil dabei nicht trotzdem nahezu erhalten bleibt.
Das dachte ich auch, in der Praxis liefert die Karte XT bei gleichem Powerlimit aber kaum mehr Leistung und mit steigendem Powerlimit sinkt die Effizienz. Mit der größeren Ausbaustufe und dem höheren Powerlimit hätte ich von der XT eigentlich mehr erwartet.

Wie du schreibt, ist es am Ende Geschmackssache. Finde es nur etwas kurios, dass AMD ewig für die schlechte Effizienz der Karten kritisiert wurde. Jetzt bietet AMD mit der 9070 die höchste Effizienz in diesem Leistungsbereich und trotzdem wird immer die XT empfohlen.

@Erotiksound
Egal wofür du dich entscheidest, es würde mich interessieren, was es am Ende wird und ob es dem entspricht, was du dir vorgestellt hast.
 
  • Gefällt mir
Reaktionen: Erotiksound
Ich kenne mich mit Undervolting' noch nicht aus, aber es wird häufig empfohlen. Wenn dies keinen Einfluss auf die Leistung hat, dann frage ich mich allerdings, warum dies nicht schon ab Werk stattfindet.
Falls mir dies auch - aus welchem Grund auch immer - empfohlen wird, würde ich natürlich gerne wissen, ob das auch schon in die Entscheidungfindung zwischen non-XT und XT einfließen sollte.

Es könnte also bei 4k schon etwas problematisch mit der Leistung werden? Ich selber weiß noch nicht, ob und wann Upscaling überhaupt in Frage kommt.

Wenn eine GK eine TDP von 200-340 Watt hat, und der Rechner z.B. 16 Stunden an ist, ohne allerdings ständig hart arbeiten zu müssen, dann würde der wohl dennoch mehr Strom verbrauchen als der alte Rechner. Von daher wäre die Weiternutzung des alten Rechners fürs Surfen doch sehr sinnvoll. 20€ mehr in der Stromrechnung, da würde ich nicht meckern.

Gibt es bei der Programmierung von Spielen denn ein natives Standardformat, von welchem aus die Umrechnungen in andere Formate erfolgen?

Da bei 21:9 ein 34" die selbe Höhe hat wie ein 27", dafür aber wesentlich breiter ist, sieht das Format erstmal beeindruckender aus. Filme müsste ich dann allerdings auf dem alten 16:9 schauen.

Seit ein paar Jahren habe ich zuletzt nur noch Sniper Elite V2 gespielt, das mir super gefällt, mich um neuere Spiele gar nicht mehr gekümmert. Darum fehlen in der List natürlich aktuelle Spiele. Kann also noch nicht beurteilen, wie hoch die Anforderungen an eine GK wirklich sind. Aber bis ich alles erstmal durch habe, ist der neue Rechner schon wieder alt.

Dead Days, Dead Island 2, State of Decay 2, Borderlands 4... die werden sicherlich auch noch mit der 9070 zu spielen sein. Wobei 3440 x 1440 weniger Anforderungen an die Grafik stellen sollte als 3840 x 2160. Vielleicht also doch lieber Ersteres als 2560 x 1440?

Ich habe keine Ahnung, wieviel FPS man benötigt, damit ein Spiel aus 60-70 cm Entfernung auch eine tolle Grafik bietet, oder auf wieviel FPS ich bei einem Monitor achten sollte. Ich will auch Nackenprobleme vermeiden. Frage ist ja auch, ob curved Bild sinnvoller ist bei über 32".

Ich werde die 9070 nehmen, falls ich keinen Monitor nehme, dessen Anforderungen eher was für die XT sind. Tja, welchen Monitor? IPS vs OLED, 16:9 vs 21:9, 2560 x 1440 vs 3440 x 1440. Und das alles im Spagat zwischen DAW und Games. Für Tips wäre ich sehr dankbar.

Werde später berichten, wie zufrieden ich bin.
 
Erotiksound schrieb:
Ich kenne mich mit Undervolting' noch nicht aus, aber es wird häufig empfohlen. Wenn dies keinen Einfluss auf die Leistung hat, dann frage ich mich allerdings, warum dies nicht schon ab Werk stattfindet.
Falls mir dies auch - aus welchem Grund auch immer - empfohlen wird, würde ich natürlich gerne wissen, ob das auch schon in die Entscheidungfindung zwischen non-XT und XT einfließen sollte.
UV senkt die Spannung und somit die Leistungsaufnahme. Dadurch wird die GPU etwas effizienter. Da die 9070XT eher durch ihr Powerlimit limitiert ist, wird sie durch UV nicht sparsamer, sondern schneller. Sparsamer wird sie nur, wenn man gleichzeitig das Powerlimit reduziert. Die Spannung ist ab Werk so eingestellt, dass die GPU unter allen Bedingungen mit etwas Reserve stabil läuft, egal wie gut oder schlecht der Chip ist.
Mit UV kann diese Reserve und eventuell bessere Chipgüte ausnutzen. Wenn man es übertreibt, allerdings kann es auch zu Leistungseinbußen oder abstürzen kommen. Die 9070 würde ich einfach so lassen, wie sie ist.
Hier siehst du, was mit UV bzw. OC möglich ist:
https://www.pcgameshardware.de/Rade...est-kaufen-Release-Specs-Benchmark-1467270/6/

Erotiksound schrieb:
Wenn eine GK eine TDP von 200-340 Watt hat, und der Rechner z.B. 16 Stunden an ist, ohne allerdings ständig hart arbeiten zu müssen, dann würde der wohl dennoch mehr Strom verbrauchen als der alte Rechner. Von daher wäre die Weiternutzung des alten Rechners fürs Surfen doch sehr sinnvoll. 20€ mehr in der Stromrechnung, da würde ich nicht meckern.
Einfach mal messen. Ich würde den alten PC in Rente schicken, wenn du ihn nicht mehr brauchst oder nur als Backup behalten.

Erotiksound schrieb:
Filme müsste ich dann allerdings auf dem alten 16:9 schauen.
Warum? Selbst wenn sie in 16:9 sind, kann man sie entweder mit schwarzem Balken links und rechts abspielen oder auch oben und unten etwas zuschneiden. Einige Filme haben ja sowieso noch schwarze Balken oben und unten.

Erotiksound schrieb:
Wobei 3440 x 1440 weniger Anforderungen an die Grafik stellen sollte als 3840 x 2160. Vielleicht also doch lieber Ersteres als 2560 x 1440?
Ja und nein. Ich sage es mal so. Ein 32" 4K Monitor hat mit FSR4 Performance (Renderauflösung 1.920 × 1.080) garantiert ein besseres Bild als ein 32" WQHD Monitor mit FSR Quality (Renderauflösung 1.707 × 960), die benötige Rechenleistung ist aber nur minimal höher (26% mehr Bildpunkte).

Wenn du jedoch nativ und mit gleicher FSR Stufe spielen willst musst die GPU 125% mehr Bildpunkte berechnen. Deshalb schreibe ich: Die Renderauflösung ist entscheidend.

Ich habe ich noch eine RX6800 und selbst damit kann man noch problemlos alles in 4K oder WQHD spielen, so lange man kein Raytracing nutzt. Leider unterstützt die RX6800 offiziell kein FSR4, nur FSR3 mit schlechterer Bildqualität. Und selbst das merkt man nur im direkten Vergleich.

Erotiksound schrieb:
Selbst hier schafft eine 9070 noch 58 FPS in 4K mit FSR4 Performance mit sehr hohen Settings.

https://www.computerbase.de/artikel...schnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd

Wenn das nicht reicht kann die Settings anpassen:
1767809825918.png


Oder Framegenration verwenden:

1767809863904.png

Erotiksound schrieb:
IPS vs OLED, 16:9 vs 21:9, 2560 x 1440 vs 3440 x 1440. Und das alles im Spagat zwischen DAW und Games.
Ich sehe keinen Spagat. Wenn der Monitor groß genug ist, ist er für alles nutzbar. OLED ist eher eine Frage des Geldbeutels. Außerdem kann man sich nicht alles frei aussuchen. Ein 32" OLED hat immer 4K. Ein 34" UWQHD OLED ist immer gebogen.

Du kannst auch die XT auf 220W limitieren und erst bei Bedarf auf 304W gehen, wenn dir die 60€ egal sind.
 
  • Gefällt mir
Reaktionen: Erotiksound
Naja, der Spagat findet vor allem bzgl. der Schriftgröße statt. 4k mag ja ein besseres Bild wiedergeben, aber bzgl. der DAW, die ja - neben Spielen - auch noch praxistauglich funktionieren muss, da soll die Schrift doch schon arg klein aussehen, und das würde es visuell anstrengend machen. DAW hat Priorität vor Gaming.
Schade, dass hier noch keine Rückmeldung von DAW-Usern kamen.

Ich bleibe bei der non-XT.

Macht es Sinn, den Monitor über einen USB 4.0 Anschluss für die DP-Verbindung zu versorgen? Bringt das was, falls das überhaupt geht?

Ist es egal, ob ich bei der GK einen 3x8 Pin, 2x8 Pin oder was anderes habe? Oder macht das nichts, weil Adapter ein etwaiges Problem lösen können? Was sollte ich auf keinen Fall nehmen?

Ich denke, z.Z. verzichte ich erstmal auf OLED und warte damit ab. Sehr viel preiswerter ist IPS allerdings auch nicht. Gibt es etwas, das ich beim Kauf der GK bzgl. HDR und Raytracing beachten muss?

Bzgl. Monitor weiß ich immer noch nicht, auf welchen FPS-Wert ich achten sollte, wenn der marketingbedingte Wert in der Praxis eh nicht zutrifft.

Also, 3440 x 1440 auf einem 34" 21:9 soll am optimalsten für die DAW sein. 4k macht alles zu klein. Damit wäre OLED wohl auch vom Tisch.
Ich denke, mit diesem Format versuche ich es. Ob sich auch alle Spiele diesem Format anpassen können?

Jetzt gilt es noch herauszufinden, welcher IPS auch für Spiele gut genug ist, ohne möglichst über 400€ zu kosten.
 
Erotiksound schrieb:
Macht es Sinn, den Monitor über einen USB 4.0 Anschluss für die DP-Verbindung zu versorgen?
Ich verstehe die Frage nicht.

Erotiksound schrieb:
Ist es egal, ob ich bei der GK einen 3x8 Pin, 2x8 Pin oder was anderes habe?
Die GPU sollte passend zum Netzteil gekauft werden, aber das deckt schon alle Möglichkeiten ab. Eine AMD Karte würde ich nur mit 8-Pin Steckern kaufen.

Erotiksound schrieb:
Kauf der GK bzgl. HDR und Raytracing beachten muss?
Nein, es ist immer der gleiche Chip. Nur wenn du massiv Pathtracing einsetzten möchtest, wäre eine 5070Ti die bessere Wahl.

Erotiksound schrieb:
4k macht alles zu klein.
Dafür gibt es Skalierung in Windows. Funktioniert aber nicht mit jeder Software. Einfach vorher ausprobieren.

Erotiksound schrieb:
Bzgl. Monitor weiß ich immer noch nicht, auf welchen FPS-Wert ich achten sollte, wenn der marketingbedingte Wert in der Praxis eh nicht zutrifft.
Wie viele FPS hättest du denn gerne? Heutzutage spielt man mit variabler Synchronisation, nicht mit der max. Hz Zahl des Monitors, aber idealerweise oberhalb 60 FPS.
 
Hm, ich meine den DisplayPort-Anschluss. Der soll ja ein besseres Bild als über HDMI abliefern. Und ich habe mal gesehen, dass ein Mainboard einen DP-Anschluss über USB 4.0 hatte. Falls ich jetzt kein dummes Zeug erzähle, frage ich mich, ob sich per solchem Anschluss die Geschwindigkeit der Bildübertragung z.B. verbessern lässt.

Was die Skalierung über Windows betrifft, frage ich mich, warum das denen, die sich über diesen Mangel bei 4k beschwert haben, nicht selber eingefallen ist, denn das müssten die eigentlich wissen. Wie das dann qualitativ aussieht, das wäre interessant. Wenn kein Problem, dann ist 4k und OLED noch im Spiel, wobei QD-OLED aber noch besser aussieht, allerdings zu den jetzigen Preisen für mich ab 500€ eh uninteressant.

Mit FPS habe ich mich nie beschäftigen müssen, daher keine Ahnung, wieviel ich gerne hätte. Soviel wie die Hardware hergibt? Monitore werden ja gerne mit 144, 180 oder z.B. 240 Hz beworben. Hab ja nur 60 FPS und wüsste nicht mal, wieviel in der Praxis davon real sind.

Der hier wird gerne beworben und gekauft. Muss natürlich nichts heißen, und auch ich gehe nur selten mit der Masse.
https://geizhals.de/aoc-cu34g2xp-bk-a3075197.html

Wäre zumindest als Übergang zu einem bezahlbaren OLED/QD-OLED eine Möglichkeit.
 
Der Monitor sollte idealerweise am DisplayPort Anschluss der GPU angeschlossen werden. Das hat mit USB überhaupt nichts zu tun.

Windows 11 skaliert normalerweise automatisch passend zur Auflösung und Monitorgröße, aber man kann es manuell anpassen oder deaktivieren. Ich persönlich mag die Skalierung nicht und habe deshalb auch einen 32" WQHD Monitor. Mit 4K auf 32" lässt es sich kaum vermeiden. Es hatte bei älteren Spielen auch schon Probleme, wenn die Skalierung aktiv ist, weiß aber nicht, ob das heute noch eine Thema ist.

Erotiksound schrieb:
Soviel wie die Hardware hergibt?
Das ist der falsche Ansatz und auch variabel. Normalerweise hat meine bestimme Zielframerate, die man als angenehm empfindet und je nach Titel unterschiedlich sein kann. Eine Aufbauspiel braucht weniger FPS als ein Shooter mit schnellen Bewegungen, um flüssig auszusehen. Dann wählt man die Settings so, dass man mit bestmöglicher Bildqualität diese Framerate erreicht oder einen Kompromiss daraus. Außerdem sollte man ein FPS Limit setzen, dann wird die Hardware nicht durchgehend voll ausgelastet und zieht deutlich weniger Strom.

Wenn ein Monitor eine gewisse Hz Zahl bewirbt, dann kann er das auch. Das ist aber die obere Grenze. In der Praxis hält man sich mit variabler Synchronisation immer im Bereich darunter auf, sollte aber die untere die unterschreiten. Bei dem von dir verlinkten Modell steht z.B. 48-180Hz via DisplayPort. Außerdem hat der Monitor ein VA Panel, also weder IPS noch OLED. Schaue dir verschiedene Monitore im Laden an, um rauszufinden, was du willst.
 
Oh, da habe ich Mist geschrieben mit USB. Meinte natürlich den DP-Anschluss. Da war ich schon übermüdet.

Woher soll ich wissen, was für eine Framerate ich haben will bzw. benötige? Ich hatte mich bis heute nie darum kümmern müssen, weil ich nur eine Option hatte, nämlich die, die der vorhandene Monitor hergibt.

Ja, ich weiß, dass das ein VA-Panel ist. Bin halt flexibel, wenn es um Meinungsbildung geht. Ist hier aber auch nicht der passende Thread. Danke trotzdem.
 
Erotiksound schrieb:
Woher soll ich wissen, was für eine Framerate ich haben will bzw. benötige?
Der Monitor schon mindestens 120-165 Hz können, mehr braucht man eigentlich nicht. In der Regel reichen stabile 60-100 FPS, damit es sich flüssig anfühlt. Bei Anno ist auch weniger kein Problem, aber variable Synchronisation funktioniert erst ab 48 Hz, darunter retten es dann nur noch LFC.
 
Mit OLED oder QD-OLED warte ich noch etwas ab. Wahrscheinlich werde ich mir erstmal den KTC H27E6 bestellen. Dann sehe ich auch, ob 27" reicht und 16:9 oder 21:9 sich besser anfühlen.
Nur für den Fall, dass ich vielleicht doch mal auf einem UWQHD mit 34" IPS oder OLED spielen will: reicht dafür noch die 9070 aus, oder benötige ich dafür schon die XT?
 
Zuletzt bearbeitet:
Die Karte heißt 9070(XT). Wie bereits schon mehrfach geschrieben sind die Karten ähnlich schnell. Wenn etwas zu langsam ist, musst du halt die Einstellungen anpassen, egal mit welcher Karte. Du machst mit beiden nicht falsch. Die eine ist besonders effizient, die andere etwas schneller.

Macht es einen Unterschied, ob ein Auto 200 oder 225 PS hat? Würdest du die 225 PS Variante nehmen, wenn es 14 statt 10 l pro 100 km säuft? Entscheide selbst.
 
Ah, verschrieben. Ja gut, ich wollte nur nochmal sichergehen, dass ich dann ja auf jeden Fall bei der 9070 bleiben kann, wenn sich die Monitorgröße und Pixelzahl vergrößern sollte. Solange die Bildqualität durch Einstellungsanpassung nicht deutlich darunter leidet, würde ich die effizientere Karte bevorzugen. Danke!
Ergänzung ()

Ach so, wenn die GK im PC ist, muss ich dann die anderen Lüfter (oben und unten) auch einbauen, oder kühlen die bereits eingebauten schon genügend? Ich weiß ja nicht, wie die Hitzeentwicklung bei so einer GK ist.
 
Zuletzt bearbeitet:
Mit dem Setup aus #22 musst du dir keine Gedanken darüber machen. Sieht so aus, als würdest du auch viel Wert auf die Optik legen. Soll vermutlich eine weiße werden, oder?
 
Ja, alles homogen in weiß. Reflektiert das Licht auch besser. Bei dunklen Komponenten musste ich immer mit einer Taschenlampe ran, was ziemlich nervte.
Ergänzung ()

Soll ich mir die Sapphire bestellen? Hat überhaupt eine GK kein "Spulenfiepen"?
Ach so, der PC kommt diesmal auf den Tisch, alleine schon wegen der vorderen Anschlüsse des Gehäuses, die sich unten befinden. Daher sieht das Auge auch mit und beleuchtet den Platz, wo auch meine Synthies usw. stehen.
 
Zuletzt bearbeitet:
Ist das eigentlich noch aktuell oder überhaupt realistisch, dass man am besten in der 1. Februarwoche mit dem Kauf zuschlagen sollte?
Unter 'Die ultimative Kaufempfehlung' las ich u.a. "Der beste Zeitpunkt zum Kauf einer Grafikkarte im Jahr 2026 ist der Februar."

Wie schätzen Du und die anderen diese Hypothese ein? Soll ich noch bis Anfang Februar warten, weil sich bis dahin die Preise für kurze Zeit doch wieder zurückbilden (könnten), oder lieber sofort bestellen?

https://www.martinkaessler.com/grafikkarten-preise-2026-preisschock/
 
Zurück
Oben