News Ryzen 9 9950X3D2: Satte 192 MB L3-Cache und 200 Watt für den AM5-Sockel

Convert schrieb:
Ich persönlich denke, dass der 9850X3D zum gleichen UVP kommt, wie der 9800X3D. Der 9800X3D wird beim Erscheinen des 9850X3D im Handel leicht günstiger sein. Damit hat man oben mehr Performance zum gleichen Preis und unten hat man die riesige Lücke zwischen 9700X und dem X3D-Prozessor auf Zen 5 Basis dann reduziert und damit auch ein gutes Angebot gegen einen Core Ultra 7 270K-Plus, auch wenn letzterer mehr Multithreading-Performance liefern wird.

Das würde recht gut zu den 520€ hinkommen, glaube beim 9800X3D war die UVP ja auch 519€ und die Händlerpreise lange Zeit so 508...530€.

Und fürchte das der Einfluss auf den Preis des 9800X3D recht gering sein wird, schlimmstenfalls könnte er sogar ganz eingestellt werden.

Aber Preise sind bei CPUs leider generell schlecht vorhersagbar, beim 9600 ohne X ist es ja auch so eine Katastrophe. Schon länger auf dem Markt, abe Preis hält sich über dem schnelleren 9600X mit X, so das er völlig unintressant ist.
 
SirSinclair schrieb:
200 Watt CPUs?! Das ist ja fast so schlimm wie zu Piledriver Zeiten...

Ich möchte mehr Rechenleistung mit weniger Watt, nicht mehr Rechenleistung mit mehr Watt.
Bekommst du auch, die maximale Leistungsaufnahme hat null mit dem eigentlichen Verbrauch zu tun.
 
RealMax123 schrieb:
Das würde recht gut zu den 520€ hinkommen, glaube beim 9800X3D war die UVP ja auch 519€ und die Händlerpreise lange Zeit so 508...530€.
Die UVPs der Prozessoren werden immer in Dollar ausgegeben und dann nach aktuellem Kurs in Euro umgerechnet. Damals stand der Euro schlecht da, daher wurde aus 479 Dollar dann der UVP in Euro inkl. Mehrwehrsteuer 525 Euro.

https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-9800x3d-test.90151/

Heutzutage bekommst du für einen Euro bereits 1,16 Dollar. Mit 19 Prozent Mehrwertsteuer könnte man also bei 479 Dollar eine UVP von 489 Euro vergeben und wenn der Trump so weiter macht und der Dollar weiter absinkt, kannst du Anfang 2026 sogar 1:1 umrechnen, nur das beim Europreis schon die Mehrwehrsteuer drin ist...

https://www.comdirect.de/inf/waehru...ENT=14959435&timeSpan=1Y&ID_NOTATION=8381868&
 
  • Gefällt mir
Reaktionen: RealMax123
Ripcord schrieb:
Die richtig guten Sachen kommen leider immer erst dann, wenn die Gen schon die hälfte der Zeit bis zum Nachfolger hinter sich hat.
Dass es bis zum Release eines Nachfolgers auch mal Evolutionsstufen gibt, ist ja vollkommen normal und nachvollziehbar.
Ergänzung ()

LamaMitHut schrieb:
Bekommst du auch, die maximale Leistungsaufnahme hat null mit dem eigentlichen Verbrauch zu tun.
Falsch. Die maximale Leistungsaufnahme hat sehr wohl etwas mit dem tatsächlichen Verbrauch zu tun.

Was du meinst ist die Effizienz, die hat nichts mit der maximalen Leistungsaufnahme zu tun.
 
  • Gefällt mir
Reaktionen: RealMax123 und LamaMitHut
BDR529 schrieb:
Dass es bis zum Release eines Nachfolgers auch mal Evolutionsstufen gibt, ist ja vollkommen normal und nachvollziehbar.
Zumindest, wenn die Technologie zum Start der Generation noch nicht verfügbar war was aber oft nicht der Fall ist. Das volle Potential nicht am Start zu liefern, extra am Anfang nur halbgare Produkte bringen mit der Absicht auf halber Strecke noch mal nachzuwürzen ist für mich keine Evolution sondern Kapitalismus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RealMax123
LamaMitHut schrieb:
Bekommst du auch, die maximale Leistungsaufnahme hat null mit dem eigentlichen Verbrauch zu tun.
Jein.

Natürlich zieht eine CPU nicht durchgehend die maximale TDP sondern die Durchschnittsleistung ist deutlich niedriger. Bei allen CPUs.

Aber bei gleichbleibender Fertigungsstruktur und Architektur ist der Verbrauch schon relativ proportional zur Leistung.

Gibt man zusätzlich zu hohem Boosttakt auch noch einen recht hohen Basetakt und grosse Caches, erhöht sich nicht nur die tatsächliche Leistung sondern auch der Verbrauch.

Versucht man den Verbrauch einzudämmen indem man den Basetakt zurücknimmt oder die Caches reduziert, dann reduziert sich leider meistens auch die Leistung entsprechend.

Eine wirklich bessere Effizienz wäre meistens nur durch eine feinere Fertigungsstrutkur und / oder grundlegend neue Architektur möglich.

Ripcord schrieb:
Zumindest, wenn die Technologie zum Start der Generation noch nicht verfügbar war was aber oft nicht der Fall ist. Das volle Potential nicht am Start zu liefern, extra am Anfang nur halbgare Produkte bringen mit der Absicht auf halber Strecke noch mal nachzuwürzen ist für mich keine Evolution sondern Kapitalismus.
Sehe ich ähnlich, jedenalls im wesentlich.

Das Nachschieben der XT Modelle finde ich zum Beispiel völlig legitim, denn im Laufe des Produktionszyklus verbessert sich oft die Qualität, und man hat mehr Zeit um eine grössere Anzahl an "Golden Selections" zu sammeln und dann mit offiziell höherer Taktrate zu verkaufen.

Aber das AMD sowohl die preiswerten F-Modelle und die Hexa-Core X3Ds erst so spät nachschiebt ist reine Geldmacherei.
 
Vielleicht liege ich diesmal falsch.

Ich habe ein Gefühl das ein Ryzen 9 9950X3D2 nicht kommen wird. ;)

1. Im Marketingjargon sieht diese Modellbezeichnung furchtbar aus.
2. Das 9950X3D2 macht keinen Sinn. (AMD würde hier Verlust fahren)
Es ist nicht so als wurde AMD spendabel mit dem 3D Cache umsichwerfen sonst hätten die TRX Threadripper auch schon längst einen bekommen!
3. ich sage nicht das Dual X3D Cache nicht kommt, der kommt! Es macht keinen Sinn bei dieser Gen, diesen zu verdoppeln, anders sieht es bei Zen6 aus.
4. Ein 7500X3D macht Sinn für games.

(Die einzige Möglichkeit wieso an dem Gerucht was dran wäre, wäre nur wenn AMD mit 2nm bei (Zen6) auf Probleme gestossen ist, wovon ich aktuell von seriösen Quellen nichts weiß und der 9952X3D als refresh fur Q2 2026 gedacht wäre. Was komplett dagegen spricht ist das die Hersteller die zen6 boards schon auf Messen vorgestellt haben.)

#
Wieso ein Gerücht nur ein Gerücht ist.
Das andere dieses Jahr gab es so einige falsch Meldungen bzw vorhersagen, auch im TV Sektor bei Sony, Samsung, Sharp etc.

Nix davon hat es aber nahe getroffen. 🎯
Beispiel:
Es gibt einen Bravia 8 ii Mark two (es ist aber kein Woled.)
 

Anhänge

  • bravia-10-v0-w7frucfoasae1.png
    bravia-10-v0-w7frucfoasae1.png
    198,2 KB · Aufrufe: 55
Hallo an Alle!

Eine interessante Techdiskussion, die letztlich aber wieder einmal das Ergebnis bringt: "Überlege dir vorher, was und wofür du etwas brauchst und entscheide dann."

Für einen Rechner zum reinen oder hauptsächlich Zocken baut AMD das momentane Maß der Dinge. Einen Prozi mit X3D und gut ist.

Wobei man sich durchaus fragen kann, warum in den letzten Jahren eine solche FPS-Sucht eingesetzt hat. Mal ehrlich Freunde, kein(!) Auge kann den Unterschied zwischen 144, 120, 90, 66, 40, selbst 30 FPS wirklich sehen. Säugetieraugen können keine Einzelbilder jenseits von 25-30 Bilder pro Sekunde erkennen, dafür sind sie nicht gemacht und brauchen es auch nicht.
Ein Spiel mit 30 Bildern pro Sekunde läuft für unsere Wahrnehmung genauso flüssig wie eines mit 144. Was manche für Ruckler zu sehen glauben, sind technische Schluckser in der Darstellung. Das sind technische Dinge, keine eigentliche Wahrnehmungssache. Man muß es den Grakaherstellern zugestehen, sie spielen das "mehr FPS sind supertoll" Werbejingle hervorragend. Für nahezu jeden von uns macht es keinen Sehunterschied, ob eine Graka alle möglichen Spiele mit z.B. 30 FPS darstellt oder mit 100+. Der wahre Unterschied ist, daß die eine Graka zwischen 200-500 Euros (je nach sonstiger Ausrüstung) rumeumelt und halbwegs bezahlbar ist, an der anderen verdienen sich AMD und Nvidia dumm und dusselig!

Aber zurück zu den Prozessoren: Wie gesagt, AMD macht bei Spielerechnern sehr vieles richtig und die verschiedenen X3D-Prozis sind da super.

Wenn man hauptsächlich Arbeit, Anwendungen und Surfen macht, nebenbei etwas zockt, dann ist aktuell aber Intel die bessere Wahl. Es gibt momentan keinen besseren Allrounder als den Ultra 265 und mit kleineren Abstrichen den 245. Es gibt keinen AMD in deren Preisklassen, der auch nur annähernd die Arbeits/Anwendungsleistung dieser beiden Ultra 5/7 Serien erreicht.
Selbst ungedrosselte K-Prozis sind im Leerlauf bis zu mittlerer Last deutlich Stromsparender als die AMD. Wenn man die Leistungsaufnahme der K bei 125 Watt (oder auch etwas niedriger) deckelt, verliert man ein paar Prozent Leistung am Limit, ist aber für 99% der Anwender nicht spürbar und dann gibt es nichts Effektiveres und Stormsparenderes als einen 265.

Die neuen AMD CPUs scheinen diese Zweiteilung zuzememntieren. AMD legt das Hauptgewicht auf die Spieleleistung, was man an diesen Entwicklungen sehen kann, Intel eher auf Allroundleistung.
Darum: für Spiele einen "Aufgang", für Allroundsachen einen "Pfeilsee".;)
 
Tigerkatze schrieb:
Ein Spiel mit 30 Bildern pro Sekunde läuft für unsere Wahrnehmung genauso flüssig wie eines mit 144.
Definiere "flüssig". Wenn du damit meinst, man sieht die Einzelbilder nicht mehr, hast du natürlich recht, dafür sind unsere Augen bzw. die Verarbeitung der Signale im Gehirn zu träge.

Wenn du aber meinst, dass 30fps genauso auf uns wirken, wie 144fps, dann liegst du falsch. Gerade 30fps ist so dermaßen niedrig, ich glaube das würde jeder bei einem Blindtest gegenüber 144fps sofort sehen und beim selber spielen auch spüren. Ich merke das immer besonders bei Filmen/Serien, die ja nur mit 24fps laufen und wenn da ein Kameraschwenk kommt, ruckelt der ganze Hintergrund regelrecht.
 
  • Gefällt mir
Reaktionen: Wanderwisser, Zuchtmaista, alexbirdie und eine weitere Person
Tigerkatze schrieb:
Für einen Rechner zum reinen oder hauptsächlich Zocken baut AMD das momentane Maß der Dinge. Einen Prozi mit X3D und gut ist.
Selbst das würde ich nur mit Einschränkungen unterschreiben.

Am wichtigsten für einen PC der haupsächlich oder zum zum Gaming verwendet werden soll ist die Grafikkarte.

Und auch RAM und SSD nicht nicht ganz unwichtig.

Wenn man nicht gerade unbegrenztes Budget hat, darf dann sollte man nicht zuviel Geld für die CPU verballern.
 
RealMax123 schrieb:
Selbst das würde ich nur mit Einschränkungen unterschreiben.

Am wichtigsten für einen PC der haupsächlich oder zum zum Gaming verwendet werden soll ist die Grafikkarte.

Und auch RAM und SSD nicht nicht ganz unwichtig.

Wenn man nicht gerade unbegrenztes Budget hat, darf dann sollte man nicht zuviel Geld für die CPU verballern.
Ich habe nur die Prozis erwähnt, da wir uns hier im Hauptplatinen und CPU Unterforum befinden. :-)

qiller schrieb:
Definiere "flüssig". Wenn du damit meinst, man sieht die Einzelbilder nicht mehr, hast du natürlich recht, dafür sind unsere Augen bzw. die Verarbeitung der Signale im Gehirn zu träge.

Wenn du aber meinst, dass 30fps genauso auf uns wirken, wie 144fps, dann liegst du falsch. Gerade 30fps ist so dermaßen niedrig, ich glaube das würde jeder bei einem Blindtest gegenüber 144fps sofort sehen und beim selber spielen auch spüren. Ich merke das immer besonders bei Filmen/Serien, die ja nur mit 24fps laufen und wenn da ein Kameraschwenk kommt, ruckelt der ganze Hintergrund regelrecht.
Die Zeiten, als auch gerade im Computergaming 30 FPS top waren, sind noch garnicht so lange vorbei. Und ja 30 FPS reichen locker für ein gutes Bild aus! Wie ich sagte, die Ruckler sind technisch bedingt, man kann auch mit 30 Bildern pro Sekunde für das Auge butterweiche Schwenks hinbekommen, daß ist aber technisch nicht so einfach wie stupide die Bildrate zu erhöhen.
Da die Grafikkartenhersteller den Leuten eingeredet haben, daß nur mehr FPS und 4K+ Auflösungen die Probleme lösen, verdienen sie richtig gut daran, anstatt bei der Darstellungsberechnung/umsetzung anzusetzen wie man das flüssiger hinbekommt. Da ist Digital dem Optischen unterlegen, was flüssige Bewegungen angeht.

Ist ja irgendwie logisch, da müsste man (mal wieder) das Hirn einschalten und erfinderisch werden anstatt mit der Technobrechstange einfach hochskalieren. Das Ergebnis sieht man ja, stromfressende Heizungen, die oft teuerer sind als der Rest des Rechners.
Jenseits schneller Schwenks, die digitale Anzeigen herausfordern, ist es für die Bilddarstellung komplett Latte ob es 30 Bilder oder 100+ pro Sekunde sind. Selbst mit z.B. 42 Bildern fällt es nicht auf, für die schönheit ist eh die Auflösung zuständig.
Was Filme und Fernsehen angeht, sind die üblichen 24/25 Bilder pro Sekunde am Grenzbereich der Einzelbildwahrnehmung. Das ist aber auch erst richtig ein Problem geworden, seit digitale Aufnahmen benutzt werden. Optische Aufnahmen haben damit extrem wenig Stress, dort liegt das Problem bei den Linsenkombinationen und der Größe, je schärfer und bildgewaltiger man werden will.
 
Tigerkatze schrieb:
man kann auch mit 30 Bildern pro Sekunde für das Auge butterweiche Schwenks hinbekommen
Tja, da haben wir wohl eine unterschiedliche Wahrnehmung. Klar, irgendwelche Kameraschwenks, die nur wenige Grad pro Sekunde vollführen, reichen die wenigen fps. Aber gerade jetzt im Zeitalter der digitalen Videoaufnahmen, wo keine natürliche Bewegungsunschärfe die niedrigen FPS kaschieren, sind 24fps einfach nicht mehr zeitgemäß. Ich für meinen Teil empfinde heutige Videoproduktionen jedenfalls als ruckelig.

Und wenn wir jetzt mal wieder zu den Games zurück kommen, da kannst du mit 30fps keinen Shooter vernünftig zocken, wo du regelmäßig in Bruchteilen einer Sekunde 90, 120 oder gar 180° Kameraschwenks hinlegst. Sry, aber den Unterschied zwischen 30 und 144fps sieht und fühlt hier JEDER (außer er hat vlt. ein gesundheitliches Handicap mit seiner Sehkraft/Motorik).
 
  • Gefällt mir
Reaktionen: Wanderwisser
@qiller Wir reden offensichtlich an einander vorbei. Die Problematik sind hier die digitalen Aufnahmen und ihre Darstellung. Mit optischen Systemen hast du nahezu null Probleme bei der Darstellung von Bewegung selbst mit niedrigen Bildraten.
Digitale Bilder produzieren Bewegungsruckler aufgrund ihrer Berechnungsart. Aber anstatt auch alternative Berechungs/Aufbauarten richtig zu untersuchen, gehen die Grakahersteller den einfachen Brechstangenweg, Bildrate hochskalieren bis die immer noch vorhandenen(!) Ruckler kaum noch wahrnehmbar sind. Und verkaufen das als "Fortschritt".

Was Games betrifft, ja, Shooter profitieren von hohen Bildraten, ABER das ist nur ein Spielegenre. (nebenbei haben wir auch früher schon Shooter gespielt, hat selbst damals Spaß gemacht) Die meisten anderen Genres funktionieren blendend auch mit niedrigeren Bildraten.

Nochmals, jenseits schneller Schwenks, die digitale Anzeigen herausfordern, ist es für die Bild/Bewegungsdarstellung komplett Latte ob es 30 Bilder oder 100+ pro Sekunde sind. Selbst mit z.B. 42 Bildern fällt es nicht auf, für die Schönheit ist eh die Auflösung zuständig.
 
Zuletzt bearbeitet:
Tigerkatze Wir leben im Jahre 2025 und nicht 1999. 30 fps? Soll ich Augenkrebs bekommen? Sogar bei 60 fps bekomme ich Augenkrebs auf einem 165-Hz-Monitor. Und für was ist das Ruckeln verantwortlich? Die FPS xD und wir wollen Qualität und wenn du dich mit 30 FPS zufrieden gibst, dann ist das so, aber du bist nicht die Mehrheit, sondern wir, die mehr FPS wollen … Sogar auf der PS5 wird laut geschrien nach mehr FPS. sogar im filmbereich wird zur zeit diskutiert ob 24fps nicht langsam zu alt sind :) 60fps in ein film wer traumhaft siehe denn film mit will sm ith da SIEHT man echt 60fps und das sieht so geil flüssig aus
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Wanderwisser
Zur Diskussion „30-FPS-Shooter sind kaum spielbar“ könnte ich beitragen, dass „The Last of Us Part 2“ auf der PS4 (Pro) mit 30 FPS läuft und für mich persönlich wunderbar aussieht. Die Entwickler haben das Spiel nämlich mit Köpfchen gemacht und einen Shutter-Effekt in die Bildberechnung integriert, der das Bild bei Bewegung leicht verschwimmen lässt. Das ist der gleiche Effekt, der beispielsweise Kinofilme mit 24 FPS flüssig wirken lässt. Bei der Aufnahme der Sequenzen wird in der Kamera ein entsprechender Shutter eingestellt, der letztendlich für eine leichte Weichzeichnung bei Bewegungen sorgt. Das ist unabhängig von analog oder digital. Verzichtet man bei Videospielen jetzt auf diese leichte Weichzeichnung, sehen Bewegungen bei 30 FPS tatsächlich ruckelig aus.

Ich persönlich bin überhaupt nicht erpicht darauf, Spiele mit >60 FPS dargestellt zu sehen. Im Gegenteil empfinde ich 120 Hz und die fehlende Weichzeichnung teilweise als unangenehm. So habe ich z. B. auf meinem Handy bewusst 60 Hz eingestellt, obwohl der Bildschirm 120 Hz unterstützt. Ich finde Kinofilme mit 48 FPS auch schrecklich. Durch die fehlende Bewegungsunschärfe wirken sie teilweise wie billige Fernsehproduktionen.

Man könnte jetzt eine „Alt gegen Jung“-Diskussion beginnen, aber das würde zu nichts führen. Sehr wohl kann man aber anmerken, dass der heutige Wahn nach immer höheren FPS und der Verzicht auf den Shutter-Effekt der Industrie sehr viel Geld einbringen und dafür sorgen, dass eigentlich wunderbare Hardware zum Alteisen wird. Ich persönlich bin bei Shootern mit 60 FPS sehr zufrieden und möchte auch nicht mehr.

Zuchtmaista schrieb:
Sogar bei 60 fps bekomme ich Augenkrebs auf einem 165-Hz-Monitor. Und für was ist das Ruckeln verantwortlich? Die FPS…
Nein, es ist ganz einfach die fehlende leichte Bewegungsunschärfe, weil die Entwickler auf den Shutter-Effekt verzichten.

Zuchtmaista schrieb:
…sogar im filmbereich wird zur zeit diskutiert ob 24fps nicht langsam zu alt sind :) 60fps in ein film wer traumhaft siehe denn film mit will sm ith da SIEHT man echt 60fps und das sieht so geil flüssig aus
Gerade im Filmbereich sind 48 FPS oder mehr seit Jahrzehnten sehr umstritten. Da empfehle ich, sich einmal einzulesen. Es gibt einen Grund, warum auch heute noch fast alle Kinofilme und Blockbuster mit 24 FPS gedreht werden. Unter anderem, weil Kinofilme keine Abbildung der Realität sind, sondern eine Kunstform. Um das zu verstehen, muss man sich mit der Materie auskennen und darf nicht einfach nachplappern, was angeblich „modern“ ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tigerkatze
Finde die CPU ueberhaupt nicht intressant, weil ich nicht wuesste wofuer man das brauchen soll. Ein Spiel ueber beide CCDs zu verteilen will man nicht, wegen der Latenzen. Fuer wen soll diese CPU also sein? Fuer Leute die 2 Spiele/Anwendungen gleichzeitig nutzen, und fuer jede einen V-Cache CCD brauchen?
 
WinstonSmith101 schrieb:
Ich persönlich bin überhaupt nicht erpicht darauf, Spiele mit >60 FPS dargestellt zu sehen. Im Gegenteil empfinde ich 120 Hz und die fehlende Weichzeichnung teilweise als unangenehm. So habe ich z. B. auf meinem Handy bewusst 60 Hz eingestellt, obwohl der Bildschirm 120 Hz unterstützt. Ich finde Kinofilme mit 48 FPS auch schrecklich. Durch die fehlende Bewegungsunschärfe wirken sie teilweise wie billige Fernsehproduktionen.

Man könnte jetzt eine „Alt gegen Jung“-Diskussion beginnen, aber das würde zu nichts führen. Sehr wohl kann man aber anmerken, dass der heutige Wahn nach immer höheren FPS und der Verzicht auf den Shutter-Effekt der Industrie sehr viel Geld einbringen und dafür sorgen, dass eigentlich wunderbare Hardware zum Alteisen wird. Ich persönlich bin bei Shootern mit 60 FPS sehr zufrieden und möchte auch nicht mehr.
Hallo und Danke schön! Meine Argumentation auf einen Punkt gebracht.

@qiller
Ich glaube hier liegen wir aufgrund unterschiedlicher Vorlieben und Auffassungen auseinander. Man kann sehr wohl mit Bewegungsunschärfe aktiviert und niedrigen FPS in den meisten Spielen gut agieren. Ich habe in den Hitman und Sniper contracts Serien mehr als nur ein paar Präzisionsachievements errungen.

@Zuchtmaista
Hallo und Danke für die Unterstützung meiner Argumentation, daß viel zuviele Kunden auf die Werbephrasen der Grakahersteller reinfallen. Dein Beitrag zeigt das großartig.
 
Wow was ihr da so alles drüber schreibst. Die CPU ist auch gut für solche die außerhalb zocken gut. Aber so viel Cache brauche ich nicht. Habe den extra Cache noch nicht mal bei einem als Vorteil gehabt. Das heißt ich gehöre auch nicht zu der Zielgruppe.

Macht aber nix. Ich als Gelegenheitsspieler merke selbst ich das bei zu wenig FPS . Dabei bin ich ein Brillenträger mit 3.0 und 2.75 auf das andere Auge als Sehschärfe. Ich habe also eigentlich für mein alter schon sehr schlechte Augen. Und sogar ich sehe bei unteren FPS Unterschiede.
Es gibt nicht nur egoshooter wo man ausreichend FPS braucht,es ist bei Rennspielen auch so. Ab 45 FPS kann man dann schon besser lenken. Bei 60 FPS ist es dann wirklich angenehm .
Ich tue mich bei Rennspielen eh schon schlecht und da wirkt sich weniger FPS massiv aus. Das ich bei mehr FPS besser werde oder mehr Hertz ist halt nicht mehr der Fall .
Ich zockte auch mit einem 144 Hz Bildschirm und die Reaktionszeit ist gleich.
Bei Shooter soll man schon vorher den Gegner sehen ,ich bin mir da nicht so sicher und starb dennoch immer wieder weil ich alleine nicht gut bin. Selbst wenn ich etwas voraus den Gegner habe sehen können , was brachte mir das ?
Dann schreiben welche das mehr Hz bei Schriften beim scrollen besser aussehen würden.
Das ist dann wohl das einzige wo ich durchaus sagen kann ja das wird es sein.
Dann liegt es wohl an mir das ich zwischen 60 und 144 Hz keinen echten Unterschied sehen konnte . Da kann man nix machen.
Nun gut meist zocke ich also auf den 60 Hz Bildschirm mit so um die 85 FPS weil fest eingestellt gehabt . Ich weiß auch nicht das alles wird halt nicht besser.

Und das mit dem genannten Film also gut sieht er echt aus . Aber irgendwas irritiert mich da dennoch. Es mag zwar flüssig sein aber irgendwas passt da dennoch nicht. Ist wohl so wie hier geschrieben wurde. Also doch wieder zurück zu den mit wenig FPS .
 
qiller schrieb:
Ok, wenn man "The Last of Us Part 2" als Shooter bezeichnet, hat man wohl auch keine Probleme mit 30fps.
Ja, es ist ein Action-Adventure-Survival-Horror-Computerspiel, in dem auch viel geschossen wird. Mir ist bewusst, dass du kompetitive Online-Shooter meinst.

qiller schrieb:
Ich WILL gar keine Bewegungsunschärfe in Spielen haben. Das ist das erste, was ich in Spielen ausschalte.
Das, was in manchen Spielen als Bewegungsunschärfe bezeichnet wird, ist etwas anderes als der Shutter-Effekt, den ich meine. Der als Bewegungsunschärfe bezeichnete Effekt ist manchmal wirklich übertrieben und grässlich.

qiller schrieb:
Ihr dürft nicht vergessen, dass Spiele auch Interaktionen enthalten und nicht wie ein Film einfach vor sich hinlaufen. Hier gehts dann auch um Genauigkeit/Präzision, die durch solche Spielereien in Mitleidenschaft gezogen wird und den Spielfluss negativ beeinflusst.
Du hast dich buchstäblich in einen Krieg hineinziehen lassen und hoffst, mit schnellerem Equipment einen Vorteil gegenüber deinen Gegnern zu haben. Genau so argumentiert auch die Werbung für die teuren Produkte, die dir angeblich einen Vorteil bringen sollen. Die Hardwarehersteller agieren wie Rüstungsunternehmen, nur dass dein Krieg virtuell stattfindet. Letztendlich profitieren davon nur die Hardwarehersteller. Wenn alle den 240-Hz-Monitor und die restliche superteure Highend-Hardware haben, sind alle wieder auf einem Level und hätten auch direkt bei 60 Hz bleiben können. Ich möchte mir diesen Krieg nicht aufzwingen lassen und kann damit leben, auch mal zu verlieren.

qiller schrieb:
Und genau diese erhöhte, zeitliche Präzision ist es, die dann Filme mit 60fps die Immersion rauben und warum die Leute lieber ihre ungenauen 24fps behalten wollen. Ohne entsprechenden Aufwand in der Produktion wird das immer "billig" aussehen. Man denke mal an Actionfilme. Mit 60fps wird der Schnitt wesentlich aufwendiger, Stunts schwieriger, wenn man die Immersion aufrecht erhalten will, dass die Faust das Gesicht trifft und nicht wie in Wirklichkeit kurz vorher abstoppt/daneben geschlagen wurde.
Da ist etwas dran: 48-FPS-Filme müssen sicherlich anders und manchmal vielleicht auch aufwendiger produziert werden. Ich habe mich im Laufe meines Lebens an den 24-FPS-Look gewöhnt und finde ihn gut. Es fällt mir schwer, mich umzugewöhnen, weil mein Unterbewusstsein mir bei 48-FPS-Filmen direkt sagt: „Achtung, billig!“

qiller schrieb:
Ich könnte mit 60fps auch super spielen. Ich hätte im Blindtest (also nur zuschauen) wahrscheinlich schon Schwierigkeiten 60 von 120fps unterscheiden zu können. Aber wie ich schon schrieb: Spielen bedeutet nicht nur zuschauen sondern auch interagieren. Und spätestens in Kombination von Sehen was auf dem Bildschirm passiert und Interagieren mit dem Spiel merkt und spürt man dann doch die Unterschiede. Und diese Unterschiede können durchaus erheblich sein. Einige Spiele haben da unterhalb gewisser FPS-Grenzen doch eine erhebliche Latenz und benötigen einfach hohe FPS, damit sie nicht zu schwammig spielbar sind.
Das ist je nach Spiel unterschiedlich, und das will ich auch nicht bestreiten. Mir persönlich reichen aber 60 Hz. Egal, ob Shooter oder Rennsimulation, mir ist das Bild und das Gesamterlebnis so flüssig genug. Bei mehr FPS fühlt es sich für mich schnell merkwürdig, leicht unangenehm und „zu echt“ an. Das wird aber jeder anders empfinden.
 
  • Gefällt mir
Reaktionen: Tigerkatze
Zurück
Oben