DrCox1911
Lieutenant
- Registriert
- Juni 2018
- Beiträge
- 644
Na da nehme ich lieber doppelte Leistung bei gleichem Verbrauch.Der Merowinger schrieb:Die 3080 wird etwa 4 mal so schnell sein wie die 1080, von dem her gehen die 320Watt voll in ordnung.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Na da nehme ich lieber doppelte Leistung bei gleichem Verbrauch.Der Merowinger schrieb:Die 3080 wird etwa 4 mal so schnell sein wie die 1080, von dem her gehen die 320Watt voll in ordnung.
Eine GPU betreibt man idR entweder im idle oder unter VolllastSkjöll schrieb:Damit wäre doch der Betrieb unter Vollast gemeint, oder? 300 Watt, also ein kleiner Ofen, als Dauerleistung wäre für mich nichts.
Natürlich nicht, die 2080Ti ist noch nicht einmal doppelt so schnell wie eine 1080.Der Merowinger schrieb:Die 3080 wird etwa 4 mal so schnell sein wie die 1080
Ich achte immer auf Energieersparnis (nein, im dunklen Haus sitze ich nicht und ich koche auch - so weit geht es nicht), ich mache aber z.B. die Lautsprecher aus wenn ich sie nicht brauche. Mit einer moderaten Vollast in Spielesituationen habe ich auch kein Problem. Nur im idle, wie Du schon sagst....Taxxor schrieb:Eine GPU betreibt man idR entweder im idle oder unter Volllast
Knatschsack schrieb:Vollzitat entfernt
Iguana Gaming schrieb:Nutze Freesync seit Release, ca. Anfang 2016 mit meinem alten Monitor zuvor und kann nur positives berichten und will es auch nicht mehr missen. Genauso habe ich auch bisher kaum negatives über Gsync Compatible gelesen, bis auf das es halt nicht alle adaptive Sync Monitore unterstützen. Dafür gibt's aber mittlerweile genügend Listen, wie auch zum Beispiel bei Geizhals in der Produktinfo.
Ist schon etwas her wo ich vereinzelt Berichte von Zockern gelesen hab. Da war zum Beispiel dass bei bestimmten Spielen oder einem Spiel es zu Flackern kommt, bei anderen Spielen ist trotzdem Tearing vorhanden, generell Sync-Probleme z.B. Totalausfall.Beg1 schrieb:Du meinst Adaptive Overdrive? Gibt FreeSync/G-Sync compatible Monitore die tatsächlich den gesamten FPS-Bereich mit einer Einstellung ohne Geisterbilder abdecken.
Lediglich die Freesync-Range ist meistens mit 40-120/144 Hz geringer als bei G-Sync (ca. 30 Hz-120Hz).
firejohn schrieb:Ist schon etwas her wo ich vereinzelt Berichte von Zockern gelesen hab. Da war zum Beispiel dass bei bestimmten Spielen oder einem Spiel es zu Flackern kommt, bei anderen Spielen ist trotzdem Tearing vorhanden, generell Sync-Probleme z.B. Totalausfall.
Sowas kommt bei Tests eher weniger in Erwägung bzw. kommt nicht vor. Da zeigen dann Erfahrung der Spielerschaft was anderes.
Nja, kann sich mittlerweile geändert haben, hoffentlich waren diese Dinge durch Hard- oder Software (Graka Treiber) Änderungen behebbar.
Und ich bin von einem G-Sync Modul auf G-Sync verifiziert/compatible umgestiegen und kann keinen nennenswerten Unterschied ausmachen, minmal vielleicht wenn ich darauf achte, kann aber ebenso Einbildung sein.Mani89HW schrieb:99% der monitore haben probleme. habe selber mal sehr oft wechseln müssen und freesync hat immer probleme gemacht
firejohn schrieb:Ist schon etwas her wo ich vereinzelt Berichte von Zockern gelesen hab. Da war zum Beispiel dass bei bestimmten Spielen oder einem Spiel es zu Flackern kommt, bei anderen Spielen ist trotzdem Tearing vorhanden, generell Sync-Probleme z.B. Totalausfall.
Sowas kommt bei Tests eher weniger in Erwägung bzw. kommt nicht vor. Da zeigen dann Erfahrung der Spielerschaft was anderes.
Nja, kann sich mittlerweile geändert haben, hoffentlich waren diese Dinge durch Hard- oder Software (Graka Treiber) Änderungen behebbar.
Was war der minimale Unterschied, kannst du das beschreiben.Gr33nHulk schrieb:Und ich bin von einem G-Sync Modul auf G-Sync verifiziert/compatible umgestiegen und kann keinen nennenswerten Unterschied ausmachen, minmal vielleicht wenn ich darauf achte, kann aber ebenso Einbildung sein.
Wenn mal wieder ein neuer Monitor anstehen sollte, braucht es auf keinen Fall mehr was mit Modul sein.
So unterschiedlich können Erfahrungen sein.
Ja stimmt, dachte auch grad an die Liste. Vllt. waren die Probleme der Spielerberichte bei Monitoren die noch nicht speziell auf G-Sync compatible geprüft oder darauf getrimmt worden sind. Die Zeit wo Nvidia die Unterstützung für andere adaptive Sync Monitore treiberseitig geöffnet hat.Beg1 schrieb:Nunja, gibt viele Freesync-Monitore die nicht wirklich gut mit G-Sync laufen (haben dann meist auch kein "compatible"), sind aber auch meist ältere Modelle und man muss die teilweise kleine "VRR"-Range beachten.
Eine sichere Sache ist eigentlich die Liste der Geräte welche nvidia mit "G-Sync compatible" getestet hat:
https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/
Hab selbst nen OLED und ich bemerke kaum einen Unterschied zu meinem 34GK950G (mit G-Sync Modul).
Gr33nHulk schrieb:Und ich bin von einem G-Sync Modul auf G-Sync verifiziert/compatible umgestiegen und kann keinen nennenswerten Unterschied ausmachen,
The design is not similar to the reference Founders Edition PCB that we saw earlier but comes in a standard form factor. The GeForce RTX 3090 and GeForce RTX 3080 graphics cards will require dual 8-pin connectors to boot. From the looks of it, the RTX 3090 will feature next-generation NVLINK connectors while the GeForce RTX 3080 won't feature any such interface. This goes off to show that even with 350W TBP, the GeForce RTX 3090 will still have several custom variants that won't require the outrageous triple 8-pin connector configuration to boot. The triple 8 pin cards will, however, offer higher overclockability and faster clock speeds compared to the stock variants.
Mani89HW schrieb:also wenn man so denkt und die 8800gtx als optimum dastellt müssten heutige gpus 10000w brauchen^^
JackTheRippchen schrieb:Dann warte ich auf die 3070 Ti mit 16 GiB zum Black Friday 2021. Alles andere sind erstmal Speicherkrüppel und/oder unbezahlbar.
| Graphics Card Name | NVIDIA GeForce RTX 3060 | NVIDIA GeForce RTX 3070 | NVIDIA GeForce RTX 3080 | NVIDIA GeForce RTX RTX 3090 |
|---|---|---|---|---|
| GPU Name | Ampere GA106-300? | Ampere GA104-300 | Ampere GA102-200 | Ampere GA102-300 |
| Process Node | 7nm | 7nm | 7nm | 7nm |
| SMs / CUDA Cores | TBD | 2944 (46)? | 4352 (68) | 5248 (82) |
| Boost Clock | TBD | TBD | 1710 MHz | 1695 MHz |
| Memory Capacity | 6/12 GB GDDR6X | 8/16 GB GDDR6 | 10/20 GB GDDR6X | 24 GB GDDR6X |
| Memory Bus | 192-bit | 256-bit | 320-bit | 384-bit |
| Bandwidth | 384 Gbps (16 Gbps) | 512 Gbps (16 Gbps) | 760 Gbps (19 Gbps) | 936 Gbps (19.5 Gbps) |
| TDP | TBD | 220W | 320W | 350W |
| Launch Timeframe | November 2020 | October 2020 | September 2020 | September 2020 |
Chismon schrieb:
| Graphics Card Name | NVIDIA GeForce RTX 3060 | NVIDIA GeForce RTX 3070 | NVIDIA GeForce RTX 3080 | NVIDIA GeForce RTX RTX 3090 |
|---|---|---|---|---|
| GPU Name | Ampere GA106-300? | Ampere GA104-300 | Ampere GA102-200 | Ampere GA102-300 |
| Process Node | 7nm | 7nm | 7nm | 7nm |
| SMs / CUDA Cores | TBD | 2944 (46)? | 4352 (68) | 5248 (82) |
| Boost Clock | TBD | TBD | 1710 MHz | 1695 MHz |
| Memory Capacity | 6/12 GB GDDR6X | 8/16 GB GDDR6 | 10/20 GB GDDR6X | 24 GB GDDR6X |
| Memory Bus | 192-bit | 256-bit | 320-bit | 384-bit |
| Bandwidth | 384 Gbps (16 Gbps) | 512 Gbps (16 Gbps) | 760 Gbps (19 Gbps) | 936 Gbps (19.5 Gbps) |
| TDP | TBD | 220W | 320W | 350W |
| Launch Timeframe | November 2020 | October 2020 | September 2020 | September 2020 |
du sagst ja genau das was ich sage. Natürlich ist der Stromverbrauch höher aber die Leistung um ein 1000fachesKnatschsack schrieb:Vollzitat entfernt