News Im Test vor 15 Jahren: Intels starke Grafik mit schwachem Treiber

NguyenV3 schrieb:
Warum so kompliziert Youtubevideos durchforsten und irgendwelche Ausschnitte finden? Muss man so lange suchen und Dinge ausblenden, damit das Ergebnis passt?
1.) Das was Cdlabsradon schrieb
2.) Die ganzen Benches von PCGH & Computerbase waren mit einem 9800X3D.
Die meisten B580 Kunden haben wohl keinen 9800X3D...
3.) Ich Spiele ein CPU Hungriges Spiel (Star Citizen), und da läuft die B580 mit 200W langsamer als eine RTX 3060 welche sogar weniger Verbraucht.
Also wird in diesem Fall nicht mal die schwache Effizienz von Samsung 8nm geschlagen.
 
@kellyfornia
Hier gehts doch um was ganz anderes, du verbiegst das Thema.


Aber um mal bei deiner Interpretation zu bleiben: Die Menge an Menschen 70+, die einen 15 Jahre alten Highest-End-Rechner mit 2600K als Büromaschine haben, ist doch sehr überschaubar. Die haben doch meist etwas kleineres, sparsameres, neueres oder machen alles am Tablet oder Smartphone.
 
Nighteye schrieb:
1.) Das was Cdlabsradon schrieb
2.) Die ganzen Benches von PCGH & Computerbase waren mit einem 9800X3D.
Die meisten B580 Kunden haben wohl keinen 9800X3D...
3.) Ich Spiele ein CPU Hungriges Spiel (Star Citizen), und da läuft die B580 mit 200W langsamer als eine RTX 3060 welche sogar weniger Verbraucht.
Also wird in diesem Fall nicht mal die schwache Effizienz von Samsung 8nm geschlagen.
Ich hab ehrlich gesagt noch nie annähernd 200W Leistungsaufnahme bei meiner B580 gemessen, selbst mit Übertaktung ans Limit lag die Steel Legend immer unter 150W bei 100% GPU-Last.
 

Anhänge

  • 1768656040717.png
    1768656040717.png
    74,7 KB · Aufrufe: 11
  • 1768656063306.png
    1768656063306.png
    108,6 KB · Aufrufe: 11
  • 1768656078901.png
    1768656078901.png
    140,8 KB · Aufrufe: 12
  • 1768656106115.png
    1768656106115.png
    149,1 KB · Aufrufe: 11
Gullveig schrieb:
Tellerrand, meine alten Herren!
Du vergleichst ja nichtmal Äpfel mit Birnen. Du vergleichst Äpfel mit Erdnüssen. Bleib doch bitte bei vergleichbaren Systemen. Du stellst ein Desktopsystem mit einem Tiny-PC (mit chinesischem Android) auf eine Stufe? Das hat mit Tellerrand mal garnichts zu tun. Das ist einfach nur albern. Wo platzierst du denn im Tiny-PC die Erweiterungskarten?

Lieben Gruß vom "alten" Mann, junges Fräulein, der den Unterschied zwischen Desktop und Tiny-PC kennt.
 
Nicht nur der Treiber hatte damals Probleme, auch gab es ja bis einschließlich der HD4000 Probleme mit 24p bei Fernsehern.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Gullveig schrieb:
@kellyfornia
Hier gehts doch um was ganz anderes, du verbiegst das Thema.


Aber um mal bei deiner Interpretation zu bleiben: Die Menge an Menschen 70+, die einen 15 Jahre alten Highest-End-Rechner mit 2600K als Büromaschine haben, ist doch sehr überschaubar. Die haben doch meist etwas kleineres, sparsameres, neueres oder machen alles am Tablet oder Smartphone.
Viele haben mit 70+ noch einen alten Kasten irgendwo rumstehen, ob da dann am Ende ein 2500K oder 2600K oder eine Generation früher oder später drinnen ist, ist Nebensache, auch in Sachen Verbrauch bei solcher Teillast.

Es geht um das was sich die Personen angewöhnt haben über Jahrzehnte und die Nische ist nicht verschwindend gering. Ich habe lange Zeit beruflich in einem Bereich gearbeitet wo ich den Lebensalltag der Menschen Zuhause gesehen habe.

Deine Ausführungen in Sachen Effizienz und was günstig wäre und als moderneres in Frage käme sind ja alle vollkommen richtig, sehe ich ja auch so.

Am Ende wird sich die Person die heute noch vielleicht 3x im Monat den PC startet kein neues Gerät dafür kaufen wollen, weil das was vorhanden ist ausreichend ist und keine Änderungen gewünscht sind. Das sind dann auch oft diejenigen, welche nicht einmal ein Smartphone haben. In der Altersklasse über 65 haben übrigens ca. die Hälfte gar kein Smartphone, dementsprechend auch tendenziell kein Tablet oder anderweitig moderneres Gerät als den alten grauen Kasten unterm Schreibtisch.
Ergänzung ()

Nighteye schrieb:
Ich kenne die Charts und weiß was die Karten ziehen kann, im Alltag bzw. normalen Gaming-Betrieb kommt sie allerdings selten in diese Bereiche und liegt eher immer um die +-140-160W beim Gaming, die 200W sind echt nicht die Norm.

Ich hab mehrere Arcs getestet, sowohl per Hardware an der Dose und per Software protokolliert, der Unterschied zu einer RX 5700 XT sind z.B. Welten, die säuft gerne an die 100W mehr als meine Arcs im sonst gleichen System.

Seit den Bios-Updates die von Intel zusammen mit den letzten Treibern ausgerollt wurden hat sich in Sachen Verbrauch nochmal einiges getan, auch im Idle sind es inszwischen nur noch ca. 6-7 W bei ca. 30 Grad Temperatur, vorher hingen die Karten gerne bei bis zu 25W und 50 Grad im Idle. Nachtesten tut sowas aber keiner.
 
Zuletzt bearbeitet:
Ja genau, weil ja alle einen 2600K, die damals teuerste CPU gekauft hatten. 🤦🏻‍♂️

@Skysurfa
Es geht um die Aufgabenstellung und deren Lösung.

Es ist wie in der Schule. Die einen könnens spielerisch und haben eine eins, die anderen schaffens nur bis zur vier... wenn überhaupt ...


😉
 
Gullveig schrieb:
Ich habe gesagt dass aktuelle Hardware den vorher genannten 'leichten' Arbeitseinsatz genausogut bei einem Bruchteil des Verbrauches erledigt. Als Beispiel siehe hier:
1768658465843.png

ne, lass mal... das hat schon seinen grund, dass die kiste so billig ist.
 
Gullveig schrieb:
Ja genau, weil ja alle einen 2600K, die damals teuerste CPU gekauft hatten. 🤦🏻‍♂️

@Skysurfa
Es geht um die Aufgabenstellung und deren Lösung.

Es ist wie in der Schule. Die einen könnens spielerisch und haben eine eins, die anderen schaffens nur bis zur vier... wenn überhaupt ...


😉
Häng dich doch nicht an diesem einen CPU-Modell auf, es ist am Ende doch egal welche uralte CPU da in so einem alten Kasten drinnen steckt ob das noch ein Phenom II, FX, i5 2500, 2600K, gar nur ein i3 ist, ist doch völlig irrelevant.

Sie alle saufen gemessen an der Leistung natürlich viel mehr als jedes aktuell mögliche System was die gleichen Aufgaben in der Regel erfüllen könnte.

Ein Tablet oder im Grunde jedes Smartphone könnte die Aufgaben erledigen.
Das sieht wahrscheinlich jeder so.

Es gibt aber halt eine nicht kleinen Gruppe von Nutzern die es trotzdem noch nutzen, daran kannst du, ich, wir alle nix ändern, weil das schlicht persönliche Gründe und Abwägungen sind. Ich brauche einer Person die nicht einmal ein Smartphone nutzt da gar nicht erst mit einem ARM-System mir Android ankommen.
 
@kellyfornia Die Debatte werden wir wahrscheinlich auch bei Haswell etc haben, wenn die 15 Jahre alt werden. Und man muss zugestehen, dass das gute Systeme waren, die bis heute arbeitsfähig sind.
Die Diskussion drehte sich aber um Energieeffizienz und da reicht schon ein Blick auf die Fertigungsgrößen damaliger CPUs, um zu erkennen, dass die heute unverhältnismäßig viel Strom verbrauchen. Das einzugestehen fällt einigen aber anscheinend schwer.

Von Intels SpeedStep bis zu heutigen Taktsteuerungen haben wir noch gar nicht gesprochen. Die machen nämlich den eigentlichen Unterschied aus, wenn man dann einfach mal ein Messgerät an die Steckdose klemmt und vergleicht. Als ich vom i5 4570K auf den 5600X umgestiegen bin und den im 45W Eco-Mode betrieben habe, habe ich ja nicht nur weniger Strom verbraucht, sondern konnte den Rechner je nach Anwendung auch einfach früher abschalten, wo der alte Rechner noch fleißig weiter gearbeitet hätte.
 
Stromschleuder...
Extra für euch mal so 2 Stunden Youtube/Internet usw.

2500.jpg
 
Meiner Ansicht nach hat Intel es lange verpennt, Quicksync wirklich zu erklären und im Marketing zu platzieren.

Ich habe mit Ivy Bridge die nächste Gen gekauft und QS nie (bewusst) genutzt. Ich wusste lange gar nicht, was mir das bringt. Mit Raptor Lake und dem 4:2:2 Decoding kamn ein echter Gamechanger im Profibereich, inzwischen kann das auch Blackwell.
 
Demolition-Man schrieb:
Stromschleuder...
Ein weiser Mann sagte mal: "Ihr verbraucht nicht zuviel - euer Anbieter ist einfach zu teuer !" ;)
 
Auch heute gilt noch, dass Treibersupport die Hälfte des Produktes ausmacht.
Was bringt einem eine billige, leistungsstarke China GPU, wenn es an der Software hapert.
 
anexX schrieb:
euer Anbieter ist einfach zu teuer !
War ironisch gemeint, natürlich verbraucht ein Mini-PC der aktuellen Generation weniger, aber für das Alter schlägt die CPU sich noch gut, oder?
 
  • Gefällt mir
Reaktionen: anexX und Skysurfa
Ich kann nur vom HD4600 sprechen und vom UHD Intel® UHD Graphics for 12th Gen Intel® Processors vom 12450H. Als Ersatz für die defekte Grafikkarte genial.
Elder Scrolls online läuft auf dem acer 517-53 mit 45-50 FPS auf Niedrig. Auf den PC Einstellungen extrem und alles auf Anschlag sinkt die FPS aber auf gerade so spielbare 15-20 FPS.
Als PC Ersatz wenn da die Grafikkarte defekt ist alle mal ausreichend.
Bei der Grafikkartenkrise 2020 als mir im Dezember 2020 die R9 390 verreckte spielte ich 6-12 Monate mit einer HD4600 World of Warcraft und Elder Scrolls online sowie dann noch 12 weitere Monate mit einer ATI 5750 von 2009 weil die mehr Grafikleistung hatte etwa die doppelte Leistung der HD4600. Beim Acer Laptop wird die mit Elder Scrolls online im Notfall gequält. Die UHD kam 2025 1 Woche zum EInsatz als der Arctic i35 defekt war und ich den i7 13700K nicht ohne Kühlung betreiben wollte. Schönes Wochenende.
 
Boimler schrieb:
Die erfüllt er aber nicht in einem Jahr, sondern schon seit 15 Jahren. Wenn man die Abschreibungsdauer für die Anschaffungskosten noch berücksichtigen möchte, sind das zehn Jahre erhöhte Betriebskosten gegenüber einer Neuanschaffung.
du hättest also in den 15 Jahren schon mehrfach upgraden wollen, um ein paar Wattstunden average Leistungsaufnahme zu sparen? Wird ja immer absurder.

Mein Office PC ist ein i7-3700k. Seit 2 Jahren misst die Steckdose den Verbrauch. Netzwerkswitch, Monitor und Scanner hängen mit drin. 300 kWh seit Anfang 2024. Bei der Arbeit sind auch gern mal stundenlange Texterkennungs-Sessions tausender Buchseiten mit bei, das läuft mit 100% Last. Wenn ich den alle 5 Jahre aufrüste, kostet ja allein das Mainboard soviel wie der Stromverbrauch in 5 Jahren.
 
Zurück
Oben