News Im Test vor 15 Jahren: Intels starke Grafik mit schwachem Treiber

Soll ich das Stromkostenmessding dran hängen? Wird echt nicht die Welt sein.

Gullveig schrieb:
Gibt keine, was glaubst du warum ich das sonst hier poste? ;)
 
  • Gefällt mir
Reaktionen: DynamaxX und wagga
Boimler schrieb:
Die HD4000 im Haswell hat mir zwei oder dreimal den Hintern gerettet, als ich einen GPU-Wechsel wegen eines Defekts hatte. Das ist natürlich nicht der Daseinszweck und bringt die Kosten nicht rein, aber gerade die Hardwarebeschleunigung von Videocodecs war sehr angenehm, weil man abgesehen vom Zocken kaum einen Unterschied zur dGPU bemerkt hat.
Hatte ich mit Haswell auch hatte mir 3 mal gerettet.
Selbst WOW oder Elder Scrolls lief in Matschgrafik. Ich war froh wenn 25 FPS sind mehr als Schwarzbild das hat Konstant 0 FPS. Deswegen werde ich beim nächsten mal bei Lieferprobleme warten und keine F CPU mehr kaufen. WObei ich im Extremfall dann eine ASUS GPU für 80 Euro kaufen würde. Notfalls
 
  • Gefällt mir
Reaktionen: Boimler
Boimler schrieb:
@kellyfornia Die Debatte werden wir wahrscheinlich auch bei Haswell etc haben, wenn die 15 Jahre alt werden. Und man muss zugestehen, dass das gute Systeme waren, die bis heute arbeitsfähig sind.
Die Diskussion drehte sich aber um Energieeffizienz und da reicht schon ein Blick auf die Fertigungsgrößen damaliger CPUs, um zu erkennen, dass die heute unverhältnismäßig viel Strom verbrauchen. Das einzugestehen fällt einigen aber anscheinend schwer.

Von Intels SpeedStep bis zu heutigen Taktsteuerungen haben wir noch gar nicht gesprochen. Die machen nämlich den eigentlichen Unterschied aus, wenn man dann einfach mal ein Messgerät an die Steckdose klemmt und vergleicht. Als ich vom i5 4570K auf den 5600X umgestiegen bin und den im 45W Eco-Mode betrieben habe, habe ich ja nicht nur weniger Strom verbraucht, sondern konnte den Rechner je nach Anwendung auch einfach früher abschalten, wo der alte Rechner noch fleißig weiter gearbeitet hätte.
Ich hätte den i7 4790k heute noch und wahrscheinlich auch keinen i7 13700K gekauft wenn das Mainboard nicht spontan Weihnachten 2022 verreckt wäre dann wäre es wohl 14700K oder AMD 7800/7800X3D geworden oder was ähnliches.
 
  • Gefällt mir
Reaktionen: DynamaxX
Ich fand die mobile Variante der CPU richtig gut, denn so konnte man ohne dedizierte Grafikchip eine halbwegs ordentliche Leistung für unterwegs bekommen.
Sandy Bridge hat vor allem in der Mac-Welt, welche ohne dedizierter Grafik meist nicht so toll war, mit Intels QuickSync, ordentliche Leistung für schnelle Videoexports auf MacBooks gebracht.
Auch in der Welt des "Hackintosh" war Sandy Bridge sehr beliebt, weil viele Mac-Grafiktreiber damit Out-of-the-Box liefen. Noch besser und viel stabiler wurde es dann mit Haswell.

Ach ja... Schöne Zeiten
 
  • Gefällt mir
Reaktionen: CDLABSRadonP... und DynamaxX
Dieser Computer hatte zwischenzeitlich drei Besitzer, ist wieder nach 15 Jahren zu mir gekehrt.
Ein unvergesslicher Prozessor, der 2600K, der mich sehr lange begleitet hatte.

Die Plattform wird noch finale Upgrade erhalten. Windows soweit möglich auf zweiter SSD weiter am Leben gehalten. Auf neuer SSD läuft Linux.
Eine GPU von AMD ist bereits Verbaut, nur wegen besseren Treibersupport, die 9060 XT mit 16 GB VRAM.
Ein Intel® Core™ i7-3770K Prozessor liegt schon vor, die 32 GB RAM suche ich noch, einen mit CL9 auf Kleinanzeigen gefunden.

Spart viel Elektroschrott und verleiht sehr viel Spaß :D
Ich bin immer so traurig, wenn mich von Hardware trennen muss.

Screenshot 2026-01-17 230640.png
 
  • Gefällt mir
Reaktionen: Schillicon und Drakrochma
Mein alter 2500k werkelt auch noch angeschlossen am Fernseher mit einer historischen 750 Ti :) Gespielt werden leichte Spiele wie Ori oder auch ein Switch Emu.

Ganz tolle CPU
 
  • Gefällt mir
Reaktionen: Schillicon
Mein 2600K hat länger gehalten als jede andere CPU bis ich was neues wollte; war nicht aus Bedarf, wollte einfach neu. Supergeiler chip.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
Nighteye schrieb:
Was nutzt es, wenn Intel immer noch so viel Potential liegen lässt ?
Guck dir mal an wie wenig meine 6 Jahre alte RX6800 verbraucht.
Das liegt aber zum größten Teil am Chipdesign, nicht am Treiberdesign, um das es hier ging.
 
TeeKayEV schrieb:
Mein Office PC ist ein i7-3700k. Seit 2 Jahren misst die Steckdose den Verbrauch. Netzwerkswitch, Monitor und Scanner hängen mit drin. 300 kWh seit Anfang 2024. Bei der Arbeit sind auch gern mal stundenlange Texterkennungs-Sessions tausender Buchseiten mit bei, das läuft mit 100% Last. Wenn ich den alle 5 Jahre aufrüste, kostet ja allein das Mainboard soviel wie der Stromverbrauch in 5 Jahren.
Du unterschätzt das irgendwie.

Nimm dein eigenes Beispiel, auch wenn das Nutzungsverhalten nicht erwähnt wird, also wie oft läuft das Teil, wie lange im Schnitt, ...
300kWh auf 2 Jahre sind bei 730 Tagen ca. 0,41kWh pro Tag. Oder bei vielleicht etwas passenderen 440 Arbeitstagen (220 pro Jahr) wären das 0,68kWh pro Tag.

Das ergibt andersrum betrachtet eine Stunde mit 680W oder 4h mit 170W. Selbst bei 8h wären das noch 85W Verbrauch.

Nimm in der Rechnung nun bspw. einen Asus NUC Essentials mit nem N150, das Teil liegt bei ca. 3-4W Idle Verbrauch. Und unter Dauerlast kommst du vielleicht auf 15W.
Nehmen wir das Delta von 70W, der Einfachheit halber, ergibt das bei diesen 8h am Tag eine Einsparung von 0,56kWh pro Tag. Also grob über den Daumen, einen Euro alle 6 Tage. Bei 150€ Investkosten wären das ca. 2,5 Jahre bis sich das rechnet.

Klar fehlt da noch RAM und Storage, aber der ist jetzt gerade mal teuer. Vor nem halben Jahr war das spottbillig. Dem gegenüber steht der Lastmix, das Delta bei Volllast beider Versionen ist noch größer.
Alternativ könnte man auch eine Nummer größer nehmen und den N355 beziehen. Das sind nakt 220€ ggü. 150€ bei annähernd doppelter MT Leistung. Wenn du sagst, 100% CPU Load für OCR, dann wäre das damit noch deutlich schneller dem 3770k, der damit länger unter Last und viel Verbrauch steht, während das kleine Teil schon lange fertig ist. Der N355 streut irgendwo in die Region 5960X Haswell-E was MT angeht, etwas weniger vielleicht weil kein SMT.

Ein technisches Thema was auch stark unterschätzt wird ist Speedshift, gibt es erst ab Skylake. Das ist der Part, der der CPU ermöglicht binnen weniger ms ultra schnell den Takt zu ändern. Im Mixed Workload fährt so ein alter schinken hunderte ms lang die einzelnen Turbostufen erst hoch, während neue Technik quasi sofort Leistung hat. Das ist bei kurzen Lastpeaks übel ineffizient.

Dein Beispiel wäre bspw. prädestiniert dafür den Gegentest zu machen, weil es nicht stumpf einen Verbrauchswert vergleicht, sondern die Energie für Arbeit über eine Zeit. Jede Wette, bei nem kleinen Stromspar PC färst du auf drei vier Jahre den Invest wieder rein.
Ergänzung ()

Demolition-Man schrieb:
Soll ich das Stromkostenmessding dran hängen? Wird echt nicht die Welt sein.
Dem Artikel von damals zur Folge sind es 47W idle Gesamtsystem ohne dGPU. Mit HDD und optischem Laufwerk und 850W ebenso altem NT.

Da liegt mit neuem NT und höherem Wirkungsgrad sowie ohne optischem Laufwerk und SSD statt HDD zwar noch Potential. Aber nur im Vergleich, 4,5W idle Verbrauch von so nem kleinst PC mit bisschen was dran, also Faktor 10, ergibt ganz grob 1kWh pro 24h Betrieb an Erstsparnis. Um die 100€ aufs Jahr überschlagen. Ohne Leistungsverlust, so ein N100/N150/N250 4C/4T ist dem 2500k ja nicht im Nachteil.
 
Zuletzt bearbeitet:
Ich kann die Argumentation nachvollziehen, aber da könte man noch viele andere Punkte diskutieren.
Das geht hier aber zu sehr ins OT.
Der Vergleich zwischen meinem aktuellen PC und einem Mini-PC würde in dem Alltagslastbereich ählich ausfallen.
Der Mini-PC hängt dann trotzdem am HDR Monitor und oder TV.
Mein altes 10" Samsung Tablet hier, dürfte für Internet/Streaming inklusive Ausgabe, die effizienteste Lösung sein.

Ich bin was die Nutzung der alten PC's angeht eh der Sonderfall. Retro-PCs, und besonders solche die schon beim Müll lagen so lange es geht weiter zu nutzen. Spart keinen Strom, aber Elektroschrott.
 
@fdsonne Danke fürs Vorrechnen, das war mir gestern Abend zu mühselig. Mein System (nur der Rechner) mit 4570K hat damals nie weniger als 80W-100W aus der Dose gezogen, wenn ich die RX580 rausgenommen habe. Intel Speed Step ist halt kein Speedshift von heute.

Demolition-Man schrieb:
Ich bin was die Nutzung der alten PC's angeht eh der Sonderfall. Retro-PCs, und besonders solche die schon beim Müll lagen so lange es geht weiter zu nutzen. Spart keinen Strom, aber Elektroschrott.
Ich habe auch nichts gegen jemanden, der seine alte Hardware weiter nutzt. Ich war mit meinem Haswell immer super zufrieden, er wurde fürs Zocken nur zu langsam. Meine AM4-Hardware werde ich hoffentlich ebenfalls noch lange "retro" nutzen können. Wenn der Artikel in zehn Jahren kommt, bin ich gespannt, was man dann liest.
 
  • Gefällt mir
Reaktionen: Schillicon
Mika46 schrieb:
Mein alter 2500k werkelt auch noch angeschlossen am Fernseher mit einer historischen 750 Ti :) Gespielt werden leichte Spiele wie Ori oder auch ein Switch Emu.

Ganz tolle CPU
Es ist der Wahnsinn, was man heute noch damit machen kann.
Ich erinnere mich noch gut, wie mir Intel damals bei einem Firmenevent einen Prototypen eines x86-Smartphones gezeigt hatte, welches leistungstechnisch auf einer Atom-CPU lag, aber von der Architektur auf Sandy-Bridge basierte.
Das Gerät lief mit Android und die paar Demos (große Excel-Dateien mit aktiven Makros) waren schon beeindruckend für die Zeit.

Eine für damalige Verhältnisse hohe Leistung in ein Smartphone zu bringen, war schon grundsätzliche keine schlechte Idee, bloß denke ich, dass man es am Ende mit der Effizienz und ordentlichen Treibern nicht geschafft hat, einen echten Endkundenmarkt zu bedienen.
Dual-Boot mit Windows war eine Idee, die man damals testen wollte.

Ich erinnere mich lediglich an ein paar Low-Budget-Tablets, welche dann echte (schwache) Atoms hatten, und die waren leider bodenlos schlecht.
Erst viele Jahre später kamen dann chinesische Unternehmen wie Chuwi, welche dann halbwegs ordentlich Intel-Tablets auf den Markt brachten, als iPad & Co. die Welt schon stark im Griff hatten.

Wer weiß – wäre Sandy Bridge vielleicht 2 Jahre früher auf den Markt gekommen, hätte Intel vielleicht im mobilen Markt etwas reißen können.
 
Schillicon schrieb:
Ich erinnere mich lediglich an ein paar Low-Budget-Tablets, welche dann echte (schwache) Atoms hatten, und die waren leider bodenlos schlecht.
Meine einzige Erfahrung mit Intel Atom war ein EEE-PC von Asus im Studium. Alles was komplizierter als Office und Surfen war, musste man mit eine Tasse Kaffee holen überbrücken, aber er tat immer, wie ihm geheißen :D. Irgendwann 2013 habe ich ihm eine SSD spendiert, was dann noch mal einiges verbessert hat, aber da hatten die mobilen Geräte diese Netbooks schon in vielen Dingen eingeholt. Bodenlos schlecht würde ich also nicht sagen, aber durch die TDP-Limitierung waren viele klassische x86-Anwendungen damals darauf eben nicht nutzbar. Vielleicht hätte ein frühes Windows on ARM bzw Microsofts eigene Mobilgeräte da einen Unterschied in der Hardwareentwicklung machen können.
 
Die Intel iGPUs sind schon in Ordnung. Waren sie damals auch schon, zumindest für den Usecase: dGPU abgeraucht, need help.

Mittlerweile aber wirklich brauchbar, die Intel Treiber (IGP als auch dGPU) um ein vielfaches besser.

Ein cooles Beispiel, welches leider nur die Leute testen können, die eine Intel IGP UND eine Intel dGPU haben:

Karte, bspw. B580 einbauen, Displaykabel aber an an den Ausgang des Mobos anschließen. Im BIOS die ASPM Settings net vergessen, dann hat man den Effekt, dass die dGPU im Idle oder auch bei Games, die ihre Leistung net brauchen, quasi ausgeschaltet ist und kaum Strom verbraucht. GPU-Z hat bei mir z.B. immer 0W angezeigt, in der Realtität wirds ein bisl mehr sein.

Thema Latenz: Kann sein, dass es hier durch die Art des Bildsignalroutings eine gibt, mir ist sie aber net aufgefallen. Ist tatsächlich das perfekte Setup für unseren Wohnzimmer PC.

Hab das gleiche Prinzip auch noch mit einer RX9070 und der IGP vom i7 14700 getestet, das funktionierte aber nicht wirklich, dauernd stürzten die Spiele und Anwendungen ab, denen ich die dGPU zugewiesen hatte.

Der Inteltreiber kann das selbstständig viel besser, da muss ich kaum manuell zuweisen und selbst wenn, wird die jeweilige Anwendung immer einwandfrei auf der korrekten GPU ausgeführt. Das ist schon ziemlich cool :)

AMD/AMD Kombi kann ich leider net testen, weil meine AMD CPU keine IGP hat (AM4)
 
  • Gefällt mir
Reaktionen: kellyfornia
fdsonne schrieb:
Du unterschätzt das irgendwie.
Ich hab leider keinen kleinen Stromspar NUC. Ich hab mir als Ersatz einen Rechner mit AMD 8600G ohne zusätzliche GPU und einen 285K mit 3090 Ti für eventuell mal anfallende lokale KI Arbeit gebaut. Der 8600G kommt ner Stromsparlösung noch am nähesten. Daher werd ich das Thema mal im Hinterkopf behalten, ein paar Monate im Alltag den 8600G nutzen und dann hier die Mess-Ergebnisse posten.
 
  • Gefällt mir
Reaktionen: Boimler
TeeKayEV schrieb:
Daher werd ich das Thema mal im Hinterkopf behalten, ein paar Monate im Alltag den 8600G nutzen und dann hier die Mess-Ergebnisse posten.
Hast du ein Messgerät, das protokolliert? Wäre mal interessant zu sehen, wie sich die Stromsparmechanismen verhalten bei älteren und neueren CPUs.
 
Zurück
Oben