Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: Intels starke Grafik mit schwachem Treiber
Die HD4000 im Haswell hat mir zwei oder dreimal den Hintern gerettet, als ich einen GPU-Wechsel wegen eines Defekts hatte. Das ist natürlich nicht der Daseinszweck und bringt die Kosten nicht rein, aber gerade die Hardwarebeschleunigung von Videocodecs war sehr angenehm, weil man abgesehen vom Zocken kaum einen Unterschied zur dGPU bemerkt hat.
Hatte ich mit Haswell auch hatte mir 3 mal gerettet.
Selbst WOW oder Elder Scrolls lief in Matschgrafik. Ich war froh wenn 25 FPS sind mehr als Schwarzbild das hat Konstant 0 FPS. Deswegen werde ich beim nächsten mal bei Lieferprobleme warten und keine F CPU mehr kaufen. WObei ich im Extremfall dann eine ASUS GPU für 80 Euro kaufen würde. Notfalls
@kellyfornia Die Debatte werden wir wahrscheinlich auch bei Haswell etc haben, wenn die 15 Jahre alt werden. Und man muss zugestehen, dass das gute Systeme waren, die bis heute arbeitsfähig sind.
Die Diskussion drehte sich aber um Energieeffizienz und da reicht schon ein Blick auf die Fertigungsgrößen damaliger CPUs, um zu erkennen, dass die heute unverhältnismäßig viel Strom verbrauchen. Das einzugestehen fällt einigen aber anscheinend schwer.
Von Intels SpeedStep bis zu heutigen Taktsteuerungen haben wir noch gar nicht gesprochen. Die machen nämlich den eigentlichen Unterschied aus, wenn man dann einfach mal ein Messgerät an die Steckdose klemmt und vergleicht. Als ich vom i5 4570K auf den 5600X umgestiegen bin und den im 45W Eco-Mode betrieben habe, habe ich ja nicht nur weniger Strom verbraucht, sondern konnte den Rechner je nach Anwendung auch einfach früher abschalten, wo der alte Rechner noch fleißig weiter gearbeitet hätte.
Ich hätte den i7 4790k heute noch und wahrscheinlich auch keinen i7 13700K gekauft wenn das Mainboard nicht spontan Weihnachten 2022 verreckt wäre dann wäre es wohl 14700K oder AMD 7800/7800X3D geworden oder was ähnliches.
Ich fand die mobile Variante der CPU richtig gut, denn so konnte man ohne dedizierte Grafikchip eine halbwegs ordentliche Leistung für unterwegs bekommen.
Sandy Bridge hat vor allem in der Mac-Welt, welche ohne dedizierter Grafik meist nicht so toll war, mit Intels QuickSync, ordentliche Leistung für schnelle Videoexports auf MacBooks gebracht.
Auch in der Welt des "Hackintosh" war Sandy Bridge sehr beliebt, weil viele Mac-Grafiktreiber damit Out-of-the-Box liefen. Noch besser und viel stabiler wurde es dann mit Haswell.
Dieser Computer hatte zwischenzeitlich drei Besitzer, ist wieder nach 15 Jahren zu mir gekehrt.
Ein unvergesslicher Prozessor, der 2600K, der mich sehr lange begleitet hatte.
Die Plattform wird noch finale Upgrade erhalten. Windows soweit möglich auf zweiter SSD weiter am Leben gehalten. Auf neuer SSD läuft Linux.
Eine GPU von AMD ist bereits Verbaut, nur wegen besseren Treibersupport, die 9060 XT mit 16 GB VRAM.
Ein Intel® Core™ i7-3770K Prozessor liegt schon vor, die 32 GB RAM suche ich noch, einen mit CL9 auf Kleinanzeigen gefunden.
Spart viel Elektroschrott und verleiht sehr viel Spaß
Ich bin immer so traurig, wenn mich von Hardware trennen muss.
Mein alter 2500k werkelt auch noch angeschlossen am Fernseher mit einer historischen 750 Ti Gespielt werden leichte Spiele wie Ori oder auch ein Switch Emu.
Mein Office PC ist ein i7-3700k. Seit 2 Jahren misst die Steckdose den Verbrauch. Netzwerkswitch, Monitor und Scanner hängen mit drin. 300 kWh seit Anfang 2024. Bei der Arbeit sind auch gern mal stundenlange Texterkennungs-Sessions tausender Buchseiten mit bei, das läuft mit 100% Last. Wenn ich den alle 5 Jahre aufrüste, kostet ja allein das Mainboard soviel wie der Stromverbrauch in 5 Jahren.
Nimm dein eigenes Beispiel, auch wenn das Nutzungsverhalten nicht erwähnt wird, also wie oft läuft das Teil, wie lange im Schnitt, ...
300kWh auf 2 Jahre sind bei 730 Tagen ca. 0,41kWh pro Tag. Oder bei vielleicht etwas passenderen 440 Arbeitstagen (220 pro Jahr) wären das 0,68kWh pro Tag.
Das ergibt andersrum betrachtet eine Stunde mit 680W oder 4h mit 170W. Selbst bei 8h wären das noch 85W Verbrauch.
Nimm in der Rechnung nun bspw. einen Asus NUC Essentials mit nem N150, das Teil liegt bei ca. 3-4W Idle Verbrauch. Und unter Dauerlast kommst du vielleicht auf 15W.
Nehmen wir das Delta von 70W, der Einfachheit halber, ergibt das bei diesen 8h am Tag eine Einsparung von 0,56kWh pro Tag. Also grob über den Daumen, einen Euro alle 6 Tage. Bei 150€ Investkosten wären das ca. 2,5 Jahre bis sich das rechnet.
Klar fehlt da noch RAM und Storage, aber der ist jetzt gerade mal teuer. Vor nem halben Jahr war das spottbillig. Dem gegenüber steht der Lastmix, das Delta bei Volllast beider Versionen ist noch größer.
Alternativ könnte man auch eine Nummer größer nehmen und den N355 beziehen. Das sind nakt 220€ ggü. 150€ bei annähernd doppelter MT Leistung. Wenn du sagst, 100% CPU Load für OCR, dann wäre das damit noch deutlich schneller dem 3770k, der damit länger unter Last und viel Verbrauch steht, während das kleine Teil schon lange fertig ist. Der N355 streut irgendwo in die Region 5960X Haswell-E was MT angeht, etwas weniger vielleicht weil kein SMT.
Ein technisches Thema was auch stark unterschätzt wird ist Speedshift, gibt es erst ab Skylake. Das ist der Part, der der CPU ermöglicht binnen weniger ms ultra schnell den Takt zu ändern. Im Mixed Workload fährt so ein alter schinken hunderte ms lang die einzelnen Turbostufen erst hoch, während neue Technik quasi sofort Leistung hat. Das ist bei kurzen Lastpeaks übel ineffizient.
Dein Beispiel wäre bspw. prädestiniert dafür den Gegentest zu machen, weil es nicht stumpf einen Verbrauchswert vergleicht, sondern die Energie für Arbeit über eine Zeit. Jede Wette, bei nem kleinen Stromspar PC färst du auf drei vier Jahre den Invest wieder rein.
Ergänzung ()
Demolition-Man schrieb:
Soll ich das Stromkostenmessding dran hängen? Wird echt nicht die Welt sein.
Dem Artikel von damals zur Folge sind es 47W idle Gesamtsystem ohne dGPU. Mit HDD und optischem Laufwerk und 850W ebenso altem NT.
Da liegt mit neuem NT und höherem Wirkungsgrad sowie ohne optischem Laufwerk und SSD statt HDD zwar noch Potential. Aber nur im Vergleich, 4,5W idle Verbrauch von so nem kleinst PC mit bisschen was dran, also Faktor 10, ergibt ganz grob 1kWh pro 24h Betrieb an Erstsparnis. Um die 100€ aufs Jahr überschlagen. Ohne Leistungsverlust, so ein N100/N150/N250 4C/4T ist dem 2500k ja nicht im Nachteil.
Ich kann die Argumentation nachvollziehen, aber da könte man noch viele andere Punkte diskutieren.
Das geht hier aber zu sehr ins OT.
Der Vergleich zwischen meinem aktuellen PC und einem Mini-PC würde in dem Alltagslastbereich ählich ausfallen.
Der Mini-PC hängt dann trotzdem am HDR Monitor und oder TV.
Mein altes 10" Samsung Tablet hier, dürfte für Internet/Streaming inklusive Ausgabe, die effizienteste Lösung sein.
Ich bin was die Nutzung der alten PC's angeht eh der Sonderfall. Retro-PCs, und besonders solche die schon beim Müll lagen so lange es geht weiter zu nutzen. Spart keinen Strom, aber Elektroschrott.
@fdsonne Danke fürs Vorrechnen, das war mir gestern Abend zu mühselig. Mein System (nur der Rechner) mit 4570K hat damals nie weniger als 80W-100W aus der Dose gezogen, wenn ich die RX580 rausgenommen habe. Intel Speed Step ist halt kein Speedshift von heute.
Demolition-Man schrieb:
Ich bin was die Nutzung der alten PC's angeht eh der Sonderfall. Retro-PCs, und besonders solche die schon beim Müll lagen so lange es geht weiter zu nutzen. Spart keinen Strom, aber Elektroschrott.
Ich habe auch nichts gegen jemanden, der seine alte Hardware weiter nutzt. Ich war mit meinem Haswell immer super zufrieden, er wurde fürs Zocken nur zu langsam. Meine AM4-Hardware werde ich hoffentlich ebenfalls noch lange "retro" nutzen können. Wenn der Artikel in zehn Jahren kommt, bin ich gespannt, was man dann liest.
Mein alter 2500k werkelt auch noch angeschlossen am Fernseher mit einer historischen 750 Ti Gespielt werden leichte Spiele wie Ori oder auch ein Switch Emu.
Es ist der Wahnsinn, was man heute noch damit machen kann.
Ich erinnere mich noch gut, wie mir Intel damals bei einem Firmenevent einen Prototypen eines x86-Smartphones gezeigt hatte, welches leistungstechnisch auf einer Atom-CPU lag, aber von der Architektur auf Sandy-Bridge basierte.
Das Gerät lief mit Android und die paar Demos (große Excel-Dateien mit aktiven Makros) waren schon beeindruckend für die Zeit.
Eine für damalige Verhältnisse hohe Leistung in ein Smartphone zu bringen, war schon grundsätzliche keine schlechte Idee, bloß denke ich, dass man es am Ende mit der Effizienz und ordentlichen Treibern nicht geschafft hat, einen echten Endkundenmarkt zu bedienen.
Dual-Boot mit Windows war eine Idee, die man damals testen wollte.
Ich erinnere mich lediglich an ein paar Low-Budget-Tablets, welche dann echte (schwache) Atoms hatten, und die waren leider bodenlos schlecht.
Erst viele Jahre später kamen dann chinesische Unternehmen wie Chuwi, welche dann halbwegs ordentlich Intel-Tablets auf den Markt brachten, als iPad & Co. die Welt schon stark im Griff hatten.
Wer weiß – wäre Sandy Bridge vielleicht 2 Jahre früher auf den Markt gekommen, hätte Intel vielleicht im mobilen Markt etwas reißen können.
Meine einzige Erfahrung mit Intel Atom war ein EEE-PC von Asus im Studium. Alles was komplizierter als Office und Surfen war, musste man mit eine Tasse Kaffee holen überbrücken, aber er tat immer, wie ihm geheißen . Irgendwann 2013 habe ich ihm eine SSD spendiert, was dann noch mal einiges verbessert hat, aber da hatten die mobilen Geräte diese Netbooks schon in vielen Dingen eingeholt. Bodenlos schlecht würde ich also nicht sagen, aber durch die TDP-Limitierung waren viele klassische x86-Anwendungen damals darauf eben nicht nutzbar. Vielleicht hätte ein frühes Windows on ARM bzw Microsofts eigene Mobilgeräte da einen Unterschied in der Hardwareentwicklung machen können.
Die Intel iGPUs sind schon in Ordnung. Waren sie damals auch schon, zumindest für den Usecase: dGPU abgeraucht, need help.
Mittlerweile aber wirklich brauchbar, die Intel Treiber (IGP als auch dGPU) um ein vielfaches besser.
Ein cooles Beispiel, welches leider nur die Leute testen können, die eine Intel IGP UND eine Intel dGPU haben:
Karte, bspw. B580 einbauen, Displaykabel aber an an den Ausgang des Mobos anschließen. Im BIOS die ASPM Settings net vergessen, dann hat man den Effekt, dass die dGPU im Idle oder auch bei Games, die ihre Leistung net brauchen, quasi ausgeschaltet ist und kaum Strom verbraucht. GPU-Z hat bei mir z.B. immer 0W angezeigt, in der Realtität wirds ein bisl mehr sein.
Thema Latenz: Kann sein, dass es hier durch die Art des Bildsignalroutings eine gibt, mir ist sie aber net aufgefallen. Ist tatsächlich das perfekte Setup für unseren Wohnzimmer PC.
Hab das gleiche Prinzip auch noch mit einer RX9070 und der IGP vom i7 14700 getestet, das funktionierte aber nicht wirklich, dauernd stürzten die Spiele und Anwendungen ab, denen ich die dGPU zugewiesen hatte.
Der Inteltreiber kann das selbstständig viel besser, da muss ich kaum manuell zuweisen und selbst wenn, wird die jeweilige Anwendung immer einwandfrei auf der korrekten GPU ausgeführt. Das ist schon ziemlich cool
AMD/AMD Kombi kann ich leider net testen, weil meine AMD CPU keine IGP hat (AM4)
Ich hab leider keinen kleinen Stromspar NUC. Ich hab mir als Ersatz einen Rechner mit AMD 8600G ohne zusätzliche GPU und einen 285K mit 3090 Ti für eventuell mal anfallende lokale KI Arbeit gebaut. Der 8600G kommt ner Stromsparlösung noch am nähesten. Daher werd ich das Thema mal im Hinterkopf behalten, ein paar Monate im Alltag den 8600G nutzen und dann hier die Mess-Ergebnisse posten.