News Im Test vor 15 Jahren: Intels starke Grafik mit schwachem Treiber

Skysurfa schrieb:
Und vor allen Dingen für einfache Aufgaben heute immer noch schnell genug.
Na klar, 100W verbraten für Aufgaben, die ein 2W Prozessor schneller machen könnte.

Macht Sinn!
 
  • Gefällt mir
Reaktionen: Boimler
Bei dem Titel dachte ich an die Arc Treiber 2026, nicht an 15 jahre alte iGPU,s :D
Schade das sich das bei Intel nicht verändert hat.

Ich meine, das muss man sich mal reihnziehen.
Meine RX6800 aus dem Jahre 2020 läuft in TSMC N7
RX7000er in TSMC N6
Intels Arc B580 von 2025 ist in TSMC N5

Also Intels GPU ist viele Jahre neuer und hat einfach 2 Nodes besser als meine RX6000.
Und dennoch hat meine GPU mehr Leistung pro Watt, und hat weniger CPU Driver Overhead.

Intel hat noch soooo viel brachliegendes Potential.
 
  • Gefällt mir
Reaktionen: wagga
Duman schrieb:
Hatte damals auf einem Thinkpad für Gothic 1 und 2 gereicht.
Krass. Dann noch mit 25FPS-Lock oder "schon" mit 60FPS?
Ironischerweise hatte Gothic I lange Zeit ziemlich harte Treiberfehler bei Geforces, eine 240m brauchte auf jeden Fall Updates, damit es lief.
 
  • Gefällt mir
Reaktionen: wagga
JackTheRippchen schrieb:
Ich habe nie so richtig die Zielgruppe für "leistungsstärkerer Prozessor mit der leistungsstärkeren iGPU" verstanden, da hier doch in der Regel (oder ist das meine Blasenwahrnehmung?) zusätzlich eine dGPU verbaut wird. Ich hätte mir dann eher beim i3 oder i5 für den HTPC mit gelegtlichen Indie-Games die HD3000 gewünscht.
Die HD4000 im Haswell hat mir zwei oder dreimal den Hintern gerettet, als ich einen GPU-Wechsel wegen eines Defekts hatte. Das ist natürlich nicht der Daseinszweck und bringt die Kosten nicht rein, aber gerade die Hardwarebeschleunigung von Videocodecs war sehr angenehm, weil man abgesehen vom Zocken kaum einen Unterschied zur dGPU bemerkt hat.
 
  • Gefällt mir
Reaktionen: DynamaxX, EntelodonX und floTTes
Gullveig schrieb:
Na klar, 100W verbraten für Aufgaben, die ein 2W Prozessor schneller machen könnte.
Möchtest du mal ein konkretes Beispiel bringen, welche 2W x86 Desktop-CPU schneller zu werke geht? Mir ist eine Solche nicht bekannt. Aber ich lerne gerne dazu.

Der gleichschnelle N100 braucht im Maximum 25W zu den 95W des 2600K (der im Multicore auch noch etwas schneller ist)

Gullveig schrieb:
Das macht durchaus Sinn, wenn man die Kosten für ein neues System inkl. des Resourcenverbrauchs gegenüber dem weitergeführten Einsatz eines Altsystems betrachtet. Der Break-Even-Point ist sehr entscheident.
 
  • Gefällt mir
Reaktionen: DynamaxX, tso, ByteBlur und 6 andere
Benutze hier gerade die die iGPU, die funktioniert noch gut genug. Win11&Linux.
Kann 1080p/60Hz, was mir genügt.

Treiberversion: 9.17.10.4459 von 2016.^^

Spielen kann man damit auch bestens, nur habe ich da eine andere Definition davon.
Z.B. Retro Emulatoren.
 
  • Gefällt mir
Reaktionen: ByteBlur
Er erinnere mich noch nostalgisch wie ich auf einem Notebook mit i5 der Sandy Bridge Generation das Ur World of Warcraft von 2005 zocken konnte. Alles auf niedrig, keine Schönheit, aber ja, es war spielbar. War damals irre das tun zu können ohne dedizierte Grafikkarte. 😀
 
  • Gefällt mir
Reaktionen: DynamaxX und lubi7
Nighteye schrieb:
Bei dem Titel dachte ich an die Arc Treiber 2026, nicht an 15 jahre alte iGPU,s :D
Schade das sich das bei Intel nicht verändert hat.

Ich meine, das muss man sich mal reihnziehen.
Meine RX6800 aus dem Jahre 2020 läuft in TSMC N7
RX7000er in TSMC N6
Intels Arc B580 von 2025 ist in TSMC N5

Also Intels GPU ist viele Jahre neuer und hat einfach 2 Nodes besser als meine RX6000.
Und dennoch hat meine GPU mehr Leistung pro Watt, und hat weniger CPU Driver Overhead.

Intel hat noch soooo viel brachliegendes Potential.
Bzgl. der aktuellen Previewbenches zu PantherLake sieht es ja zumindest so aus, als wäre der CPU Driver Overhead nicht so tödlich, als dass er die mobile Performance im Powerlimit killen würde. PantherLake-12Xe ordnet sich nach den GPU-Performancetests nunmal zwischen StrixPoint und StrixHalo ein, und zwar weiter von Point entrückt, als noch von Halo entfernt --- nicht schlecht.
 
  • Gefällt mir
Reaktionen: mkl1 und LETNI77
Skysurfa schrieb:
Der Break-Even-Point ist sehr entscheident.
Den reißt du ja nicht mit Volllastszenarien, in denen ein sparsamer N100 gegen Sandy Bridge antritt, sondern allein schon durch die Tage und Wochen, die du Youtube-Videos geschaut, Videos enkodiert und dekodiert hast etc. Im Teillastbetrieb dreht jede moderne CPU Kreise um die alten Teile. Abgeschrieben ist so ein alter PC jetzt schon mehrmals, es hätte ja nicht nur heute die Gelegenheit gegeben, etwas effizienteres zu kaufen. Also ja: So eine alte Kiste erledigt ohne Neukosten ihre Aufgaben so wie eine neue CPU, aber von Effizienz oder Kostenersparnis in den Betriebskosten kann da keine Rede sein.
 
Gullveig schrieb:
Na klar, 100W verbraten für Aufgaben, die ein 2W Prozessor schneller machen könnte.

Macht Sinn!

Oft ist die CPU oder man selber im Idle-Modus z.B. bei lesen und schreiben von Forum-Nachrichten, da ist man weit weg von seiner Maximalleistung ;- )
 
JackTheRippchen schrieb:
Ich habe nie so richtig die Zielgruppe für "leistungsstärkerer Prozessor mit der leistungsstärkeren iGPU" verstanden, da hier doch in der Regel (oder ist das meine Blasenwahrnehmung?) zusätzlich eine dGPU verbaut wird. Ich hätte mir dann eher beim i3 oder i5 für den HTPC mit gelegtlichen Indie-Games die HD3000 gewünscht.
Boimler schrieb:
Die HD4000 im Haswell hat mir zwei oder dreimal den Hintern gerettet, als ich einen GPU-Wechsel wegen eines Defekts hatte. Das ist natürlich nicht der Daseinszweck und bringt die Kosten nicht rein, aber gerade die Hardwarebeschleunigung von Videocodecs war sehr angenehm, weil man abgesehen vom Zocken kaum einen Unterschied zur dGPU bemerkt hat.
Das ist eine schöne Geschichte zur HD4600 (denn die HD4000 ist in den Ivy-Topmodellen verbaut worden), aber keine Antwort auf die Frage von @JackTheRippchen: Denn es ging ja um die Sinnhaftigkeit von leistungsstärkerer Prozessor mit der leistungsstärkeren iGPU, nicht um die Sinnhaftigkeit von leistungsstärkerem Prozessor mit iGPU. Die Antwort ist simpel: Ohne Chipletdesign wäre es teurer gewesen, extra Varianten aufzulegen. Für Notebooks brauchte es die größeren iGPUs und daher landeten sie halt auch in den Desktop-SKUs. Heutzutage könnte Intel hingen Mix-and-Match betreiben und alle Kombinationen aus unterschiedlichen CPU- und GPU-Größen auflegen.
 
Rohberrick schrieb:
Oft ist die CPU oder man selber im Idle-Modus z.B. bei lesen und schreiben von Forum-Nachrichten, da ist man weit weg von seiner Maximalleistung ;- )
Das ist richtig, aber ein 2600K kann gerade da absolut nicht mit einem aktuellen UltraLowPowerHighEfficiency-MiniPC mithalten.
 
LETNI77 schrieb:
Intel hatte Pech, dass sie das Treiberentwicklungsteam 2022 in RU auflösen mussten.
Der Grund war ja offensichtlich und Pech ist im Kontext des Leids der Ukrainer der letzten bald 4 Jahre schon sehr aus einer IT Bubble heraus.
 
Duman schrieb:
Hatte damals auf einem Thinkpad für Gothic 1 und 2 gereicht.
Wow, das lief?
Ist interessant, denn ich hab mit den iGPUs im Office Bereich super Erfahrungen gemacht (während bei meiner Radeon bei jedem 2. Treiber die 2D oder Video Beschleunigung (Twitch) nicht hingehauen hat, war da bei den iGPUs nie ein Problem).
Was aber letztlich oft nicht funktioniert hat bei mir war das Starten mancher Oldies und Klassiker. Etwa Dungeon Keeper 2 erinnere ich mich gerade
 
Hans-juergen schrieb:
Der Grund war ja offensichtlich und Pech ist im Kontext des Leids der Ukrainer der letzten bald 4 Jahre schon sehr aus einer IT Bubble heraus.
Hat mit dem Thema nichts zu tun.

Dazu schreibe ich was im ZEIT Online Forum.
 
  • Gefällt mir
Reaktionen: Bestseller und lubi7
Nighteye schrieb:
Bei dem Titel dachte ich an die Arc Treiber 2026, nicht an 15 jahre alte iGPU,s :D
Schade das sich das bei Intel nicht verändert hat.
Das stimmt halt einfach nicht.
Die Treiber heute sind 100x besser als damals.
Ich hatte damals Radeons und lehne mich etwas aus dem Fenster, aber nicht weit: die Treiber sind heute besser als damals die der Radeons. und schon damals wurde man geschimpft wenn man "das alte Märchen" erzählt hat, dass GeForce Treiber besser seien als Radeon Treiber
 
  • Gefällt mir
Reaktionen: DynamaxX
CDLABSRadonP... schrieb:
Das ist richtig, aber ein 2600K kann gerade da absolut nicht mit einem aktuellen UltraLowPowerHighEfficiency-MiniPC mithalten.
Stimmt - 1 Cent Mehrverbrauch im „Idle“ bzw. 2 Cent unter Volllast bei 30ct/kWh vs. ein neuer 40.000 Cent (oder mehr wenn man sich die aktuelle RAM-Situation anschaut) PC …

Entsprechend hat er natürlich nach wie vor damit recht:
Skysurfa schrieb:
Der Break-Even-Point ist sehr entscheident.
Kommt eben absolut auf die Nutzung an - 40.000 Stunden im „Idle“ bzw. 20.000 Stunden unter Volllast muss man erst einmal hinbekommen :rolleyes:
 
  • Gefällt mir
Reaktionen: DynamaxX, ByteBlur, Corpus Delicti und eine weitere Person
Gut es erschließt sich aus dem Text, dass man sich nur auf CPUs mit iGPU bezieht. Aber man hätte noch erwähnen können, dass es zuvor auch welche auf dem Mainboard gab. Beginnend mit der von i752/4 abstammenden iGPU, über Extreme Graphics 1 und 2 und danach die ganzen GMA, ist man bei HD Graphics schon in der 5. Generation.

Paladin-HH schrieb:
Guten Morgen - da ist der Teaser aber irgendwie verstolpert…
Verstolpert? Da fehlt doch nur ein Komma vor "aber"
 
MalWiederIch schrieb:
Stimmt - 1 Cent Mehrverbrauch im „Idle“ bzw. 2 Cent unter Volllast bei 30ct/kWh vs. ein neuer 40.000 Cent (oder mehr wenn man sich die aktuelle RAM-Situation anschaut) PC …

Entsprechend hat er natürlich nach wie vor damit recht:

Kommt eben absolut auf die Nutzung an - 40.000 Stunden im „Idle“ bzw. 20.000 Stunden unter Volllast muss man erst einmal hinbekommen :rolleyes:
Oder man betrachtet hier nicht die Kosten, sondern generell Verbrauch/Effizienz und eben Verschwendung.
 
  • Gefällt mir
Reaktionen: ByteBlur
Zurück
Oben