News Im Test vor 15 Jahren: Intels starke Grafik mit schwachem Treiber

Boimler schrieb:
Die HD4000 im Haswell hat mir zwei oder dreimal den Hintern gerettet, als ich einen GPU-Wechsel wegen eines Defekts hatte. Das ist natürlich nicht der Daseinszweck und bringt die Kosten nicht rein, aber gerade die Hardwarebeschleunigung von Videocodecs war sehr angenehm, weil man abgesehen vom Zocken kaum einen Unterschied zur dGPU bemerkt hat.
Das ist leider keine Antwort auf meine Frage, warum die HD3000 bei den k-Modellen und sonst die HD2000 verbaut wurde, und nicht umgekehrt.
 
  • Gefällt mir
Reaktionen: wagga
MalWiederIch schrieb:
Stimmt - 1 Cent Mehrverbrauch im „Idle“ bzw. 2 Cent unter Volllast bei 30ct/kWh vs. ein neuer 40.000 Cent (oder mehr wenn man sich die aktuelle RAM-Situation anschaut) PC …

Entsprechend hat er natürlich nach wie vor damit recht:

Kommt eben absolut auf die Nutzung an - 40.000 Stunden im „Idle“ bzw. 20.000 Stunden unter Volllast muss man erst einmal hinbekommen :rolleyes:
Selbstverständlich. Das bezog sich auch bloß hierauf:
Rohberrick schrieb:
Oft ist die CPU oder man selber im Idle-Modus z.B. bei lesen und schreiben von Forum-Nachrichten, da ist man weit weg von seiner Maximalleistung ;- )
Dort sieht es für einen 2600K heute halt nicht besser, sondern schlechter aus als unter maximaler Last.
 
  • Gefällt mir
Reaktionen: wagga
CDLABSRadonP... schrieb:
Heutzutage könnte Intel hingen Mix-and-Match betreiben und alle Kombinationen aus unterschiedlichen CPU- und GPU-Größen auflegen.
Das finde ich auch schade, dass bei Intel der "Vollausbau" der iGPU der mobile CPU vorbehalten wird. Und bei AMD ewig die ältere Generation verbaut wird, AM4 APUs waren alle nur Vega.
 
  • Gefällt mir
Reaktionen: DynamaxX und wagga
Boimler schrieb:
aber von Effizienz oder Kostenersparnis in den Betriebskosten kann da keine Rede sein.
Die Funktionen die du gleichsetzen musst, betrachten aber nicht nur die Betriebskosten, sondern die Gesamtkosten und da macht es bei entsprechendem Nutzungsverhalten überhaupt keinen Sinn über eine Neuanschaffung nachzudenken.

Szenario: Schwiegervater A macht Onlinebanking, Rechnungen ausdrucken und ablegen (weil man das ja so macht) und gelegentlich mal auf die Emails schauen. Nutzungsdauer des Rechners ca. 1h/Woche. Wann soll sich denn da ein neuer Rechner amortisieren? So alt kann er gar nicht werden.
 
  • Gefällt mir
Reaktionen: DynamaxX, JackTheRippchen, Corpus Delicti und eine weitere Person
Retroscorp schrieb:
Das finde ich auch schade, dass bei Intel der "Vollausbau" der iGPU der mobile CPU vorbehalten wird.
Wir werden sehen, wie sich das nun entwickeln wird. Generell finde ich, dass PantherLake einen absoluten Vollausbau für BGA-Desktopboards erhalten sollte: Also volles CCD, volles iGPU-DIE, volles IO-DIE. Denn die Lanes kann man auf einem Desktopboard schließlich für mehr als nur eine dGPU verballern.
Retroscorp schrieb:
Und bei AMD ewig die ältere Generation verbaut wird, AM4 APUs waren alle nur Vega.
Das lag allerdings auch daran, dass Rembrandt als erste Serie mit RDNA2 (RDNA1 war ja in keiner iGPU) keinen DDR4 unterstützte und somit auch nicht mehr auf AM4 landen konnte.
 
  • Gefällt mir
Reaktionen: wagga und Skysurfa
CDLABSRadonP... schrieb:
Dort sieht es für einen 2600K heute halt nicht besser, sondern schlechter aus als unter maximaler Last.
Was völlig irrelevant ist - deshalb schrieb ich ja darauf:
MalWiederIch schrieb:
Kommt eben absolut auf die Nutzung an - 40.000 Stunden im „Idle“ bzw. 20.000 Stunden unter Volllast muss man erst einmal hinbekommen :rolleyes:
Ergänzung ()

BAR86 schrieb:
Oder man betrachtet hier nicht die Kosten, sondern generell Verbrauch/Effizienz und eben Verschwendung.
Du meinst in den wenigen Stunden, die der bei Volllast läuft, würden in Summe durch die Differenz zu einem effizienteren PC mehr Stromverbrauch zustande kommen als die Herstellung von einem komplett neuen PC?

Das ist aber naiv - ein neues Produkt zu kaufen, wenn das alte noch einwandfrei läuft ist nicht immer zwangsläufig besser für die Umwelt :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wagga und TeeKayEV
MalWiederIch schrieb:
Was völlig irrelevant ist da:
Ich reagiere aber dennoch auf das Argument...
Rohberrick schrieb:
Oft ist die CPU oder man selber im Idle-Modus z.B. bei lesen und schreiben von Forum-Nachrichten, da ist man weit weg von seiner Maximalleistung ;- )
...und zeige auf, dass es kein Pro-Argument, sondern ein Contra-Argument ist. Nennt es meinetwegen das xkc-386-Phänomen (somebody is wrong on the Internet)...
 
Zuletzt bearbeitet:
BAR86 schrieb:
Die Treiber heute sind 100x besser als damals.
Was nutzt es, wenn Intel immer noch so viel Potential liegen lässt ?
Guck dir mal an wie wenig meine 6 Jahre alte RX6800 verbraucht.
Und die gabs vor ein paar Jahren zwischen 330€ und 360€ neu (je nach Modell und Angebot)
Die B580 verbraucht trotz TSMC N5 so viel mehr Energie für die wenigen FPS vs ein TSMC N7 Modell.
Intel Hängt noch Jahre hinterher und hat noch sehr viel brach liegendes Potential.
 

Anhänge

  • PCGH RX6800 Test Standard & Quiet.png
    PCGH RX6800 Test Standard & Quiet.png
    5,7 KB · Aufrufe: 22
  • 1768648563837.png
    1768648563837.png
    240,6 KB · Aufrufe: 20
  • B580 langsamer als RTX 3060 in SC.jpg
    B580 langsamer als RTX 3060 in SC.jpg
    157,1 KB · Aufrufe: 21
  • B580 langsamer als RTX 3060 Stellar Blade.jpg
    B580 langsamer als RTX 3060 Stellar Blade.jpg
    89,9 KB · Aufrufe: 20
Apple hatte ja die durchaus gute 320m im 2010er Mac mini gegen die HD3000 im 2011er Mac mini getauscht. Es gibt Spiele, da ist die 320m deutlich besser, aber es kommt wirklich auf das einzelne Spiel an. Was man aber immer gemerkt hat war, dass die integrierte Nvidia-Chips die konstantere Framerate lieferten. Bei den Intel-Chips gab es immer mal wieder deutlich wahrnehmbare Framdrops bzw. Ruckler im Gameplay. Das hatte die Konkurrenz besser im Griff. Sichtbare Unterschiede gab es in HL2 und Bioshock. Da ist es mir deutlich aufgefallen. Die HD3000 konnte man aber, im Gegensatz zur 320m auch mit bis zu 1,5GB VRAM bei 16GB RAM einstellen in dem man die KECKX? veränderte. Das merkte man dann deutlich bei ID-Tech3 die dann auch mit hohen Texturen sauber liefen.
 
  • Gefällt mir
Reaktionen: wagga und CDLABSRadonP...
Boimler schrieb:
Also ja: So eine alte Kiste erledigt ohne Neukosten ihre Aufgaben so wie eine neue CPU, aber von Effizienz oder Kostenersparnis in den Betriebskosten kann da keine Rede sein.
Selbst wenn der alte Computer 24/7 durchliefe, wären das bei 100W keine 300€ Stromkosten im Jahr. Er läuft aber nicht 24/7 mit 100W durch, der neue Computer würde auch Strom brauchen und der Aufwand, alles neu zu konfigurieren, ist aucv Geld wert. Also nein, es ist nicht geldeffizienter, neu zu kaufen, wenn der alte Computer seine Aufgaben noch zufriedenstellend erfüllen kann.
 
  • Gefällt mir
Reaktionen: DynamaxX und wagga
Nighteye schrieb:
...Die B580 verbraucht trotz TSMC N5 so viel mehr Energie für die wenigen FPS vs ein TSMC N7 Modell...
Warum so kompliziert Youtubevideos durchforsten und irgendwelche Ausschnitte finden? Muss man so lange suchen und Dinge ausblenden, damit das Ergebnis passt?

CB und PCGH machen doch Effizienzvergleiche und da platziert sich die B580 hinter Ada Lovelace (N5) und vor RDNA3 (N5 und N6) und RNDA2. Fertig.
Screen Shot 2026-01-17 at 12.37.59.654 PM.png

Screen Shot 2026-01-17 at 12.38.05.487 PM.png
 
  • Gefällt mir
Reaktionen: DynamaxX und wagga
CDLABSRadonP... schrieb:
Ich reagiere aber dennoch auf das Argument...
Das ist nett - und ich reagiere auf deinen Beitrag :)
CDLABSRadonP... schrieb:
...und zeige auf, dass es kein Pro-Argument, sondern ein Contra-Argument ist. Nennt es meinetwegen das xkc-386-Phänomen (somebody is wrong in the Internet)...
Was ist daran nicht zu verstehen, dass im „Idle“ die Differenz im (auch) montetär gesehen geringer ist als unter Last - entsprechend ist das auch weiterhin kein Pro-Argument für einen neuen PC … denn:
MalWiederIch schrieb:
Kommt eben absolut auf die Nutzung an - 40.000 Stunden im „Idle“ bzw. 20.000 Stunden unter Volllast muss man erst einmal hinbekommen :rolleyes:
Ein Pro-Argument wird es erst wenn der
Skysurfa schrieb:
zeitnah erreicht wird - was aber eben sehr individuell ist. Je nachdem kann es also Pro- oder Contra-Argument für die Anschaffung eines neuen PCs sein ;)
CDLABSRadonP... schrieb:
(somebody is wrong in the Internet)...
Exakt …
 
Nighteye schrieb:
Was nutzt es, wenn Intel immer noch so viel Potential liegen lässt ?
Guck dir mal an wie wenig meine 6 Jahre alte RX6800 verbraucht.
Und die gabs vor ein paar Jahren zwischen 330€ und 360€ neu (je nach Modell und Angebot)
Die B580 verbraucht trotz TSMC N5 so viel mehr Energie für die wenigen FPS vs ein TSMC N7 Modell.
Intel Hängt noch Jahre hinterher und hat noch sehr viel brach liegendes Potential.
NguyenV3 schrieb:
Warum so kompliziert Youtubevideos durchforsten und irgendwelche Ausschnitte finden? Muss man so lange suchen und Dinge ausblenden, damit das Ergebnis passt?

CB und PCGH machen doch Effizienzvergleiche und da platziert sich die B580 hinter Ada Lovelace (N5) und vor RDNA3 (N5 und N6) und RNDA2. Fertig.
Weil @Nighteye auch klar sein dürfte, dass sie in den Normalfällen effizienter ist als die anderen Karten ab Werk. Die vorhandenen Ausreißer nach unten sind dann aber halt extrem.
Außerdem geht es @Nighteye um die eigens „getunte“ 6800, die Aussage ist schlicht: Navi 21 mit gesenktem Powertarget ist (war) günstig zu haben und besser.
 
  • Gefällt mir
Reaktionen: wagga und Nighteye
Skysurfa schrieb:
Möchtest du mal ein konkretes Beispiel bringen, welche 2W x86 Desktop-CPU schneller zu werke geht? Mir ist eine Solche nicht bekannt. Aber ich lerne gerne dazu.
Wer redet denn von X86? X86 hast du jetzt in den Raum geworfen. Ich habe gesagt dass aktuelle Hardware den vorher genannten 'leichten' Arbeitseinsatz genausogut bei einem Bruchteil des Verbrauches erledigt. Als Beispiel siehe hier:
1768652549681.png

Skysurfa schrieb:
Das macht durchaus Sinn, wenn man die Kosten für ein neues System inkl. des Resourcenverbrauchs gegenüber dem weitergeführten Einsatz eines Altsystems betrachtet. Der Break-Even-Point ist sehr entscheident.
Richtig. 55W Idleverbrauch gegenüber 5W Idleverbrauch. Bei 20€ Einkaufspreis, restliche PC Hardware wird weiterverwendet.
MalWiederIch schrieb:
Stimmt - 1 Cent Mehrverbrauch im „Idle“ bzw. 2 Cent unter Volllast bei 30ct/kWh vs. ein neuer 40.000 Cent (oder mehr wenn man sich die aktuelle RAM-Situation anschaut) PC …

Entsprechend hat er natürlich nach wie vor damit recht:

Kommt eben absolut auf die Nutzung an - 40.000 Stunden im „Idle“ bzw. 20.000 Stunden unter Volllast muss man erst einmal hinbekommen :rolleyes:
Falsche Rechnung. Du rechnest mit neuer, wesentlich stärkerer Hardware. Rechne mal mit neuer, gleichwertigen aber sparsamerer und günstigerer Hardware so wie ich oben. Wie gesagt, die 20€ haben sich schnell amortisiert.
Skysurfa schrieb:
Die Funktionen die du gleichsetzen musst, betrachten aber nicht nur die Betriebskosten, sondern die Gesamtkosten und da macht es bei entsprechendem Nutzungsverhalten überhaupt keinen Sinn über eine Neuanschaffung nachzudenken.

Szenario: Schwiegervater A macht Onlinebanking, Rechnungen ausdrucken und ablegen (weil man das ja so macht) und gelegentlich mal auf die Emails schauen. Nutzungsdauer des Rechners ca. 1h/Woche. Wann soll sich denn da ein neuer Rechner amortisieren? So alt kann er gar nicht werden.
Genau dieses Szenario kannst du mit billigen ARM Android Boxen abdecken.

Tellerrand, meine alten Herren!
 
  • Gefällt mir
Reaktionen: Boimler
Skysurfa schrieb:
Der gleichschnelle N100 braucht im Maximum 25W zu den 95W des 2600K (der im Multicore auch noch etwas schneller ist).
Ein N100 ist auf Augenhöhe mit einem Intel Core i5-6600K, trotz 8 Threads muss man den i7 2600K auf 4,5 GHz takten damit er im Multicore wirklich schneller ist.

Im Grunde ist erst eine CPU ab einem i7 7700K und ab in der Breite CPUs ab der 8. Generation schneller als der N100.

Daran sieht man zum einen die damalige Stagnation, aber auch natürlich das sich einiges getan hat.
Ergänzung ()

Gullveig schrieb:
Wer redet denn von X86? X86 hast du jetzt in den Raum geworfen. Ich habe gesagt dass aktuelle Hardware den vorher genannten 'leichten' Arbeitseinsatz genausogut bei einem Bruchteil des Verbrauches erledigt. Als Beispiel siehe hier:
Anhang anzeigen 1697970

Richtig. 55W Idleverbrauch gegenüber 5W Idleverbrauch. Bei 20€ Einkaufspreis, restliche PC Hardware wird weiterverwendet.

Falsche Rechnung. Du rechnest mit neuer, wesentlich stärkerer Hardware. Rechne mal mit neuer, gleichwertigen aber sparsamerer und günstigerer Hardware so wie ich oben. Wie gesagt, die 20€ haben sich schnell amortisiert.

Genau dieses Szenario kannst du mit billigen ARM Android Boxen abdecken.

Tellerrand, meine alten Herren!
Und am Ende bei all der netten Berechnung den wichtigsten Faktor vergessen - den Menschen vor dem Monitor.

Meine Mutter beispielsweise wird in diesem Leben ganz sicher nicht mehr auf ein Android basiertes System wechseln, auch wenn das aus 100 technischen Gründen Sinn ergeben sollte, die nutzt ihr Office was sie kennt und vielleicht 2-3 andere Programme, da ist es schon eine Katastrophe wenn alle 10 Jahre mal eine neue Tastatur fällig ist oder irgendwas nach einem Windows-Update nicht mehr genauso ist wie vorher.
 
Zuletzt bearbeitet:
Der i7 2600k den ich hatte war einfach legendär.
Und dank HT konnte er noch lange mithalten.
 
@kellyfornia Ja natürlich. Hier im Forum sind viele alte 'Spezialisten' die seit Windows 98/XP PC-affin sind und sich nicht weiterentwickelt haben. Die benutzen halt 50W-Idle-Kisten mit Windows 7/Linux an ihren TVs als Mediencenter, oder ihren Hauptrechner vor 20 Jahren als "Medienserver", der mit Festplatten 140W aus der Dose zieht.
 
  • Gefällt mir
Reaktionen: wagga
@Gullveig Mir geht es weniger um die Damen und Herren hier, sondern eher um die Elterngeneration.

Mit 70, 80+ nochmal ein komplett neues Betriebssystem, Account bei Google, Apps aus dem Play Store statt das alte Office von vor 2010 was seit 15 Jahren installiert ist, Bilder irgendwo in der Cloud statt in den Eigenen Dateien auf der HDD, das kannst du da teilweise ganz einfach vergessen.

Am Ende ist der limitierende Faktor immer der Mensch.

Das meine ich nicht einmal böse, denn auch da ist es eine "Kosten-Nutzen-Rechnung" Rentenalter genießen und die alte Kiste halt hin und wieder nutzen egal ob sie ineffizient ist oder Zeit in eine Sache stecken die keine große Priorität hat.
 
  • Gefällt mir
Reaktionen: DynamaxX und wagga
Skysurfa schrieb:
Nutzungsdauer des Rechners ca. 1h/Woche.
Erst war es Volllast Multicore, jetzt sind wir beim Online-Banking der Großeltern 1h/Woche... Es gibt immer ein Szenario, in dem sich eine Neuanschaffung nicht lohnt, keine Frage. Wenn du aber Videos codest oder nebenbei zockst oder überhaupt etwas mit einer ausgewachsenen CPU machst, wofür sie gebaut wurde, würde ich die 15 Jahre Betriebskosten bei 100W nicht unterschätzen.

TeeKayEV schrieb:
Selbst wenn der alte Computer 24/7 durchliefe, wären das bei 100W keine 300€ Stromkosten im Jahr. Er läuft aber nicht 24/7 mit 100W durch, der neue Computer würde auch Strom brauchen und der Aufwand, alles neu zu konfigurieren, ist aucv Geld wert. Also nein, es ist nicht geldeffizienter, neu zu kaufen, wenn der alte Computer seine Aufgaben noch zufriedenstellend erfüllen kann.
Die erfüllt er aber nicht in einem Jahr, sondern schon seit 15 Jahren. Wenn man die Abschreibungsdauer für die Anschaffungskosten noch berücksichtigen möchte, sind das zehn Jahre erhöhte Betriebskosten gegenüber einer Neuanschaffung. Und ja: Mit 24/7 idle oder 1h/Woche oder anderen "Großeltern"-Szenarien kommt man bestimmt auf eine günstigere Bilanz als mit einer Notebook-CPU, die das gleiche mit <10W TDP erledigt. Ist halt die Frage, ob man dafür dann überhaupt einen PC braucht ;).
 
Zurück
Oben