Gullveig
Lieutenant
- Registriert
- Feb. 2024
- Beiträge
- 956
Na klar, 100W verbraten für Aufgaben, die ein 2W Prozessor schneller machen könnte.Skysurfa schrieb:Und vor allen Dingen für einfache Aufgaben heute immer noch schnell genug.
Macht Sinn!
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Na klar, 100W verbraten für Aufgaben, die ein 2W Prozessor schneller machen könnte.Skysurfa schrieb:Und vor allen Dingen für einfache Aufgaben heute immer noch schnell genug.
Krass. Dann noch mit 25FPS-Lock oder "schon" mit 60FPS?Duman schrieb:Hatte damals auf einem Thinkpad für Gothic 1 und 2 gereicht.
Die HD4000 im Haswell hat mir zwei oder dreimal den Hintern gerettet, als ich einen GPU-Wechsel wegen eines Defekts hatte. Das ist natürlich nicht der Daseinszweck und bringt die Kosten nicht rein, aber gerade die Hardwarebeschleunigung von Videocodecs war sehr angenehm, weil man abgesehen vom Zocken kaum einen Unterschied zur dGPU bemerkt hat.JackTheRippchen schrieb:Ich habe nie so richtig die Zielgruppe für "leistungsstärkerer Prozessor mit der leistungsstärkeren iGPU" verstanden, da hier doch in der Regel (oder ist das meine Blasenwahrnehmung?) zusätzlich eine dGPU verbaut wird. Ich hätte mir dann eher beim i3 oder i5 für den HTPC mit gelegtlichen Indie-Games die HD3000 gewünscht.
Möchtest du mal ein konkretes Beispiel bringen, welche 2W x86 Desktop-CPU schneller zu werke geht? Mir ist eine Solche nicht bekannt. Aber ich lerne gerne dazu.Gullveig schrieb:Na klar, 100W verbraten für Aufgaben, die ein 2W Prozessor schneller machen könnte.
Das macht durchaus Sinn, wenn man die Kosten für ein neues System inkl. des Resourcenverbrauchs gegenüber dem weitergeführten Einsatz eines Altsystems betrachtet. Der Break-Even-Point ist sehr entscheident.Gullveig schrieb:Macht Sinn!
Bzgl. der aktuellen Previewbenches zu PantherLake sieht es ja zumindest so aus, als wäre der CPU Driver Overhead nicht so tödlich, als dass er die mobile Performance im Powerlimit killen würde. PantherLake-12Xe ordnet sich nach den GPU-Performancetests nunmal zwischen StrixPoint und StrixHalo ein, und zwar weiter von Point entrückt, als noch von Halo entfernt --- nicht schlecht.Nighteye schrieb:Bei dem Titel dachte ich an die Arc Treiber 2026, nicht an 15 jahre alte iGPU,s
Schade das sich das bei Intel nicht verändert hat.
Ich meine, das muss man sich mal reihnziehen.
Meine RX6800 aus dem Jahre 2020 läuft in TSMC N7
RX7000er in TSMC N6
Intels Arc B580 von 2025 ist in TSMC N5
Also Intels GPU ist viele Jahre neuer und hat einfach 2 Nodes besser als meine RX6000.
Und dennoch hat meine GPU mehr Leistung pro Watt, und hat weniger CPU Driver Overhead.
Intel hat noch soooo viel brachliegendes Potential.
Den reißt du ja nicht mit Volllastszenarien, in denen ein sparsamer N100 gegen Sandy Bridge antritt, sondern allein schon durch die Tage und Wochen, die du Youtube-Videos geschaut, Videos enkodiert und dekodiert hast etc. Im Teillastbetrieb dreht jede moderne CPU Kreise um die alten Teile. Abgeschrieben ist so ein alter PC jetzt schon mehrmals, es hätte ja nicht nur heute die Gelegenheit gegeben, etwas effizienteres zu kaufen. Also ja: So eine alte Kiste erledigt ohne Neukosten ihre Aufgaben so wie eine neue CPU, aber von Effizienz oder Kostenersparnis in den Betriebskosten kann da keine Rede sein.Skysurfa schrieb:Der Break-Even-Point ist sehr entscheident.
Gullveig schrieb:Na klar, 100W verbraten für Aufgaben, die ein 2W Prozessor schneller machen könnte.
Macht Sinn!
JackTheRippchen schrieb:Ich habe nie so richtig die Zielgruppe für "leistungsstärkerer Prozessor mit der leistungsstärkeren iGPU" verstanden, da hier doch in der Regel (oder ist das meine Blasenwahrnehmung?) zusätzlich eine dGPU verbaut wird. Ich hätte mir dann eher beim i3 oder i5 für den HTPC mit gelegtlichen Indie-Games die HD3000 gewünscht.
Das ist eine schöne Geschichte zur HD4600 (denn die HD4000 ist in den Ivy-Topmodellen verbaut worden), aber keine Antwort auf die Frage von @JackTheRippchen: Denn es ging ja um die Sinnhaftigkeit von leistungsstärkerer Prozessor mit der leistungsstärkeren iGPU, nicht um die Sinnhaftigkeit von leistungsstärkerem Prozessor mit iGPU. Die Antwort ist simpel: Ohne Chipletdesign wäre es teurer gewesen, extra Varianten aufzulegen. Für Notebooks brauchte es die größeren iGPUs und daher landeten sie halt auch in den Desktop-SKUs. Heutzutage könnte Intel hingen Mix-and-Match betreiben und alle Kombinationen aus unterschiedlichen CPU- und GPU-Größen auflegen.Boimler schrieb:Die HD4000 im Haswell hat mir zwei oder dreimal den Hintern gerettet, als ich einen GPU-Wechsel wegen eines Defekts hatte. Das ist natürlich nicht der Daseinszweck und bringt die Kosten nicht rein, aber gerade die Hardwarebeschleunigung von Videocodecs war sehr angenehm, weil man abgesehen vom Zocken kaum einen Unterschied zur dGPU bemerkt hat.
Guten Morgen - da ist der Teaser aber irgendwie verstolpert…Robert schrieb:[…] die Low-End-Grafikkarten Konkurrenz machten aber an der Software scheiterten.
Das ist richtig, aber ein 2600K kann gerade da absolut nicht mit einem aktuellen UltraLowPowerHighEfficiency-MiniPC mithalten.Rohberrick schrieb:Oft ist die CPU oder man selber im Idle-Modus z.B. bei lesen und schreiben von Forum-Nachrichten, da ist man weit weg von seiner Maximalleistung ;- )
Der Grund war ja offensichtlich und Pech ist im Kontext des Leids der Ukrainer der letzten bald 4 Jahre schon sehr aus einer IT Bubble heraus.LETNI77 schrieb:Intel hatte Pech, dass sie das Treiberentwicklungsteam 2022 in RU auflösen mussten.
Wow, das lief?Duman schrieb:Hatte damals auf einem Thinkpad für Gothic 1 und 2 gereicht.
Hat mit dem Thema nichts zu tun.Hans-juergen schrieb:Der Grund war ja offensichtlich und Pech ist im Kontext des Leids der Ukrainer der letzten bald 4 Jahre schon sehr aus einer IT Bubble heraus.
Das stimmt halt einfach nicht.Nighteye schrieb:Bei dem Titel dachte ich an die Arc Treiber 2026, nicht an 15 jahre alte iGPU,s
Schade das sich das bei Intel nicht verändert hat.
Stimmt - 1 Cent Mehrverbrauch im „Idle“ bzw. 2 Cent unter Volllast bei 30ct/kWh vs. ein neuer 40.000 Cent (oder mehr wenn man sich die aktuelle RAM-Situation anschaut) PC …CDLABSRadonP... schrieb:Das ist richtig, aber ein 2600K kann gerade da absolut nicht mit einem aktuellen UltraLowPowerHighEfficiency-MiniPC mithalten.
Kommt eben absolut auf die Nutzung an - 40.000 Stunden im „Idle“ bzw. 20.000 Stunden unter Volllast muss man erst einmal hinbekommenSkysurfa schrieb:Der Break-Even-Point ist sehr entscheident.
Verstolpert? Da fehlt doch nur ein Komma vor "aber"Paladin-HH schrieb:Guten Morgen - da ist der Teaser aber irgendwie verstolpert…
Oder man betrachtet hier nicht die Kosten, sondern generell Verbrauch/Effizienz und eben Verschwendung.MalWiederIch schrieb:Stimmt - 1 Cent Mehrverbrauch im „Idle“ bzw. 2 Cent unter Volllast bei 30ct/kWh vs. ein neuer 40.000 Cent (oder mehr wenn man sich die aktuelle RAM-Situation anschaut) PC …
Entsprechend hat er natürlich nach wie vor damit recht:
Kommt eben absolut auf die Nutzung an - 40.000 Stunden im „Idle“ bzw. 20.000 Stunden unter Volllast muss man erst einmal hinbekommen![]()