News Framework Laptop 16: 2. Generation setzt auf AMD Ryzen AI 300 und RTX 5070

pmkrefeld schrieb:
D.h. in ein sagen wir mal 100W Budget passt maximal nur noch die 5070 rein
Möglicherweise. Fakt ist auch, eine 5070 Laptop ist eine 5060 Ti Desktop, die es mit 16GB gibt. Nur erlaubt es Nvidia nicht.
1756314958921.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sturmflut92, LinuxKnochen, fox40phil und eine weitere Person
Araska schrieb:
Ist ja schön, daß Framework jetzt auch optional NVidia-Module verbaut... aber müssen es unbedingt wieder ausschließlich 8GiB-Speicherkrüppel sein?
Leider ja, wurde gestern direkt aufgelöst:
CDLABSRadonP... schrieb:
Live Q&A with the Founder
YouTube-Embeds laden Datenschutzerklärung Direkt die erste echte Frage, mit Timelink. Platz reicht wohl nur für 128bit ohne Clamshell. Tja, damit kann man Navi 44 und 48 quasi vergessen. Denn für all der Aufwand nur, um am Ende mit 8GiB dazustehen? Da ist die Hoffnung auf eine kommende Blackwell-Refresh-Karte mit 3GiB-DIEs noch realistischer. Bitter.
 
  • Gefällt mir
Reaktionen: Anzony
fdsonne schrieb:
Warum muss immer irgendwer lügen?
Weil es gestern noch nicht da stand. Und da haben wir die Antwort dann auch.
ETI1120 schrieb:
Interessant ist dass es auch hier kein LPCAMM2 geworden ist.
Geht nicht. Sie haben für den Framework Desktop gesagt, dass sie AMD gefragt haben was mit LPCAMM ist. Und die Antwort war, AMD hat es getestet und der RAM Controller im Strix Halo kommt nicht mit klar, weil es beim Design nicht berücksichtigt wurde... Also Strix Halo kann das einfach nicht.
pmkrefeld schrieb:
D.h. in ein sagen wir mal 100W Budget passt maximal nur noch die 5070 rein
Sie haben das selbe Gehäuse wie für die 7700S wieder genutzt. Und sagen dass mehr Speicherchips nicht passen (und alles andere nutzt mindestens 6 statt der 4 GDDR Chips.

Und sie wollten das dGPU Modul nicht länger machen. Und selbst bei Platzierung auf der Unterseite vom PCB braucht es dafür neue Kühlung die das Modul zu dick machen würde (Framework hat die Expansion Bay zwar so designt, dass das möglich wäre, hält es aber offensichtlich nicht für Sinnvoll).
Ergänzung ()

Alesis schrieb:
Nur erlaubt es Nvidia nicht.
Korrekt. Aber das sollte dann auch 2 GDDR Chips pro Kanal nutzen und das würde auch nicht in das existierende dGPU Gehäuse vom FW16 passen. Würde ja sogar noch mehr Platz brauchen als die 6 Chips der 5070 Ti mobile.

Wenn die Chips doppelte Speicherkapazitäten könnte man vermutlich dann im selben Format wie jetzt, mit 4 Kanälen unterbringen.
 
Ray519 schrieb:
Geht nicht. Sie haben für den Framework Desktop gesagt, dass sie AMD gefragt haben was mit LPCAMM ist. Und die Antwort war, AMD hat es getestet und der RAM Controller im Strix Halo kommt nicht mit klar, weil es beim Design nicht berücksichtigt wurde... Also Strix Halo kann das einfach nicht.
Im Framework 16 ist kein Strix Halo verbaut. Also trifft die Erklärung nicht zu.
 
Ray519 schrieb:
Weil es gestern noch nicht da stand. Und da haben wir die Antwort dann auch.
Aber ist es nicht eigentlich an dem, der die Behauptung aufstellt, belastbar darzulegen, was da los ist?

Es gibt hier ne News von heute - nicht von gestern und du schreibst heute, dass da was nicht passt und erzählst diverse Möglichkeiten auf und sprichst von Lügen oder sonstwas - aber das naheliegendste, dass wahlweise die Specs-Tabelle noch nicht 100% vollständig war oder eben, dass es schon die ganze Zeit so war, aber das Weglassen von einem Fakt nicht automatisch eine Falschaussage darstellt, geschweige denn eine Lüge ist, kann es nicht einfach mal sein? Versteh ich nicht...

Selbst WENN es da nicht gestanden hat, dann wäre es immer noch niemals nie eine Lüge. Denn da steht und stand eben auch nicht, dass es zwingend zwei M.2 Slots mit x4 Anbindung sind.
 
  • Gefällt mir
Reaktionen: ETI1120
Die Lücke - rein von den Specs zwischen der 5070 und Ti ist schon erheblich... aber meist ist die wirkliche Leistung von der möglichen Leistungsaufnahme abhängig =/. Aber für "ki" und produktives hätte ich schon gerne 12GB VRam... vor allem, weil ich ein Notebook auch gerne mal 10 Jahre nutze.
 
ETI1120 schrieb:
Im Framework 16 ist kein Strix Halo verbaut. Also trifft die Erklärung nicht zu.
Ich hatte deinen Text beim ersten Lesen so interpretiert, dass das LPCAMM sich auf den Strix Halo bezogen hat.

Aber ja, beim 2. Lesen wird klar, dass du das nicht geschrieben hast.
 
Mehr ein 2in1 als en Notebook aber danke für den Hinweis, ich kannte es trotzdem noch nicht.
 
Ray519 schrieb:
das würde auch nicht in das existierende dGPU Gehäuse vom FW16 passen.
Es gibt 3GB Chips. Letztlich egal, Nvidia erlaubt es nicht.
 
CDLABSRadonP... schrieb:
Leider ja, wurde gestern direkt aufgelöst:
Wobei sie ja gesagt haben, dass die größeren hätten bringen können. Auf AMD sind sie leider nicht eingegangen, weder auf die rx7800M noch die rx90x0. Man hätte halt das Gehäuse vergrößern müssen und ich kann da leider nicht zustimmen: Es wäre absolut kein Drama, wenn das GPU-Modul das Notebook ein Stück aufbockt. Ehrlich gesagt steht mein Notebook so und ich kenne auch andere, die das Notebook hinten aufbocken. Eine schräge Tastatur ist nämlich ergonomischer. Und so ein 16er wird oft genug wohl ein Desktop Replacement sein und wenn man es doch mal mobil nutzt, kann an ja das GPU-Modul rausnehmen. Dafür ist es ja ein Modul.

Allerdings der Preis... Wenn die 5070 schon so affen teuer ist, dann würd ne noch größere wohl unbezahlbar sein. AMD wäre die Alternative. Also meine OneXPlayer eGPU2 mit rx7800m/12GB hat ziemlich genau so viel gekostet wie das Nvidia-Modul, und OneXPlayer fertigt sicher kleinere Stückzahlen und musste noch das ganze Gehäuse etc. in den Kosten unterbringen. Das Design haben sie von der eGPU1 recycelt, wahrscheinlich auch das PCB. Also ich sag mal, wenn man gewollt hätte, wäre das auf jeden Fall drin gewesen und selbst bei 100 Watt performed die noch ganz gut. Und wenn das Ding dann schräg steht, kann man da auch kühltechnisch noch mehr machen und die TDP vielleicht auch erhöhen, wenn das Board das hergibt (bzw. das wäre ja dann mal was wirklich neues für die 2. Generation). Also ich denke da wäre was gegangen.

Davon mal abgesehen gibt es auch 3MBit Chips. Nvidia wird es natürlich verbieten, aber AMD mag vielleicht offen sein für ne rx9060 8GB durch 3MBit Chips auf 12GB hochgerüstet. Wenn man den Chip selektiert und das ganze komplett durchoptimiert, käme da denke ich schon so was sehr ansehliches bei raus, was auch platzmäßig in das bestehende Modul passen könnte.

Bzgl. der CPU auch anschließend an die andere Diskussion: Die sind gut, aber das Geld sind sie nicht wert. Da muss ich leider zustimmen. Und von der Performance her kann man die auch auslassen. Die 7000er/8000er sind nach wie vor meiner Auffassung nach die besten speziell wenn man den Preis berücksichtigt. AMD hat da definitiv überzogen. Das ist einfach zu viel. Die müssten preisgleich kommen (ohne Rabatt). So ist die 1. Generation definitiv der bessere Deal mit dem kleinen Rabatt. Für den Preis des neuen mit der großen CPU, die dann auch 16 CU hat, bekommt man von der 1. Generation die kleine CPU (die große bringt nur minimale Vorteile) und fast noch die 7700S dazu und die fährt Kreise um die (sehr gute) iGPU. Da musste schon scharf auf 12 CPU Cores sein. Die kleine neue CPU ist hingegen ein Witz. Die iGPU ist ja schwächer als die alte und die CPU maximal genau so gut. Das ist kein Upgrade. Außer dieser AI-Kappes interessiert einen.

Immerhin: Das 5070 Modul passt auch ins alte. Das ist mal richtig gut. Und damit lösen sie immerhin das Versprechen ein, dass man wirklich upgraden kann, wenn auch dieses Upgrade meiner Auffassung nach sich nicht lohnt.
 
  • Gefällt mir
Reaktionen: DerVagabund
Alesis schrieb:
Es gibt 3GB Chips.
Hat die irgendeine GPU schonmal genutzt? Weil wenn das wie in den 24 GiB DIMM Modulen ist, ist das asymmetrische Rank Zeugs vermutlich schwierig für GPUs die ja die maximale Bandbreite herausholen wollen, mehr als CPUs das brauchen. Mehr Kanäle zu nutzen ist da vermutlich einfacher, solange sie nicht an das Limit kommen, wie viele Kanäle sie maximal vorsehen...
 
Ray519 schrieb:
Hat die irgendeine GPU schonmal genutzt?
Wurden die auf irgendeiner GPU verbaut?
Die 5090 Laptop ist eine 5080 Desktop, die um 256 Shader verringert wurde. Weiterhin ein 256bit SI.
Desktop 5080 8x 2GB Chips, im Laptop 8x 3GB Chips.
Der Refresh soll ja die 5070 Desktop, aktuell 6x 2GB GB, mit 18GB erhellen, also 6x 3GB Chips.
 
p-trettin schrieb:
Davon mal abgesehen gibt es auch 3MBit Chips. Nvidia wird es natürlich verbieten, aber AMD mag vielleicht offen sein für ne rx9060 8GB durch 3MBit Chips auf 12GB hochgerüstet. Wenn man den Chip selektiert und das ganze komplett durchoptimiert, käme da denke ich schon so was sehr ansehliches bei raus, was auch platzmäßig in das bestehende Modul passen könnte.
Es gibt keine 3GiB-GDDR6-, sondern ausschließlich -GDDD7-DIES.
 
  • Gefällt mir
Reaktionen: stevefrogs und Alesis
p-trettin schrieb:
und wenn man es doch mal mobil nutzt, kann an ja das GPU-Modul rausnehmen.
Das stimmt zwar, aber der Umbau ist leider nicht trivial. Und ob das Interposer-Modul viele Umbauten mitmacht... Klar, kriegt man auch Ersatz für.
Will nur sagen, der GPU-Modul wechsel ist nicht so einfach wie die USB-Module zu wechseln.
 
  • Gefällt mir
Reaktionen: stevefrogs
Die GeForce RTX 5070 Laptop GPU kommt mit 8 GB GDDR7
Hab dann aufgehört zu lesen :cool_alt:
Auch der Preis macht Lust das Gerät nicht zu kaufen :hammer_alt:
 
Zuletzt bearbeitet:
Zurück
Oben