News Speicherforschung: SK Hynix über 5-Bit-NAND, 3D FeNAND und die fertige CTI-Technologie

CDLABSRadonP... schrieb:
Passend zu allem zeigt ja auch das Pressematerial von SK Hynix 6bit-MLC als 2x3bit-TLC.
Und warum hast Du dann Deinen Standard Post rausgelassen, wenn es offensichtlich auf die von SK Hynix implementierte Lösung nicht passt?
CDLABSRadonP... schrieb:
Das wiederum erinnert an die Einführung von V-NAND, der ja damals auch erst wieder in größeren Strukturen gefertigt wurde und somit die Probleme dee Fertigung am Rande des Möglichen umgehen konnte.
3D NAND wurde notwendig, weil die NAND Zelle praktisch nicht mehr skaliert. Aber 3D NAND kann das stagnierende Scaling nur teilweise kompensieren.
 
  • Gefällt mir
Reaktionen: wagga
FUSION5 schrieb:
Das zugrundeliegende Problem wäre, dass der SSD der Inhalt nicht bekannt ist, wie beispielsweise dem Betriebssystem. Ist die gesamte SSD mit Partitionen befüllt, müssten diese ja sauber verkleinert werden, insofern der Füllstand des Dateisystems dies überhaupt zulassen würde. Mir ist keine Möglichkeit bekannt, die das zulassen würde.
Naja, das OS liest Daten, Controller meldet (unkorrigierbarer) Lesefehler. Damit kann das DAteisystem bzw das OS dann entsprechend umgehen.
FUSION5 schrieb:
Es ist natürlich möglich, dass eine SSD Firmware irgendwann in den Read-only Betrieb umschaltet. Allerdings kann auch so ein Betrieb nur vorübergehend aufrechterhalten werden, weil die beschriebenen Blöcke in Abständen intern rotiert werden.
Ohne Schreibvorgänge? Wie kommst du darauf? Wieso sollte der Controller "zum Spaß" Daten verschieben?
Was er wohl tun wird (Wear Leveling) ist beim Schreiben zu schauen, ob die verfügbaren Zellen wesentlich abgenutzer sind als belegte Zellen - DANN kopiert er die sehr wahrscheinlich "kalten" Daten auf einen eher verschlissenen Block und die neuen, sehr wahrscheinlich "heißen" Daten offensichtlichen. Eventuell macht er das in einem gewissen (kleinen) Rahmen vorsorglich (damit "frische Zellen frei sind"). Aber unabhängig davon, ob er das nur beim Schreiben macht, ein bisschen vorhält oder, wie du unterstellst, "zum Spaß": In jedem fall kann der Controiller im Read-Only-Modus ja damit aufhören.

FUSION5 schrieb:
Ich lasse mich gerne eines besseren belehren, falls ihr da weitere Daten habt. Aber von einem automatischen Shrink der bauartbedingten Kapazität habe ich wirklich noch nicht gehört.
Habe ich blöd formuliert. Ich meinte nicht, dass die "block device capacity" sozusagen "runterzählt", sondern dass das Dateisystem die fehlerhaften Blöcke nicht mehr neu befüllt.
 
Ich versuche seit 2014 nur TLC SSDs zu kaufen QLC oder noch mehr traue ich meine Daten nicht an.
ist mir einfach zu riskant das etwas schief geht.
Außerdem haben die ja geringere Haltbarkeiten. Wenn nicht nötig lasse ich die Finger davon. Hoffe das man in Zukunft weiterhin TLC kaufen kann. Liebe Grüße.
840 Evo, 870 Evo, 990 Pro, SN7100.
Ergänzung ()

Nighteye schrieb:
Ich weigere mich nach wie vor QLC zu kaufen, und die kommen mit PLC an.
Wird noch mehr boykottiert als QLC schon.
Sogar meine TLC SSD hat schon mehr als 1/4 ihrer Speichermenge verloren.
Letzten Monat ging die 1TB SSD mit TLC eines Kumpels auch zu 75% kaputt.
Es wurde bei ihm Anfang Dezember plötzlich nur noch 250GB im Windows angezeigt.
Auch in Crystaldisk Info wurden nur noch als 250GB Festplatte angezeigt, obwohl es eine 1TB war.
QLC traue ich auch nicht und mir gehts genauso PLC werde ich nicht kaufen so lang es TLC gibt.
Das eine SSD Kapazität verliert lese ich zum ersten mal. Wenn dann geht sie gar nicht davon ging ich zu mindestens aus.
 
  • Gefällt mir
Reaktionen: Nighteye
ETI1120 schrieb:
3D NAND wurde notwendig, weil die NAND Zelle praktisch nicht mehr skaliert.
Evtl Doofe frage:
Könnten wir nicht einfach mehr Speicherbausteine verbauen wenn das Skaling am ende ist ?
Ich denke da an die 2,5" SSD wo nicht mal ansatzweise der Platz im Gehäuse ausgenutzt wird.
 
  • Gefällt mir
Reaktionen: wagga
Billigstnetzteile kaufen und die SSD gehen vorzeitig kaputt, o.k. dann QLC rascher.
Also, selbst meine 2 TB QVO SATA läuft und läuft ... gutes Netzteil aber seit Jahren im Einsatz.

------------------
Die CTI-Technik für 4-Bit QLC Zellen dürfte die ultimative Freigabe dieser Technik werden.
Vielleicht wird 2-Bit MLC statt 1-Bit SLC dann auch schnell genormt als temporären Speicher?

Eine 1TB QLC 4-Bit könnte dann bei etwa 1/4 Plattenkapazität noch 1/8 = 125 GB temporären Speicher liefern, im Mainstream wohl wirklich genug.

5 Bit sehe ich fraglich, aber die 2* 3 Bit würden ja Faktor 1,5 bringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wagga
ETI1120 schrieb:
Und warum hast Du dann Deinen Standard Post rausgelassen, wenn es offensichtlich auf die von SK Hynix implementierte Lösung nicht passt?
Klar passt das. Es geht ja darum, dass man eben keine Erwartungen in PLC vs QLC oder QLC vs HLC hegen sollte. Die hier präsentierte Technologie kann, wie bereits gesagt...
CDLABSRadonP... schrieb:
(...)
Die eigentlich hier vorgestellte Technik hat hingegen meiner Meinung nach tatsächlich Potential, Speicher zu verbilligen. Das Prinzip gilt dann aber auch für 4bit-MLC, 3bit-MLC & 2bit-MLC.
...auch verwendet werden, die anderen Arten von Speicher zu verbilligten.

Übrigens sprechen die zweiten Folien ja dann nochmals von anderen Zahlenbeispielen. Raus käme sozusagen ein 5bit-MLC mit einem Tacken ECC.

In jedem Fall bleibt aber die Frage, ob man das ganze nicht anders vermarkten würde als mit PLC auf dem Label. Also in SK Hynix erstem Folienpaar würde ich eher hingehen und das als TLC with MSC bewerben denn als HLC. Letzteres klingt schließlich nach Pfusch & Rampsch und der ist es vom technischen Ansatz her nicht.

ETI1120 schrieb:
3D NAND wurde notwendig, weil die NAND Zelle praktisch nicht mehr skaliert.
Ja und 2D-NAND-Produzenten hatten davor sehr aggressiv versucht, die Grenzen des machbaren auszuloten und sich dabei tendenziell verschätzt.
ETI1120 schrieb:
Aber 3D NAND kann das stagnierende Scaling nur teilweise kompensieren.
Das ist richtig.
 
Gullveig schrieb:
Da gibt es eine ganz einfache Erklärung:

Die SSD hatte nie ein TB, sondern war eine "frisierte" SSD mit 250GB.

Ich hab mehrere SD Karten von Aliexpress hier, die auf die gleiche Weise gefälscht sind.
Genau hast du super erfasst, habe mehre M.2 von Kingston, Crucial und Samsung und keins davon wird als geringer als ihre tatsächliche Größe angezeigt in allem Tools, derjenige, der denkt das im Ali gute SSD gibts, ist selber schuld.
 
  • Gefällt mir
Reaktionen: wagga
ReactivateMe347 schrieb:
Naja, das OS liest Daten, Controller meldet (unkorrigierbarer) Lesefehler. Damit kann das DAteisystem bzw das OS dann entsprechend umgehen.
Ja, im besten Fall handelt es sich um eine reine Datenplatte und es sind nur einzelne Dateien betroffen. Es kann aber auch schlimmer werden, falls es sich um Metadaten des Dateisystems handelt, eine SSD mit Betriebssystem, usw.

Ich war in meinem ersten Beitrag mit Absicht gar nicht auf sowas wie Read-only Modi eingegangen. Mir ging es primär um die Einschätzung, dass eine SSD nicht einfach schrumpft und sich ohne Spare Blocks das Lebensende nähern wird.

Eine gute Firmware sollte natürlich eine Datenrettung ermöglichen. Und sollte so eine Funktion vorhanden sein, wird es auf den implementierten Schwellwert ankommen.

ReactivateMe347 schrieb:
Ohne Schreibvorgänge? Wie kommst du darauf? Wieso sollte der Controller "zum Spaß" Daten verschieben?
Das zweite Stichwort, welches ich genannt hatte, war Cell Refresh. Das hat mit der Art und Weise zu tun, wie Daten in den NAND Zellen gespeichert werden. Dort liegt eine Spannung Ladung an, welche den Inhalt repräsentiert. Beim Auslesen des NAND wird vom Controller eine Referenzspannung angelegt und die verschiedenen Zustände der Zellen können ausgelesen werden, solange die Spannung stabil ist (Threshold Voltage). Bauartbedingt kann die Spannung Ladung in den Zellen aber nicht dauerhaft gehalten werden (Charge Leakage).

Eine der größten Herausforderungen bei der Entwicklung der neuen NAND Technologien mit mehr Bits pro Zelle ist die Gewährleistung der Datenintigrität. Bei QLC muss eine Zelle beispielsweise schon 16 Spannungszustände abbilden können, was die Toleranzen immer weiter einschränkt.

Die Hersteller der Controller kombinieren oft eine Vielzahl von Techniken um das zu realisieren. ECC Algorithmen, Read-Retry mit anderen Referenzspannungen, verschiedene Patrol Reads. Und eine Basistechnik ist dabei der Cell Refresh. Ist bei einer Zelle der Inhalt nicht mehr sauber erkennbar, werden die Daten rechtzeitig (bedeutet: kann noch rekonstruiert werden) neu geschrieben (was durch Wear Leveling dann wahrscheinlich woanders passiert).

Hier ist ein interessanter Beitrag von Phison, wie die das machen: https://phisonblog.com/phisons-smartrefresh-2/

Die Folge ist dann, dass eine SSD ohne Spare Blocks irgendwann sicher tot ist. Was die einzelnen SSD Hersteller und/oder Controller Hersteller da noch an Read-only Periode ermöglichen, kann ich nicht sagen. Soweit ich das weiß, wird das in der Regel auch nicht angegeben.

Die Samsung 980 Pro hatte mal einen Bug, welche zu "sehr starker Abnutzung" geführt hatte. Im schlimmsten Fall waren die unwiderruflich in einem Read-only Zustand. https://www.computerbase.de/news/st...sd-firmware-update-gegen-read-only-bug.83246/

Vielleicht hast du schon mal gehört, dass man SSDs nicht dauerhaft ohne Strom "im Schrank" lagern soll. Im Grunde steckt da die gleiche Problematik hinter. Auch wenn es da Modelle geben soll, die das besser vertragen sollen als andere.

Edit: Verwendung von Spannung/Ladung etwas überarbeitet. Hoffentlich passt das so ;-)
 
  • Gefällt mir
Reaktionen: WiP3R
Nighteye schrieb:
Evtl Doofe frage:
Könnten wir nicht einfach mehr Speicherbausteine verbauen wenn das Skaling am ende ist ?
Ich denke da an die 2,5" SSD wo nicht mal ansatzweise der Platz im Gehäuse ausgenutzt wird.
Sicherlich man könnte die Zellen und Platine sicher erweitern und statt 2,5" 3,5" nutzen dann müsste man halt nur wieder Gehäuse bauen die mehr 3,5" Schächte haben es gibt ja sogar noch 5,25" für Laufwerke:)
 
@wagga
die SATA Laufwerke sind im Vergleich zu NVMe nicht mehr so marktrelevant.

Für größere Laufwerke müsste man die vielleicht optisch anschließen um auf NVMe 5.0 Performance zu kommen? Letztlich müsste aber dazu Normungsdruck aus den Serverfarmen kommen.
 
Nighteye schrieb:
Könnten wir nicht einfach mehr Speicherbausteine verbauen wenn das Skaling am ende ist ?
Darauf bin ich in meinem Beitrag eingegangen. Das Problem ist dann dass man mit einem wafer in der Herstellung immer weniger Produkte herstellen kann und wertvoller Chipplatz verschwendet wird.

Diese riesen SSDs Richtung 250TB bestehen teilweise aus hunderten Chips und damit ist der Preis mittel fünfstellig und neben der Entscheidung quasi einen kompletten wafer in ein einziges Produkt zu Stecken führt das dann im Umkehrschluss dazu dass 500-700 2TB SSDs nicht gebaut werden weil diese dann in 2-3 große SSDs wandern.

Werk ist bei beiden ausgelastet aber dann skalieren auch die Kosten mehr als linear nach oben und das kann langfristig wirklich niemand wollen.
 
  • Gefällt mir
Reaktionen: ETI1120
wagga schrieb:
Außerdem haben die ja geringere Haltbarkeiten.
840 Evo, 870 Evo, 990 Pro, SN7100.
ich will dir ja nicht den abend verderben, aber schau dir mal die tbw-werte dieser ssds an und vergleiche sie mit aktuellen qlc-ssds :)
 
RKCPU schrieb:
@wagga
Für größere Laufwerke müsste man die vielleicht optisch anschließen um auf NVMe 5.0 Performance zu kommen? Letztlich müsste aber dazu Normungsdruck aus den Serverfarmen kommen.
Dafür gibts U.3 als Stecker. Die SSDs sehen praktisch wie 2.5" SATA-SSDs aus und gibt es auch mit deutlich größeren Kapazitäten als standard m.2-2280. Natürlich sind auch die Preise entsprechend höher.
 
Nighteye schrieb:
Ich denke deine These ist Falsch. Es heißt ja nicht umsonst "Lifetime Remaining 75%"
Denke die Platte ist hin wenn das auf 0% sinkt.
Wenn der Wert auf 0 sinkt, dann ist die SSD nicht hinüber. Bei einigen Herstellern (Hallo Intel) machen da einen Cut in der FW und machen die SSD readonly (aka Brick).
Andere laufen einfach weiter, bis die Zellen tatsächlich aufgeben. Test (schon älter) z.B. https://techreport.com/review/the-ssd-endurance-experiment-theyre-all-dead/

oder im Anhang (das Forum gibt es nicht mehr, aber damals als Screenshot gesichert)
Ergänzung ()

Gullveig schrieb:
Die SSD hatte nie ein TB, sondern war eine "frisierte" SSD mit 250GB.

Ich hab mehrere SD Karten von Aliexpress hier, die auf die gleiche Weise gefälscht sind.
da ist vielleicht wirklich eine SSD drin, vielleicht mit umgelöteten Chips aus USB-Sticks und manipulierter Firmware.
Mit Pech ist es nur ein SD2SATA Controller mit 16/32/64GB MicroSD-Karte und ebenfalls manipulierter Firmware.
 

Anhänge

Zuletzt bearbeitet:
FUSION5 schrieb:
Folge ist dann, dass eine SSD ohne Spare Blocks irgendwann sicher tot ist.
Jein. Also allenfalls korrekt, wenn du mit Spare Blocks sowohl die Reserve, über die wir bisher sprachen, als auch nicht genutzte Bereiche innerhalb des zugeordneten Speichers meinst - denn sonst kann der Refresh auch auf eine logisch allokierte, aber eigentlich noch leete Zelle gehen, in der keine Daten liegen.
Will sagen: Reserve sind die, die Brutto da sind, aber nicht netto "beworben" werden. Leer sind solche, die Teil der Netto-Kapaität sind, aber (noch) keine Informationen tragen.

Rein technisch könnte der Controller aber auch in derselben Zelle refreshen, gerade wenn es keine freien oder neuen Zellen mehr gibt.
 
Zurück
Oben