Test WD Red Pro 26 TB im Test: Elf Magnetscheiben gegen die Laser-Technik HAMR

Spriti schrieb:
Die Frage ist doch dann, ob man überhaupt noch ein RAID braucht? (außer man brauch mehr Platz oder mehr Performance)
Ich finde RAID eine unnötige komplexe Zusatzstufe, die man sich schlicht sparen kann (privat gesehen).

Dann lieber ein paar Euro mehr in das Backup investieren, damit man es im Falle eines Falles schneller zurückspielen kann.
Es gibt aber nicht nur oder sondern auch und. Ich finde gerade RAID 5 interessant. Doppelte Geschwindigkeit und eine Ausfallsicherheit. Klar Backup braucht man so oder so. Aber das beste ist man hat dann tonnenweise Preiswerten Speicher mit bis zu 500-600MBs und kann jederzeit erweitern. Mit viel Arbeitspeicher hat man sogar großen Cache und kann zweitweise sogar 10GBlan mit hdds ausreitzen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und Dark_Soul
Haldi schrieb:
Die Frage ist wie lange wird deine Downtime akzeptiert.
Erstmal neue Platte kaufen. Dann backup einspielen.
Hast du 2-3 Tage Zeit?
Komische Frage, ein rebuilt eines Raid kann auch 2-3 Tage dauern. Je nach Festplattengröße.... 🫣 Ich, persönlich bevorzuge ein unraid.
 
Wir nutzen in unserem Backup-Server 24 "kleine" HDDs (4 und 8TB). Warum ? Weil wir Geschwindigkeit brauchen. Und das geht nur mit vielen "Spindeln". Aufs Band muss ein möglichst durchgehender Stream mit 200-300 MB/s, lesend beim Überprüfen der Bandsicherung müssen die HDDs dann auch durchgehend 300 MB/s liefern, und das bei 15 Mio Dateien (Aufbereitet durch ein Backup Programm).. Dann werden bei uns über 100TB gelesen und 40TB geschrieben - jede Woche, und das 5-6 Jahre lang, den Datenverkehr durch die Deduplizierung noch gar nicht mitgerechnet.. Ich denke, da wären ein paar wenige dieser großen Klopper einfach überfordert..
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Rawday, Haldi und eine weitere Person
Spriti schrieb:
Wenn, dann würde ich ein einfaches schlichtes RAID 1 machen, 2 HDD gespiegelt, fertig. Dafür braucht man auch keine teuren Controller oder Zusatztechnik.

Für ein Software-RAID5 oder 6 brauchst du auch keine "teuren Controller oder Zusatztechnik".

Mit nem RAID können erkannte Fehler automatisch aus der Redundanz bzw. über die Parität korrigiert werden. Das ist ein Vorteil von RAID im Hinblick auf Datenintegrität. Auch erhält man durch ein RAID mehr Geschwindigkeit. Ein Scrub mit mehreren Festplatten im RAID geht deutlich schneller als mit wenigen. Irgendwie und irgendwann sollten Daten auch mal geprüft werden (HDDs halten Daten nicht ewig sicher) - hier ist ein RAID dann eine komfortable Sache aus den genannten Gründen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und andy_0
Banned schrieb:
Irgendwie und irgendwann sollten Daten auch mal geprüft werden (HDDs halten Daten nicht ewig sicher) - hier ist ein RAID dann eine komfortable Sache aus den genannten Gründen.
Dem würde ich energisch widersprechen. Ein Raid ist kein Backup und auch auf den Paritätsplatten können einzelne Bits kippen.

Mich würde mal interessieren, wie heiß die Platten werden, im workload. 1 Platter mehr heißt ja 10% mehr Reibung im System.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
Joshua2go schrieb:
Dem würde ich energisch widersprechen.

Wieso? Wenn du z.B. ein ZFS-RAID hast, hast du zusätzlich die Prüfsummen auf Dateisystemebene. Wird hier ein Mismatch festgestellt, kann aus der Redundanz bzw. über die Parität korrigiert werden, sofern sonst keine Fehler festgestellt werden. Bei einem einfachen RAID wird über die Parität bzw. mit der Redundanz geprüft. Auch hier kann dann korrigiert werden, sofern die Sektor-Prüfsummen auf Firmware-Ebene der anderen Laufwerke okay sind. Anderenfalls wird ein Fehler ausgegeben bzw. wird eben nicht korrigiert.

Joshua2go schrieb:
Ein Raid ist kein Backup

Hat wer gesagt?

Joshua2go schrieb:
und auch auf den Paritätsplatten können einzelne Bits kippen.

Und?

Am Ende sieht es doch so aus: Du führst irgendein Verfahren durch, um die Daten zu überprüfen. Hast du ein RAID, kann automatisiert korrigiert werden, sonst logischerweise nicht. Kann nicht korrigiert werden mit als fehlerfrei erkannten Daten, wird logischerweise auch nicht korrigiert.

Am Ende brauchst du eben irgendeine Methode, um die Integrität der Daten prüfen zu können (sonst ist auch das Backup nur bedingt viel wert). Mit ZFS etc. kannst du einen Scrub durchführen (egal, ob RAID oder nicht). Mit einfachem RAID kannst du ebenfalls einen Scrub durchführen. Hier wird dann über die Parität oder Redundanz verglichen. Das geht verhältnismäßig schnell. Wird ein Fehler erkannt, wird geschaut, wo nicht über den ECC der jeweiligen HDD korrigiert werden konnte.
Hast du eine einzelne HDD ohne ZFS etc., lässt du chkdsk /r o.Ä. laufen, was mit den Sektorprüfsummen abgleicht. Dauert halt ziemlich lange.
Alternativ zu ZFS- etc. kann man manuell Prüfsummen durch ein Backup-Programm anlegen lassen. Dauert zum Überprüfen aber noch mal deutlich länger, wohingegen ZFS selbst ohne RAID viel schneller ist beim Abgleich, da es mit Block-Prüfsummen vergleicht und nicht für komplette Dateien.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai und MalWiederIch
Ich finde es sehr merkwürdig, dass die grossen/"neuen" WDs im "Quick System Drive Benchmark" soviel schlechter abschneiden, als bei allen anderen Benchmarks und Einzeldisziplinen - was bleibt denn da noch übrig, was im "Quick System Drive Benchmark" den Ausschlag gibt? Cache?

Vll hat der "Quick System Drive Benchmark" eine Anomalie oder gibt den kleinen HDDs einen anderen Benchmark, oder normalisiert den Score intern an der Plattengroesse...?
 
Nicht schlecht. Nachdem meine 3TB Platten im Synology langsam voll werden muss ich mir eh mal was überlegen.
Ich hab die im Raid1 laufen seit über 10 Jahren. Bis dato kein Ausfall. Externe Sicherung natürlich Vorhanden.
 
Luigi93 schrieb:
Als Datengrab immer noch unersetzbar
Ich frag mich ja bei sowas immer - rein aus Interesse - was die Leute so speichern. Habe ~35.000 selbstgeschossene Fotos und viele Stunden 4k 60fps Drohnenvideos und mir wird eine 2TB noch Jahre langen.
Handelt es sich fast immer um Videoaufnahmen in großen Auflösungen oder was ist sonst so Speicherintensiv im Privatbereich? Wie gesagt rein aus Interesse.

Grüße
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Abrexxes schrieb:
Egal. RED ist für Dauerbetrieb und haben deswegen stabilere und robustere (schwerere) Bauteile als zb eine BLUE. Die sollen im Bestenfall nur einmal hoch fahren. :)
Alle WD SATA Platten ab 14 TB (bis vor wenigen Monaten war die Grenze jahrelang bei 12 TB) basieren innerhalb der TB Schiene unabhängig von der Modellreihe auf derselben Hardware - erkennt man an der aufgedruckten R/N Nummer. d.h. die Unterschiede in den Specs kommen ausschließlich durch unterschiedlich optimierte Firmware zustande. Ultrastar, Gold, Purple, Red Pro/Plus, Whitelabel - Hardware immer identisch...

Die Blue ist tatsächlich anders, aber die gibt es ja nur in den kleinen Kapazitäten in Luftgehäusen...
Ergänzung ()

Sebbi schrieb:
für mich wäre nun die Frage interessant, welche Technik zuverlässiger vor Bitflips nach dem Schreiben schützt

Energy-Assisted Perpendicular Magnetic Recording (ePMR) oder Heat-Assisted Magnetic Recording (HAMR)

ich könnte mir durchaus vorstellen, das HAMR hier besser ist, da wohl Hitze nötig ist für die Änderung der Ausrichtung oder? Sozusagen wie die Ausrichtung von Magnetit in Lava. Und eine so starke Temperaturerhöhung ist zufällig in einen so kleinen Bereich eigentlich nicht möglich.
Ich könnte mir auch das Gegenteil vorstellen. Bei HAMR kühlt die Oberfläche nach dem Schreiben ja gleich wieder ab, die Erhitzung wirkt also nicht dauerhaft. Am Ende haben wir sowohl bei konventionellen Platten als auch HAMR Platten ganz platt gesagt dieselbe Situation, dass pro Bit eine gewisse Fläche der Platteroberfläche magnetisiert ist. Und die Verflüchtigung der Magnetisierung (bzw. die Chance beim Lesen auf den korrekten Wert 1/0 zu kommen) hängt erheblich von der Größe dieser magnetisierten Oberfläche ab. Und die ist eben bei HAMR Platten deutlich kleiner, genau deswegen macht man das ja. Würde für schlechtere Langzeiterhaltung der Daten sprechen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai
herrStreusalz schrieb:
Frag mal 3 meiner 6 5 TB WD Reds. Bei deren SMART Self Test Logs würde würden Leute mich für verrückt erklären. Nach ungefähr 30-40k Betriebsstunden fing der Long Test an fehlzuschlagen. "Reparieren" konnte man das indem man die gesamte Platte einfach neu beschrieben hat. Die Firmware hat es aus irgendeinem Grund nicht interessiert. Versuchte man den Sektor einfach auszulesen, dauerte es eine halbe Sekunde und die Daten kamen. Schön ist das nicht, aber immerhin kein Datenverlust und kein Zwang die Dinger auszutauschen, wenn man seinen Replicas traut und eine Spare Platte hat. Eine zugekauft Platte mit guten 90k Betriebsstunden hatte das Problem übrigens vom vorherigen Besitzer unbemerkt auch.

Leider fallen die Preise pro TB einfach kaum noch, sondern es wird einfach nur nach oben angebaut. 13,55 Euro/TB, wenn man gleich 20 TB kauft. Direkt wieder über 200 Euro. Davon 4 Stück... Das geht ins Geld. Aber irgendwie fühlen sich 4 TB für 95 Euro auch falsch an.

Aber ich finde weiterhin, dass HDDs weiterhin nicht für tot zu erklären sind. Auch wenn sie "langsam" sind, reicht die Geschwindigkeit für viele Fälle bei großen Daten einfach aus. Als Datengrab kann ich mir weiterhin kein besseres Medium vorstellen. Wenn man die Platten nicht permanent am Strom hat, weil man sowieso nicht 24/7 damit arbeitet, geht das über das Jahr auch völlig klar. Wobei man sich dann den Aufpreis für eine 24/7 "zertifizierte" Platte (man erkläre mir, warum "normale" Platten das nicht können) sparen kann.

180+ MB/s sind für Festplatten wirklich schöne Werte, vor allem da es keine SMR Platten sind, die nach 40-80 GB einbrechen.
Was mich etwas wundert, ist die niedrige Leistungsaufnahme im Idle. Immerhin rotieren die 11 Platter (eventuell mit verminderter Geschwindigkeit?). Standby von 1,1 oder 1,2 W finde ich bei den 24/7 Platten schon etwas lustig. Etwas hoch für nur die Platine, aber wahrscheinlich völlig vernachlässigbar. :)
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und herrStreusalz
Ich finde es in der Preisklasse etwas fragwürdig, wenn der Hersteller Geld dafür nimmt, dem Kunden zu versichern, dass es auch wirklich eine neue Platte aus dem Werk ist. Klar ist man da als Hersteller nicht vor Fälschungen sicher, aber dann muss man seine Vertriebswege evtl auch mal abklopfen.
 
Das hat der Hersteller vermutlich nie behauptet sondern ist ein Schluss des Autors. Wer beim Hersteller direkt kauft bekommt halt garantiert dessen Ware. WD hat immerhin einen Shop für Endverbraucher, Seagate meines Wissens nicht.

Im Fall der 26 TB Platten ist das eh völlig Wurst. Wenn man die im freien Handel kauft, kann das auch keine umgelabelte, 5 Jahre gelaufene Gebrauchtware sein. Schließlich gibt es das Modell erst seit kurzem...
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, MalWiederIch, eastcoast_pete und 2 andere
Fur den Preis muesste WD die Seagates um Klassen distanzieren.
Fuer Home-User ist natuerlich die Geraeuschmessung essentiell... also.
 
Purche schrieb:
WD hat immerhin einen Shop für Endverbraucher, Seagate meines Wissens nicht.
Direkt bei Seagate kann man auch online Festplatten kaufen.

Toshiba hat meines Wissens nach keinen Online-Shop. Eventuell gibt es da aber was für Enterprise-Kunden.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, AlphaKaninchen und LinuxKnochen
Ich kaufe nur noch beim Hersteller, da ein bekannter Hardwareversender meinte, mir immer OEM-Festplatten ohne die 5 jährige Garantie und teuer Geld liefern zu dürfen.
 
  • Gefällt mir
Reaktionen: MalWiederIch, LinuxKnochen, ÖX45 und eine weitere Person
Püppl schrieb:
Ich frag mich ja bei sowas immer - rein aus Interesse - was die Leute so speichern.

Der UHD-BD-Remux eines Kinofilms kommt gut und gerne mal auf 80 GB, mehr ist natürlich immer möglich. Mit Serien geht aber noch viel mehr. The Sopranos, 6 Staffeln FullHD, insgesamt 360 GB. The X Files, 11 Staffeln FullHD, insgesamt 1,9 TB. Bei einer stetig wachsenden Medienbibliothek kommt da schon so einiges zusammen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, MalWiederIch, eastcoast_pete und 2 andere
Die UER sind 10^15 Bits, also ein UER pro PB - also man muss die Platte 38 Mal lesen oder beschreiben um 1 nicht lesbares Bit zu erhalten.

In einem RAID kann dieses dann durch das Parity bit korrigiert werden.
Das Rebuild schlägt nicht fehl wenn eine andere HDD mal ein URE hat - es müssen mehrere UREs auftreten bis ein RAID Controller die HDD als "failed " markiert.

Bei einem rebuild mit 100mb/s ist das Risiko eines kompletten Datenverlustes unter berücksichtigujg der AFR und UER raten bei einem RAID 5 mit 6 HDDs ca 73 Jahre..

Also "unbrauchbar/ein in kalkulierbares Risiko" ist ein RAID 5 ganz sicher nicht...

Fakt ist aber auch dass man gefälligst ein Backup haben muss, zb bei VMs eine Replikation die man schnell aktivieren kann...

Wer mehr braucht nimmt halt ein RAID 6 oder RAID50/60 oder ZFS Z1 oder 2

Aber unbrauchbar ist ein RAID auch heute in 2025 nicht lange nicht wenn man entsprechend abgesichert ist...
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und LinuxKnochen
Zurück
Oben