Test Synology DS425+ im Test: Mit DSM 7.3 kehrt die freie HDD-Wahl im NAS zurück

Ich dachte gerade "die CPU hast du doch auch in deinem über 5 Jahre alten NAS". Und tatsächlich, meine DS920+ hat genau die gleiche CPU verbaut. Lange wird das so nicht mehr gut gehen, Synology. Euer DSM ist gut, deshalb werde ich auch erstmal bei euch bleiben. Hoffe aber, dass die kommenden Generationen von Geräten moderner werden. Die Möglichkeit für optionales 10Gb/s gibt es ja aktuell auch nicht bei den etwas günsteren Geräten.
 
Zuletzt bearbeitet:
Ich frag mich echt warum sie die Hardware nicht upgraden. Der UVP vom Intel N100 liegt wohl um die 50USD. Der Celeron J4125 liegt vielleicht bei 25USD. D.h. wir reden von um die 25USD unterschied. Selbst wenn sie die kosten komplett umlegen, ich denke die meisten von uns würden gern die €30 mehr bezahlen für fast 100% höhere CPU Leistung. Aber wann will wohl paar € Entwicklungskosten sparen, ich denke die Methode geht aktuell nach hinten los.
 
  • Gefällt mir
Reaktionen: ALPHA-S
Naturtrüb schrieb:
...wenn man sich auf den kleinsten gemeinsamen Nenner zu überhöhten Preisen beschränken will - go for it.
Es ist eben nicht alles Hardware...

The biggest bang for the buck gibt es auch nicht bei der Konkurrenz, sondern im DIY. Wenn man das will, bitte. Wenn man Ruhe möchte, dann ist Synology kein schlechtes Angebot.
 
  • Gefällt mir
Reaktionen: muvmend, coolfabs, sebish und eine weitere Person
Naturtrüb schrieb:
...wenn man sich auf den kleinsten gemeinsamen Nenner zu überhöhten Preisen beschränken will - go for it.
Mir ging es nur um die allgemeine Aussage bezüglich Prozessoren in einem NAS.
Ich selbst kaufe ganz sicher keine Synology mehr, da habe ich mittlerweile weitaus besseres.
 
Araska schrieb:
Die kleinen Celerons können maximal 8GiB.
Lt. Datenblatt, ja. Praktisch geht aber wohl mehr. Ich habe in meiner DS224+ ebenfalls einen 16 GB Riegel stecken und damit effektiv 18 GB, die mWn. auch genutzt wurden als ich mal mit VM's auf dem NAS rumgespielt habe. (Kann es grad nicht mehr testen da ich mein NAS nur noch als Cold-Storage nutze, für aktive Sachen bzw. als Homelab nutze ich nun einen selbstgebauten Server mit ausrangierten SSDs)
 
Ich besitze zwei NAS von Synology und bin mit ihnen an sich zufrieden.
Aber nach dem move mit der Einschränkung auf Synology HDDs ist der Hersteller bei mir unten durch.
 
supermanlovers schrieb:
Welche M2 SSD bietet sich als Cache an?
Auf jeden Fall eine NVMe mit einem hohen TBW-Wert. Das wären aktuell die NM790 von Lexar oder die Black Opal von Biwin. Grundsätzlich bringt ein NVMe-Cache vielen Privatusern nichts.

Warum der Artikel so lang sein muss, verstehe ich nicht. Bis auf den geänderten Netzwerkport unterscheidet sich das Gerät nicht von den 2020er und 23er-Geräten. Warum die einfache RAM-Aufrüstung aufgeführt ist, kann ich nicht verstehen, da die DiskStation schon eine Diva ist und nicht jeden RAM annimmt. Dazu kommt noch, dass das maximale 16-GB-Modul heute nicht mehr zeitgemäß ist. Auch die NVMe lassen sich seit Jahren als Volumen mit der Ausführung eines einfachen Skriptes einrichten.

Die hier angepriesene und ausgereifte Software und Apps sind schon lange nicht mehr, was sie einmal waren. Viele Pakete sind stark veraltet oder schon EOL. Bei einigen Apps schafft es Synology seit Jahren nicht, das aktuelle ECC-Zertifikat anzupassen. Bestes Beispiel dazu ist der Hyperbackup-Fault. Im Unterbau, ist DSM auch eher altbacken und auch passend zu der Hardware schon lange nicht mehr auf der Höhe der Zeit.

Selbst bei den Lüftern gehen die Meinungen auseinander und etliche der grünen Pluspunkte gehören eigentlich auf die andere Seite. Auch bei der Hardwarecodierung bin ich mir nicht ganz sicher, ob diese getätigte Aussage auch so stimmt, hat doch Synology vor kurzem eine Anpassung am Treiber und Codec vollzogen? Ich würde gerne wissen, ob diese Aussage auf einem aktuellen Test basiert oder einfach nur von einem alten Test übernommen wurde. Synology schafft auch gerne die eine oder andere beliebte App ab und verweist auf externe Dienste wie Plex. Noch nicht einmal einen Kalender oder ein Adressbuch bekommen sie richtig hin. Immer wieder gibt es Synchronisierungsprobleme und nötige Anpassungen. Andere Dienste wie Baikal oder Nextcloud laufen seit Jahren stabil, ohne Probleme. Grundsätzlich sind die Apps bis auf Backup und Photos von Synology eher schlecht umgesetzt.

Nachdem der Autor in seinem Beitrag zu DSM 7.3 genug Hinweise bekommen hat, hätte man diese auch in den aktuellen Beitrag einfließen lassen können. Letztendlich kann man die Aussagen 1:1 übernehmen. Irgendwann wird man müde, die Sachen und Fehler immer wieder aufzuzeigen und richtigzustellen bzw. aufzuwärmen.

Ich kann schon verstehen, dass viele User das Verhalten kritisch sehen, gibt es doch immer mehr Alternativen. Für einen Anfänger ist das Ganze noch okay. Wer mehr will, wird schnell darüber hinauswachsen und sehen, was Synology für einen alten und überteuerten Klotz (Hardware & Software) bietet.
 
  • Gefällt mir
Reaktionen: twx24 und Organix
Araska schrieb:
Die kleinen Celerons können maximal 8GiB.

Welchen Sinn (außer Kostenoptimierung auf dem Rücken des Kunden) hat es, 2GiB zu verlöten, und damit sicherzustellen, daß spätestens bei 6GiB Schluß ist?

Warum kann Syno keine 4GiB verlöten?
Oder, falls 4GiB viiiiel zu teuer sind: Warum keine zwei Steckplätze (mit einem 2GiB-Riegel) wie bei früheren Synos?
Bullshit!
habe auch einen INTEL Celeron J4025 und 18GB (2gb+16gb) + 512GB Cache SSD installiert zum meinen 4x 6TB HDDs.

Nur weil es Intel schreibt, heißt es nicht, dass es nicht geht. Microsoft sagt auch ich kann einen i7-2600k nicht auf Windows 11 updaten, ein Reg Key und das Update läuft selbst mit 25h2...

HP schreibt es sogar selbst in den Datasheets: https://www.mikkyworld.com/product/hp-slim-desktop-intel-celeron️-j4025-256gb-ssd-4gb-ram-wifi-bt-win11-usb-keyboard-mouse-bundle-w-headphone-microphone-bundle/ ... "Expandable up to 16GB for improved multitasking"

Habe im Docker ein paar Anwendungen laufen und bin jetzt bei 14,8GB (82%)
 
Zuletzt bearbeitet:
@Araska
@Marc

Ich finde nichts dazu, aber Gimini Lake sollte 39bit zum Ansprechen von physischem Speicher haben. Also 2^39 Byte = 512GiB und 48bit zum Adressieren von virtuellem Speicher. Die CPUs können also reichlich Speicher fressen, wurden aber nie mit derart großen Modulen getestet.
 
Zuletzt bearbeitet:
Simanova schrieb:
Nur zu schade, dass jetzt tausende NAS mit DSM 7.2 in den Händlerregalen liegen und der Kunde weiterhin betrogen wird. Das manuelle Upgrade sollte ausführlich bei der Inbetriebnahme durch den Hersteller erklärt werden.
Ich find den Part im Test irgendwie sehr seltsam beschrieben. Kein Synology NAS wird mit DSM 7.2 ausgeliefert und liegt entsprechend auch nicht damit bei den Händlern. Bei der Einrichtung wird DSM erst in der neuesten Version heruntergeladen bzw. kann der Nutzer die entsprechende Datei auswählen. Installiert wird es dann auf den HDDs. Ohne HDDs gäbe es nichtmal genug Speicherplatz dafür.
 
  • Gefällt mir
Reaktionen: Purche
Die gleiche veraltete Hardware, die schon vor 2 Jahren veraltet war, die Schwachsinnsaktion mit den Festplatten bis zur Rolle rückwärts,...

Danke, aber nein danke.
Im Keller steht das ugreen 6800pro und ein ryzen 7900 mit 96gb RAM und je 2 Samsung 980 pro und wd black 8tb SSDs.

Da ist weder Platz noch Bedarf oder Interesse an Synology übrig.

Verkackt auf ganzer Linie.
Sorry Synology, so wird das nix.
 
  • Gefällt mir
Reaktionen: Fliz und MidwayCV41
Lanx schrieb:
Für ein Gerät das Docker unterstützt spielt die CPU schon eine Rolle, man muss nicht immer nur von der Basisfunktionalität ausgehen. (AdGuard oder Pihole, Jdownloader, Plex um nur einige zu nennen)
Da limitiert dir hier bestimmt der RAM, bevor die CPU eine Rolle spielt. Deshalb finde ich Ugreen aktuell auch das bessere Paket, wenn man keinen Server haben möchte, aber viel auf Docker setzt. Bei der DXP habe ich 8GB RAM und den N100.
 
Eine Frage an alle die immer sagen das Synology Leistung schwache Hardware anbieten.
Was lässt ihr auf einen NAS laufen was ein j4125 oder Ryzen V1500B nicht kann?

Bei mir läuft auf ein V1500B:
  • Samba (direktes Arbeiten über Netzlaufwerke)
  • meine Webseite
  • ca. 20 Docker Container (Jellyfin, Navidome, PiHole, fail2ban, Trillium, Minecraft Server (sehr viele Mods 8GB RAM), SmartHome( Grafana, Homeassistent, NodeRed und MQTT) usw.)
  • Windows Server 2016 als Gaming Server für Stationeers
  • WebDav Cloud Zugang
  • Hyperbackup und Aktiv Backup for Business

Und das alles Parallel und die CPU ist gerade Mal bei 40% Auslastung und von 64GB RAM sind 30GB RAM belegt.

Die Performance ist in jeder Anwendung und Netzwerk spitze.

Daher die Frage, für welche Anwendungen braucht ihr den die aktuellste CPU mit der Leistung?

Den einzigen Grund den ich eigentlich sehe ist das aktuelle CPU mit gleicher Leistung effizienter im Stromverbrauch sind, aber von effizient redet kaum jemand sondern viele schreiben nur lieber Ugreen wegen der mehr Leistung. Aber wofür?
 
"Test" aha dabei wird unterschlagen, dass Synology mehrfach Funktionen weggenommen hat und noch immer aktiv ohne Not blockiert und sabotiert. Als Kunde darf man nicht damit rechnen, dass sein teuer bezahltes Synology NAS auch noch zukünftig so nutzbar ist wie es gestern war.
 
Arboster schrieb:
Aber leistungstechnisch unterdimensioniert ist ja wohl quatsch.
Die Gen 2 ist zwar etwas flotter, aber immer noch viel zu unterdimensioniert.

 
raychan schrieb:
Eine Frage an alle die immer sagen das Synology Leistung schwache Hardware anbieten.
Was lässt ihr auf einen NAS laufen was ein j4125 oder Ryzen V1500B nicht kann?


Ich habe jetzt einen Server für space engineers, ark, Minecraft, vintage Story, TS, pihole, Home Assistant und bissl Kleinkram laufen.
Läuft alles unter proxmox jeweils als separate VM.
Hatte ich auf einem ryzen 3600 und da liefen die Server nicht richtig rund.
Der 7900 ist in Spitzen gut ausgelastet, der RAM auch, aber das dürfte eher belegt als wirklich im Einsatz sein.
 
raychan schrieb:
Daher die Frage, für welche Anwendungen braucht ihr den die aktuellste CPU mit der Leistung?
Da reichts, wenn Plex den Datenbankscan inkl. Intro/Credits-Erkennung startet und schon schießt die CPU auf 100% rauf, alles andere ist dann nur noch sehr träge benutzbar.

Oder Untertitel müssen eingebrannt werden, was nicht über die iGPU läuft -> Totalausfall.

Pakete extrahieren dauert auch sehr lange.
 
Too little, too late oder wie man so sagt. Alte CPUs, minimale RAM-Ausstattung, Netzwerkschnittstellen erst 2025 halbwegs auf Stand, Festplattenrestriktionen, ... Alle laufenden Synology-NAS(en) werden bei anstehendem Upgrade gegen einen anderen Hersteller getauscht. Die verkauften Geräte der letzten Monate wären mal interessant.
 
Zurück
Oben