Erfahrungen eines Linux unerfahrenen Gamers - Ein Tagebuchthread

Pummeluff schrieb:
Bei Auswahl des System-Proton konnte Witcher meine Spielstände nicht mehr finden
Wenn es die unangepasste Proton-Version aus Steam ist, dann legt er quasi ein neues Home Verzeichnis für den User "Steam" an.. Irgendwie so war das, deshalb sind die GE-Proton Veriante dahingehend angepasst, dass das eigene Home-Verzeichnis genutzt wird. Daher auch überhaupt erst die Trennung zwischen den zwei Verschiedenen GE Verianten.
 
  • Gefällt mir
Reaktionen: Ranayna und Kuristina
Das lässt sich aber doch sehr leicht umkopieren. Sehe da kein Problem.
Einfach mal unter "user" (Benutzer) schauen:
  • <DeinName> => Wine/Wine-GE-Custom/Wine-GE-Proton usw.
  • steamuser => Steam-Proton, Proton-GE-Custom, tKG-Proton, Proton-Experimental usw.
  • andere %AppData%-Pfade können z.B. durch Engines wie UE4 angelegt werden
Also einfach mal schauen, was sich da so alles im user-Ordner befindet, nachdem man einen anderen Runner genutzt und das Spiel abgespeichert hatte.
 
Ranayna schrieb:
Ich trete auf der Stelle, weil ich vielleicht zu vorsichtig gegenueber "Experimenten" unter Linux bin, und daher wenig neues ausprobiere, weil ich einfach nicht weiss welcher potenzielle Rattenschwanz dran haengt, wenn ich dann doch mal was kaputtmache.
Kein Überredungsversuch, nur als Tipp fürs nächste Mal und für andere:

Linux lässt sich leicht per rsync sichern und wiederherstellen. Ich sichere mehrstufige, wobei ich unveränderte Dateien per Hardlinks übernehmen lasse und dadurch sehr viel Platz spare:

In 10 (0-9) on demand Stufen (wenn ich etwas gravierendes geändert habe, oder bevor ich etwas neues ausprobieren möchte.

Und in 10 monatlichen Stufen, so dass ich immer noch etwas wiederherstellen kann, wenn mir erst nach einem halben Jahr auffällt: "Ich hätte es besser doch nicht löschen sollen…“ :)


Nachtrag:

So sieht das aus (das Änderungsdatum ist von wann die Sicherung ist):

rsync.png

Das ist die Plattenbelegung:
Code:
$ sudo compsize Artix_*
Processed 3811754 files, 599406 regular extents (2410752 refs), 1837378 inline.
Type       Perc     Disk Usage   Uncompressed Referenced 
TOTAL       81%       57G          70G         535G      
none       100%       50G          50G         459G      
zstd        35%      7.1G          20G          75G
  • Referenced ist die Datenmenge würde ich keine Hardlinks nutzen
  • Uncompressed ist die effektive Datenmenge (wie gesagt: spart sehr viel Platz)
  • Disk Usage ist das, was durch die Komprimierung (zstd:2) davon noch übrig bleibt.
Das sind nur das System und die relevanten Daten.

Alle andere Daten sichere ich nicht mehrstufig. - Also die habe ich auch mehrfach, aber auf jedem Sicherungsmedium nur einmal.

Die allererste Sicherung wird entsprechend der Datenmenge dauern, aber jede weitere von SSD auf SSD (egal ob intern oder USB3) üblicherweise 20-30 Sekunden. - Genauso lange dauert es, einen vorherigen Stand wiederherzustellen.

Man braucht vor Experimenten nicht zurückschrecken, wenn alles einfach wiederherstellenbar ist. - Sogar ein vollständige zerschossenes Systemlaufwerk ist dann trivial: Livesystem booten, Sicherung wiederherstellen, fertig. :)

Wie ich genau sichere, habe ich hier beschrieben und gezeigt: Komplettsicherung mit Video

Auf die gleiche Art (per rsync) habe ich mein Produktivsystem als überall *) bootfähige 1:1 Kopie auf mein Super-SoS bekommen und halte es aktuell.

*) jeder x86-64er PC, der im BIOS/CSM-Modus von USB booten kann
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ranayna, Deinorius, Kuristina und 2 andere
Da wird das ganze hochgeholt, wo ich letztens noch ueberlegt habe den eigendlich total veralteten Link aus meiner Signatur zu entfernen. :D

Und ich bin tatsaechlich ueberrascht dass das ganze schon fast zwei Jahre her ist. Wie die Zeit fliegt. :mussweg:

Demnaechst werde ich aber wieder umstellen. Microsofts Verhalten hat sich ja leider - wenig ueberraschend - kein Stueck veraendert. Und die Sachen in Windows 11 die fuer mich nicht tragbar werden, werden nur mehr und mehr.

Und auch auf der Arbeit wird es weniger. Dank neuer Rechtestrukturen darf ich nichtmal mehr einen Client diagnostizieren, und der eine Windows Server den meine Arbeitsgruppe noch betreuen darf hat sich wahrscheinlich im Laufe des naechsten Jahres auch erledigt. :D
Dann hab ich zwar immer noch einen Windows 11 Client mit dem ich notgedrungen arbeiten muss, aber damit werd ich wohl noch weiter klarkommen.
 
  • Gefällt mir
Reaktionen: TechFunk, Hyourinmaru und Caramon2
Ranayna schrieb:
Demnaechst werde ich aber wieder umstellen.
Bitte kein Ubuntu oder Derivat, da die m. E. unter der Haube immer mehr vermurksten und ich nicht abschätzen kann, wie lange meine Art der Sicherung damit noch funktioniert. - Für mich war schon die 2018er Version zu verhunzt und nach dem wie es sich seit dem entwickelt hat - und Canonical noch alles plant, ist das in meinen Augen gar kein richtiges Linux mehr.

Ich empfehle LMDE (wie hier im Eröffnungsbeitrag gezeigt), damit funktioniert auch alles was ich mir mittlerweile bei meinem Arch-Derivat angeeignet habe.

Zum Vergleich: Bei LinuxMint 19 (Ubuntu 18.04) funktionierte zum Teil nicht mal mehr das, was ich bis LinuxMint 18.3 (Ubuntu 16.04) genutzt habe: Mit Arch und LMDE dagegen weiterhin kein Problem.

Am besten einfach nur merken: Ubuntu ist böse! - Finger weg! ;)

@All: Wie gesagt: Meine eigene, auf eigenen Erfahrungen basierende Meinung. - Wer andere Erfahrungen damit hat, "darf" es gerne weiter nutzen: Ich bin kein Missionar und es leid sinnlose Diskussionen darüber zu führen: Nutzt die Suchfunktion.

Manjaro habe ich auch mal eine Zeit lang genutzt, aber es war mir auf Dauer zu vermurkst. - Nach div. Berichten, die ich dazu immer mal wieder lese, scheint sich daran nichts geändert zu haben.

Ich nutze Artix-Xfce-Runit: Das ist definitiv nichts für Einsteiger, oder wenn man den PC einfach nur nutzen möchte. - Mir macht es dagegen Spaß Probleme zu lösen und dadurch das System immer besser kennenzulernen.

Zu EndevourOS (oder so) habe ich schon oft gutes gelesen (ich habe es nie genutzt) und Garuda scheint auch gut zu sein.
 
  • Gefällt mir
Reaktionen: Deinorius, Tanzmusikus, Anullu und eine weitere Person
Caramon2 schrieb:
Bitte kein Ubuntu oder Derivat
Ne, Ubuntu stand nie zu Debatte :D
Auch ganz ohne die SNAP Sache - die ich letzendlich mangels Erfahrung nicht beurteilen kann - hat Canonical sich fuer mich disqualifiziert, weil sie ein paar Sachen gemacht haben, die sie direkt von Microsoft kopiert zu haben scheinen.

Entweder wird es wieder Manjaro, Fedora, oder OpenSUSE Tumbleweed. Ein (Semi) Rolling-Release mit nativem KDE Plasma.
An meiner Praemisse so wenig wie moeglich mit der CLI machen zu muessen werde ich festhalten, dementsprechend ist mir eine grafische Paketverwaltung wichtig. Deswegen ist Endeavour eher raus, auch wenn man die da auch nachinstallieren kann.
 
  • Gefällt mir
Reaktionen: Caramon2 und BeBur
Caramon2 schrieb:
Linux lässt sich leicht per rsync sichern und wiederherstellen. Ich sichere mehrstufige, wobei ich unveränderte Dateien per Hardlinks übernehmen lasse und dadurch sehr viel Platz spare

Interessanter Ansatz. Ich hab das gesplitet zwischen Hauptsystem und Home. Das Hauptsystem wird bei jedem Update durch Snapper gesichert. Die Snapshots werden direkt in Grub eingebunden und sind bootbar, falls was ist. Diese zusätzlich nochmal zu speichern ist mir too much. Home wird aber täglich von Borg automatisiert abgefragt und auf einen zweiten Datenträger gesichert. Einmal im Monat wird dieses Archiv dann mittels rsync-Skript mit einem externen Datenträger abgeglichen. Allein die depulizierende Eigenschaft von Borg hat die Größe des Datenbestands im Backup fast halbiert.
 
Ranayna schrieb:
hat Canonical sich fuer mich disqualifiziert, weil sie ein paar Sachen gemacht haben, die sie direkt von Microsoft kopiert zu haben scheinen.
Ich sage auch gerne, dass Canonical für mich das Microsoft der Linux-Distributoren ist. :)

Ranayna schrieb:
Entweder wird es wieder Manjaro, Fedora, oder OpenSUSE Tumbleweed. Ein (Semi) Rolling-Release mit nativem KDE Plasma.
Zu Manjaro hatte ich schon geschrieben, SUSE war schon 2008 bei meinen ersten Versuchen mit Linux durchgefallen *) und auch als ich mich vor ca. 2 Jahren informiert habe, habe ich nichts gelesen, das meine Meinung geändert hätte, sondern sie wurde eher bestätigt (ohne das genauer definieren zu können: es geht mir einfach irgendwie gegen den "Strich"), aber da dort momentan sowieso einiges im Umbruch ist, wäre es jetzt sowieso nicht sehr empfehlenswert.

Von den dreien macht Fedora (nachdem was ich darüber lese) noch den besten Eindruck auf mich (Hauptsache Redhat macht damit ich auch plötzlich etwas in der Art, wie mit CentOS), vielleicht aber eher ein für Spiele optimiertes Derivat?

Aber groß festlegen muss man sich sowieso nicht: Alle nutzen den gleichen Linux-Kernel und funktionieren unter der Haube ziemlich gleich, so dass man, wenn man erst mal "drin" ist, rel. problemlos wechseln kann. - Insbesondere wenn man beim gleiche Paketmanager bleibt, kann man das meiste einfach übernehmen.

*) Ich bin dann aber bei Windows XP geblieben, allerdings auf x64 umgestiegen: Bis 2015, ab dann LinuxMint 17.1-18.3: das aber bis 2020 - es war sehr angenehm, nicht mehr alle 6 Monate eine neue Version (mit oft gravierenden Änderungen) zu bekommen: Deshalb habe ich mich dann ausschließlich nach Rolling Releases umgesehen - diesen "Komfort" wollte ich nicht mehr missen :)

Ranayna schrieb:
An meiner Praemisse so wenig wie moeglich mit der CLI machen zu muessen werde ich festhalten, dementsprechend ist mir eine grafische Paketverwaltung wichtig. Deswegen ist Endeavour eher raus, auch wenn man die da auch nachinstallieren kann.
Sei besser offen für - äh - altes (Terminal gab es ja zuerst ;)): Das eine schließt das andere nicht aus (für jedes das passende Werkzeug) und auch wenn man im Terminal zuerst etwas mehr Zeit investieren muss, spart man die bei anschließend vielfach wieder ein.

Z. B. hatte ich mir nach der Installation notiert, was ich rausgeschmissen und nachinstalliert habe und wenn ich mal eine Neuinstallation mache, brauche ich nur das ausführen:
Bash:
# Ausmisten und benötigtes installieren (Hinweise unten beachten):
sudo rm -v /boot/*-fallback.img /etc/environment /etc/issue;sudo ln -s /usr/local/bin /root/
sudo pacman -Rscn intel-ucode memtest86+ linux-headers scrot artix-branding qt ecryptfs-utils cups ghostscript liblouis epiphany leafpad ristretto parole vi xfwm4-themes xfce4-artwork xcursor-premium
sudo pacman -Syu --needed base-devel artools-base hdparm gsmartcontrol espeak-ng neofetch expac wget pv qemu-desktop falkon xcursor-vanilla-dmz gparted ddcutil trizen mate-utils x{view,read}er gnome-{disk-utility,system-monitor} hunspell{,-de,-en_us} audacity xed gimp simple{-scan,screenrecorder} xsane vice
sudo pacman -S --asdeps bash-completion mesa-vdpau libva-mesa-driver vulkan-radeon xarchiver
trizen --noedit -Sa mugshot menulibre gnome-icon-theme upd72020x-fw
# + aus Arch-Quellen:
sudo pacman -S compsize drawing duperemove exfatprogs fdupes fsarchiver fs rmlint sigil uasm wmctrl xaos gnome-icon-theme-extras
# ==================
sudo pacman -Qdtq|sudo pacman -Rscn -;sudo pacman -Sc
sync;sudo fstrim -va  # bei SSDs
Was für ein irrsinniger Aufwand wäre es, das alles einzeln im GUI zu (de)installieren?

Außerdem: Würdest du all das aus dem Kopf auf die Reihe bekommen? - Aufschreiben müsste man es also sowieso…

Abgesehen davor bekommt man im Terminal mehr Informationen und ausführliche Meldungen: Wenn im GUI was nicht funktioniert (z. B. eine Anwendung startet nicht), starte ich sie im Terminal, um herauszufinden was das Problem ist.

Beschränkst du dich auf GUI, kannst du nur sagen "geht nicht", versuchst du es im Terminal, kannst du die Fehlermeldung posten: Wann kann man dir wohl besser helfen? - Und was ist schneller: Wahlloses im dunkeln stocheren (versuch mal dies, versuch mal das, …), oder eine gezielte Hilfe direkt auf den Punkt?

Beelzebot schrieb:
Interessanter Ansatz. Ich hab das gesplitet zwischen Hauptsystem und Home.
System und Home gehören m. E. auf eigene Partitionen, wie ich es auch im Garuda-Thread für Calamares und LMDE gezeigt habe: Klick

Beelzebot schrieb:
Das Hauptsystem wird bei jedem Update durch Snapper gesichert. Die Snapshots werden direkt in Grub eingebunden und sind bootbar, falls was ist. Diese zusätzlich nochmal zu speichern ist mir too much.
Was ist daran zu viel? Hast du dir das nicht in meinem Video angesehen: Ein Klick aufs Skript (den Doppelklick habe ich schon lange deaktiviert) + Passworteingabe und dann kurz warten bis es durchgelaufen ist.

Snapshots nutze ich schon deshalb nicht, weil Platzverschwendung und mit hops sind, falls man sich die Partition zerschießt. - Das sind keine Sicherungen, sondern man sollte sie bestenfalls als eine Art erweiterter Undo-Funktion sehen.

Davon abgesehen macht dieser @-Kram es unübersichtlich und provoziert Fehler, weil man "von innen" nichts davon sieht, es bei der Wiederherstellung "von außen" aber berücksichtigen muss, damit man sich das System nicht zerschießt.

Alleine die Möglichkeit, dass man mit Grub einen älteren Snapshot direkt booten kann, hätte was, aber die Nachteile sind mir zu groß.

Ich nutze btrfs wegen der Komprimierung (zstd:2, weil es bei btrfs genauso gut wie die Standardstufe 3 komprimiert, aber fast 50% weniger CPU-Zeit braucht) auf der Systempartition, aber als normales Dateisystem:
Code:
# <file system>                  <mount point> <type> <options>          <dump> <pass>
UUID=fb01a4fd-8f22-4481-aa43-bb6af7762cd9 /     btrfs noatime,compress=zstd:2 0 0
UUID=db0bf1df-6c20-4890-b3a3-6d31f3e52e11 /home xfs   noatime                 0 0
memory                                    /tmp  tmpfs nosuid,size=90%         0 0
memory                                    /tmph tmpfs huge=always,size=90%    0 0
Auf der Home habe ich xfs, weil es sich als sehr schnell und nahezu unkaputtbar erwiesen hat.

/tmph nutze ich für große Dateien (z. B. Videoschnitt oder ISOs), weil es durch "huge=always" dabei deutlich schneller als die normale RAM-Disk ist. Für viele kleine Dateien, z. B. der Systempartition, ist es dagegen vollkommen unbrauchbar, da es quasi mit 4M Clustergröße arbeitet und dadurch einen gewaltigen "Verschnitt" hat.

Eine Swap habe ich nicht. Stattdessen nutze ich eine zRAM-Swap per /etc/rc.local:
Code:
modprobe zram && echo lz4 > /sys/block/zram0/comp_algorithm && echo $(($(grep 'MemTotal:' /proc/meminfo|awk '{print $2}')*1/1))K > /sys/block/zram0/disksize && mkswap -qU clear /dev/zram0 && swapon -p100 /dev/zram0
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius und Tanzmusikus
Im Idealfall hat man das beste aus beiden Welten und vermeidet das schlechte aus beiden Welten. Backups dürfen auch gerne per GUI funktionieren. Das ist übersichtlicher und Ordner in einer Baumstruktur anklicken geht vermutlich auch schneller als Ordner hinzuschreiben.

Dein Beispiel mit den zu installierenden Programmen ist natürlich ein super Beispiel wo CLI deutlich effizienter ist. Die Ersteinrichtung dauert unter Windows wirklich deutlich länger.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Caramon2 schrieb:
(…) SUSE war schon 2008 bei meinen ersten Versuchen mit Linux durchgefallen *) und auch als ich mich vor ca. 2 Jahren informiert habe, habe ich nichts gelesen, das meine Meinung geändert hätte, sondern sie wurde eher bestätigt (ohne das genauer definieren zu können: es geht mir einfach irgendwie gegen den "Strich"), aber da dort momentan sowieso einiges im Umbruch ist, wäre es jetzt sowieso nicht sehr empfehlenswert.
Magst du mal etwas konkretisieren was du meinst und warum du zu diesem Ergebnis für dich gekommen bist?
Davon abgesehen, openSUSE ist nicht SUSE, außerdem, es gibt verschiedene openSUSE Distributionen.
 
Ich gehe ja nicht soweit zu sagen: Ich will das Terminal auf garkeinen Fall nutzen.
Ich mach ja auch unter Windows das ein oder andere im Terminal.

Aber ich will keine Distribution nutzen, wo ich das Terminal fuer alltaegliche Dinge brauche. Und da gehoert das installieren von Software dazu.
 
Caramon2 schrieb:
Was ist daran zu viel?

Einfach unnötig. Wenn der Datenträger oder die Partition abraucht, würde ich das System einfach neuinstallieren. Hab das fix und fertig als Skript. Persönliche Daten und Konfigurationen sind ja gesichert.

Caramon2 schrieb:
Das sind keine Sicherungen, sondern man sollte sie bestenfalls als eine Art erweiterter Undo-Funktion sehen.

Mehr soll es auch garnicht sein. Fehler durch den Updateprozesse gerade rücken.
Aber cooles Setup, das probiere ich in abgewandelter Form vll auch mal aus
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Caramon2
Ranayna schrieb:
Da wird das ganze hochgeholt, wo ich letztens noch ueberlegt habe den eigendlich total veralteten Link aus meiner Signatur zu entfernen. :D
Genau darüber bin ich übrigens hierauf gestoßen. :)

Ich schreibe nochmal, weil das bisherige vermutlich eher abschreckend wirkt.

Das wichtigste, eigentlich einzig relevante ist mein Aussage, dass wenn man erst mal "drin" ist, man leicht wechseln kann: Das ist keine Entscheidung für Leben und es muss auch nicht das perfekte System sein, bei dem alles funktioniert.

Mit dem einfachsten anfangen, sehen wie weit man kommt und dann ggfs. eine andere Distribution (oder auch mehrere) parallel installiert und gucken mit welcher es vielleicht weiter geht. Es eilt ja nicht.

Noch etwas meiner Sicherungen:

Einem ehem. Arbeitskollegen (nicht gerade ein IT-Crack, aber auch nicht vollkommen unfähig) hatte ich es so eingerichtet:

Sichern wie bei mir, also ext. Sicherungsplatte (er hatte zwei, auf die er monatlich im Wechsel sicherte) anschließen und öffnen, darauf achten dass keine Programme laufen und dann im Hauptverzeichnis der Sicherungsplatte das Sicherungsskript starten, Passwort eingeben und durchlaufen lassen.

Anders als für mich hatte ich ihm aber auch ein Wiederherstellungsskript geschrieben: Das wurde bei jeder Sicherung mit in den entsprechenden Sicherungsordner kopiert und wenn er eine Sicherung wiederherstellen musste (passierte gelegentlich), bootete er ein Livesystem, schloss wieder die Sicherungsplatte an und öffnete sie, ging dann aber in den Ordner der wiederherzustellenden Sicherungsstufe, startete dort das Wiederherstellungsskript und ließ die Wiederherstellung durchlaufen: Da ein Livesystem, gab es keine Passwortanfrage.

Das Wiederherstellungsskript hatte ich so geschrieben, dass es die Zielpatitionen selbst öffnete und nach der Wiederherstellung der Systempartition fragte, ob es auch die Homepartition wiederherstellen soll: Seit der jeweiligen Sicherung neu hinzugekommene Daten würden ja auch "wiederhergestellt" (also deren nicht-Existenz) und normalerweise reicht es ja nur die Systempartition wiederherzustellen, wenn irgendwas nicht mehr funktioniert.

Nachdem LinuxMint für mich ein no-go wurde, habe ich ihm Solus installiert und da ich dir Skripte möglichst allgemeingültig gehalten habe, brauchten die nicht mal angepasst zu werden: Er konnte einfach wie gewohnt weiter sichern und wiederherstellen: Das Livesystem blieb LinuxMint 18.3.

Inzwischen würde ich das etwas anders mache und das Livesystem mit auf die Sicherungsplatten packen, so dass er die direkt booten kann und keinen extra Stick mehr brauvht. So wie ich es bei meiner 2 TB XS1000 gemacht habe.

sedot schrieb:
Magst du mal etwas konkretisieren was du meinst und warum du zu diesem Ergebnis für dich gekommen bist?
Davon abgesehen, openSUSE ist nicht SUSE, außerdem, es gibt verschiedene openSUSE Distributionen.
"ohne das genauer definieren zu können" bedeutet, dass ich es nicht genauer definieren kann. ;) Wirklich nicht. Es ist eher ein Bauchgefühl. Das aber nichts daran ändern, das dort momentan viel in Bewegung ist, was man besser abwarten sollte. - Auch dazu kann ich nichts konkretes sagen, da mich suse, oder jetzt eben opensuse, nicht sonderlich interessiert und das nur überflogen und mir nicht im Detail gemerkt habe.
 
Caramon2 schrieb:
Snapshots nutze ich schon deshalb nicht, weil Platzverschwendung
Naja. Eher nicht. Weil man ja nur den Diff zwischen zwei Ständen speichert.

Caramon2 schrieb:
Das sind keine Sicherungen, sondern man sollte sie bestenfalls als eine Art erweiterter Undo-Funktion sehen.
Ja. Aber mehr sollen sie ja auch im ersten Schritt gar nicht sein.
Beim robusten Updaten gehts ja gar nicht darum ein echtes Backup zu haben, sondern schnell und unkompliziert einen Step-Back machen zu können oder auch schnell zu gucken, was geändert wurde, um den möglichen Fehler schneller einzukreisen.

Man kann aber Snapshots als Backup(hilfe) nutzen, in dem man sie exportiert. Und dann hat man auch gleich eine Versionierung.

Außerdem senkt es die Hemmschwelle mal schnell eine Änderung zu machen, weil man eben erst nicht umständlich sichern muss und restoren, wenn was fehlschlägt.

Caramon2 schrieb:
falls man sich die Partition zerschießt.
Idealerweise ist man gar nicht erst in der Lage sich versehentliche Partitionen zu "zerschießen".
Damit einem das passieren kann, muss man ja auch "raw" auf die Disk zugreifen können.
Eine Capability die man fast nie braucht (außer man macht Disk-Management). Dementsprechend sollte man das auch nie können (außer man macht halt Disk-Managment).
 
  • Gefällt mir
Reaktionen: Deinorius und sedot
Beelzebot schrieb:
Aber cooles Setup, das probiere ich in abgewandelter Form vll auch mal aus
Wichtig ist, wo externe Datenträger eingehängt werden: Meine Skripte sind darauf ausgelegt, dass das in /run/usw., also im RAM (tmpfs) gemacht wird.

Bei z. B. Debian und Ubuntu werden die dagegen in /media/usw. eingehängt, was auf die Systempartition geschrieben wird und deshalb von der Sicherung ausgeschlossen werden muss (--exclude '/media/*'), da es ansonsten nach der Wiederherstellung Probleme mit den Zugriffsrechten gibt. - Das war damals eine Sucherei, bis ich endlich herausgefunden hatte, weshalb ich nicht mehr auf meine eigenen Dateien auf einem fat32-formatierten USB-Stick zugreifen konnte: Vollkommen absurd! ;)
Ergänzung ()

andy_m4 schrieb:
Naja. Eher nicht. Weil man ja nur den Diff zwischen zwei Ständen speichert.
Wie bei Hardlinks. Aber geänderte Dateien brauche Platz, außerdem wird es durch diesen @-Kram unnötig unhandlich
andy_m4 schrieb:
Beim robusten Updaten gehts ja gar nicht darum ein echtes Backup zu haben, sondern schnell und unkompliziert einen Step-Back machen zu können oder auch schnell zu gucken, was geändert wurde, um den möglichen Fehler schneller einzukreisen.
Auch das wie bei rsync+Hardlinks, nur dass man damit, sozusagen als Abfallprodukt, auch gleich eine richtige Sicherung hat.
andy_m4 schrieb:
Man kann aber Snapshots als Backup(hilfe) nutzen, in dem man sie exportiert. Und dann hat man auch gleich eine Versionierung.
Wie bei rsync+Hardlinks: s. mein Screenshot.
andy_m4 schrieb:
Außerdem senkt es die Hemmschwelle mal schnell eine Änderung zu machen, weil man eben erst nicht umständlich sichern muss und restoren, wenn was fehlschlägt.
Wie bei rsync+Hardlinks - nur ist im Unterschied dazu nicht alles weg, wenn das was man aus falsch empfundener Sicherheit heraus ausprobiert, die Formatierung zerschießt.
andy_m4 schrieb:
Idealerweise ist man gar nicht erst in der Lage sich versehentliche Partitionen zu "zerschießen".
Damit einem das passieren kann, muss man ja auch "raw" auf die Disk zugreifen können.
Eine Capability die man fast nie braucht (außer man macht Disk-Management). Dementsprechend sollte man das auch nie können (außer man macht halt Disk-Managment).
Ich benötige das für meine VM-Skripte ständig: s. hier - Btw: Hast du eine Idee bzgl. des dort beschrieben Problem mit D-Bus vs. VM-WinXP? - Falls ja, dann bitte dort antworten.
 
Zuletzt bearbeitet:
Caramon2 schrieb:
Wie bei Hardlinks.
Na nicht genau. Diese Copy-on-write-Systeme arbeitet ja auch Block-Level.

Caramon2 schrieb:
außerdem wird es durch diesen @-Kram unnötig unhandlich
Aha. Aber Hardlinks sind nicht unhandlich?
Bei Snapshots hast Du den Vorteil, sie sind dann aus dem Weg und Du kannst sie nicht mehr direkt adressieren.
Außerdem hab ich ja die Möglichkeit von Hardlinks noch zusätzlich. Ich kann mich situativ entscheiden, was besser ist.

Caramon2 schrieb:
Auch das wie bei rsync+Hardlinks, nur dass man damit, sozusagen als Abfallprodukt, auch gleich eine richtige Sicherung hat.
Was ist denn an der Sicherung von Snapshots keine richtige Sicherung.
btw. sind Snapshots effizienter, weil das Dateisystem selbst darüber Buch führt, was geändert wurde und was nicht. Mit der rsync/hardlinks-Lösung musst Du Dir jede Datei anschauen (mindestens die stats davon).

Caramon2 schrieb:
Wie bei rsync+Hardlinks
Nein. Weil es aufwendiger ist. EIn Snapshot ist in Bruchteilen von Sekunden erstellt. Und ich kann auch einen Stand einfach und schnell wegschmeißen ohne erst alles abzuklappern.

Caramon2 schrieb:
Ich benötige das für meine VM-Skripte ständig
Nein. Brauchst Du nicht. Ist alles eine Frage der vernünftigen Organisation und Rechtevergabe.
Wenn Du natürlich nur stumpf die Vorgaben Deiner Distribution übernimmst, dann hast Du Probleme. Aber das musst Du ja nicht zwangsläufig.
Du kannst Dir alles so definieren, wenn Du es brauchst.

Caramon2 schrieb:
Wie bei rsync+Hardlinks - nur ist im Unterschied dazu nicht alles weg, wenn das was man aus falsch empfundener Sicherheit heraus ausprobiert, die Formatierung zerschießt.
Keine Ahnung wie das bei Btrfs ist, aber bei ZFS kann ich z.B. auch auf Pool-Ebene "Snapshots" setzen. Das versetzt mich dann auch in die Lage selbst so was wie gelöscht "Subvolumes" wieder her zu stellen.
Außerdem hab ich sowas wie delegierbare Administration etc.

Wenn ich wirklich mal was zerschieße, dann habe ich immer noch mein Backup. Wie Du schon sagtest, das ist alles kein Ersatz dafür. Auch Deine Hardlink-based Sachen schützen Dich ja nicht davor.
 
andy_m4 schrieb:
Aha. Aber Hardlinks sind nicht unhandlich?
Was soll daran unhandlich sein? s. u.
andy_m4 schrieb:
Bei Snapshots hast Du den Vorteil, sie sind dann aus dem Weg und Du kannst sie nicht mehr direkt adressieren.
Ich sehe es nicht als Vorteil mich in meinen Möglichkeiten zu behindern.
andy_m4 schrieb:
Außerdem hab ich ja die Möglichkeit von Hardlinks noch zusätzlich. Ich kann mich situativ entscheiden, was besser ist.
S. den Screenshot in meinem ersten Post hier und den compsize dazu.

Ich habe jeweils 10 Stufen on demand und monatlicher Sicherungen, die untereinander mit Hardlinks verknüpft sind. Jede einzelne Sicherungsstufe davon ist eine in sich vollständige Komplettsicherung der Systempartition und meines Benutzerordners. Ich kann ganz normal mit der Dateiverwaltung in jeden beliebigen Ordner gehen und mir beliebige Dateien ansehen oder zurück kopieren. - Das alles ist vollkommen transparent.

Ich kann auch alle Sicherungsstufen bis auf eine löschen (z. B. mit sudo rm -rf): Egal welche ich behalte, sie ist vollständig und lässt sich uneingeschränkt wiederherstellen: Nichts von dem betreffenden Sicherungsstand fehlt.

Und die beiden ganz großen Vorteil gegenüber Snapshots:
  • Es funktioniert mit jedem Dateisystem, das Hardlinks unterstützen: Einschließlich NTFS (für Linux-Sicherungen natürlich ungeeignet, aber z. B. die Datenordner könnte ich genauso mehrstufig darauf sichern, damit ich auch von Windows oder z. B. meinen Handy Zugriff darauf hätte - bei den 3,5" Platten mit eigener Stromversorgung wäre das kein Problem)
  • man kann Hardlinks einfach mit sudo rsync -vaxH --del [Quelle] [Ziel] kopieren: Hardlinks bleiben funktionsfähige Hardlinks. - Wenn ich z. B. eine Sicherungsplatte neu anlege, kopiere ich so alle Monatssicherung darauf und erstelle anschließend eine on demand Sicherung, damit die Platte nicht bei Null anfängt sondern gleich vollwertig ist.

sedot schrieb:
Ach so, na dann danke für diese wertvolle Information.
Ich habe nur meine persönliche Eindrücke geschildert: Ob jemand das als Anlass nimmt um sich vorher etwas genauer über OpenSUSE zu informieren oder nicht, bleibt jedem selbst überlassen. Informationsmöglichkeiten gibt es ja genug.

Fosstopia finde ich immer wieder interessant und gut gemacht. - Dass Michael btrfs-Snapshots empfiehlt und Gnome bevorzugt, hat darauf keinen Einfluss. ;)
 
Zuletzt bearbeitet:
Beelzebot schrieb:
Einfach unnötig. Wenn der Datenträger oder die Partition abraucht, würde ich das System einfach neuinstallieren. Hab das fix und fertig als Skript. Persönliche Daten und Konfigurationen sind ja gesichert.
Es führen halt mehrere Wege nach Rom.
Ich z.B. sichere ca. 1 mal im Monat oder nach größeren Änderungen das komplette Laufwerk, auf dem Efi, System und VMs sind mit Clonezilla.
Das hat sich gerade kürzlich bei meinem (ich nenne es mal vorschnellen) Upgrade der Ubuntu Version wieder mal bewährt, nach ca. 15 Minuten war ich wieder auf dem alten Stand.

Gruß
R.G.
 
  • Gefällt mir
Reaktionen: Caramon2 und Beelzebot
Caramon2 schrieb:
Ich habe nur meine persönliche Eindrücke geschildert (…)
Leider nicht, du hast erstmal nur Aussagen in den Raum gestellt, weshalb ich eben auch nachgefragt habe. Letztlich kann ich nur mutmaßen was du meinen könntest. Obwohl ich Tumbleweed nutze kann es ja durchaus sein, dass mir wesentliches entgangen ist. 😉
Das sich Dinge bei openSUSE ändern stimmt, ich persönlich sehe konkret keine wesentlichen Änderungen die unmittelbar negativ wirken oder gravierende Nachteile für User hätten. Deshalb finde ich einfach auch deine geäußerte Ablehnung nicht nachvollziehbar.

Aber ja, sich vor der Installation einer beliebigen Distribution erstmal etwas zu belesen und ggf. an geeigneter Stelle bei Unklarheiten nachzufragen schadet sicher nicht.

Fosstopia kannte ich noch nicht, danke für den Hinweis.
 
Zurück
Oben