Hallo immer wieder (seit SuSe6) habe ich schon versucht auf Linux umzusteigen, dabei schon so einige funktionierende Installationen später wieder zerschossen bis zum "geht nichts mehr". Bevor ich gänzlich umsteige, somit auch viel Zeit zum Einrichten investiere, möchte ich sicher gehen, das nicht irgendwann meine Daten futsch sind oder ich nochmal viel Zeit für eine Neuinstallation verbringen muss. Unter Windows verwöhnt durch Backup-Programme wie Macrium Reflect oder TrueImage oder Norton Ghost, bin ich auf der Suche nach einem Backup-Programm unter Linux. Aber nicht so ein Zeugs wie dd oder TimeShift. In meinen Augen ist das alles fürchterlich unintuitiv, man wuselt sich durch und weis letztendlich nicht was da eigentlich wo gesichert wird. Und wie man im Total-Gau seine Platte wieder richtet, also zuvor gesichertes wieder zurück holt. Möchte ich auch gar nicht wissen, schon gar nicht studieren. Ja, ich BIN faul! Ein Komplett-Backup sollte sich meiner Meinung nach wie folgt abspielen: Zu sichernde HD auswählen, "Ziel-HD" (mit bootfähiger Partition) auswählen, starten, Fertigmeldung. Natürlich alles in einer komprimierten Sicherungsdatei. (Mehrere wöchentliche Sicherungen auf der Ziel-HD) Zurücksichern: Von "Ziel-HD" starten, Sicherungsdatei auswählen, zurückspielen, fertig. Gibt es so etwas auch für Linux? Danke für's Lesen!
:
Verschoben durch Moderator
Acronis Trueimage kann auch Linuxpartitionen sichern. Mußt nur von der DVD booten. https://kb.acronis.com/content/1538
Icke ®. schrieb: > Acronis Trueimage kann auch Linuxpartitionen sichern. Mußt nur von der > DVD booten. > > https://kb.acronis.com/content/1538 Ist die Software inzwischen zu empfehlen? Vor ca. 10 Jahren ist mir mal ne Festplatte gestorben und ich habe eine andere verbaut, auf der sich noch ein Linux Dateisystem befand. Die Acronis Boot CD hat sich geweigert die Festplatte zu löschen (wurde einfach nicht angezeigt) um das Backup einzuspielen. Erst nach dem formatieren mit der Windows DVD, lies sich das Backup mit der Boot CD einspielen. Teilweise unterstützte die Boot CDs manche Rechner nicht, obwohl diese darauf erstellt wurden. Mit einer, von der gleichen Acronis Version, aber an einem anderen Rechner erstellten Boot CD funktionierte es aber doch an den vermeintlich nicht unterstützten Rechnern.
Image-Backup: CloneZilla von CD oder USB booten. Egal ob man Linux oder Windows sichert. Ok, Quell- und Zielmedium sollte man nicht verwechseln, soviel Hirn muss sein. Muss man aber auch nicht alle 3 Tage machen. Gelegentlich ein Image als Basis für ein Disaster-Recovery, und zusätzlich die Files täglich per TimeShift und/oder BackInTime.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Image-Backup: CloneZilla von CD oder USB booten. Egal ob man Linux oder > Windows sichert. Ok, Quell- und Zielmedium sollte man nicht verwechseln, > soviel Hirn muss sein. > > Muss man aber auch nicht alle 3 Tage machen. Gelegentlich ein Image als > Basis für ein Disaster-Recovery, und zusätzlich die Files täglich per > TimeShift und/oder BackInTime. Eine sehr elegante Lösung, die (bei mir) unter Linux hervorragend funktioniert, ist ein Programm namens rsnapshot. Rsnapshot macht bei mir stündlich, wöchentlich, monatlich und alle halbe Jahre ein Backup und speichert die Dateien 1:1 via rsync(1) und ssh(1) auf einem Remote-System. Der Platzbedarf ist trotzdem halb so wild, weil die vorhandenen Dateien nicht dupliziert, sondern als Hardlinks auf die vorhandenen erzeugt werden; das setzt natürlich voraus, daß das Remote-Dateisystem Hardlinks kann. Zudem kann rsnapshot vor dem Anfertigen eines Backups ein Skript ausführen, das in meinem Falle jeweils eine Liste der installierten Pakete (dpkg --get-selections) sowie Backups aller lokalen Datenbanken erzeugt. Wer will, kann seine Backup-Disks natürlich mit komprimierten Dateisystemen betreiben, bei mir ist das allerdings nicht notwendig. Sowas wie Images und Ähnliches erspare ich mir komplett, das habe ich mal einige Wochen lang mit meinen Mitarbeitern getestet. Images kosten nur viel Zeit beim Backup und beim Restore. In beiden Fällen ist die Maschine unterdessen offline; hinzu kommt, daß ein Image auch die ungenutzten Bereiche eines Dateisystems oder einer Festplatte sichern und im Disasterfall wiederherstellen muß. Da ist es deutlich schneller, ein minimales System aufzusetzen, mit der Paketliste die Pakete neu zu installieren und die Konfigurationen und Dat(ei)en zurückzuspielen. Nun, rsnapshot ist allerdings kein Klickibunti-Programm, es soll aber ein GUI namens "Otto Backup" dafür geben. Kenn ich nicht, brauch ich nicht, will ich nicht -- bei GUI-Programmen stecken ja eh 90% der Laufzeit und der Fehler im GUI-Code, und bei Backups lege ich größten Wert auf Zuverlässigkeit.
Sheeva P. schrieb: > Eine sehr elegante Lösung, die (bei mir) unter Linux hervorragend > funktioniert, ist ein Programm namens rsnapshot. Verwende ich an anderer Stelle auch. Aber wer auf GUI aus ist, und auf einfachste Disaster-Recovery, wird allein damit vielleicht nicht glücklich.
Sheeva P. schrieb: > daß ein Image auch die > ungenutzten Bereiche eines Dateisystems oder einer Festplatte sichern > und im Disasterfall wiederherstellen muß CloneZilla kopiert nur belegte Blöcke. Ausser bei Disk-Encryption.
:
Bearbeitet durch User
Wer sich drauf einlässt, kann auch rsync benutzen. Das kann mit dem einen oder anderen Shellskript recht intelligent agieren.
Matthias S. schrieb: > Wer sich drauf einlässt, kann auch rsync benutzen. Das kann mit dem > einen oder anderen Shellskript recht intelligent agieren. rsnapshot ist ein Frontend für rsync, mit inkrementellen Backups und Versionierung.
Ingolf G. schrieb: > immer wieder (seit SuSe6) habe ich schon versucht auf Linux umzusteigen, > dabei schon so einige funktionierende Installationen später wieder > zerschossen bis zum "geht nichts mehr". Nicht schlimm, das ist uns allen am Anfang ein paarmal passiert. Datenverlust ist aber natürlich immer total doof... Wenn ich Dir einen Rat geben darf: von Michael Kofler gibt es ein kleines Taschenbuch mit dem Titel "Linux" [1], dessen Lektüre ich Dir gerne allerwärmstens ans Herz legen möchte. Nicht umsonst gilt "der Kofler" als das Standardwerk zum Thema Linux, und aus meinem Freundes- und Bekanntenkreis bin ich nicht der einzige erfahrene Admin, der regelmäßig eine aktuelle Ausgabe kauft. Oh, und natürlich liest oder zumindest mal etwas darin nachschlägt. Das PDF unter [2] ist von 2016, also schon ein wenig betagt, dürfte für eine umfassende Leseprobe aber sicherlich mehr als gut genug sein. Wenn Du Dich für eine Debian-basierte Distribution wie Debian, [KLX]Ubuntu, Linux Mint oder Ähnliches entscheiden, möchte ich Dir zudem das Debian Anwender- sowie das Debian Administratorhandbuch empfehlen, die Du unter [3,4] findest. Außerdem möchte ich Dich noch auf einige der aus meiner Sicht besten Quellen für etwas erfahrenere Linux-Benutzer hinweisen. Da wäre zunächst das hervorragende Wiki der Archlinux-Distribution, das wirklich großartige und sehr ausführliche Dokumentation zu einer ausufernden Vielzahl von Linux-Themen hat: [5]. Obendrein gibt es tiefgreifendere, wenngleich manchmal etwas veraltete Dokumentationen beim Linux Documentation Project unter [6]. Sei obendrein noch auf einige Aspekte hingewiesen, die erfahrene Windows-Benutzer häufig... überraschen. So ein Linux-System bringt nämlich meistens selbst schon eine große Zahl von hervorragenden Dokumentationen mit, viele andere kannst Du einfach nachinstallieren. Da gibt es zum Beispiel die "Manual Pages", oft auch nur "Manpage(s)" genannt, die Du (in der Kommandozeile) mit "man <programmname>" anzeigen und mit der Taste "q" wieder verlassen kannst. Ähnliches gilt für die Infopages des GNU-Projekts, die mit "info <programmname>" aufgerufen werden und gegenüber den Manpages meistens den Vorteil haben, sauber strukturiert zu sein. Außerdem findest Du unter /usr/share/doc/ die Distributionsdkumentationen zu allen Paketen, die Du installiert hast -- das ist manchmal etwas mau, kann aber auch eine großartige Fundgrube sein. Oh, ach so, bevor ich das vergesse: es gibt noch eine Besonderheit unter Linux (und anderen UNIXoiden), die erfahrene Windows-Nutzer oft unterschätzen, nämlich die Fehlermeldungen und das Logging. Beides ist unter Linux in der Regel äußerst detailliert und ausführlich, viele Programme geben bei Problemen sogar Hinweise, wie das Problem behoben werden kann. Also klick' Fehlermeldungen bitte nicht einfach weg, wie es die meisten Windows-Nutzer gewohnt sind, sondern lies sie und versuch sie zu verstehen -- oder frag hier oder anderswo nach, wenn Du sie nicht verstehst. Die Logdateien findest Du unter /var/log/, Genaueres kannst Du Dir auf modernen Linux-Systemen aber auch mit "journalctl -xe" zeigen lassen, wenn Du die entsprechenden Berechtigungen hast. Zuletzt... herzlich willkommen in der Linux-Welt, ich wünsche Dir viel Freude und Erfolg dabei. Und bitte denk' dran: Linux wäre nicht das bessere System, wenn es alles so machen würde wie Windows. Insofern wirst Du Dich womöglich von einigen liebgewonnenen Programmen, Tricks und Angewohnheiten trennen und Neues lernen müssen, wirst Erfolge und Mißerfolge erleben, aber: es lohnt sich. Viel Spaß! ;-) [1] https://kofler.info/buecher/linux/ [2] http://bandido.ch/programming/Linux_2016.pdf [3] https://debiananwenderhandbuch.de/ [4] https://debian-handbook.info/browse/de-DE/stable/ [5] https://wiki.archlinux.org/ [6] https://tldp.org/
(prx) A. K. schrieb: > Verwende ich an anderer Stelle auch. Aber wer auf GUI aus ist, und auf > einfachste Disaster-Recovery, wird allein damit vielleicht nicht > glücklich. Nein, vermutlich nicht. (prx) A. K. schrieb: > CloneZilla kopiert nur belegte Blöcke. Ausser bei Disk-Encryption. Oh, cool. Das wußte ich gar nicht, lieben Dank für den Hinweis. Klar, daß das bei verschlüsselten Volumes nicht funktionieren kann... ;-)
(prx) A. K. schrieb: > Matthias S. schrieb: >> Wer sich drauf einlässt, kann auch rsync benutzen. Das kann mit dem >> einen oder anderen Shellskript recht intelligent agieren. > > rsnapshot ist ein Frontend für rsync, mit inkrementellen Backups und > Versionierung. Jaein. Rsnapshot kann rsync für Sicherungen auf Remote nutzen, aber lokal geht auch ganz einfach per Kopieren... und Remote auch zum Beispiel über sshfs.
Guten Morgen :) Ihr seid ja gut! Lieben Dank für die vielen Informationen. Schaue ich mir mal alle an. Danke!
ich gebs zu, der folgende schmarrn hat nix mit backup zu tun - aber doch irgendwie entfernt mit dem thema datenverlust/-organisation. und ist auch nur mein senf. wenn es jemandem nicht gefällt, dann ist das sein senf und alle sind zufrieden. was (meiner meinung nach) auch hilft ist, nicht alles in einer partition zu speichern sondern daten vom betriebssystem zu trennen. ich habe auf meinem rechner auch /home auf eine eigene partition gepackt auszug:
1 | /dev/sdb2 /home ext4 [...] |
2 | /dev/sdc1 /mnt/fotos [...] |
3 | /dev/sdd1 /mnt/daten [...] |
4 | /dev/sdf1 /mnt/videos [...] |
und von $HOME aus gehts dann mit symlinks weiter auf die entsprechenen Daten Partitionen
1 | daniel@evilspeak:~$ ll Daten Pictures Videos |
2 | lrwxrwxrwx 1 daniel daniel 17 Mar 2 2016 Daten -> /mnt/daten/Daten/ |
3 | lrwxrwxrwx 1 daniel daniel 16 Nov 23 17:54 Pictures -> /mnt/fotos/Fotos |
4 | lrwxrwxrwx 1 daniel daniel 12 Mar 2 2016 Videos -> /mnt/videos/ |
zugegeben, das konstrukt ist - hmm - leicht merkwürdig, aber die grundlagen davon sind mittlerweile fast 20 jahre alt und helfen immer noch, das gelegentlich notwendige dualboot mit den notwendigen daten zu versorgen ;-)
Man muss nicht jedesmal Komplettsicherungen machen. Ich habe System und /home auf verschiednen Partitionen, vom System mache ich einmal eine sektorbasierte Kopie und nur mal ab und zu, wenn sich wirklich wesentliches ändert. Ein neuer Kernel etc sind nicht soclhe Ereignisse, ich mache das nur alle paar Monate mal. Die /home-Partition sichere ich nicht sektorbasiert sondern dateibasiert mit tar und bpzip2 (zuerst mit tar, um die Eigenschaften zu erhalten, dann mit pbzip2 komprimieren. Macht ein kurzes Skript, 1x anklicken, warten, fertig.
Daniel F. schrieb: > was (meiner meinung nach) auch hilft ist, nicht alles in einer partition > zu speichern sondern daten vom betriebssystem zu trennen. Und wofür oder wogegen hilft das? Das OS behandelt die gemountete Partition wie jedes andere File. Partitionen waren früher mal interessant, als Festplatten klein und das System über mehrere Platten verteilt war. Stephan S. schrieb: > Die /home-Partition sichere ich nicht sektorbasiert sondern dateibasiert > mit tar und bpzip2 (zuerst mit tar, um die Eigenschaften zu erhalten, > dann mit pbzip2 komprimieren. Ob das mal so sinnvoll ist? Wenn irgendwo was schief geht, z.B. Sektor auf der Festplatte defekt, ist dann vermutlich gleich ein großer Teil der gezipten /home dahin. Sinnvoller ist sicher, kleinere Einheiten zu komprimieren und dann zu einem File zusammenzufassen. MfG
Michael L. schrieb: > Daniel F. schrieb: > >> was (meiner meinung nach) auch hilft ist, nicht alles in einer partition >> zu speichern sondern daten vom betriebssystem zu trennen. > > Und wofür oder wogegen hilft das? wofür? einfacher(er) datenerhalt bei neuinstallation wogegen? (weniger) unbeabsichtigter datenverlust bei neuinstallation wie gesagt - mein senf, wenn das wer anders sieht sein senf. jedem seine vorlieben, bitte mir auch meine
Michael L. schrieb: > Und wofür oder wogegen hilft das? Root läuft nicht voll, wenn der Anwender seine Dir zumüllt. Ist allerdings eher bei Servern interessant.
:
Bearbeitet durch User
Hmm, also ich hatte noch nie das Bedürfnis, von einem Linux System eine Sicherung zu machen. Ist doch ruckzuck neu aufgesetzt. Da brauche ich selten mehr als einen Sa-Nachmittag dafür (incl. der kompletten SW) Für ein Rundum sorglos Backup meiner Daten nehme ich BackInTime für das komplette /home. BackInTime dürfte wohl auch, wie die meiste Linux Backup SW, auf rsync basieren.
Wie sinnvoll die gesonderte home partition ist wird offensichtlich, wenn ein zerschossenes system komplett neu aufgesetzt werden muß und man hierbei die noch intakte home-partition sofort wieder verwenden kann. Die saubere Trennung von unersetzlichen Privat-Dateien von jederzeit ersetzbaren Systemdateien ist in der Windows-Welt wohl noch nicht angekommen.
Ingolf G. schrieb: > Unter Windows verwöhnt durch Backup-Programme wie Macrium Reflect oder > TrueImage oder Norton Ghost, bin ich auf der Suche nach einem > Backup-Programm unter Linux. Unter Linux existiert nur das zu Beginn genannte CloneZilla. Ggf. kommt noch Relax-and-Recover infrage, das ist aber kein DAU-Programm.
Andreas B. schrieb: > BackInTime dürfte wohl auch, wie die meiste Linux Backup SW, auf rsync > basieren. Ja, es ist sogar dem rsnapshot sehr ähnlich. Auszug aus https://backintime.readthedocs.io/en/latest/ : "Back In Time is a simple backup solution for Linux Desktops. It is based on rsync and uses hard-links to reduce space used for unchanged files." Unterschied: BackInTime hat eine GUI, rsnapshot nicht.
Markus schrieb: > Unter Linux existiert nur das zu Beginn genannte CloneZilla. Bissel mehr gibts schon, nur nicht für lau und DAU, sondern für Server.
Frank M. schrieb: > BackInTime hat eine GUI, rsnapshot nicht. Mir scheint zumindest die Ubuntu-Welt zweigleisig zu fahren: BackInTime für den Anwenderkram in Home, Timeshift fürs System. Anleitung fürs Disaster-Recovery bei Timeshift (nicht von mir getestet): https://itsfoss.com/backup-restore-linux-timeshift/ Ingolf G. schrieb: > Aber nicht so ein Zeugs wie dd oder TimeShift. So schlimm finde ich Timeshift eigentlich nicht. Aber vielleicht bin als Endanwender nicht repräsentativ. ;-)
:
Bearbeitet durch User
MAcrium Reflect kann ich eher empfehlen. Läuft von CD/DVD. Oder besser gleich Windows nutzen, da ist alles Bedienfreundlicher als unter Linux. Auch wenn die Nerds immer wieder was anderes behaupten. Die Berufswelt spricht Linux, jemand der anderes behauptet lebt in seiner eigenen Linuxblase Für Server etc, ist Linux aber völlig i.O.
Peter tr. schrieb: > Oder besser gleich Windows nutzen, da ist alles Bedienfreundlicher als > unter Linux. Na endlich. Ich dachte schon, die Trolle lägen alle röchelnd in der Intensivstation.
hat nichts mit Trollen zu tun, das ist nun mal eine Tatsache. Windows ist auch nicht frei von Problemen, aber es ist nun mal alles Anwenderfreundlicher. Wie sollten aber mit dieser Nebendiskussion den Faden nicht weiter stören, das gehört hier nicht ehr
Peter tr. schrieb: > Wie sollten aber mit dieser Nebendiskussion den Faden nicht weiter > stören, das gehört hier nicht ehr Yep. Das gehört dahin: Beitrag "Linux wird nicht wirklich akzeptiert, woran liegt das ?"
Peter tr. schrieb: > Die Berufswelt spricht Linux, jemand der anderes behauptet lebt in > seiner eigenen Linuxblase DER war gut!!!!!!!!!!!!!!!!!!!! wendelsberg
Für dich ist das vermutlich nicht das richtige aber ich bin (seit vielen Jahren) begeistert von backuppc https://backuppc.github.io/backuppc/ . Das läuft auf einem kleinen HP Server in meinem Netzwerk und klappert meine Server und Desktops ab. Einmal eingerichtet macht es geräuschlos im Hintergrund seinen Job.
> Unter Windows verwöhnt durch Backup-Programme wie Macrium Reflect oder > TrueImage oder Norton Ghost, bin ich auf der Suche nach einem > Backup-Programm unter Linux. > Aber nicht so ein Zeugs wie dd oder TimeShift. In meinen Augen ist das > alles fürchterlich unintuitiv, man wuselt sich durch und weis > letztendlich nicht was da eigentlich wo gesichert wird. Und wie man im > Total-Gau seine Platte wieder richtet, also zuvor gesichertes wieder > zurück holt. > Möchte ich auch gar nicht wissen, schon gar nicht studieren. Ja, ich BIN > faul! Am Einfachsten wäre, du schreibst dir ein einfaches Script und nutzt Programme wie rsync darin. Als cronjob täglich/wöchentlich ausgeführt erspart Dir das die unnötige Arbeit, das Backup manuell durchzuführen. Dein Script kannst Du ja auch dahingehend anpassen, dass Dir nach jedem Backup ein Statusbericht als E-Mail gesendet wird (oder als Push-Message mit zum Beispiel Gotify direkt auf dein Smartphone).
Nochmals Danke für die vielen Tips! Im Moment sichere ich mit Macrium Reflect, eine externe SSD damit bootfähig gemacht, mindestens ein mal im Monat angestöpselt und somit ins Backup-Verzeichnis auf der SSD alles in einem Rutsch gesichert. rsync und Gotify ... schaue ich mir mal an! :) Hab ja heute Zeit, die ewig zitierte Erderwärmung scheint ja in Deutschland nicht zu wirken :-/
Mark S. schrieb: > Wie sinnvoll die gesonderte home partition ist wird offensichtlich, wenn > ein zerschossenes system komplett neu aufgesetzt werden muß und man > hierbei die noch intakte home-partition sofort wieder verwenden kann. Dann hat man zwar seine Daten, aber ob die Programme samt Konfig wieder so passen ist ungewisse. Ich mach einfach alle paar Wochen 1:1-Backups. Die Daten, die sich zwischenzeitlich ändern, liegen entweder auf dem (Mail-)Server oder sind recht leicht wieder erstellbar.
Reinhard S. schrieb: > Dann hat man zwar seine Daten, aber ob die Programme samt Konfig wieder > so passen ist ungewisse. Die Configs für das System liegen unter /etc und die Configs für die Programme unter /home/<username>, so hat jeder User seine eigenen Configs. Wenn Du Dein System neu aufsetzen willst, brauchst Du nur die Programme zu installieren, dann sind die alten Configs wieder aktiv. Ist sehr praktisch. Ist auch die Config eines Programmes zerschossen, dann löscht man einfach die Config dieses Programmes und das Programm startet beim nächsten Mal mit den Default-Werten.
bingo schrieb: > Ist auch die Config eines Programmes zerschossen, dann löscht > man einfach die Config dieses Programmes und das Programm startet beim > nächsten Mal mit den Default-Werten. oder man kopiert die Config aus einem älteren Backup in das dazugehörige Unterverzeichnis in /home/<username>
bingo schrieb: > Reinhard S. schrieb: >> Dann hat man zwar seine Daten, aber ob die Programme samt Konfig wieder >> so passen ist ungewisse. > > Die Configs für das System liegen unter /etc und die Configs für die > Programme unter /home/<username>, so hat jeder User seine eigenen > Configs. Das war schon klar ;) Mein Punkt war, ob die Konfigs aus dem Backup zur frisch installierten Programmversion passen. Auch wenn da größere Versionsunterschiede schon eher unwahrscheinlich sind. > Wenn Du Dein System neu aufsetzen willst, brauchst Du nur die Programme > zu installieren, dann sind die alten Configs wieder aktiv. Ist sehr > praktisch. Ich spiel mein Image einfach zurück oder, noch einfacher, tausch einfach die SSD gegen die Platte, auf die ich mein Backup mach, und das Ding läuft.
Reinhard S. schrieb: > Das war schon klar ;) Mein Punkt war, ob die Konfigs aus dem Backup zur > frisch installierten Programmversion passen. Wenn sie es nicht tun, hast Du vorher entweder bei den Backups oder bei den Aktualisierungen geschludert. Was bei Deiner Art des Backup mit Images sehr verführerisch ist, denn um ein Image eines Dateisystems zu erstellen, mußt Du das betreffende Dateisystem ja vorher aushängen (umount(8)). Sowas kann man natürlich auch automatisieren, aber das ist vergleichsweise aufwändig und lohnt sich aller Erfahrung nach ziemlich selten...
Nur_ein_Typ schrieb: > denn um ein Image eines Dateisystems zu > erstellen, mußt Du das betreffende Dateisystem ja vorher aushängen > (umount(8)). Das ist zumindest der traditionelle Weg. Bei Filesystemen mit integrierter Snapshot-Fähigkeit geht es auch live. Was in Windows schon lange genutzt wird, in Linux indes noch nicht weit verbreitet ist.
:
Bearbeitet durch User
Michael L. schrieb: > Daniel F. schrieb: >> was (meiner meinung nach) auch hilft ist, nicht alles in einer partition >> zu speichern sondern daten vom betriebssystem zu trennen. > > Und wofür oder wogegen hilft das? Das OS behandelt die gemountete > Partition wie jedes andere File. Partitionen waren früher mal > interessant, als Festplatten klein und das System über mehrere Platten > verteilt war. Das war und ist noch nützlich, aus verschiedenen Gründen. Zum Beispiel konnte man einige Dateisysteme read-only mounten und gegen versehentliche oder absichtliche Manipulationen schützen. Außerdem waren verschiedene UNIXoide anfällig dagegen, wenn ein Dateisystem vollgeschrieben wurde. Und im Backup-Kontext kann das heute noch nützlich sein, indem man das /home-Dateisystem im laufenden Betrieb aushängen, ein Image davon anfertigen, und /home danach wieder einhängen kann.
Markus schrieb: > Unter Linux existiert nur das zu Beginn genannte CloneZilla. Foxclone gibt's auch noch, das ist Clonezilla mit ansprechenderer GUI.
Michael L. schrieb: > Und wofür oder wogegen hilft das? Gegen die Wutanfälle, die man andernfalls bekommt, wenn man alternativ mehrere Linux-Installationen auf demselben Rechner benutzen will. Mit einem zentralen /home hat man immer Zugriff auf die eigenen Daten. > Partitionen waren früher mal interessant, als > Festplatten klein und das System über mehrere Platten > verteilt war. Finde ich nicht. Ich verwende seit vielen Jahren zwei Festplatten in Wechselrahmen in jedem Rechner, eine Datenplatte und eine Systemplatte -- das ist natürlich nur sinnvoll, wenn man mehrere Partitionen benutzt. Ich finde das sehr bequem so.
(prx) A. K. schrieb: > Bei Filesystemen mit integrierter Snapshot-Fähigkeit > geht es auch live. Was in Windows schon lange genutzt > wird, in Linux indes noch nicht weit verbreitet ist. Stellt sich die Frage nach dem tieferen Grund dafür. Infolge eines Hinweises hier im Forum experimentiere ich mit rsnapshot und NILFS. Kurios dabei: NILFS gibt es ca. seit 2005, aber nahezu niemand scheint es zu benutzen -- dieser Schluss drängt sich wenigstens auf. Ich habe im Netz nur ganz wenige positive Berichte über NILFS gefunden -- und überhaupt keinen negativen. Offenbar gibt es subjektiv keinen Bedarf. Wieso nicht?
(prx) A. K. schrieb: > Bei Filesystemen mit > integrierter Snapshot-Fähigkeit geht es auch live. Was in Windows schon > lange genutzt wird, in Linux indes noch nicht weit verbreitet ist. Was wohl vor allem daran liegt, dass das einzige dafür derzeit ernsthaft in Frage kommende Dateisystem von den OSS-Dschihadies gehasst wird wie die Pest... zfs
Ingolf G. schrieb: > Bevor ich gänzlich umsteige, somit auch viel Zeit zum Einrichten > investiere, möchte ich sicher gehen, das nicht irgendwann meine Daten > futsch sind oder ich nochmal viel Zeit für eine Neuinstallation > verbringen muss. Du denkst zu Windows mäßig.
c-hater schrieb: > von den OSS-Dschihadies gehasst wird wie die Pest... Wer den Hass wohlverdient im eigenen Foren-Namen trägt, sollte bei solcher Argumentation etwas aufpassen ;-). Mit Fanatismus hat das sowieso nicht viel zu tun. Eher damit, dass zwar Google sich einen ewigen Streit mit Oracle leisten kann, die Linux-Community jedoch schon von SCO genug geplagt wurde. OpenSuse verwendet btrfs schon eine Weile routinemässig, und unterstützt die Snapshot-Feature auch für das System selbst. Retour zum Stand von Vorgestern ist da auch aus dem Bootvorgang heraus denkbar einfach.
:
Bearbeitet durch User
Icke ®. schrieb: > Acronis Trueimage kann auch Linuxpartitionen sichern. Mußt nur von der > DVD booten. > > https://kb.acronis.com/content/1538 Danke sehr hilfreiche Info das ist. Ich habe seit einige Zeit auf mein Lappi Linux-Mint-20 laufen, ich gebe zu zum Üben und vielleicht umstieg von Windows wenn man Win-7 keine Anti-Viren-Updates bekommt von Kaspersky. Und ich habe noch ein Acronis 2014. Und schlau wie ich war, habe ich keine Experimente gemacht, und das Mint mit EXT-4 installiert. Werde ich mal die nächsten Tage mal testen. Voll-Backup = ganze Platte reicht mir völlig. Ich habe unter Windows nur 1 x eine einzelne Datei zurück spielen müssen wegen eines drecks Update was nicht lief. ;) Und diese Technik funktioniert unter Linux halt nicht. Mir egal. René F. schrieb: > Teilweise unterstützte > die Boot CDs manche Rechner nicht, obwohl diese darauf erstellt wurden. Das liegt an Linux. So witzig wie das klingt. Der Grund ist. Der Rechner auf den das erstellt wurde ist völlig egal. Die "Backup-CD/USB" wird einfach erstellt und den ein vorgefertigtes LINUX-Image auf den Datenträger gemacht wird. Wenn das Linux nicht läuft, hat man ein Problem. Aus genau diesen Grund, erstelle ich die Backups mit Acronis immer in 4.7 GB Häppchen. Was eine Funktion von Acronis ist. Ich muss alles im schlimmsten aller Fälle mit einen Lappi unter Windows das Backup auf DVD's-(RW) brennen und es dann einspeisen. Ist ekelhaft,aber wenigstens komme ich an die Daten des Backup's ran. Ich mag keine Super-Dateien und ich mag nur VOLL-Backups. KEINE INKREMENTELLE. Wie gesagt, Danke für die Infos ich wusste nicht das mein Arconis das kann.
Schlaumaier schrieb: > Backups mit Acronis immer in 4.7 GB Häppchen Die Vorstellung, eine in heute neuen Rechnern nicht unübliche 1 TB Disk aus einem aus 4,7 GB Häppchen bestehenden Backup wiederherzustellen, erinnert mich an eine historische Unix-Installation mittels sowas wie 50 Disketten. Diese Erinnerung wird allerdings nun von der Vorstellung getoppt, in gewissen Abständen zwecks Backup eine Vorratspackung DVDs durch den Brenner zu schleusen. Zumal ich den wohl nicht gänzliche falschen Verdacht habe, dass eine einzelne USB-Disk zuverlässiger ist, als ein Stapel von 100 DVDs.
:
Bearbeitet durch User
Schlaumaier schrieb: > Aus genau diesen Grund, erstelle ich die Backups mit Acronis immer in > 4.7 GB Häppchen. Mein Beileid. > Was eine Funktion von Acronis ist. Ich muss alles im > schlimmsten aller Fälle mit einen Lappi unter Windows das Backup auf > DVD's-(RW) brennen und es dann einspeisen. Ist ekelhaft,aber wenigstens > komme ich an die Daten des Backup's ran. 1:1-Backup auf Wechselplatte (oder Wechsel-SSD) und los. > Ich mag keine Super-Dateien und ich mag nur VOLL-Backups. KEINE > INKREMENTELLE. Du solltest weniger nach Gefühl sondern mehr nach der Praxis handeln. Und wenn du willst kannst du eine Platte auch mit vielen kleinen Dateien zumüllen, aber wozu, wenn man einfach eine 1:1-Kopie haben kann?
Reinhard S. schrieb: > Und wenn du willst kannst du eine Platte auch mit vielen kleinen Dateien > zumüllen, aber wozu, wenn man einfach eine 1:1-Kopie haben kann? Wenn man CloneZilla auf Filesystem sichern lässt, verwendet es auch gerne Häppchen. Allerdings nicht aus Rücksicht auf DVDs, sondern weil man diverse FAT-Versionen nicht mit zu grossen Files belästigen sollte.
Schlaumaier schrieb: > Ich mag keine Super-Dateien und ich mag nur VOLL-Backups. KEINE > INKREMENTELLE. Bist du schon mal inkrementellen Backups im rsync-Stil (vgl rsnapshot, rsbackup) begegnet? Der Clou daran ist nämlich, dass jeder einzelne Stand auf dem Backup-Medium ein vollständiger und jederzeit auch für andere Systeme lesbarer Filebaum ist, obwohl sämtliche Files nur einmal pro Fileversion auf der Backup-Disk liegen. Und das auch problemlos mit Rotation über mehrere Backup-Disks funktioniert. Gibts in Windows ebenso, nennt sich dort z.B. HardlinkBackup. NTFS kann das nämlich auch, was die Wenigsten wissen.
:
Bearbeitet durch User
Schlaumaier schrieb: > Ich habe unter Windows nur 1 x eine einzelne Datei zurück spielen müssen > wegen eines drecks Update was nicht lief. ;) Und diese Technik > funktioniert unter Linux halt nicht. Aber ja doch, Du hast nur leider keine Ahnung. ;-)
Reinhard S. schrieb: > Mein Beileid. Danke Reinhard S. schrieb: > Und wenn du willst kannst du eine Platte auch mit vielen kleinen Dateien > zumüllen, aber wozu, wenn man einfach eine 1:1-Kopie haben kann? Weil das der Platte völlig egal ist. Aber ich es schon zig Mal erlebt habe das mal EINE Datei etwas kaputt war, und das OS die dann als FILE00**.CHK abgelegt hat. Wenn mir das bei einer 1 TB Datei passiert wo mein ganzen Backup drin ist, fluche ich definitiv lauter, als wenn mir das bei einer 4.7 GB Datei passiert. Sicherheit first. ;) (prx) A. K. schrieb: > Allerdings nicht aus Rücksicht auf DVDs, sondern weil > man diverse FAT-Versionen nicht mit zu grossen Files belästigen sollte. Auch ein Argument. Wie schon gesagt, ich muss mir keine Probleme machen wo keine sind. (prx) A. K. schrieb: > Bist du schon mal inkrementellen Backups im rsync-Stil (vgl rsnapshot, > rsbackup) begegnet? Ja vor 25 Jahren via Bandlaufwerk. Ich habe in meinen ganzen Leben noch nie so viel gearbeitet nur um ein Backup zurück zuspielen. Sheeva P. schrieb: > Aber ja doch, Du hast nur leider keine Ahnung. ;-) Nicht mit Arconis 2014 unter Linux. Welche meine Version ist. Und MEHR habe ich nicht behauptet. Wo bei diese Aussage auch nur die Aussage den Links oben wieder gibt.
Schlaumaier schrieb: > (prx) A. K. schrieb: > >> Bist du schon mal inkrementellen Backups im rsync-Stil (vgl rsnapshot, >> rsbackup) begegnet? > > Ja vor 25 Jahren via Bandlaufwerk. :-))
:
Bearbeitet durch User
Schlaumaier schrieb: > Aus genau diesen Grund, erstelle ich die Backups mit Acronis immer in > 4.7 GB Häppchen. Das geht auch unter jedem Linux mit Bordmitteln. Stichwort: tar und split Aber was spricht gegen inkrementelle Backups? Du kannst auch die Daten verschlüsselt in der Cloud speichern - Backblaze ist hier zu empfehlen - wenn die Internetverbindung das hergibt.
Schlaumaier schrieb: > Sheeva P. schrieb: >> Aber ja doch, Du hast nur leider keine Ahnung. ;-) > > Nicht mit Arconis 2014 unter Linux. Welche meine Version ist. > Und MEHR habe ich nicht behauptet. Dein "Beitrag" war: Schlaumaier schrieb: "Ich habe unter Windows nur 1 x eine einzelne Datei zurück spielen müssen wegen eines drecks Update was nicht lief. ;) Und diese Technik funktioniert unter Linux halt nicht. Mir egal." Meine Aussage zu diesem Abschnitt ist: doch, natürlich funktioniert das -- und zwar selbstverständlich auch unter Linux. Meine Güte, stell' Dich doch nicht so dumm, das kann man ja nicht mit ansehen!
Schlaumaier schrieb: > Wenn mir das bei einer 1 TB Datei passiert wo mein ganzen Backup drin > ist, fluche ich definitiv lauter, als wenn mir das bei einer 4.7 GB > Datei passiert. Sicherheit first. ;) Schlaumaier schrieb: > Ja vor 25 Jahren via Bandlaufwerk. Ich habe in meinen ganzen Leben noch > nie so viel gearbeitet nur um ein Backup zurück zuspielen. Ich glaube du stellst dir das anders vor als die anderen Schreiberlinge hier. Keiner hier schlägt vor alle Dateien in ein einzelnes Archiv zu packen. Und mit inkrementellem Backup ist auch nicht gemeint, dass du dir den aktuellen Stand aus einem Vollbackup und 42 Teilbackups zusammenbaust. Auf dem Backuplaufwerk findest du nach Verwendung von rsync/rsnapshot/usw. deine gewohnte Ordnerstruktur mitsamt den enthaltenen Dateien. Und das zu verschiedenen Zeitpunkten. Du kannst also immer auf die Struktur und die Dateien zugreifen wie sie zum jeweiligen Zeitpunkt aussah(en).
Schlaumaier schrieb: > Ja vor 25 Jahren via Bandlaufwerk. Ich habe in meinen ganzen Leben noch > nie so viel gearbeitet nur um ein Backup zurück zuspielen. Dann bist Du kein Schlaumaier
Schlaumaier schrieb: > Reinhard S. schrieb: >> Und wenn du willst kannst du eine Platte auch mit vielen kleinen Dateien >> zumüllen, aber wozu, wenn man einfach eine 1:1-Kopie haben kann? > > Weil das der Platte völlig egal ist. Aber ich es schon zig Mal erlebt > habe das mal EINE Datei etwas kaputt war, und das OS die dann als > FILE00**.CHK abgelegt hat. Das widerum hatte ich bisher nur letztens, als aber die Festplatte abgenippelt ist. > Wenn mir das bei einer 1 TB Datei passiert wo mein ganzen Backup drin > ist, fluche ich definitiv lauter, als wenn mir das bei einer 4.7 GB > Datei passiert. Sicherheit first. ;) Dann nimmst du halt statt dem Backup von letzter Woche das von vorletzer Woche oder aus dem 2. Lager. Und mit "1:1-Kopie" meine ich halt eine 1:1-Kopie auf eine andere Platte/SSD. Sprich: Festplattentausch und das System läuft genauso.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.