Forum: PC Hard- und Software Tool für Datensicherung gesucht


von Hans H. (wen_h)


Lesenswert?

Hallo,

nutze auf einem Windows-Notebook 4 Partitionen C: D: E: F: In das 
Notebook kann ich eine zweite Festplatte einschieben. Nun lassen sich D: 
E: F: einfach auf die eingesteckte Platte kopieren. Für die 
Systempartion C: habe ich bereits eine andere Lösung.

Das Problem: D: E: F: auf der Zielplatte erst zu löschen und dann neu zu 
schreiben dauert mir zu lange. Eigentlich immer sind nur einige wenige 
kleine Dateien verändert, gelöscht, oder hinzu gekommen. Deshalb 
zeitaufwändig immer die ganze Partition zu kopieren ist nicht optimal.

Gibt es ein Tool, das erst die Quell- und die Zielpartition vergleicht, 
um dann ganz gezielt nur die neuen oder veränderte Dateien kopiert (und 
nicht mehr vorhandene löscht), so dass Quelle und Ziel wieder identisch 
ist?

Wie nennen sich solche Tools?
Kann jemand ein Tool für meinen Zweck empfehlen?

Hans

von Hubert M. (hm-electric)


Lesenswert?

Ich benutze AllSync. https://www.allsync.de/

von Helmut -. (dc3yc)


Lesenswert?

Nennt sich "inkrementelles Backup". Kann fast jedes Programm. Ich 
verwende AOMEI Backupper.

von Paredros (paredros)


Lesenswert?


von Oliver D. (flenky)


Lesenswert?

Free File Sync: https://freefilesync.org/
Ein gutes Open Source Tool

: Bearbeitet durch User
von Richard W. (richardw)


Lesenswert?

Reflexhaft hätte ich rsync gesagt, aber das gibts ja unter Windows 
nicht. Robocopy wäre die naheliegendste Alternative. Es gibt aber einen 
Punkt, den ich persönlich an rsync sehr schätze der mit Robocopy meines 
Wissens nach nicht geht: Man kann rsync im Zieldateisystem einen Ordner 
mit einem bestehenden Backup vorsetzen und sagen, dass dies das 
ursprüngliche Backup sein soll. Das neue Backup kommt dann in einem 
Ordner daneben. Bei Dateien, die im ursprünglichen Backup bereits 
unverändert vorhanden sind, wird im neuen Backup dann nur ein Hardlink 
erzeugt. Gibts auch bei NTFS. Damit belegt das neue Backup kaum weiteren 
Platz und man kann so einfach beliebig viele Versionsstände effizient 
speichern und trotzdem jederzeit auf alles zugreifen und alte 
Versionsstände auch jederzeit unabhängig voneinander löschen. Eine sehr 
effiziente Dateideduplizierung also. Ein sehr praktisches Feature.

Wie gesagt, NTFS kann das auch, darum bin ich mir sicher dass es auch 
ein entsprechendes Tool unter Windows gibt.

Mach auch Backups übers Netzwerk woanders hin. Wenn der Lappi weg ist, 
nützt dir dein Backup nix.

von Stephan S. (uxdx)


Lesenswert?

Hans H. schrieb:
> Gibt es ein Tool, das erst die Quell- und die Zielpartition vergleicht,
> um dann ganz gezielt nur die neuen oder veränderte Dateien kopiert (und
> nicht mehr vorhandene löscht), so dass Quelle und Ziel wieder identisch
> ist?

rsync - gibt es auch für Windows.

tar (mit dem Parameter '-g filelist') - gibt es auch für Windows

von Ein T. (ein_typ)


Lesenswert?

Richard W. schrieb:
> Reflexhaft hätte ich rsync gesagt, aber das gibts ja unter Windows
> nicht.

Klar gibts das auch unter Windows -- nicht erst seit WSL2.

von Thorsten W. (Firma: TWcom Dienstleistungen) (hologram73)


Lesenswert?

Hi,
ich nutze für sowas Veeam Agent für Windows ist kostenfrei und das mit 
den inkrementellen bzw. differenziellen Backups läuft einwandfrei.

von Carypt C. (carypt)


Lesenswert?

Winmerge vergleicht Verzeichnisse, ich glaube es kann auch direkt 
Dateien schieben. und free

von Lu (oszi45)


Lesenswert?

Wenn Ihr immer nur einzelne Dateien sichert, sind nie alle auf dem 
selben zeitmäßigen Stand. Deswegen ist gelegentlich ein komplettes 
Image ALLER Dateien sehr nützlich.  Clonezilla hilft dabei, wenn man die 
Anleitung gründlich liest. 
https://www.heise.de/download/product/clonezilla-49483

von Harald K. (kirnbichler)


Lesenswert?

Wenn man bereit ist, Geld in die Hand zu nehmen, dann leistet Acronis 
TrueImage auch gute Dienste. Das kann inkrementelle Images von 
kompletten Laufwerken anlegen, und ist damit einem reinen Klon gegenüber 
(den es auch anfertigen kann, wenn man es von der zugehörigen Boot-CD 
startet) überlegen, denn man hat eben nicht nur den Datenstand zum 
Zeitpunkt des letzten Backups, sondern auch den vom vorletzen, vom 
vorvorletzten Backup etc.

Denn: Was bringt ein Backup, wenn es nach dem versehentlichen Löschen 
einer Datei erstellt wurde? Das bekommt man ja nicht unbedingt sofort 
mit, sondern kann --je nach Schusseligkeit des Anwenders-- auch 'ne 
Weile dauern.

Ansonsten: Windows selbst bringt auch ein Backupprogramm mit sich, das 
ist halt wie Software von Microsoft: Funktioniert prinzipiell, ist aber 
sehr konfus zu konfigurieren und hat bizarre Einschränkungen an manchen 
Stellen.

von Frank E. (Firma: Q3) (qualidat)


Lesenswert?

Zunächst sollte Windows 10/11 sowas in den Bordmitteln haben ("Windows 
Sicherung"), oder? Was spricht dagegen?

Wenn das nicht gefällt, werfe ich mal "Cobain Backup" in den Ring:

https://www.cobiansoft.com/

Ist sehr differenziert konfigurierbar, auch für Win Server geeignet, 
kost nix ...

: Bearbeitet durch User
von Richard W. (richardw)


Lesenswert?

Der Fragesteller will aber dateibasiertes Backup und für seine 
Systempartition hat er bereits eine Lösung und Cloud will er anscheinend 
auch nicht. Wenn das Backup zu geplanten Zeiten bzw manuell stattfindet, 
spricht doch nichts gegen eine recht dumme dateibasierte Lösung. 
Inkrementelle Updates lassen sich einfach mit Hardlinks lösen, so wie 
rsync mit —-link-dest Parameter.

von Hans H. (wen_h)


Lesenswert?

Helmut -. schrieb:
> Nennt sich "inkrementelles Backup".

Das war der gesuchte Begiff. Jetzt muss ich erst mal die vielen Tipps 
sichten und die Programme testen. Damit erst mal vielen Dank an alle.

Harald K. schrieb:
> Was bringt ein Backup, wenn es nach dem versehentlichen Löschen
> einer Datei erstellt wurde?

Wenn ich beim Ausmisten versehentlich eine Datei gelöscht habe, dann ist 
das Künstlerpech. Es geht mir darum, im Fall der Fälle nicht alle meine 
Daten zu verlieren.

von Harald K. (kirnbichler)


Lesenswert?

Hans H. schrieb:
> Wenn ich beim Ausmisten versehentlich eine Datei gelöscht habe, dann ist
> das Künstlerpech.

Und wenn das jemand anderes war, sprich: irgendeine Dreckssoftware, die 
an den von Dir verwendeten Mechanismen vorbeigekommen ist?

Acronis kann dateibasiertes Backup, und auch das inkrementell.

Ansonsten ist vielleicht das hier auch irgendwie hilfreich:
https://www.heise.de/tipps-tricks/Backup-erstellen-mit-Windows-10-3858841.html

Dort werden auch "externe" Programme zur Sicherung erwähnt, wie u.a. 
https://duplicati.com/

Oh, und falls zufälligerweise ein etwas besseres* Synology-NAS vorhanden 
ist, ist auch das mitgelieferte Active Backup for Business ein 
interessanter Kandidat.

*) z.B. 224+ oder 723

von Herbert Z. (herbertz)


Lesenswert?

Ich mache alle vier Wochen exakt nach dem Patchday einen Clon mit 
Clonezilla. Dauert nicht ganz 1,5 Stunden und entweder lese ich in der 
Zeit oder gehe einkaufen oder oder... Ich habe zwei Festplatten die ich 
abwechselnd nutze, heißt ich habe zwei Sicherungen im Abstand von 4 
Wochen.
Ganz wichtige Sachen wie meine Arbeit sichere ich täglich auf zwei 
Sticks.
Ich habe mich an dieses Prozedere gewöhnt und finde, es ist sicher 
genug.
Die Frage, wie lange hält eine Festplatte interessiert mich eigentlich 
nicht mehr.

: Bearbeitet durch User
von Michael B. (alter_mann)


Lesenswert?

Herbert Z. schrieb:
> Ich mache alle vier Wochen exakt nach dem Patchday einen Clon mit
> Clonezilla.

Wäre das nicht vor diesem Tag angebracht?

von Harald K. (kirnbichler)


Lesenswert?

Herbert Z. schrieb:
> Ich habe mich an dieses Prozedere gewöhnt und finde, es ist sicher
> genug.

Backup im Handbetrieb. Kann man machen ... aber wenn man auch was 
anderes macht als sich auf Selbstdisziplin zu konzentrieren, kann es 
passieren, daß das aus welchen Grünen auch immer mal ausfällt.

Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe.

von Lu (oszi45)


Lesenswert?

Harald K. schrieb:
> Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe.

... und ein gutes Restore funktioniert auch zuverlässig? Es gab Leute, 
die haben xxx Backups gemacht und keines war dann brauchbar. Es ist auch 
ein zeitlicher Unterschied, ob man nur ein Image zurückspielen muß oder 
3 Tage warten muß, weil jede Datei einzeln zurückgespielt wird.

von Hippelhaxe (hippelhaxe)


Lesenswert?

Lu schrieb:

> Wenn Ihr immer nur einzelne Dateien sichert, sind nie
> alle auf dem selben zeitmäßigen Stand.

Quatsch.
Snapshot-fähige Dateisysteme wurden bereits erfunden
(-- zumindest in der Linux-Welt).

von Hippelhaxe (hippelhaxe)


Lesenswert?

Lu schrieb:
> Harald K. schrieb:
>> Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe.
>
> ... und ein gutes Restore funktioniert auch zuverlässig?

Natürlich?!

Sollte man von Zeit zu Zeit zu Übungszwecken mal machen --
das Restore, meine ich, und -- ja, klar, auf eine UNBENUTZTE
Partition...


> Es gab Leute, die haben xxx Backups gemacht und keines war
> dann brauchbar.

Das ist kein Argument GEGEN automatisches Backup, sondern
ein Argument FÜR regelmäßige Überprüfung. (Diese kann
allerdings mindestens Faktor 10 seltener stattfinden als
das Backup selbst...)


> Es ist auch ein zeitlicher Unterschied, ob man nur ein
> Image zurückspielen muß oder 3 Tage warten muß, weil
> jede Datei einzeln zurückgespielt wird.

Wie oft erstellt man ein Backup -- und wie oft macht man
(auch testweise) ein Restore?

Meine Backups dauern (je Backup-Medium) etwa 10 Minuten.
Wenn alles klappt, ist das Thema nach einer halben Stunde
vergessen.

Wenn ich ERNSTHAFT ein Restore benötige, ist die Kacke
sowieso am dampfen... da ist mir relativ egal, WIE LANGE
das Restore dauert -- Hauptsache, es bringt mir mit
Sicherheit meine Daten wieder...

von Rene K. (xdraconix)


Lesenswert?

Lu schrieb:
> Wenn Ihr immer nur einzelne Dateien sichert, sind nie alle auf dem
> selben zeitmäßigen Stand. Deswegen ist gelegentlich ein komplettes
> Image ALLER Dateien sehr nützlich.

Anders wird da ein Schuh drauß, wer noch immer volle Images als Backup 
macht - dem gehören HDDs und Strompreise verdoppelt.

Ich habe, gefühlt seit 15 Jahren, niemanden mehr gesehen der im 
professionellem Umfeld ein Backup Image eines kompletten HDD-Pools 
macht. Warum auch? Warum sollte man sich 2PB spiegeln? Vor allem wohin? 
Wer soll die Kosten tragen?

Inkrementelle Backups ala rsync (oder welches Tool auch immer) ist das 
Zauberwort - nichts anderes! Was viel wichtiger ist, ist ein gescheiter 
Backupplan - (7/4/1)2 z.b.

Nachts um zwei werden hier sogar drei komplette Server auf 
Ersatzhardware gespiegelt. Das dauert keine 15 Minuten - und davon 
brauchen die Server jeweils schon allein zehn Minuten zum booten (HPE 
ML350 Gen10). Die inkrementellen Backups der Pools läuft um drei Uhr - 
Je nach Nutzung am vorigen Tag dauert das ne Stunde ca. - wobei da 
wiederrum der Knackpunkt das Out-of-House Backup ist - 400-600GB je nach 
Datenaufkommen sind über das deutsche Internet teilweise echt ne 
Zumutung.

Die Vorteile:
Das Script (rsync) welches das alles macht ist nen einfacher 
Zwanzigzeiler. Ich bin von keinerlei Drittanbietersoftware abhängig. Ich 
weiß haargenau was, wie, wo passiert. Das Script läuft aktuell auf 
Linux, kann aber genauso out-of-the-box auf Windows WSL, MacOS, BSD 
laufen.

Wenn ich heute mal Muße habe, werde ich das Script mal hier reinstellen.


Hippelhaxe schrieb:
> Quatsch.
> Snapshot-fähige Dateisysteme wurden bereits erfunden


Richtig, genauso sieht es aus!

Genauso wie manche noch Backups komprimieren ala gz, tar oder rar, das 
hat man in den 90igern gemacht, heute dedupliziert man in Chunks.


Harald K. schrieb:
> Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe.

Boah... ich hasse es mal wieder zuzugeben das Harald recht hat! :-D

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Hippelhaxe schrieb:
> Snapshot-fähige Dateisysteme wurden bereits erfunden
> (-- zumindest in der Linux-Welt).

Auch Windows/NTFS kann Snapshots, genannt Volume Shadow Copies, 
wenngleich das Verfahren nicht auf einem moderneren Copy on Write 
Filesystem beruht. Konsistente Point in Time Backups laufender Systeme 
sind darüber auch in Windows möglich.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Man sollte bei Backups 2 Szenarien auseinander halten, die deshalb auch 
nicht selten in völlig verschiedenen Verfahren implementiert werden:
- Disaster Recovery kompletter Systeme,
- Einfache Wiederherstellbarkeit einzelner Verzeichnisse und Files.

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

Michael B. schrieb:
> Wäre das nicht vor diesem Tag angebracht?

Ich habe doch eine vor diesem Tag, exakt zwar 4 Wochen alt aber die 
wichtigen Dinge wie meine Arbeit werden täglich gesichert. Verlieren tue 
ich
die Browserverläufe die sind nicht wichtig. Wichtig ist mir aber, dass 
die komplette installation gesichert ist ,nicht nur meine persönlichen 
Daten. Jeder weiß wie lange es dauert bis ein verlorenes System komplett 
wieder hergestellt ist mit allen persönlichen Einstellungen. Oft kann 
man sich gar nicht mehr erinnern was man alles eingestellt hatte.
Krepiert die Arbeitsplatte, dann ist das Problem bei mir in weniger als 
zwei Stunden komplett behoben. Bis die neue bestellte Platte kommt hänge 
ich eine der zwei Kopien rein.

von Herbert Z. (herbertz)


Lesenswert?

Harald K. schrieb:
> Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe.

Nach einem Virenbefall läuft da unter Umständen gar nichts mehr, 
eventuell sogar unbemerkt. Die meiste Arbeit macht immer das System wenn 
es verloren geht. Ein Clon ist ja immer ein fertiger benutzbare Zustand 
der nur die Zeit benötigt um überspielt zu werden. Eine Clon kann sofort 
getestet werden, ein Image offenbart seinen Fehler erst dann wem man es 
bitter nötig braucht.

von Peter D. (peda)


Lesenswert?

Herbert Z. schrieb:
> Jeder weiß wie lange es dauert bis ein verlorenes System komplett
> wieder hergestellt ist mit allen persönlichen Einstellungen. Oft kann
> man sich gar nicht mehr erinnern was man alles eingestellt hatte.

Ich verstehe auch nicht, wie oft immer gebetsmühlenartig gesagt wird, 
installiere Windows einfach neu. Was man sich damit unnötig Zeit ans 
Bein bindet, ist die blanke Katastrophe.
Ein Systemabbild ist dagegen ratzfatz eingespielt und nach wenigen 
Minuten läuft der PC wieder.
Auf meinem Desktop läuft die W7 Installation von 2014 mit W10 Upgrade.
W11 Upgrade muß ich noch machen.
Ich trenne auch zwischen System- und Datenpartition. Windows-PCs werden 
ja immer mit einer großen Partition ausgeliefert, aber man kann ja in 
der Datenträgerverwaltung die Partition verkleinern und eine 2. anlegen.

von Lu (oszi45)


Lesenswert?

Herbert Z. schrieb:
> Eine Clon kann sofort
> getestet werden, ein Image offenbart seinen Fehler erst dann wem man es
> bitter nötig braucht.

Dem Satz stimme ich zu. Ungünstig ist nur der Fall, wenn einer beim 
Clonen irrtümlich Quelle und Ziel verwechselt hat. 2 leere Platten sind 
ganz toll.

(prx) A. K. schrieb:
> Man sollte bei Backups 2 Szenarien auseinander halten, die deshalb auch
> nicht selten in völlig verschiedenen Verfahren implementiert werden:
> - Disaster Recovery kompletter Systeme,
> - Einfache Wiederherstellbarkeit einzelner Verzeichnisse und Files.

Volle Zustimmung! 3 fehlende alte Dateien sind schnell gefunden, aber 
alle Einstellungen wiederherstellen kann ewig dauern. Von Datenbanken 
ganz zu schweigen. "Mit dem Wissen wächst der Zweifel", meinte schon 
Goethe.

von Peter D. (peda)


Lesenswert?

Lu schrieb:
> Ungünstig ist nur der Fall, wenn einer beim
> Clonen irrtümlich Quelle und Ziel verwechselt hat. 2 leere Platten sind
> ganz toll.

Ich laß das ein Backup-Tool machen (AOMEI Backupper). Das sichert auch 
gleich alle nötigen versteckten Partitionen mit. Eine Datenpartition auf 
der selben SSD bleibt natürlich erhalten.

von (prx) A. K. (prx)


Lesenswert?

Harald K. schrieb:
> Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe.

Gute Disaster Recovery Verfahren setzen eine Medientrennung voraus. Was 
Online-Backups über Gebäudegrenzen bedeuten kann, und dann 
vollautomatisch geht. Oder man muss halt doch mal Hand anlegen und das 
Medium regelmässig woanders hin schleppen. Das ist dann nur so 
halbautomatisch.

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

Lu schrieb:
> Dem Satz stimme ich zu. Ungünstig ist nur der Fall, wenn einer beim
> Clonen irrtümlich Quelle und Ziel verwechselt hat. 2 leere Platten sind
> ganz toll.

Man sollte den Text in Clonezilla auf deutsch stellen, dann kann man es 
lesen. Die Quellplatte ist bei mir immer die erste. Außerdem ist die 
Quelle eine Toshiba, während die Zielplatte eine Samsung ist. Wer 
baugleich Platten benutzt muss die Seriennummer beider Platten auf einen 
Zettel schreiben und daneben Quelle oder Ziel.

von Frank O. (frank_o)


Lesenswert?

Oliver D. schrieb:
> Ein gutes Open Source Tool

Sauschnell und du kannst dir nahezu alle Szenarien einstellen und danach 
nur noch Knopfdruck.

von (prx) A. K. (prx)


Lesenswert?

Herbert Z. schrieb:
> Ich mache alle vier Wochen exakt nach dem Patchday einen Clon mit
> Clonezilla. Dauert nicht ganz 1,5 Stunden und entweder lese ich in der
> Zeit oder gehe einkaufen oder oder... Ich habe zwei Festplatten die ich
> abwechselnd nutze, heißt ich habe zwei Sicherungen im Abstand von 4
> Wochen.

Etwas besser wirds noch, wenn stets eine dieser Disks nicht in der 
gleichen Brandzone liegt. Das kann auch die Büroschublade sein, wenn als 
Eigentum markiert und verschlüsselt.

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

(prx) A. K. schrieb:
> Etwas besser wirds noch, wenn stets eine dieser Disks nicht in der
> gleichen Brandzone liegt. Das kann auch die Büroschublade sein, wenn als
> Eigentum markiert und verschlüsselt.

Wenn die Bude abfackelt hat man in der Regel andere Sorgen als den 
privaten PC zu beweinen. Firmen, klar die müssen auch räumlich die 
Sicherungen trennen.
Es gibt feuerfeste Boxen, die 30 Minuten einen Vollbrand überstehen, 
ideal für Bargeld und Festplatten und sonstige wichtige Dokumente.

von Lu (oszi45)


Lesenswert?

(prx) A. K. schrieb:
> Online-Backups über Gebäudegrenzen bedeuten kann, und dann
> vollautomatisch geht.

Kann man machen, solange die Dienste nicht hängen oder ein Datenträger 
krank wird. Deswegen muß man den ganzen Vorgang regelmäßig 
kontrollieren. Die Wiederherstellungszeit nach einer Onlinesicherung 
kann auch bis Weihnachten dauern. Man sollte es mal testen.

von Rene K. (xdraconix)


Lesenswert?

Hans H. schrieb:
> Gibt es ein Tool, das erst die Quell- und die Zielpartition vergleicht,
> um dann ganz gezielt nur die neuen oder veränderte Dateien kopiert (und
> nicht mehr vorhandene löscht), so dass Quelle und Ziel wieder identisch
> ist?

Nichtsdesto trotz ist das alles nichts was der TO sucht... Er sucht ein 
Tool für inkrementelles Backup: rsync!

von Rene K. (xdraconix)


Lesenswert?

Lu schrieb:
> Kann man machen, solange die Dienste nicht hängen oder ein Datenträger
> krank wird. Deswegen muß man den ganzen Vorgang regelmäßig
> kontrollieren.

Kontrollmechaniken kann man auch automatisieren. Was willst du denn (vor 
allem WIE) per Hand kontrollieren? Wie kann man sich ein "kontrollieren" 
von dir vorstellen? Was machst du da bei deiner Kontrolle genau?

Datenträger "krank" - man hat mindestens ein Out-of-House Backup in 
einem RZ liegen - dort hat man keine "kranken" Datenträger.

von Lu (oszi45)


Lesenswert?

Rene K. schrieb:
> dort hat man keine "kranken" Datenträger.

Nicht einen, sondern täglich. Du merkst es bloß nicht, wenn sich 
fleißige Leute darum kümmern. Wie Du Deine Daten prüfst, ist Deine 
Sache. Deinen Schreibtisch räumt auch keiner auf.

von Rene K. (xdraconix)


Lesenswert?

Lu schrieb:
> Wie Du Deine Daten prüfst, ist Deine
> Sache. Deinen Schreibtisch räumt auch keiner auf.

Mach ich automatisiert... wie gesagt. Du sagtest doch:

Lu schrieb:
> Deswegen muß man den ganzen Vorgang regelmäßig
> kontrollieren.

Ich frage mich wie das aussehen soll, wie DU das kontrollierst?! Und wie 
du dann feststellst das die Daten z.b. korrupt sind. Das du während 
eines Backups feststellst das ein Bit gekippt ist.

von (prx) A. K. (prx)


Lesenswert?

Herbert Z. schrieb:
> Wenn die Bude abfackelt hat man in der Regel andere Sorgen als den
> privaten PC zu beweinen.

Die Tränen kommen, wenn man in der Kohle zig Verträge und Logins sucht. 
Weshalb es sinnvoll ist, sich vorher um Zugänglichkeit kritischer Daten 
zu kümmern. Der Daten selbst, nicht der Systeme, auf denen sie liegen. 
Ob unbedingt die Filmsammlung dabei sein muss, oder ab man nur einen 
wichtigen Teil auswärts lagert, kann man sich aussuchen.

von Hans (ths23)


Lesenswert?

Hans H. schrieb:
> Wie nennen sich solche Tools?
> Kann jemand ein Tool für meinen Zweck empfehlen?

Der Totalcommander kann das.

von Harald K. (kirnbichler)


Lesenswert?

(prx) A. K. schrieb:
> Gute Disaster Recovery Verfahren setzen eine Medientrennung voraus.

Sicher. Das aber spricht nicht gegen ein vollautomatisches Backup.

Nur, um zur Sicherheit Festplatten durch die Gegend tragen zu können, 
auf ein vollautomatisches Backup zu verzichten, ist nicht die beste 
Lösung.

Klones anstelles von Images haben den Nachteil, daß sie naturgemäß nicht 
inkrementell arbeiten können, d.h. ihr Erstellen dauert entsprechend 
lange und wenn man mehrere Versionsstände aufheben möchte, muss man 
entsprechend viele Klone bereithalten.

Sicher, wenn es ausschließlich darum geht, einen Rechner so schnell wie 
möglich wieder als "bare metal" hochziehen zu können, dann ist ein Klon 
sehr schnell - aber wenn der Klon vier Wochen alt ist, und man sich 
alles, was sich seitdem geändert hat, mühsam von Hand zurückbasteln 
muss, dann ist auch nicht wirklich was gewonnen.

Wenn man Virtualisierung einsetzen kann, lässt sich je nach 
Virtualisierunssystem auch das Klonen automatisieren - man klont hier ja 
nicht die physische Festplatte, sondern nur die VM. Und so etwas 
unterstützen Systeme wie Proxmox, VMware etc. ganz anständig.

von Herbert Z. (herbertz)


Lesenswert?

Harald K. schrieb:
> aber wenn der Klon vier Wochen alt ist,

Was glaubst du wie froh viele wären wenn sie wenigstens einen 4 Wochen 
alten Klon hätten? Es ist natürlich wichtig, dass man alles was einem 
innerhalb des Sicherungsabstandes wichtig ist täglich sichert. Der 
"nette Film"  von vorgestern
ist ersetzbar. Vieles andere an Datenaufkommen unwichtig.
Wenn einem etwas wichtig ist muss er handeln. Dafür gibt es bei mir 
einen Ordner der täglich gesichert wird.

von Stephan S. (uxdx)


Lesenswert?

Harald K. schrieb:
> Klones anstelles von Images haben den Nachteil, daß sie naturgemäß nicht
> inkrementell arbeiten können, d.h. ihr Erstellen dauert entsprechend
> lange und wenn man mehrere Versionsstände aufheben möchte, muss man
> entsprechend viele Klone bereithalten.

Es gibt ein Programm für Windows, welches das kann, zumindest 
differentiell: http://www.drivesnapshot.de/de/ wir haben das in meiner 
alten Firma benutzt und es hat super funktioniert.

von Harald K. (kirnbichler)


Lesenswert?

Stephan S. schrieb:
> Es gibt ein Programm für Windows, welches das kann, zumindest
> differentiell:

Differentielle Klone? Wie soll das gehen? Ein Klon ist eine 1:1-Kopie 
einer Festplatte, keine Imagedatei.

von (prx) A. K. (prx)


Lesenswert?

Harald K. schrieb:
> Klones anstelles von Images haben den Nachteil, daß sie naturgemäß nicht
> inkrementell arbeiten können

Auch das lässt sich inkrementell durchführen. Nur halt nicht mit dd / 
clonezilla. Systeme, die Snapshots können, können prinzipiell auch 
inkrementelle Image-Backups. Und zwar live. Die Blöcke aus der Differenz 
zweier Snapshots sind exakt der sich dazwischen geänderte Datenbestand.

Also: Snapshot 1 erstellen und vollständig sichern, als Basis. Auch das 
geht im Betrieb, eben weil der Snapshot gesichert wird, nicht das 
Live-System. Dann Woche drauf noch einen Snapshot 2 erstellen und die 
Block-Differenz sichern. Ist nur die Frage, wie man die Information zu 
den Blöcken der Snapshots rankommt. Bei Windows hilft der VSS.

: Bearbeitet durch User
von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Frank E. schrieb:
> Zunächst sollte Windows 10/11 sowas in den Bordmitteln haben ("Windows
> Sicherung"), oder? Was spricht dagegen?

Gab es ja mal, aber das Programm hatte ab einer bestimmten Windows 
Version nicht mehr richtig funktioniert und wurde danach nie repariert.

von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Herbert Z. schrieb:
> Ich mache alle vier Wochen exakt nach dem Patchday einen Clon mit
> Clonezilla.

Direkt davor wäre sinnvoller.

von (prx) A. K. (prx)


Angehängte Dateien:

Lesenswert?

Sherlock 🕵🏽‍♂️ schrieb:
> Gab es ja mal, aber das Programm hatte ab einer bestimmten Windows
> Version nicht mehr richtig funktioniert und wurde danach nie repariert.

Ist auch in Win11 noch drin. Ich weiss aber nicht, ob man damit 
zuverlässig etwas anfangen kann.

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

(prx) A. K. schrieb:
> Ist auch in Win11 noch drin. Ich weiss aber nicht, ob man damit
> zuverlässig etwas anfangen kann.

Clonezilla ist zuverlässig und kostet nichts.

von Stephan S. (uxdx)


Lesenswert?

Harald K. schrieb:
> Stephan S. schrieb:
>> Es gibt ein Programm für Windows, welches das kann, zumindest
>> differentiell:
>
> Differentielle Klone? Wie soll das gehen? Ein Klon ist eine 1:1-Kopie
> einer Festplatte, keine Imagedatei.

Wird auf der Homepage genau erklärt und funktioniert ausgezeichnet. Es 
gibt von Homepage eine Testversion für 30 Tage und von der c't jedes 
Jahr eine Version mit 1 Jahr Laufzeit.

: Bearbeitet durch User
von Hippelhaxe (hippelhaxe)


Lesenswert?

Rene K. schrieb:

> Hans H. schrieb:
>> Gibt es ein Tool, das erst die Quell- und die Zielpartition
>> vergleicht, um dann ganz gezielt nur die neuen oder veränderte
>> Dateien kopiert (und nicht mehr vorhandene löscht), so dass
>> Quelle und Ziel wieder identisch ist?
>
> Nichtsdesto trotz ist das alles nichts was der TO sucht...

???

Hans H. IST der TO...


> Er sucht ein Tool für inkrementelles Backup: rsync!

???

Diskussion über den fundamentalen Gegensatz zwischen Spatz
und Sperling...?!

von Hippelhaxe (hippelhaxe)


Lesenswert?

Herbert Z. schrieb:

> Wichtig ist mir aber, dass die komplette installation
> gesichert ist ,nicht nur meine persönlichen Daten.
> Jeder weiß wie lange es dauert bis ein verlorenes
> System komplett wieder hergestellt ist mit allen
> persönlichen Einstellungen.

Offen gestanden -- das verstehe ich nicht: Ein vermurxt
eingestelltes System ist zugegebenermaßen hochgradig
lästig -- aber eben auch nur das: LÄSTIG.

Verlorene Dokumente dagegen können unwiederbringlich
sein; die bekommt man u.U. auch mit noch so viel
Arbeitseinsatz nicht wieder.

von Hippelhaxe (hippelhaxe)


Lesenswert?

Peter D. schrieb:

> Ein Systemabbild ist dagegen ratzfatz eingespielt und
> nach wenigen Minuten läuft der PC wieder.

Systemabbild setzt nach meinem laienhaften Verständnis
identische Hardware voraus.

Privat habe ich nur einen "großen" PC mit historisch
gewachsener Hardware.

WOHIN sollte ich das Systemabbild zurückspielen, wenn
mein PC mal abfackelt?

von Hippelhaxe (hippelhaxe)


Lesenswert?

Herbert Z. schrieb:

> Wenn die Bude abfackelt hat man in der Regel andere
> Sorgen als den privaten PC zu beweinen. Firmen, klar
> die müssen auch räumlich die Sicherungen trennen.

Das hat m.E. nix mit "privat" oder "Firma" zu tun, sondern
damit, wieviel wichtige Dokumente und Korrespondenz man
auf dem PC hat.
Wobei einer Privatpersond durchaus andere Dinge wichtig
sein können als einem Firmenchef...

von Herbert Z. (herbertz)


Lesenswert?

Hippelhaxe schrieb:
> WOHIN sollte ich das Systemabbild zurückspielen, wenn
> mein PC mal abfackelt?

Wenn die  Feuerwehr dich gleich in die Urne einfüllen kann ist der Part 
für dich erledigt. Ich habe zwei baugleiche Mainboards mit allem in 
Reserve was den alten Rechner ausmacht. Natürlich nicht in meiner 
Wohnung gelagert. Sollte ich das Szenario dank Rauchmelder überleben 
weil ich nüchtern ins Bett gegangen bin, fang ich wieder von vorne an.

von Hippelhaxe (hippelhaxe)


Lesenswert?

Herbert Z. schrieb:

> Hippelhaxe schrieb:
>> WOHIN sollte ich das Systemabbild zurückspielen, wenn
>> mein PC mal abfackelt?
>
> Wenn die  Feuerwehr dich gleich in die Urne einfüllen
> kann ist der Part für dich erledigt.

Das ist richtig, beantwortet aber meine Frage nicht.


> Ich habe zwei baugleiche Mainboards mit allem in
> Reserve was den alten Rechner ausmacht.

Das ist schön für Dich -- ohne jeden Sarkasmus --, aber
im Privatbereich doch eher... unüblich. Ich hatte privat
zeitweise auch mehrere PCs in Betrieb, aber die waren
niemals hardwaremäßig identisch.

Die Frage bleibt: Was fangen Privatleute, die in der Regel
nicht über zahlreiche baugleiche Rechner verfügen, mit
einem System-Image an?

Es mag wohl sein, dass ich irgend etwas übersehe, aber ich
habe nicht den Eindruck, dass ein System-Image irgendwie
nützlich für mich wäre. Ich glaube auch nicht, dass ich
damit die absolute Ausnahme bin...

von Hans H. (wen_h)


Angehängte Dateien:

Lesenswert?

Hans schrieb:
> Der Totalcommander kann das.

Habe ich mir mal eben angeschaut und erscheint passend für meine 
Anwendung. Zudem auf Deutsch und läuft auf allen Windows Versionen von 
Win95 bis Win11, 32 und 64 Bit.

Bei der Funktion Verzeichnisse synchronisieren werden im Ziel ältere 
Dateien überschrieben und in der Quelle neu erstellte Dateien im Ziel 
hinzugefügt.

Was ich nicht herausfinden konnte: Was ist mit Dateien oder 
Verzeichnissen, die in der Quelle nicht mehr vorhanden sind, weil 
ausgemistet wurde? Die sollten dann im Ziel gelöscht werden. Ist dem so?

von Frank E. (Firma: Q3) (qualidat)


Lesenswert?

Um Hardware-Unterschiede, auch mit Bezug auf Backup und Restore, in 
ihrer Bedeutung zu senken, wurde die Virtualisierung erfunden ...

von Rene K. (xdraconix)


Lesenswert?

Hippelhaxe schrieb:
> Es mag wohl sein, dass ich irgend etwas übersehe, aber ich
> habe nicht den Eindruck, dass ein System-Image irgendwie
> nützlich für mich wäre. Ich glaube auch nicht, dass ich
> damit die absolute Ausnahme bin...

Zumindest bei Win11 spielt das unterliegende System keine Rolle mehr. Du 
kannst eine HDD aus einem Laptop in einen  Desktop stecken - die Treiber 
für die fehlende Hardware werden bei Systemstart nachgeladen und ersetzt 
- LAN vorausgesetzt. Das dürfte bei Rückspielen eines System Images auch 
der Fall sein.

von Rene K. (xdraconix)


Lesenswert?

Hans H. schrieb:
> Was ich nicht herausfinden konnte: Was ist mit Dateien oder
> Verzeichnissen, die in der Quelle nicht mehr vorhanden sind, weil
> ausgemistet wurde? Die sollten dann im Ziel gelöscht werden. Ist dem so?

Wie gesagt, mit Rsync wäre das kein Ding:
1
rsync -ai --stats --progress --delete / --exclude={"/var/lib/lxcfs/proc/*","/boot/*","/swap.img","/BU/*","/dev/*","/proc/*","/sys/*","/tmp/*","/run/*","/mnt/*","/media/*","/lost+found"} /storage/shares/rene/Backups/node-1

Damit z.b. wird ein kompletter Server kopiert. Nur geänderte Dateien, 
Systemdateien werden nicht mitkopiert, Dateien welche im Ziel noch 
vorhanden aber in der Quelle gelöscht wurden werden ebenso im Ziel 
gelöscht.

Bei Linux wäre das nun so: Ich setze einen völlig wildfremden Rechner 
auf Linux auf. Kopiere dann diese Daten dort ins Root - und alles läuft 
genauso wie vorher auf dem anderen Server (Anpassung an die NICs müssen 
noch von Hand gemacht werden).

Für deinen Fall wäre ein einfaches:
1
rsync -ai --progress --delete /Quellordner/* /Zielordner

Wie gesagt... das geht in Windows, Linux, MacOS... Sogar via SSH über 
diese Grenzen hinaus.

Wenn ich z.b. einfach auf einen anderen Rechner syncroniseren möchte:
1
rsync -ai --progress --delete /Quellordner/* user@192.168.178.10:/Zielordner

und da spielt es dann auch keine Rolle ob ich von win zu win, Linux zu 
win, win zu linux etc... kopiere. SSH muss nur da sein und die 
Ordnerstruktur muss stimmen.

von Richard W. (richardw)


Lesenswert?

Rene K. schrieb:
> Hans H. schrieb im Beitrag
> Wie gesagt, mit Rsync wäre das kein Ding:

Wie gesagt, der Fragesteller verwendet Windows. Anscheinend gibts rsync 
über msys, aber ob man sich das antun will… da gibts für Windows-User 
sicherlich komfortable GUI Tools in bunt die das gewünschte Ergebnisse 
abliefern. Ich weiß es aber nicht, weil ich auch rsync unter Linux 
benutze.

von Hippelhaxe (hippelhaxe)


Lesenswert?

Rene K. schrieb:

> Hippelhaxe schrieb:
>> Es mag wohl sein, dass ich irgend etwas übersehe, aber ich
>> habe nicht den Eindruck, dass ein System-Image irgendwie
>> nützlich für mich wäre. Ich glaube auch nicht, dass ich
>> damit die absolute Ausnahme bin...
>
> Zumindest bei Win11 spielt das unterliegende System keine
> Rolle mehr. Du kannst eine HDD aus einem Laptop in einen
> Desktop stecken - die Treiber für die fehlende Hardware
> werden bei Systemstart nachgeladen und ersetzt - LAN
> vorausgesetzt. Das dürfte bei Rückspielen eines System
> Images auch der Fall sein.

Schön -- aber STARTET das rückgespielte System auch?
Und läuft es korrekt?


Ich weiss nicht, ob ich Dich richtig verstehe...

Ein System Image ist für mich quasi ein "dd" der System-
partition. Okay... gesetzt, ich habe so etwas auf einer
Backup-Festplatte.

So. Jetzt fährt der Blitz in meinen PC; das Ding geht
komplett in Flammen auf. Netzteil, Mainboard, Prozessor,
Festplatte... alles hin.

Ich kaufe mir notgedrungen einen neuen PC; wahrscheinlich
wird da Win11 drauf sein. Jetzt mache ich -- wie? -- weiter,
um das auf der Backup-Platte gesicherte System zum Laufen
zu bringen?

Für das reine RÜCKSPIELEN des Backup kann ich die HD aus
meinem neuen Rechner ausbauen und beide Platten beim
Kumpel an seine Win11-Kiste anstecken. Meinetwegen.

LÄUFT dieses System dann auch auf meinem neuen Rechner,
wenn ich die Platte dort einbaue?

Wo liegt mein Denkfehler?

von Hippelhaxe (hippelhaxe)


Lesenswert?

Frank E. schrieb:

> Um Hardware-Unterschiede, auch mit Bezug auf Backup
> und Restore, in ihrer Bedeutung zu senken, wurde die
> Virtualisierung erfunden ...

Mag sein... für meine privaten Kisten ist mir da die
Einstiegsschwelle zu hoch. Ich mache das ja nicht
beruflich...

Ich bin mit einer separaten Partition für /home, NILFS
und rbackup weitgehend zufrieden.

von Rene K. (xdraconix)


Lesenswert?

Hippelhaxe schrieb:
> LÄUFT dieses System dann auch auf meinem neuen Rechner,
> wenn ich die Platte dort einbaue?

Jup - hab ich so mit nem Laptop gemacht. SSD aus Laptop (war auch noch 
Intel) raus -> SSD in Desktop PC (Ein AMD Ryzen) rein -> hat zwei mal 
neu gestartet und dann lief es wie auf dem Laptop. Man braucht halt 
Geduld und muss ihn einfach machen lassen - Treiber die er nicht 
zwingend zum Betrieb braucht (Grafik, Sound, etc...) lädt er dann nach 
während er läuft. Er hatte erst in eine Art Grafikrückfallmodus mit 
1024x768 Pixel geschaltet und nach nen paar Minuten hatte er den Treiber 
unten und schaltete dann automatisch auf 4K um.


Da kann man über Windows halt sagen was man will, aber in dieser 
Hinsicht hat sich wahnsinnig viel positives getan.

: Bearbeitet durch User
von Hippelhaxe (hippelhaxe)


Lesenswert?

Rene K. schrieb:

> Hippelhaxe schrieb:
>> LÄUFT dieses System dann auch auf meinem neuen Rechner,
>> wenn ich die Platte dort einbaue?
>
> Jup - hab ich so mit nem Laptop gemacht. [...]

Ahh okay. Wusste nicht, dass das tatsächlich so geht.

Dann nehme ich natürlich meine Schmähungen gegen PeDa
mit dem Ausdruck tiefsten Bedauerns zurück.


> Da kann man über Windows halt sagen was man will, aber
> in dieser Hinsicht hat sich wahnsinnig viel positives
> getan.

Ganz offensichtlich.
Ich verwende seit 20 Jahren privat kein aktuelles Windows,
und mein Wissensstand ist offenbar ETWAS veraltet...

Danke für die präzisen Auskünfte.

von Hans (ths23)


Lesenswert?

Hans H. schrieb:
> Was ich nicht herausfinden konnte: Was ist mit Dateien oder
> Verzeichnissen, die in der Quelle nicht mehr vorhanden sind, weil
> ausgemistet wurde? Die sollten dann im Ziel gelöscht werden. Ist dem so?

Ich meine das geht mit der Option "asymmetrisch", bin mir aber nicht zu 
100% sicher. Mache Dir doch einfach mal 2 Testvezeichnisse mit 
vielleicht je 10 Dateien und spiele mit diesen mal Deine möglichen 
Szenarien durch.
Ansonsten lies mal hier 
http://www.heiniger-turgi.ch/Peter/pc/it_newsletter/EDV/TotalCommander_Handbuch.pdf, 
da wird auch der Umgang mit der Synchronisierungsfunktion beschrieben.

von Markus M. (Firma: EleLa - www.elela.de) (mmvisual)


Lesenswert?

Noch nicht erwähnt wurde bisher der alte DOS Befehl "XCOPY", dieser kann 
ebenfalls neuere Dateien kopieren oder überschreiben, gleiche Dateien 
überspringen, jedoch nicht nichtmehr vorhandene Dateien im Backup 
löschen.

Die Befehlszeiche wäre:
1
xcopy /s /e /d
und dazu noch die Quell/Ziel Pfade.

XCopy ist jetzt nicht das Beste, jedoch für einfaches Kopieren 
funktional.

von Harald K. (kirnbichler)


Lesenswert?

xcopy (die bessere Alternative: robocopy) kann zwar irgendwelche Dateien 
kopieren, aber ein eine bootfähige Kopie eines Windows-Systems kann man 
damit nicht anfertigen, weil bei einem laufenden Windows jede Menge 
Dateien existieren, die von andere Prozessen exklusiv geöffnet sind.

von Manfred P. (pruckelfred)


Lesenswert?

Markus M. schrieb:
> Noch nicht erwähnt wurde bisher der alte DOS Befehl "XCOPY", dieser kann
> ebenfalls neuere Dateien kopieren oder überschreiben, gleiche Dateien
> überspringen, jedoch nicht nichtmehr vorhandene Dateien im Backup
> löschen.

Na endlich, das nutze ich seit Jahren per Batchfiles und auch im 
Netzwerk gegen einen UNC-Pfad als Quelle.

Harald K. schrieb:
> xcopy (die bessere Alternative: robocopy) kann zwar irgendwelche Dateien
> kopieren, aber ein eine bootfähige Kopie eines Windows-Systems kann man
> damit nicht anfertigen

Wer lesen kann, hätte erkannt, das Hans nur Dateien synchronisieren 
möchte, bootfähig fordert er nicht.

von Ob S. (Firma: 1984now) (observer)


Lesenswert?

Harald K. schrieb:

> Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe.

Ein wirkliches Backup ist (fast immer) offline und nur durch physischen 
Benutzereingriff online zu bekommen. Und es muss mindestens drei 
Generationen davon geben. Physisch getrennt vom zu sichernden System und 
voneinander.
Das ist vollautomatisch nicht lösbar. Ja mehr noch: es darf gar nicht 
vollautomatisch lösbar sein, um sicher zu sein.

Alles andere sind nur Notlösungen, geschuldet der 
Faulheit/Praktikabilität. Aber natürlich bedeuten all diese Notlösungen 
einen herben Verlust an Sicherheit, darüber muss man sich jederzeit im 
Klaren sein.

Aber klar: aus praktischen Gründen nimmt man das dann i.d.R. doch in 
Kauf. Denn noch schlimmer als ein unsicheres Backup ist nur noch eins: 
gar kein (zeitnahes) Backup.

von (prx) A. K. (prx)


Lesenswert?

Ob S. schrieb:
> Ein wirkliches Backup ist (fast immer) offline und nur durch physischen
> Benutzereingriff online zu bekommen.

Die Radikallösung.

Ein besonders in Unternehmen praktikablerer Kompromiss ist ein System 
mit dem Backup-Medium, das vom zu sichernden System aus nicht schreibbar 
oder überhaupt nicht ansprechbar ist, sondern nur seinerseits das zu 
sichernde System anspricht. Damit kann ein infiziertes System nicht auch 
Backups vernichten.

: Bearbeitet durch User
von Hans H. (wen_h)


Lesenswert?

Hätte da noch ein Beispiel: Man ist dabei, ein eigenes Programm zu 
erweitern und hat eine Version bereits im Ziel gespeichert. Bei der 
weiteren Programmierung merkt man, dass man sich in eine Sackgasse 
manövriert hat. Also löscht man alles und holt sich von einem externen 
Medium die Version vor der Erweiterung.

Nun hat man also in der Quelle eine alte Version und im Ziel eine neuere 
Version. Bei einer erneuten Synchronisation müsste das Tool nun die 
neuere Version im Ziel durch die alte Version der Quelle ersetzen. Wird 
dem so sein?

von (prx) A. K. (prx)


Lesenswert?

Hans H. schrieb:
> Also löscht man alles und holt sich von einem externen
> Medium die Version vor der Erweiterung.

Bei auf Rsync basierenden Verfahren: 
https://en.wikipedia.org/wiki/Rsync#Determining_which_files_to_send

Insoweit Du dich auf Quellcode beziehst, wäre eine Versionsverwaltung 
wie "git" nicht gänzlich verkehrt. :)

: Bearbeitet durch User
von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Hans H. schrieb:
> Wird dem so sein?

So etwas ist in Backup Programmen üblicherweise konfigurierbar.

Ich nutze ein Programm  dass auf Rsync basiert. Es kopiert alle 
ausgewählten Verzeichnisse auf eine externe HDD in ein Unterverzeichnis 
mit dem aktuellen Datum. Aber: Dateien die auf der externen HDD hereits 
existieren, werden nur verlinkt. Das spart Speicherplatz und Zeit. Erst 
wenn alle Links auf die Datei (in allen Backup-Verzeichnissen) gelöscht 
sind wird der Speicherplatz der Datei frei gegeben.

Ich mag dabei besonders, daß man zum Lesen des Backups keine spezielle 
Software braucht.

von Ob S. (Firma: 1984now) (observer)


Lesenswert?

(prx) A. K. schrieb:

> Ein besonders in Unternehmen praktikablerer Kompromiss ist ein System
> mit dem Backup-Medium, das vom zu sichernden System aus nicht schreibbar
> oder überhaupt nicht ansprechbar ist, sondern nur seinerseits das zu
> sichernde System anspricht. Damit kann ein infiziertes System nicht auch
> Backups vernichten.

Wir machen sowas ähnliches.

Die Behälter der Backupgenerationen sind normalerweise offline 
(tatsächlich heruntergefahren). Sie wissen aber, wann Backups für ihre 
Generation zu erwarten ist. Kurz vorher wachen sie auf, fahren sie sich 
hoch und sind dann für die Quelle verfügbar. Wenn alle erwarteten 
Backup-Jobs innerhalb der erwartbaren Zeit erledigt sind, fahren sie 
wieder runter und sind dann wieder komplett offline. Wenn sie online 
bleiben, hat irgendwas nicht geklappt. Das wird dann manuell bemerkt und 
geprüft.

Wobei: Generation ist hier vielleicht der falsche Begriff. Innerhalb 
jeder physischen Generation gibt es nämlich noch differentielle 
Subgenerationen. Bei einem gezielten Angriff sind die natürlich völlig 
Huppse, dagegen hilft nur das Generationenkonzept und die 
Offline-Eigenschaft.
Aber für den Normalfall des eher zufälligen Datenverlusts sind sie doch 
sehr hilfreich. Diese Subgenerationen entsprechen vom "Erfolg" her etwa 
dem rsync-Mechanismus mit Hardlinks, laufen aber auf Sector-Level, da 
immer FS-Images (bzw. deren Differenzen) gesichert werden. Das geht 
einfach mal viel, viel schneller als das Durchrödeln der Filesysteme.

von Stephan S. (uxdx)


Lesenswert?

Ob S. schrieb:
> (prx) A. K. schrieb:
>
>> Ein besonders in Unternehmen praktikablerer Kompromiss ist ein System
>> mit dem Backup-Medium, das vom zu sichernden System aus nicht schreibbar
>> oder überhaupt nicht ansprechbar ist, sondern nur seinerseits das zu
>> sichernde System anspricht. Damit kann ein infiziertes System nicht auch
>> Backups vernichten.
>
> Wir machen sowas ähnliches.
>
> Die Behälter der Backupgenerationen sind normalerweise offline
> (tatsächlich heruntergefahren). Sie wissen aber, wann Backups für ihre
> Generation zu erwarten ist. Kurz vorher wachen sie auf, fahren sie sich
> hoch und sind dann für die Quelle verfügbar.

Und genau das ist falsch, sie dürfen NIE erreichbar sein. Denn genau 
dann schlägt die Ransomware zu, die checkt ja normalerweise lange vorher 
die Aktivitäten im Netz.

Die Lösung heisst Pull-Backup, d.h. nicht der (Netz-) Server macht das 
Backup und schiebt die Daten auf den Backup-Rechner, sondern der vom 
Netz aus nicht sichtbare Backup-Rechner holt sich die Daten aus dem 
Netz.

von Werner (julinuss)


Lesenswert?

meine Fundstücke:

FFS
for regular desktop users who like the simplicity of a GUI
doesn't have a client/server model, so it will copy the complete file.

Rsync
for people who like the simplicity of a CLI
must be installed on both the source and destination.
checks the modification time and size reading file directory 
information, it is quick

Vergleich - vermutlich perspektivisch verzerrt und ob aktuell?
https://en.wikipedia.org/wiki/Comparison_of_file_synchronization_software

dort stehen noch Grünfelder bei FFS
+ detect conflict
+ rename and moves
+ bidirectional

Rsync hat ein rotes Feld bei "bidirectional" und bei "propagate deletes" 
brauchts "using --delete".

Was einem Codeklopfer ein müdes Lächeln entlockt, müsste ich mir mühsam 
anlernen. Als Normalnutzer tendiere ich ergo zu FFS. Hoffentlich 
zurecht.

: Bearbeitet durch User
von Ob S. (Firma: 1984now) (observer)


Lesenswert?

Stephan S. schrieb:

> Und genau das ist falsch, sie dürfen NIE erreichbar sein. Denn genau
> dann schlägt die Ransomware zu, die checkt ja normalerweise lange vorher
> die Aktivitäten im Netz.

Dir ist schon klar, das die Richtung einer Verbindung keine Rolle mehr 
spielt, wenn sie erstmal aufgebaut ist?

Sprich: die Malware kann die von der Gegenseite aufgebaute Verbindung 
genauso nutzen.

von (prx) A. K. (prx)


Lesenswert?

Ob S. schrieb:
> Dir ist schon klar, das die Richtung einer Verbindung keine Rolle mehr
> spielt, wenn sie erstmal aufgebaut ist?

Mir nicht. Aus einem Server wird deshalb kein Client und umgkehrt. Bitte 
etwas ausführlicher.

: Bearbeitet durch User
von Udo K. (udok)


Lesenswert?

Die Skriptorgien mit den Dinosauriern rsync/Robocopy/dd/etc sind für 
Nerds ja nett, aber unter Windows ist die mit Abstand einfachste 
Möglichkeit der Dateiversionsverlauf.

1. Externe USB Festplatte anhängen
2. Startmenü "Dateiversionsverlauf" eintippen
3. "Einschalten" drücken, und fertig ist das Backup

Ansonsten ist für Normalsterbliche Onedrive eine einfache und sichere 
Backup Lösung (hat Versionsverlauf). Besteht ausserdem den Einbrecher 
und den Blitzeinschlags Test.

Für manuelle Backups mit mehr Kontrolle eignet sich sonst auch 7zip, das
kann im Menü "Art der Aktualisierung" auch "Synchronisieren" oder 
"Aktualisieren", also ein inkrementelles Backup.

Für die Windows Systemdaten und Programme mache ich schon seit Jahren 
kein Backup, zahlt sich nicht aus, da eine Neuistallation einfacher ist, 
bzw die Hardware heute zuverlässig genug ist.

: Bearbeitet durch User
von Ob S. (Firma: 1984now) (observer)


Lesenswert?

(prx) A. K. schrieb:
> Ob S. schrieb:
>> Dir ist schon klar, das die Richtung einer Verbindung keine Rolle mehr
>> spielt, wenn sie erstmal aufgebaut ist?
>
> Mir nicht. Aus einem Server wird deshalb kein Client und umgkehrt. Bitte
> etwas ausführlicher.

Mein Gott, eine "Verbindung" hat immer Datenpfade in beide Richtungen. 
Wenn du eine TCP-Verbindung öffnest, wird automatisch auch immer eine 
Pfad für die Gegenrichtung aufgebaut. Das macht eine "Verbindung" 
eigentlich aus: sowas ist per Definition immer bidrektional. Ob "Server" 
oder "Client" spielt nur für den Aufbau der Verbindung eine Rolle. Nach 
dem Aufbau der Verbindung sind beide Peers sowohl "Server" als auch 
"Client". Jeder Peer kann jederzeit jeden Scheiß an sein Gegenüber 
senden.

Und es ist für eine Malware mit Systemrechten genau so leicht, sich auf 
eine eingehende Verbindung TCP-Verbindung "aufzuschalten", wie selber 
eine ausgehend aufzubauen.

von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Ich benutze rsync nicht mit einem Script, sondern mit einer GUI.

Unter Windows gefiel mit der "Backup Maker" von Ascomp auch ganz gut, 
weil sein Ausgabeformat ohne spezielle Software lesbar ist. In diesem 
Fall waren es ZIP Dateien.

von (prx) A. K. (prx)


Lesenswert?

Ob S. schrieb:
> Mein Gott, eine "Verbindung" hat immer Datenpfade in beide Richtungen.

Und zwar bei TCP genau eine bidirektionale Session, keine Scheunentore. 
In diesem Fall vom Backup-System Port X ausgelöst zum zu sichernden 
Gerät Port Y. Mehr ist nicht.

Die kann zwar vom Trojaner beschüffelt oder aktiv gehackt werden, aber 
diese eine Session kann deshalb noch lange keine Aktionen auf dem 
Backup-System bewirken. Lediglich die transportieren Daten verfälschen, 
aber jeder Backup nach der Infektion ist sowieso verdorben. Nur die 
Stände davon sind nutzbar.

: Bearbeitet durch User
von Ob S. (Firma: 1984now) (observer)


Lesenswert?

(prx) A. K. schrieb:

> Die kann zwar vom Trojaner beschüffelt oder aktiv gehackt werden, aber
> diese eine Session kann deshalb noch lange keine Aktionen auf dem
> Backup-System bewirken.

Wie kommst du denn darauf? Sobald eine eingehende Verbindung steht, kann 
der Angreifer natürlich genau dasselbe tun, was er auch bei einer 
ausgehenden (von ihm selbst aufgebauten) Verbindung tun könnte.

> Lediglich die transportieren Daten verfälschen,
> aber jeder Backup nach der Infektion ist sowieso verdorben. Nur die
> Stände davon sind nutzbar.

Ach was...

Mir scheint, dass das ein Backupsystem irgendwie substanziell schädigen 
könnte...

Mein Gott: der Angreifer muss sich nicht mal die Mühe machen, die 
Kontrolle über das entfernte Backup-System übernehmen zu wollen, um 
seinen Primärschaden anzurichten.

Er kann aber natürlich zusätzlich zur Schadfunktion auch noch den 
Versuch dazu unternehmen. Wenn das Backup-System eine bekannte, nicht 
gefixte Sicherheitslücke hat, könnte er damit erfolgreich sein.

von (prx) A. K. (prx)


Lesenswert?

Ob S. schrieb:
> Wie kommst du denn darauf?

Gute 3 Jahrzehnte Verständnis von Networking, Layer 2 aufwärts, 
inklusive Client/Server Programmierung.

: Bearbeitet durch User
von Lu (oszi45)


Lesenswert?

Ein Offline-Backup, was entfernt im Schrank liegt, ist ein gutes Backup. 
Leider fallen manchmal so viele Daten an, dass es eine andere Lösung 
braucht. Für Schulungsinstallationen hatten wir daher einen Server, von 
dem man nur Daten abholen konnte, aber keine Scheibrechte hatte. Das 
hat uns manchen Virusbefall erspart.

von Udo K. (udok)


Lesenswert?

Egal ob nun der Backup Rechner oder der PC das Backup auslöst, für einen 
Verschlüsselungs Trojaner mit de fakto Root Rechten auf dem PC ist es 
leicht möglich das Backup zu unterbinden.

Wenn der PC das Backup auslöst, dann muss er nur das Backup Programm 
durch seine eigene Version ersetzen, oder die Konfig Dateien für das 
Backup manipulieren.

Wenn der Backup Rechner das Backup auslöst, dann muss auf dem PC ein 
Server laufen, der genauso leicht manipuliert werden kann.  Im 
einfachsten Fall ersetzt der Trojaner den Server wieder durch seine 
eigene Version.

Da kommt in vielen Fälle erst jemand drauf, wenn das Backup dringend 
benötigt wird.  Dann stehen da nur verschlüsselte Daten drinnen.
Den Aufwand wird der Trojaner Entwickler nur für verbreitete Backup 
Systeme machen, aber inzwischen ist das ja ein recht lukratives 
Geschäft.

Da nützt es auch nichts, wenn man das Backup händisch anstösst.  Das das 
Backup verschlüsselt ist merkt man erst wenn man es wieder aufspielen 
will.

Also ohne Kontrolle das das Backup wiederaufspielbar ist, hat ein 
Trojaner leichtes Spiel, weil der Schaden nach einem Jahr richtig gross 
ist, wenn dann der Trojaner das Life System verschlüsselt.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> Wenn der Backup Rechner das Backup auslöst, dann muss auf dem PC ein
> Server laufen, der genauso leicht manipuliert werden kann.

Ein infizierter PC ist ab dem Stand der Infektion hauptsächlich 
forensisch interessant. Wichtig ist zunächst der Stand davor.

Wobei man sich beliebig komplexe Szenarien ausdenken kann, mit dem 
Trojaner bekannten Bugs in allen Komponenten des Netzes und der Backups. 
Aber ich denke, das führt hier im Thread zu weit. Hier geht es 
erklärtermassen um ein relativ einfaches Szenario bei Sicherung von 
Daten, nicht um Wiederherstellung infizierter Systemen. Und auch nicht 
um iranische Uranzentrifugen.

Zu den häufigsten Anwendungen von Backups gehört neben Datenverlust 
durch Hardware-Defekte die Schusseligkeit von Leuten, die versehentlich 
Daten löschen oder durch Zuckungen beim mausen ins falsche Verzeichnis 
wegschieben, und mehr in der Art. Schädlinge rangieren deutlich 
dahinter.

: Bearbeitet durch User
von Mairian (marianp)


Lesenswert?

Die besten tools hier sind z.B. MAcrium Refelt und auf das andere komme 
ich gerade nicht, aber ich selber nutze Macrium, das ist top, kann für 
Backup und Image Genutzt werden

rsync etc sind eher Spielzeuge im heimbereich, bzw nur im Profibereich 
geeignet, da die sehr fehlerträchtig bei der Bedienung sind

Das tool wo mir der Name gerade nicht einfällt, hat nochm den Vorteil 
mehr CPU Kerne gleichzeitig zu nutzen, der Geschwindigkeitsvorteil ist 
aber überschaubar

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

Ich hänge nach jedem klonen die Quellplatte aus und boote die Sicherung.
Danach weiß ich was ich habe, ehe ich sie abstecke und beiseite nehme.
Überraschungen wie bei Images gibt es nicht.
Etwas Disziplin gehört freilich dazu, ist mir aber Fleisch und Blut.
Alles automatisch erledigen zu lassen, da neigt man da zu unberechtigt 
zu glauben ,es läuft alles nach Plan. Dabei kann aber viel unbemerkt 
schief gehen.
Man möge es lustig finden mein Prozedere manuell zu handeln, aber näher 
kann man an der Sicherung wichtiger Daten nebst System nicht dran sein. 
Zwei Sticks sichern das wichtige zwischen den vier Wochen, und das wird 
nur dann benötigt falls was passiert mit der Arbeitsplatte. Den Notfall 
hatte ich noch nicht.

von Mairian (marianp)


Lesenswert?

AHH, ich glaube es war Aomei Backupper

Bei beiden braucht man den Aufwand des ständigen Testens nicht zu 
machen, da das alles sehr zuverlässig und Fehlbediensicher ist.
Leider gibt es nichts vergleichbares unter Linux

: Bearbeitet durch User
von Mairian (marianp)


Lesenswert?

und O&O war auch gut, aber Macrium ist mein Favourit, schau dir das mal 
an
https://www.macrium.com/reflectfree#backup-and-recovery-software-for-home-pcs

Removable media imaging and cloning
Create images of running Windows OS
Restore non-booting systems
Scalable and navigable log view interface
Instantly boot backups in Hyper-V / Oracle VirtualBox VM
Direct disk cloning
WinPE 11 rescue media
Technical support via email for the trial duration
Rapid Delta Clone and Restore
Intra-daily backup scheduling
Ransomware protection and encryption
Incremental imaging

: Bearbeitet durch User
Beitrag #7864422 wurde von einem Moderator gelöscht.
von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Werner schrieb im Beitrag #7864422:
> Und welchen Vorteil haben kostenpflichtige Lösungen gegenüber FOSS außer
> dem Support aka Lösegeld für die Enthüllung der intransparenten
> Innereien?

Weiss ich nicht. Für private nutzer ist das Programm kostenlos.

Beitrag #7864429 wurde von einem Moderator gelöscht.
Beitrag #7864434 wurde von einem Moderator gelöscht.
Beitrag #7864438 wurde von einem Moderator gelöscht.
von Mairian (marianp)


Lesenswert?

Wie gesagt Macrium alles andere kannst du getrost vergessen, wenn dir 
die DAten was bedeuten.
Falls die nicht so wichtig is,t ist es wurscht was du nimmst.
Ich hatte etliches durchprobiertentscheident ist aber, wie zuverlässig 
sind die Backups und kommt man später auch wieder dran.
Also auch gegen Fehlbedienung, es bringt nicht, wenn du dich auf deine 
BAckups verlässt und nach Monaten merkst, der hat gar nichts oder 
unvollständig gesichert etc.
Hate da schon tolle Erlebnisse, da musste dann die version ziemlich 
genau passen, mit was das erstellt wurde, sonst ging es nicht z.B.
Dahe wie gesagt, keine Alternative

von Mairian (marianp)


Lesenswert?

owe, wenn es aber schon an einer email Adresse scheidet, bin ich rauss. 
Dann musstdu halt Spielzeug nehmen.+
Viel Erfolg

von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Werner schrieb im Beitrag #7864438:
> nur per Hose runter aka e-mail-Adresse verraten nutzbar, ergo NJET!

Die "belästigen" dich nur mit ein bisschen Werbung für ihre eigenen 
Produkte, und das kann man problemlos abstellen.

Wer nicht will, der hat schon.

: Bearbeitet durch User
von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Mairian schrieb:
> entscheident ist aber, wie zuverlässig sind die Backups und kommt man
> später auch wieder dran.

ganz recht

> Hate da schon tolle Erlebnisse, da musste dann die version ziemlich
> genau passen

Deswegen gefällt mir die Ausgabe im ZIP Format. Da muss ich mir um die 
Lesbarkeit des Backups keine Sorgen machen, und ich kann es auch ganz 
leicht kontrollieren.

> Also auch gegen Fehlbedienung

Ich denke, es ist wichtig, dass man das Programm versteht. Wenn es einen 
rätselhaft oder gar geheimnisvoll vorkommt, sollte man besser ein 
anderes wählen. Am Ende ist sogar simples Kopieren mit dem Dateimanager 
immer noch besser, als jedes Programm, dem man nicht vertrauen kann.

: Bearbeitet durch User
Beitrag #7864461 wurde von einem Moderator gelöscht.
von Manfred P. (pruckelfred)


Lesenswert?

Werner schrieb im Beitrag #7864434:
>> aber Macrium ist mein Favourit
> "30-Day Free Trial" für die Privaten ist ein Ausschlußkriterium pur.

computerbase.de sagt zu Macrium:
"Hinweis: Macrium Reflect Free wurde mit Version 8.0 eingestellt. Bis 
zum 1. Januar 2024 wurden weiterhin Sicherheitsupdates zur Verfügung 
gestellt, inzwischen ist der Support beendet."

Wer es hat, wie ich, hat das Ende der Free-Version nicht mitbekommen.
Eigentlich auch egal, für die Synchronisierung reiner Dateiverzeichnisse 
ist es eh das falsche Tool.

Ich benutze seit Jahren Fastcopy, meist aus einer Batchdatei aufgerufen 
und nur vereinzelt manuell per GUI. Es ist etwas Arbeit, die 
Aufrufparameter zu begreifen. Es kann auch Schaden machen, wenn man 
falsche Parameter übergibt!

https://fastcopy.jp/

Für Heimnutzung kostenlos:
https://fastcopy.jp/help/fastcopy_eng.htm#license
"It is only available for free use by individuals (non-profit) within 
the household."

Beitrag #7864523 wurde von einem Moderator gelöscht.
von Harald K. (kirnbichler)


Lesenswert?

Werner schrieb im Beitrag #7864523:
> FFS synct nicht nur Verzeichnisse, sondern die echte Dateistruktur.

Was ist für Dich die "echte" Dateistruktur, und worin unterscheidet die 
sich von der "unechten"?

Beitrag #7864705 wurde vom Autor gelöscht.
Beitrag #7864707 wurde vom Autor gelöscht.
Beitrag #7864708 wurde vom Autor gelöscht.
Beitrag #7864711 wurde vom Autor gelöscht.
Beitrag #7864713 wurde vom Autor gelöscht.
Beitrag #7864715 wurde vom Autor gelöscht.
Beitrag #7864716 wurde vom Autor gelöscht.
Beitrag #7864720 wurde von einem Moderator gelöscht.
von Rene K. (xdraconix)


Lesenswert?

Mairian schrieb:
> Wie gesagt Macrium alles andere kannst du getrost vergessen, wenn dir
> die DAten was bedeuten.

GERADE aus diesem Grund ist Macrium die schlechteste Wahl die man nehmen 
kann. Ein proprietäres Protokoll, ein Versionsabhängigkeit... Und zu 
guter Letzt: eine Lizenzabhängigkeit.

Nie und nimmer würde ich so etwas meine Daten für Backupzwecke 
anvertrauen. Das ist für die Computer-Bild und PC-Welt Leser mit 
Sicherheit das beste was es auf dem Markt gibt... Für Leute die sich mit 
EDV auskennen, die machen einen riesen Bogen um solch einen Schund!

Beitrag #7864871 wurde von einem Moderator gelöscht.
von (prx) A. K. (prx)


Lesenswert?

Oder sowas wie hier, Hardlinkbackup: https://www.lupinho.net/
Wie rsync. Kein proprietäres Format, sondern normales NTFS, mit 
Versionierung.

: Bearbeitet durch User
Beitrag #7864882 wurde von einem Moderator gelöscht.
von (prx) A. K. (prx)


Lesenswert?

"HardlinkBackup ist ein einfaches, schnelles Backup-Programm für 
inkrementelle Backups, das Hardlinks benutzt, Backups planen, 
E-Mail-Benachrichtigungen versenden und automatisch alte Backups löschen 
kann. HardlinkBackup liest die Quellverzeichnisse ein und vergleicht die 
Dateien mit früheren Backups. Nur die geänderten Dateien werden 
anschließend kopiert, die unveränderten Dateien werden mit Hard-Links 
mit den Dateien der bereits bestehenden Backups verlinkt (Voraussetzung 
ist, dass das Ziellaufwerk Hardlinks unterstützt, also z.B. mit NTFS 
formatiert wurde). Auf diese Art und Weise befindet sich auf dem 
Backup-Laufwerk immer eine komplette Kopie der Quellverzeichnisse vom 
jeweiligen Datum. Jedoch wird nur der Platz einer Kopie plus der 
veränderten Dateien benötigt. Wird eine alte Backup-Kopie nicht mehr 
benötigt kann sie ohne Probleme entsorgt werden, indem einfach das 
entsprechende Backup-Verzeichnis gelöscht wird. Von der Idee her 
entspricht HardlinkBackup dem rsyncbackup.vbs der Zeitschrift c’t, 
erweitert um eine grafische Benutzeroberfläche und viele weitere 
Features."

von Lu (oszi45)


Lesenswert?

(prx) A. K. schrieb:
> Auf diese Art und Weise befindet sich auf dem
> Backup-Laufwerk immer eine komplette Kopie der Quellverzeichnisse vom
> jeweiligen Datum.

... mit der winzigen Einschränkung, dass dieses Programm das RECHT auf 
ALLES zuzugreifen braucht. Wenn man auf Sachen nicht zugreifen kann, 
kann man sie auch nicht sichern. Deswegen ist gelegentlich ein 
Test-Restore ganz nützlich. Sonst steht man im Ernstfall mit leeren 
Händen da.

von (prx) A. K. (prx)


Lesenswert?

Ist kein Werkzeug für alle Fälle. Ich sehe es in der Rolle von Backups 
von privaten Datenbeständen, nicht von vollständigen Systemen. Da hat 
man es eher nicht mit Rechtefragen zu tun.

Der "Testrestore" der Sicherung wäre ein Vergleich der Dateibäume. Weiss 
nicht mehr, ob das im Programm drin ist, weil mangels Windows kein 
Bedarf mehr. Restore ist per Explorer oder xcopy oder so, was keine 
Vollständigkeit belegt.

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

Wenn man den Thread so durchliest, dann stellt man fest wie kompliziert 
automatische Datensicherung sein kann und welche Fallstricke die 
Methoden beinalten.
Da fällt mit wieder mein Clonezilla ein und meine Stirn, welche 
überhaupt keine Sorgenfalten zeigt. Klonen dauert nur 3 Minuten zum 
"anschieben", dann kann man das werkeln lassen. Am Ende hab ich alles 
was notwendig ist inklusive Betriebssystem.

von (prx) A. K. (prx)


Lesenswert?

Clonezilla ist etwas unpraktisch, wenn du eine einzelne Datei vernichtet 
hast, und nur diese zurück haben willst.

Deshalb:
Beitrag "Re: Tool für Datensicherung gesucht"

: Bearbeitet durch User
von Hippelhaxe (hippelhaxe)


Lesenswert?

Mairian schrieb:

> Wie gesagt Macrium alles andere kannst du getrost vergessen,
> wenn dir die DAten was bedeuten.
> Falls die nicht so wichtig is,t ist es wurscht was du nimmst.

Hmm.

Du meinst das wirklich ernst, ja?

Und Du glaubst auch, dass einer solchen Empfehlung irgend
jemand folgt, der noch bei halbwegs klarem Verstand ist?

von Hippelhaxe (hippelhaxe)


Lesenswert?

Lu schrieb:

> ... mit der winzigen Einschränkung,

???

JEDES Programm, das einen bestimmten Datenbestand sichern
soll, braucht das Recht, den gesamten Bestand zu lesen.
Das ist keine Einschränkung eines bestimmten Programmes...


> dass dieses Programm das RECHT auf ALLES zuzugreifen
> braucht.

???

Du weisst aber schon, dass aktuelle Betriebssysteme das Recht,
bestimmte Daten zu VERÄNDERN, sorgfältig von dem Recht, diese
Daten zu LESEN, unterscheiden?

von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Clonezilla ist unvorteilhaft, wenn der PC kaputt geht, und der neue zum 
Image inkompatibel ist.

Unabhängig davon wäre mir auf einem neuen PC eine frische 
Softwareinstallation lieber. So wird man einige Altlasten los, die sich 
im Laufe der Zeit ansammeln.

Zu diesem Zweck habe ich mir eine Liste aller wichtigen Einstellungen 
gemacht, um so eine Neuinstallation oder gar ein OS Wechsel zügig durch 
zu ziehen. Auf der Arbeit steht meine meine Liste im Wiki, weil sie von 
der ganzen Firma genutzt wird.

Beim wechsel von HDD auf SSD mittels Image gab es einen gemeinen 
Fallstrick, den man erst Monate später am frühzeitigen Verschleiß der 
SSD merkt, weil das OS noch auf HDD Modus konfiguriert ist.

Ich finde so ein Image allerdings sinnvoll, wenn man etwas riskantes 
ausprobieren will, was man eventuell wieder komplett verwerfen 
will/muss.

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

Sherlock 🕵🏽‍♂️ schrieb:
> Clonezilla ist unvorteilhaft, wenn der PC kaputt geht, und der neue zum
> Image inkompatibel ist.

Es geht nicht um ein Image sondern um "klonen". Wenn der PC defekt geht 
und die Hardware nicht mehr passt gibt es Wege bei W10, und no Probleme 
bei W11.

von Hippelhaxe (hippelhaxe)


Lesenswert?

Herbert Z. schrieb:

> Sherlock 🕵🏽‍♂️ schrieb:
>> Clonezilla ist unvorteilhaft, wenn der PC kaputt geht, und
>> der neue zum Image inkompatibel ist.
>
> Es geht nicht um ein Image sondern um "klonen".

???

Erkläre mir mal bitte mit allgemeinverständlichen Worten
den Unterschied.

Und falls Zweifel daran bestehen: Diese Frage ist
a) ernst und
b) völlig sachlich
gemeint.

von Hippelhaxe (hippelhaxe)


Lesenswert?

Herbert Z. schrieb:

> Am Ende hab ich alles was notwendig ist inklusive
> Betriebssystem.

Das ist für mich ein Widerspruch in sich.

Wirklich unwiederbringlich sind nur meine Daten. Die
will ich daher regelmäßig sichern.


Die Dateien, in denen meine Daten enthalten sind, verwenden
im großen und ganzen verbreitete, standardisierte Formate.
Daher gibt es in der Regel mehrere bis viele Anwendungs-
programme, die diese Dateien verarbeiten können. (Auch wenn
ich selbst nur genau EIN Programm verwende, finde ich es
wichtig, dass Verwendung anderer Programme möglich ist.)

Viele dieser Anwendungsprogramme sind frei verfügbar und
werden ständig weiterentwickelt; es ist also nicht sinnvoll,
diese lokal zu sichern.


Die Anwendungsprogramme benötigen ein Betriebssystem, um
zu arbeiten. Ich verwende ein freies Betriebssystem, das
ständig weiterentwickelt wird.

Warum sollte es für mich notwendig sein, das Betriebssystem
zusammen mit meinen Daten zu sichern?

von (prx) A. K. (prx)


Lesenswert?

Hippelhaxe schrieb:
> Du weisst aber schon, dass aktuelle Betriebssysteme das Recht,
> bestimmte Daten zu VERÄNDERN, sorgfältig von dem Recht, diese
> Daten zu LESEN, unterscheiden?

Bei Backups inklusive des Systems und aller Eigenschaften der Files gibt 
es obendrein noch weitere Dinge zu beachten. Reine Sicherung von eigenen 
Datenverzeichnissen ist meist anspruchsloser, da reicht Leserecht.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Hippelhaxe schrieb:
> Wirklich unwiederbringlich sind nur meine Daten.

Und manchmal auch die passende Version der Anwendung, die damit noch 
korrekt umgehen kann. Wenn schon etwas angestaubt. ;)

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Sherlock 🕵🏽‍♂️ schrieb:
> Ich finde so ein Image allerdings sinnvoll, wenn man etwas riskantes
> ausprobieren will, was man eventuell wieder komplett verwerfen
> will/muss.

Mit Virtualisierung ist man dabei erheblich besser dran. Da geht das 
sehr einfach ohne Klon/Image, über Snapshots der VM.

: Bearbeitet durch User
von Hippelhaxe (hippelhaxe)


Lesenswert?

(prx) A. K. schrieb:

> Hippelhaxe schrieb:
>> Du weisst aber schon, dass aktuelle Betriebssysteme das Recht,
>> bestimmte Daten zu VERÄNDERN, sorgfältig von dem Recht, diese
>> Daten zu LESEN, unterscheiden?
>
> Bei Backups inklusive des Systems und aller Eigenschaften der
> Files gibt es obendrein noch weitere Dinge zu beachten.

Damit mögen sich die Leute herumärgern, die das beruflich machen
und dafür -- hoffentlich anständig -- bezahlt werden... :-)


> Reine Sicherung von eigenen Datenverzeichnissen ist meist
> anspruchsloser, da reicht Leserecht.

Ja.
Deswegen beschränke ich mich darauf.

Überdies läuft die Installation des Betriebssystems und der
Anwendungssoftware hier weitgehend scriptgesteuert; ich
kann also bei dringendem Bedarf eine annähernd ähnliche
Installation auf neuer Hardware herstellen.

Server-Betrieb ist für mich nicht relevant.

von Hippelhaxe (hippelhaxe)


Lesenswert?

(prx) A. K. schrieb:

> Hippelhaxe schrieb:
>> Wirklich unwiederbringlich sind nur meine Daten.
>
> Und manchmal auch die passende Version der Anwendung, die
> damit noch korrekt umgehen kann. Wenn schon etwas angestaubt. ;)

Ja.
Habe ich bei privatem, persönlichem Kram bisher vermeiden
können durch Beschränkung auf Standard-Software und übliche
Dateiformate.

Im geschäftlichen Kontext kann man sich das häufig nicht
aussuchen; das ist mir schon klar...

von Hippelhaxe (hippelhaxe)


Lesenswert?

Sherlock 🕵🏽‍♂️ schrieb:

> Clonezilla ist unvorteilhaft, wenn der PC kaputt geht,
> und der neue zum Image inkompatibel ist.

Clonezilla für Datenbackup zu verwenden kommt mir vor wie
Hemden bügeln mit der Dampfwalze für den Straßenbau.
Irgendwie nutzt man das gebotene Leistungsprofil nicht
richtig aus...


> Unabhängig davon wäre mir auf einem neuen PC eine frische
> Softwareinstallation lieber.

Das ist ja der Punkt.

Ich neige ohnehin nicht dazu, meine Software besonders
engmaschig zu aktualisieren... um es mal vorsichtig
auszudrücken.

Wenn meine Kiste also mal ernsthaft krank wird, wird das
ein Anlass sein, meine bisher angesammelten Daten auf ein
halbwegs zeitgemäßes System zu übertragen.

von (prx) A. K. (prx)


Lesenswert?

Hippelhaxe schrieb:
> Wenn meine Kiste also mal ernsthaft krank wird, wird das
> ein Anlass sein, meine bisher angesammelten Daten auf ein
> halbwegs zeitgemäßes System zu übertragen.

Ich habe die Daten auch privat auf einem schon recht altbackenen 
Serverlein. Ist einfach angenehmer, wenn man mal vom Desktop und mal vom 
Laptop darauf zugreift. Und wenn die HDDs dort rotieren, wo das Geräusch 
nicht stört.

Einige Bekannte stellten sich eine NAS in die Wohnung. So eine Qnap hat 
ein beachtlich langes Leben. Und kriegt auch nach 10 Jahren noch 
kritische Bugfixes.

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

Hippelhaxe schrieb:
>> Es geht nicht um ein Image sondern um "klonen".

Das merkst du spätestens dann wenn du dein Image benötigst und es nicht 
funktioniert. Das kommt öfter vor als man denkt. Ist ein Umstand den du 
beim Klon schon lange bemerkt hast weil du hoffentlich so Klever warst 
und hast deine gerade erstellte Sicherung gebootet. Ein sehr wichtiger 
Unterschied wie ich meine. Mehr sag ich dazu nicht mehr auch dann  nicht 
wenn Hippelhaxe das anders sieht.

von Herbert Z. (herbertz)


Lesenswert?

Hippelhaxe schrieb:
> Clonezilla für Datenbackup zu verwenden kommt mir vor wie
> Hemden bügeln mit der Dampfwalze für den Straßenbau.

Versteh ich nicht ,denn was ist besser als einen kompletten Zwilling der 
Arbeitsplatte zu besitzen oder zwei wie bei mir? Dein Vergleich, hat 
keine Füße.

Hippelhaxe schrieb:
> Irgendwie nutzt man das gebotene Leistungsprofil nicht
> richtig aus...
Jetzt schreibst du aber "verschlüsselt"...

von Rene K. (xdraconix)


Lesenswert?

Herbert Z. schrieb:
> Versteh ich nicht ,denn was ist besser als einen kompletten Zwilling der
> Arbeitsplatte zu besitzen oder zwei wie bei mir? Dein Vergleich, hat
> keine Füße.

Weil es teilweise völlig sinnlos ist.

von Sherlock 🕵🏽‍♂️ (rubbel-die-katz)


Lesenswert?

Herbert Z. schrieb:
> Versteh ich nicht ,denn was ist besser als einen kompletten Zwilling der
> Arbeitsplatte zu besitzen oder zwei wie bei mir?

Je nach Anwendungsfall ist ein Backup besser.

Zum Beispiel, wenn ich aus Versehen eine Datei gelöscht oder kaputt 
gemacht habe. Dann möchte ich nicht den ganzen PC einen Monat zurück 
versetzen, sondern nur diese eine Datei.

Wahrscheinlich kann man aus dem Image einzelne Dateien extrahieren. Ein 
primitives Backup (kopierte Dateien) ist in dem Fall wesentlich leichter 
zugänglich.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

In Linux kann man unkomprimierte 1:1 Imagefiles direkt mounten und 
darauf fileweise zugreifen. Man kann es mit entsprechenden Tools 
bestimmt auch in Windows. Wirkt aber eher als Notlösung, zumal das bei 
inkrementellen, komprimierten oder parzellierten Images schwierig wird.

Weshalb es wie schon angesprochen sehr sinnvoll sein kann, 
Datensicherung und Systembackup auseinander zu halten und 
unterschiedlich zu implementieren.

: Bearbeitet durch User
von Hippelhaxe (hippelhaxe)


Lesenswert?

(prx) A. K. schrieb:

> Hippelhaxe schrieb:
>> Wenn meine Kiste also mal ernsthaft krank wird, wird das
>> ein Anlass sein, meine bisher angesammelten Daten auf ein
>> halbwegs zeitgemäßes System zu übertragen.
>
> Ich habe die Daten auch privat auf einem schon recht
> altbackenen Serverlein.

Ich habe die dezent formulierte Kritik verstanden...


> Ist einfach angenehmer, wenn man mal vom Desktop und
> mal vom Laptop darauf zugreift.

Ja... aber auch unangenehmer, wenn mal der Wurm im
Netzwerk steckt, weil dann gleich gar nix mehr
funktioniert. Zentrale Datenhaltung ist super, solange
sie funktioniert. Auch wenn sie nur wegen persönlicher
Blödheit nicht funktioniert, funktioniert sie trotzdem
nicht...


> Einige Bekannte stellten sich eine NAS in die Wohnung.

Steht hier auch... ist nur noch nicht in Betrieb. Ich
weiss noch nicht, wie das Optimum aussieht.

von (prx) A. K. (prx)


Lesenswert?

Hippelhaxe schrieb:
> Ja... aber auch unangenehmer, wenn mal der Wurm im
> Netzwerk steckt, weil dann gleich gar nix mehr
> funktioniert.

Vom Server booten tu ich Laptop und Desktop nicht, das schaffen die 
schon noch selbst. Aber natürlich ist es ratsam, Passwörter für den 
Server nicht nur auf dem Server zu speichern. ;)

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Hippelhaxe schrieb:
> Auch wenn sie nur wegen persönlicher
> Blödheit nicht funktioniert, funktioniert sie trotzdem
> nicht...

Nicht funktionierende dezentrale Datenhaltung wirkt auf mich in diesem 
Kontext auch nicht überzeugender. ;)

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Hippelhaxe schrieb:
> Ich habe die dezent formulierte Kritik verstanden...

Du siehst was, was ich nicht seh. 😆

von Hippelhaxe (hippelhaxe)


Lesenswert?

Herbert Z. schrieb:

> Hippelhaxe schrieb:
>>> Es geht nicht um ein Image sondern um "klonen".

Nein, DAS schrieb Hippelhaxe nicht. Bitte korrekt
zitieren.


> Das merkst du spätestens dann wenn du dein Image
> benötigst und es nicht funktioniert.

???


> Das kommt öfter vor als man denkt. Ist ein Umstand den du
> beim Klon schon lange bemerkt hast weil du hoffentlich so
> Klever warst und hast deine gerade erstellte Sicherung
> gebootet.

???

Ich sichere meine DATEN -- und NUR meine Daten. Da
bootet nix.

Die Software lässt sich bei Bedarf jederzeit wieder
installieren; sie findet sich auf vielen Servern in allen
Teilen der Welt -- auch wenn ich aus Bequemlichkeit
lokale Kopien von manchem habe...


> Ein sehr wichtiger Unterschied wie ich meine.

Unterschied -- durchaus. Aber inwiefern Vorteil?

von Hippelhaxe (hippelhaxe)


Lesenswert?

Herbert Z. schrieb:

> Hippelhaxe schrieb:
>> Clonezilla für Datenbackup zu verwenden kommt mir vor wie
>> Hemden bügeln mit der Dampfwalze für den Straßenbau.
>
> Versteh ich nicht ,denn was ist besser als einen kompletten
> Zwilling der Arbeitsplatte zu besitzen oder zwei wie bei mir?
> Dein Vergleich, hat keine Füße.

Wir leben in verschiedenen Welten.

In meinem PC arbeiten zwei Festplatten, eine "Systemplatte",
wo die ganze Software drauf ist, und eine "Datenplatte".

Beide Platten sind heftig partitioniert; die Systemplatte
enthält u.a. eine Boot-Partition, mehrere m.o.w. funktionierende
Linux-Installationen, ein Debian-Paketarchiv, eine Swap-Partition
und noch anderen Krempel.

Die Datenplatte enthält -- neben reichlich anderem Krempel --
mein /home-Verzeichnis.

Auf meine Daten in /home kann ich von jeder Linux-Installation
aus zugreifen -- auch wenn das (aufgrund von Schlamperei) mal
besser, mal schlechter funktioniert.

Von meinen Daten in /home gibt es ungefähr zehn "Zwilllinge"
auf diversen externen Backup-Platten -- angefertigt mit
rsync/rsnapshot.


> Hippelhaxe schrieb:
>> Irgendwie nutzt man das gebotene Leistungsprofil nicht
>> richtig aus...
> Jetzt schreibst du aber "verschlüsselt"...

Soweit ich verstanden habe, ist Clonezilla gut, wenn man
identische Installationen auf einer Vielzahl von Rechnern
benötigt.

Brauche ich aber gar nicht. Ich habe nur EINEN Rechner --
aber Daten, die sich immer mal ändern.

von (prx) A. K. (prx)


Lesenswert?

Hippelhaxe schrieb:
> Beide Platten sind heftig partitioniert

Bei mir gibt's nur eine (Nutz-) Partition pro PC - aber einen 
Hypervisor. Scheint mir einfacher. Mag wie neumodischer Krimskrams 
erscheinen, gibts aber schon seit einem Vierteljahrhundert. 😉

Imagebackups sind sehr einfach und umgänglich, wenn es Images von VMs 
sind. Auch Wechsel der zugrundeliegende Hardware bereitet kein 
Kopfzerbrechen. Und eines Tages trat der Windows-Desktop-PC seinen Weg 
vom Blech in eine VM unter Linux an, damals auf der gleichen Hardware. 
Mittlerweile ist er klaglos zwei Geräte weiter gewandert.

: Bearbeitet durch User
von Herbert Z. (herbertz)


Lesenswert?

Rene K. schrieb:
> Weil es teilweise völlig sinnlos ist.

Gut, dann warte ich auf den Tag und die Stunde, wo ich feststelle, dass 
meine Zwillinge zu nichts taugen.
Ps. Im übrigen habe ich auch keine maximal 4 Wochen Lücke zwischen den 
Sicherungen weil mein beiden USB Sticks alles wichtige in dieser Zeit 
nebenbei sichern und zwar täglich. Die Betonung liegt dabei auf 
"WICHTIG".
Der Thread wird noch lange werden schätze ich mal. Im übrigen hast du 
sicher schon mitbekommen, dass ich identische Hardware meines 
Arbeitsrechners (Mainboard ,CPU ,Arbeitsspeicher) doppelt in Reserve 
habe. Ist zwar nicht W11 tauglich ,aber egal, geht an mir vorbei.

von Manfred P. (pruckelfred)


Lesenswert?

Hippelhaxe schrieb:
> Viele dieser Anwendungsprogramme sind frei verfügbar und
> werden ständig weiterentwickelt; es ist also nicht sinnvoll,
> diese lokal zu sichern.

Viele Anwendungsprogramme werden bunter, größer und langsamer, ohne 
einen Mehrnutzen zu bieten. Also besser den bewährten Kram sichern. Fast 
alles findet sich als 'portable App', kann dann mit auf der Datenplatte 
liegen und einfach kopiert werden.

(prx) A. K. schrieb:
> Weshalb es wie schon angesprochen sehr sinnvoll sein kann,
> Datensicherung und Systembackup auseinander zu halten und
> unterschiedlich zu implementieren.

Das ist ein alter Hut und hier seit Jahren so. Für das Betriebssystem 
ein Image mit Acronis oder Macrium, für die Daten Kopien, im simpelsten 
Fall mit xcopy.

Konsequent angewendet, kopiert man Daten und portierbare Software auf 
den neuen PC und fast alles läuft wie gehabt.

von Harald K. (kirnbichler)


Lesenswert?


von Rene K. (xdraconix)


Lesenswert?

Herbert Z. schrieb:
> Ps. Im übrigen habe ich auch keine maximal 4 Wochen Lücke zwischen den
> Sicherungen weil mein beiden USB Sticks alles wichtige in dieser Zeit
> nebenbei sichern und zwar täglich.

Aber, nur um wirklich sicher zu gehen, du ziehst dir nicht täglich ein 
Image deiner System- oder Datenplatte, richtig?!


Bei mir wird, wie gesagt, nachts um vier per Magic Paket ein Rechner 
gestartet, dort via Rsync das System synchronisiert, danach verifiziert 
- danach läuft ein Python Script welches LXC Container und VMs startet 
und die Services abruft. Danach legt sich der Rechner wieder bis zum 
nächsten Tag schlafen. Das ist mein Proxmox.

So ähnlich läuft das Backup meiner Daten aus dem Pool ab: es werden zwei 
Rechner gestartet - einer hier daheim und einer via VPN bei Würzburg. 
Dort werden die Daten synchronisiert, verifiziert in einem 7/4/2 
Rhythmus - danach fahren die Rechner wieder runter - das täglich um 
drei. Mir fehlen, sollte etwas im Pool passieren (z.b. zwei Platten 
gleichzeitig defekt), maximal ein Tag an Daten. Was aber tatsächlich 
noch nie passiert ist.

Virus ist tatsächlich ein Thema. Aber, wie will man dies umgehen? Wie 
lange hält sich ein Virus als Sleeper im System / Daten bevor er aktiv 
und bemerkt wird? Der Vorteil an meinen Daten im Pool ist dieser, das 
dort keine ausführbaren Dateien liegen - aber man weiß auch nicht WIE 
sich Viren verteilen. Mehr als ein aktuellen AV kann man halt nicht 
drüber laufen lassen - da ist man halt dem Risiko ausgesetzt.

von Herbert Z. (herbertz)


Lesenswert?

Rene K. schrieb:
> Aber, nur um wirklich sicher zu gehen, du ziehst dir nicht täglich ein
> Image deiner System- oder Datenplatte, richtig?!

Nein ,nur das was innerhalb der 4 Wochen als wichtig anfällt.
Stell dir mal vor, du arbeitest über Tage an einem Layout.Du machst 
täglich Fortschritte. Da steckt viel Arbeit drinnen, da will man nicht 
von vorne anfangen müssen. Bei solche Sachen sichere ich auch mehrmals 
den Fortschritt am Tag. Nur ein Beispiel jetzt...

von Herbert Z. (herbertz)


Lesenswert?

Rene K. schrieb:
> Virus ist tatsächlich ein Thema.

Ist ein Thema, aber ich hatte außer in den Anfangszeiten meines Internet 
Anschlusses kein Problem damit. Ich habe auch nur die Windows eigene AV 
am laufen, die ist gut. Mein Konto ist eingeschränkt, da installiert 
sich so schnell nichts ohne mein zutun. Viren...AV ja, aber sonst kein 
Thema.
Wenn ich mir überlege wie lange ich ohne Updates mit XP und W7 im Netz 
war und zwar ohne Probleme, dann ist die Gefahrenlage zu einem großen 
Teil nur Geschäftsinteresse. Ich kaufe mir keinen neuen Rechner mehr 
wegen W11. Microsoft will Millionen guter Rechner verschrotten. Da 
spiele ich nicht mit. Kommt Zeit kommt Rat, aber ich habe noch Zeit...

von Frank K. (fchk)


Lesenswert?

(prx) A. K. schrieb:
> In Linux kann man unkomprimierte 1:1 Imagefiles direkt mounten und
> darauf fileweise zugreifen. Man kann es mit entsprechenden Tools
> bestimmt auch in Windows. Wirkt aber eher als Notlösung, zumal das bei
> inkrementellen, komprimierten oder parzellierten Images schwierig wird.

DriveSnapshot kann das, sehr einfach. Das mounted Dir Dein Backup als 
extra Laufwerk, und damit kannst Dir Deine Daten raussuchen.

DriveSnapshot hat gegenüber Clonezilla noch einen weiteren Vorteil: Das 
Backup läuft bei laufendem System. Was nützt ein Backup, das nicht 
gemacht wird? Zum Komplett-Restore nimmst Du ein 
Windows-Installationsimage, gehst in die Kommandozeile und startest von 
dort das Restore.

fchk

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.