Hallo, nutze auf einem Windows-Notebook 4 Partitionen C: D: E: F: In das Notebook kann ich eine zweite Festplatte einschieben. Nun lassen sich D: E: F: einfach auf die eingesteckte Platte kopieren. Für die Systempartion C: habe ich bereits eine andere Lösung. Das Problem: D: E: F: auf der Zielplatte erst zu löschen und dann neu zu schreiben dauert mir zu lange. Eigentlich immer sind nur einige wenige kleine Dateien verändert, gelöscht, oder hinzu gekommen. Deshalb zeitaufwändig immer die ganze Partition zu kopieren ist nicht optimal. Gibt es ein Tool, das erst die Quell- und die Zielpartition vergleicht, um dann ganz gezielt nur die neuen oder veränderte Dateien kopiert (und nicht mehr vorhandene löscht), so dass Quelle und Ziel wieder identisch ist? Wie nennen sich solche Tools? Kann jemand ein Tool für meinen Zweck empfehlen? Hans
Nennt sich "inkrementelles Backup". Kann fast jedes Programm. Ich verwende AOMEI Backupper.
Reflexhaft hätte ich rsync gesagt, aber das gibts ja unter Windows nicht. Robocopy wäre die naheliegendste Alternative. Es gibt aber einen Punkt, den ich persönlich an rsync sehr schätze der mit Robocopy meines Wissens nach nicht geht: Man kann rsync im Zieldateisystem einen Ordner mit einem bestehenden Backup vorsetzen und sagen, dass dies das ursprüngliche Backup sein soll. Das neue Backup kommt dann in einem Ordner daneben. Bei Dateien, die im ursprünglichen Backup bereits unverändert vorhanden sind, wird im neuen Backup dann nur ein Hardlink erzeugt. Gibts auch bei NTFS. Damit belegt das neue Backup kaum weiteren Platz und man kann so einfach beliebig viele Versionsstände effizient speichern und trotzdem jederzeit auf alles zugreifen und alte Versionsstände auch jederzeit unabhängig voneinander löschen. Eine sehr effiziente Dateideduplizierung also. Ein sehr praktisches Feature. Wie gesagt, NTFS kann das auch, darum bin ich mir sicher dass es auch ein entsprechendes Tool unter Windows gibt. Mach auch Backups übers Netzwerk woanders hin. Wenn der Lappi weg ist, nützt dir dein Backup nix.
Hans H. schrieb: > Gibt es ein Tool, das erst die Quell- und die Zielpartition vergleicht, > um dann ganz gezielt nur die neuen oder veränderte Dateien kopiert (und > nicht mehr vorhandene löscht), so dass Quelle und Ziel wieder identisch > ist? rsync - gibt es auch für Windows. tar (mit dem Parameter '-g filelist') - gibt es auch für Windows
Richard W. schrieb: > Reflexhaft hätte ich rsync gesagt, aber das gibts ja unter Windows > nicht. Klar gibts das auch unter Windows -- nicht erst seit WSL2.
Hi, ich nutze für sowas Veeam Agent für Windows ist kostenfrei und das mit den inkrementellen bzw. differenziellen Backups läuft einwandfrei.
Winmerge vergleicht Verzeichnisse, ich glaube es kann auch direkt Dateien schieben. und free
Wenn Ihr immer nur einzelne Dateien sichert, sind nie alle auf dem selben zeitmäßigen Stand. Deswegen ist gelegentlich ein komplettes Image ALLER Dateien sehr nützlich. Clonezilla hilft dabei, wenn man die Anleitung gründlich liest. https://www.heise.de/download/product/clonezilla-49483
Wenn man bereit ist, Geld in die Hand zu nehmen, dann leistet Acronis TrueImage auch gute Dienste. Das kann inkrementelle Images von kompletten Laufwerken anlegen, und ist damit einem reinen Klon gegenüber (den es auch anfertigen kann, wenn man es von der zugehörigen Boot-CD startet) überlegen, denn man hat eben nicht nur den Datenstand zum Zeitpunkt des letzten Backups, sondern auch den vom vorletzen, vom vorvorletzten Backup etc. Denn: Was bringt ein Backup, wenn es nach dem versehentlichen Löschen einer Datei erstellt wurde? Das bekommt man ja nicht unbedingt sofort mit, sondern kann --je nach Schusseligkeit des Anwenders-- auch 'ne Weile dauern. Ansonsten: Windows selbst bringt auch ein Backupprogramm mit sich, das ist halt wie Software von Microsoft: Funktioniert prinzipiell, ist aber sehr konfus zu konfigurieren und hat bizarre Einschränkungen an manchen Stellen.
Zunächst sollte Windows 10/11 sowas in den Bordmitteln haben ("Windows Sicherung"), oder? Was spricht dagegen? Wenn das nicht gefällt, werfe ich mal "Cobain Backup" in den Ring: https://www.cobiansoft.com/ Ist sehr differenziert konfigurierbar, auch für Win Server geeignet, kost nix ...
:
Bearbeitet durch User
Der Fragesteller will aber dateibasiertes Backup und für seine Systempartition hat er bereits eine Lösung und Cloud will er anscheinend auch nicht. Wenn das Backup zu geplanten Zeiten bzw manuell stattfindet, spricht doch nichts gegen eine recht dumme dateibasierte Lösung. Inkrementelle Updates lassen sich einfach mit Hardlinks lösen, so wie rsync mit —-link-dest Parameter.
Helmut -. schrieb: > Nennt sich "inkrementelles Backup". Das war der gesuchte Begiff. Jetzt muss ich erst mal die vielen Tipps sichten und die Programme testen. Damit erst mal vielen Dank an alle. Harald K. schrieb: > Was bringt ein Backup, wenn es nach dem versehentlichen Löschen > einer Datei erstellt wurde? Wenn ich beim Ausmisten versehentlich eine Datei gelöscht habe, dann ist das Künstlerpech. Es geht mir darum, im Fall der Fälle nicht alle meine Daten zu verlieren.
Hans H. schrieb: > Wenn ich beim Ausmisten versehentlich eine Datei gelöscht habe, dann ist > das Künstlerpech. Und wenn das jemand anderes war, sprich: irgendeine Dreckssoftware, die an den von Dir verwendeten Mechanismen vorbeigekommen ist? Acronis kann dateibasiertes Backup, und auch das inkrementell. Ansonsten ist vielleicht das hier auch irgendwie hilfreich: https://www.heise.de/tipps-tricks/Backup-erstellen-mit-Windows-10-3858841.html Dort werden auch "externe" Programme zur Sicherung erwähnt, wie u.a. https://duplicati.com/ Oh, und falls zufälligerweise ein etwas besseres* Synology-NAS vorhanden ist, ist auch das mitgelieferte Active Backup for Business ein interessanter Kandidat. *) z.B. 224+ oder 723
Ich mache alle vier Wochen exakt nach dem Patchday einen Clon mit Clonezilla. Dauert nicht ganz 1,5 Stunden und entweder lese ich in der Zeit oder gehe einkaufen oder oder... Ich habe zwei Festplatten die ich abwechselnd nutze, heißt ich habe zwei Sicherungen im Abstand von 4 Wochen. Ganz wichtige Sachen wie meine Arbeit sichere ich täglich auf zwei Sticks. Ich habe mich an dieses Prozedere gewöhnt und finde, es ist sicher genug. Die Frage, wie lange hält eine Festplatte interessiert mich eigentlich nicht mehr.
:
Bearbeitet durch User
Herbert Z. schrieb: > Ich mache alle vier Wochen exakt nach dem Patchday einen Clon mit > Clonezilla. Wäre das nicht vor diesem Tag angebracht?
Herbert Z. schrieb: > Ich habe mich an dieses Prozedere gewöhnt und finde, es ist sicher > genug. Backup im Handbetrieb. Kann man machen ... aber wenn man auch was anderes macht als sich auf Selbstdisziplin zu konzentrieren, kann es passieren, daß das aus welchen Grünen auch immer mal ausfällt. Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe.
Harald K. schrieb: > Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe. ... und ein gutes Restore funktioniert auch zuverlässig? Es gab Leute, die haben xxx Backups gemacht und keines war dann brauchbar. Es ist auch ein zeitlicher Unterschied, ob man nur ein Image zurückspielen muß oder 3 Tage warten muß, weil jede Datei einzeln zurückgespielt wird.
Lu schrieb: > Wenn Ihr immer nur einzelne Dateien sichert, sind nie > alle auf dem selben zeitmäßigen Stand. Quatsch. Snapshot-fähige Dateisysteme wurden bereits erfunden (-- zumindest in der Linux-Welt).
Lu schrieb: > Harald K. schrieb: >> Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe. > > ... und ein gutes Restore funktioniert auch zuverlässig? Natürlich?! Sollte man von Zeit zu Zeit zu Übungszwecken mal machen -- das Restore, meine ich, und -- ja, klar, auf eine UNBENUTZTE Partition... > Es gab Leute, die haben xxx Backups gemacht und keines war > dann brauchbar. Das ist kein Argument GEGEN automatisches Backup, sondern ein Argument FÜR regelmäßige Überprüfung. (Diese kann allerdings mindestens Faktor 10 seltener stattfinden als das Backup selbst...) > Es ist auch ein zeitlicher Unterschied, ob man nur ein > Image zurückspielen muß oder 3 Tage warten muß, weil > jede Datei einzeln zurückgespielt wird. Wie oft erstellt man ein Backup -- und wie oft macht man (auch testweise) ein Restore? Meine Backups dauern (je Backup-Medium) etwa 10 Minuten. Wenn alles klappt, ist das Thema nach einer halben Stunde vergessen. Wenn ich ERNSTHAFT ein Restore benötige, ist die Kacke sowieso am dampfen... da ist mir relativ egal, WIE LANGE das Restore dauert -- Hauptsache, es bringt mir mit Sicherheit meine Daten wieder...
Lu schrieb: > Wenn Ihr immer nur einzelne Dateien sichert, sind nie alle auf dem > selben zeitmäßigen Stand. Deswegen ist gelegentlich ein komplettes > Image ALLER Dateien sehr nützlich. Anders wird da ein Schuh drauß, wer noch immer volle Images als Backup macht - dem gehören HDDs und Strompreise verdoppelt. Ich habe, gefühlt seit 15 Jahren, niemanden mehr gesehen der im professionellem Umfeld ein Backup Image eines kompletten HDD-Pools macht. Warum auch? Warum sollte man sich 2PB spiegeln? Vor allem wohin? Wer soll die Kosten tragen? Inkrementelle Backups ala rsync (oder welches Tool auch immer) ist das Zauberwort - nichts anderes! Was viel wichtiger ist, ist ein gescheiter Backupplan - (7/4/1)2 z.b. Nachts um zwei werden hier sogar drei komplette Server auf Ersatzhardware gespiegelt. Das dauert keine 15 Minuten - und davon brauchen die Server jeweils schon allein zehn Minuten zum booten (HPE ML350 Gen10). Die inkrementellen Backups der Pools läuft um drei Uhr - Je nach Nutzung am vorigen Tag dauert das ne Stunde ca. - wobei da wiederrum der Knackpunkt das Out-of-House Backup ist - 400-600GB je nach Datenaufkommen sind über das deutsche Internet teilweise echt ne Zumutung. Die Vorteile: Das Script (rsync) welches das alles macht ist nen einfacher Zwanzigzeiler. Ich bin von keinerlei Drittanbietersoftware abhängig. Ich weiß haargenau was, wie, wo passiert. Das Script läuft aktuell auf Linux, kann aber genauso out-of-the-box auf Windows WSL, MacOS, BSD laufen. Wenn ich heute mal Muße habe, werde ich das Script mal hier reinstellen. Hippelhaxe schrieb: > Quatsch. > Snapshot-fähige Dateisysteme wurden bereits erfunden Richtig, genauso sieht es aus! Genauso wie manche noch Backups komprimieren ala gz, tar oder rar, das hat man in den 90igern gemacht, heute dedupliziert man in Chunks. Harald K. schrieb: > Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe. Boah... ich hasse es mal wieder zuzugeben das Harald recht hat! :-D
:
Bearbeitet durch User
Hippelhaxe schrieb: > Snapshot-fähige Dateisysteme wurden bereits erfunden > (-- zumindest in der Linux-Welt). Auch Windows/NTFS kann Snapshots, genannt Volume Shadow Copies, wenngleich das Verfahren nicht auf einem moderneren Copy on Write Filesystem beruht. Konsistente Point in Time Backups laufender Systeme sind darüber auch in Windows möglich.
:
Bearbeitet durch User
Man sollte bei Backups 2 Szenarien auseinander halten, die deshalb auch nicht selten in völlig verschiedenen Verfahren implementiert werden: - Disaster Recovery kompletter Systeme, - Einfache Wiederherstellbarkeit einzelner Verzeichnisse und Files.
:
Bearbeitet durch User
Michael B. schrieb: > Wäre das nicht vor diesem Tag angebracht? Ich habe doch eine vor diesem Tag, exakt zwar 4 Wochen alt aber die wichtigen Dinge wie meine Arbeit werden täglich gesichert. Verlieren tue ich die Browserverläufe die sind nicht wichtig. Wichtig ist mir aber, dass die komplette installation gesichert ist ,nicht nur meine persönlichen Daten. Jeder weiß wie lange es dauert bis ein verlorenes System komplett wieder hergestellt ist mit allen persönlichen Einstellungen. Oft kann man sich gar nicht mehr erinnern was man alles eingestellt hatte. Krepiert die Arbeitsplatte, dann ist das Problem bei mir in weniger als zwei Stunden komplett behoben. Bis die neue bestellte Platte kommt hänge ich eine der zwei Kopien rein.
Harald K. schrieb: > Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe. Nach einem Virenbefall läuft da unter Umständen gar nichts mehr, eventuell sogar unbemerkt. Die meiste Arbeit macht immer das System wenn es verloren geht. Ein Clon ist ja immer ein fertiger benutzbare Zustand der nur die Zeit benötigt um überspielt zu werden. Eine Clon kann sofort getestet werden, ein Image offenbart seinen Fehler erst dann wem man es bitter nötig braucht.
Herbert Z. schrieb: > Jeder weiß wie lange es dauert bis ein verlorenes System komplett > wieder hergestellt ist mit allen persönlichen Einstellungen. Oft kann > man sich gar nicht mehr erinnern was man alles eingestellt hatte. Ich verstehe auch nicht, wie oft immer gebetsmühlenartig gesagt wird, installiere Windows einfach neu. Was man sich damit unnötig Zeit ans Bein bindet, ist die blanke Katastrophe. Ein Systemabbild ist dagegen ratzfatz eingespielt und nach wenigen Minuten läuft der PC wieder. Auf meinem Desktop läuft die W7 Installation von 2014 mit W10 Upgrade. W11 Upgrade muß ich noch machen. Ich trenne auch zwischen System- und Datenpartition. Windows-PCs werden ja immer mit einer großen Partition ausgeliefert, aber man kann ja in der Datenträgerverwaltung die Partition verkleinern und eine 2. anlegen.
Herbert Z. schrieb: > Eine Clon kann sofort > getestet werden, ein Image offenbart seinen Fehler erst dann wem man es > bitter nötig braucht. Dem Satz stimme ich zu. Ungünstig ist nur der Fall, wenn einer beim Clonen irrtümlich Quelle und Ziel verwechselt hat. 2 leere Platten sind ganz toll. (prx) A. K. schrieb: > Man sollte bei Backups 2 Szenarien auseinander halten, die deshalb auch > nicht selten in völlig verschiedenen Verfahren implementiert werden: > - Disaster Recovery kompletter Systeme, > - Einfache Wiederherstellbarkeit einzelner Verzeichnisse und Files. Volle Zustimmung! 3 fehlende alte Dateien sind schnell gefunden, aber alle Einstellungen wiederherstellen kann ewig dauern. Von Datenbanken ganz zu schweigen. "Mit dem Wissen wächst der Zweifel", meinte schon Goethe.
Lu schrieb: > Ungünstig ist nur der Fall, wenn einer beim > Clonen irrtümlich Quelle und Ziel verwechselt hat. 2 leere Platten sind > ganz toll. Ich laß das ein Backup-Tool machen (AOMEI Backupper). Das sichert auch gleich alle nötigen versteckten Partitionen mit. Eine Datenpartition auf der selben SSD bleibt natürlich erhalten.
Harald K. schrieb: > Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe. Gute Disaster Recovery Verfahren setzen eine Medientrennung voraus. Was Online-Backups über Gebäudegrenzen bedeuten kann, und dann vollautomatisch geht. Oder man muss halt doch mal Hand anlegen und das Medium regelmässig woanders hin schleppen. Das ist dann nur so halbautomatisch.
:
Bearbeitet durch User
Lu schrieb: > Dem Satz stimme ich zu. Ungünstig ist nur der Fall, wenn einer beim > Clonen irrtümlich Quelle und Ziel verwechselt hat. 2 leere Platten sind > ganz toll. Man sollte den Text in Clonezilla auf deutsch stellen, dann kann man es lesen. Die Quellplatte ist bei mir immer die erste. Außerdem ist die Quelle eine Toshiba, während die Zielplatte eine Samsung ist. Wer baugleich Platten benutzt muss die Seriennummer beider Platten auf einen Zettel schreiben und daneben Quelle oder Ziel.
Oliver D. schrieb: > Ein gutes Open Source Tool Sauschnell und du kannst dir nahezu alle Szenarien einstellen und danach nur noch Knopfdruck.
Herbert Z. schrieb: > Ich mache alle vier Wochen exakt nach dem Patchday einen Clon mit > Clonezilla. Dauert nicht ganz 1,5 Stunden und entweder lese ich in der > Zeit oder gehe einkaufen oder oder... Ich habe zwei Festplatten die ich > abwechselnd nutze, heißt ich habe zwei Sicherungen im Abstand von 4 > Wochen. Etwas besser wirds noch, wenn stets eine dieser Disks nicht in der gleichen Brandzone liegt. Das kann auch die Büroschublade sein, wenn als Eigentum markiert und verschlüsselt.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Etwas besser wirds noch, wenn stets eine dieser Disks nicht in der > gleichen Brandzone liegt. Das kann auch die Büroschublade sein, wenn als > Eigentum markiert und verschlüsselt. Wenn die Bude abfackelt hat man in der Regel andere Sorgen als den privaten PC zu beweinen. Firmen, klar die müssen auch räumlich die Sicherungen trennen. Es gibt feuerfeste Boxen, die 30 Minuten einen Vollbrand überstehen, ideal für Bargeld und Festplatten und sonstige wichtige Dokumente.
(prx) A. K. schrieb: > Online-Backups über Gebäudegrenzen bedeuten kann, und dann > vollautomatisch geht. Kann man machen, solange die Dienste nicht hängen oder ein Datenträger krank wird. Deswegen muß man den ganzen Vorgang regelmäßig kontrollieren. Die Wiederherstellungszeit nach einer Onlinesicherung kann auch bis Weihnachten dauern. Man sollte es mal testen.
Hans H. schrieb: > Gibt es ein Tool, das erst die Quell- und die Zielpartition vergleicht, > um dann ganz gezielt nur die neuen oder veränderte Dateien kopiert (und > nicht mehr vorhandene löscht), so dass Quelle und Ziel wieder identisch > ist? Nichtsdesto trotz ist das alles nichts was der TO sucht... Er sucht ein Tool für inkrementelles Backup: rsync!
Lu schrieb: > Kann man machen, solange die Dienste nicht hängen oder ein Datenträger > krank wird. Deswegen muß man den ganzen Vorgang regelmäßig > kontrollieren. Kontrollmechaniken kann man auch automatisieren. Was willst du denn (vor allem WIE) per Hand kontrollieren? Wie kann man sich ein "kontrollieren" von dir vorstellen? Was machst du da bei deiner Kontrolle genau? Datenträger "krank" - man hat mindestens ein Out-of-House Backup in einem RZ liegen - dort hat man keine "kranken" Datenträger.
Rene K. schrieb: > dort hat man keine "kranken" Datenträger. Nicht einen, sondern täglich. Du merkst es bloß nicht, wenn sich fleißige Leute darum kümmern. Wie Du Deine Daten prüfst, ist Deine Sache. Deinen Schreibtisch räumt auch keiner auf.
Lu schrieb: > Wie Du Deine Daten prüfst, ist Deine > Sache. Deinen Schreibtisch räumt auch keiner auf. Mach ich automatisiert... wie gesagt. Du sagtest doch: Lu schrieb: > Deswegen muß man den ganzen Vorgang regelmäßig > kontrollieren. Ich frage mich wie das aussehen soll, wie DU das kontrollierst?! Und wie du dann feststellst das die Daten z.b. korrupt sind. Das du während eines Backups feststellst das ein Bit gekippt ist.
Herbert Z. schrieb: > Wenn die Bude abfackelt hat man in der Regel andere Sorgen als den > privaten PC zu beweinen. Die Tränen kommen, wenn man in der Kohle zig Verträge und Logins sucht. Weshalb es sinnvoll ist, sich vorher um Zugänglichkeit kritischer Daten zu kümmern. Der Daten selbst, nicht der Systeme, auf denen sie liegen. Ob unbedingt die Filmsammlung dabei sein muss, oder ab man nur einen wichtigen Teil auswärts lagert, kann man sich aussuchen.
Hans H. schrieb: > Wie nennen sich solche Tools? > Kann jemand ein Tool für meinen Zweck empfehlen? Der Totalcommander kann das.
(prx) A. K. schrieb: > Gute Disaster Recovery Verfahren setzen eine Medientrennung voraus. Sicher. Das aber spricht nicht gegen ein vollautomatisches Backup. Nur, um zur Sicherheit Festplatten durch die Gegend tragen zu können, auf ein vollautomatisches Backup zu verzichten, ist nicht die beste Lösung. Klones anstelles von Images haben den Nachteil, daß sie naturgemäß nicht inkrementell arbeiten können, d.h. ihr Erstellen dauert entsprechend lange und wenn man mehrere Versionsstände aufheben möchte, muss man entsprechend viele Klone bereithalten. Sicher, wenn es ausschließlich darum geht, einen Rechner so schnell wie möglich wieder als "bare metal" hochziehen zu können, dann ist ein Klon sehr schnell - aber wenn der Klon vier Wochen alt ist, und man sich alles, was sich seitdem geändert hat, mühsam von Hand zurückbasteln muss, dann ist auch nicht wirklich was gewonnen. Wenn man Virtualisierung einsetzen kann, lässt sich je nach Virtualisierunssystem auch das Klonen automatisieren - man klont hier ja nicht die physische Festplatte, sondern nur die VM. Und so etwas unterstützen Systeme wie Proxmox, VMware etc. ganz anständig.
Harald K. schrieb: > aber wenn der Klon vier Wochen alt ist, Was glaubst du wie froh viele wären wenn sie wenigstens einen 4 Wochen alten Klon hätten? Es ist natürlich wichtig, dass man alles was einem innerhalb des Sicherungsabstandes wichtig ist täglich sichert. Der "nette Film" von vorgestern ist ersetzbar. Vieles andere an Datenaufkommen unwichtig. Wenn einem etwas wichtig ist muss er handeln. Dafür gibt es bei mir einen Ordner der täglich gesichert wird.
Harald K. schrieb: > Klones anstelles von Images haben den Nachteil, daß sie naturgemäß nicht > inkrementell arbeiten können, d.h. ihr Erstellen dauert entsprechend > lange und wenn man mehrere Versionsstände aufheben möchte, muss man > entsprechend viele Klone bereithalten. Es gibt ein Programm für Windows, welches das kann, zumindest differentiell: http://www.drivesnapshot.de/de/ wir haben das in meiner alten Firma benutzt und es hat super funktioniert.
Stephan S. schrieb: > Es gibt ein Programm für Windows, welches das kann, zumindest > differentiell: Differentielle Klone? Wie soll das gehen? Ein Klon ist eine 1:1-Kopie einer Festplatte, keine Imagedatei.
Harald K. schrieb: > Klones anstelles von Images haben den Nachteil, daß sie naturgemäß nicht > inkrementell arbeiten können Auch das lässt sich inkrementell durchführen. Nur halt nicht mit dd / clonezilla. Systeme, die Snapshots können, können prinzipiell auch inkrementelle Image-Backups. Und zwar live. Die Blöcke aus der Differenz zweier Snapshots sind exakt der sich dazwischen geänderte Datenbestand. Also: Snapshot 1 erstellen und vollständig sichern, als Basis. Auch das geht im Betrieb, eben weil der Snapshot gesichert wird, nicht das Live-System. Dann Woche drauf noch einen Snapshot 2 erstellen und die Block-Differenz sichern. Ist nur die Frage, wie man die Information zu den Blöcken der Snapshots rankommt. Bei Windows hilft der VSS.
:
Bearbeitet durch User
Frank E. schrieb: > Zunächst sollte Windows 10/11 sowas in den Bordmitteln haben ("Windows > Sicherung"), oder? Was spricht dagegen? Gab es ja mal, aber das Programm hatte ab einer bestimmten Windows Version nicht mehr richtig funktioniert und wurde danach nie repariert.
Herbert Z. schrieb: > Ich mache alle vier Wochen exakt nach dem Patchday einen Clon mit > Clonezilla. Direkt davor wäre sinnvoller.
Sherlock 🕵🏽♂️ schrieb: > Gab es ja mal, aber das Programm hatte ab einer bestimmten Windows > Version nicht mehr richtig funktioniert und wurde danach nie repariert. Ist auch in Win11 noch drin. Ich weiss aber nicht, ob man damit zuverlässig etwas anfangen kann.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Ist auch in Win11 noch drin. Ich weiss aber nicht, ob man damit > zuverlässig etwas anfangen kann. Clonezilla ist zuverlässig und kostet nichts.
Harald K. schrieb: > Stephan S. schrieb: >> Es gibt ein Programm für Windows, welches das kann, zumindest >> differentiell: > > Differentielle Klone? Wie soll das gehen? Ein Klon ist eine 1:1-Kopie > einer Festplatte, keine Imagedatei. Wird auf der Homepage genau erklärt und funktioniert ausgezeichnet. Es gibt von Homepage eine Testversion für 30 Tage und von der c't jedes Jahr eine Version mit 1 Jahr Laufzeit.
:
Bearbeitet durch User
Rene K. schrieb: > Hans H. schrieb: >> Gibt es ein Tool, das erst die Quell- und die Zielpartition >> vergleicht, um dann ganz gezielt nur die neuen oder veränderte >> Dateien kopiert (und nicht mehr vorhandene löscht), so dass >> Quelle und Ziel wieder identisch ist? > > Nichtsdesto trotz ist das alles nichts was der TO sucht... ??? Hans H. IST der TO... > Er sucht ein Tool für inkrementelles Backup: rsync! ??? Diskussion über den fundamentalen Gegensatz zwischen Spatz und Sperling...?!
Herbert Z. schrieb: > Wichtig ist mir aber, dass die komplette installation > gesichert ist ,nicht nur meine persönlichen Daten. > Jeder weiß wie lange es dauert bis ein verlorenes > System komplett wieder hergestellt ist mit allen > persönlichen Einstellungen. Offen gestanden -- das verstehe ich nicht: Ein vermurxt eingestelltes System ist zugegebenermaßen hochgradig lästig -- aber eben auch nur das: LÄSTIG. Verlorene Dokumente dagegen können unwiederbringlich sein; die bekommt man u.U. auch mit noch so viel Arbeitseinsatz nicht wieder.
Peter D. schrieb: > Ein Systemabbild ist dagegen ratzfatz eingespielt und > nach wenigen Minuten läuft der PC wieder. Systemabbild setzt nach meinem laienhaften Verständnis identische Hardware voraus. Privat habe ich nur einen "großen" PC mit historisch gewachsener Hardware. WOHIN sollte ich das Systemabbild zurückspielen, wenn mein PC mal abfackelt?
Herbert Z. schrieb: > Wenn die Bude abfackelt hat man in der Regel andere > Sorgen als den privaten PC zu beweinen. Firmen, klar > die müssen auch räumlich die Sicherungen trennen. Das hat m.E. nix mit "privat" oder "Firma" zu tun, sondern damit, wieviel wichtige Dokumente und Korrespondenz man auf dem PC hat. Wobei einer Privatpersond durchaus andere Dinge wichtig sein können als einem Firmenchef...
Hippelhaxe schrieb: > WOHIN sollte ich das Systemabbild zurückspielen, wenn > mein PC mal abfackelt? Wenn die Feuerwehr dich gleich in die Urne einfüllen kann ist der Part für dich erledigt. Ich habe zwei baugleiche Mainboards mit allem in Reserve was den alten Rechner ausmacht. Natürlich nicht in meiner Wohnung gelagert. Sollte ich das Szenario dank Rauchmelder überleben weil ich nüchtern ins Bett gegangen bin, fang ich wieder von vorne an.
Herbert Z. schrieb: > Hippelhaxe schrieb: >> WOHIN sollte ich das Systemabbild zurückspielen, wenn >> mein PC mal abfackelt? > > Wenn die Feuerwehr dich gleich in die Urne einfüllen > kann ist der Part für dich erledigt. Das ist richtig, beantwortet aber meine Frage nicht. > Ich habe zwei baugleiche Mainboards mit allem in > Reserve was den alten Rechner ausmacht. Das ist schön für Dich -- ohne jeden Sarkasmus --, aber im Privatbereich doch eher... unüblich. Ich hatte privat zeitweise auch mehrere PCs in Betrieb, aber die waren niemals hardwaremäßig identisch. Die Frage bleibt: Was fangen Privatleute, die in der Regel nicht über zahlreiche baugleiche Rechner verfügen, mit einem System-Image an? Es mag wohl sein, dass ich irgend etwas übersehe, aber ich habe nicht den Eindruck, dass ein System-Image irgendwie nützlich für mich wäre. Ich glaube auch nicht, dass ich damit die absolute Ausnahme bin...
Hans schrieb: > Der Totalcommander kann das. Habe ich mir mal eben angeschaut und erscheint passend für meine Anwendung. Zudem auf Deutsch und läuft auf allen Windows Versionen von Win95 bis Win11, 32 und 64 Bit. Bei der Funktion Verzeichnisse synchronisieren werden im Ziel ältere Dateien überschrieben und in der Quelle neu erstellte Dateien im Ziel hinzugefügt. Was ich nicht herausfinden konnte: Was ist mit Dateien oder Verzeichnissen, die in der Quelle nicht mehr vorhanden sind, weil ausgemistet wurde? Die sollten dann im Ziel gelöscht werden. Ist dem so?
Um Hardware-Unterschiede, auch mit Bezug auf Backup und Restore, in ihrer Bedeutung zu senken, wurde die Virtualisierung erfunden ...
Hippelhaxe schrieb: > Es mag wohl sein, dass ich irgend etwas übersehe, aber ich > habe nicht den Eindruck, dass ein System-Image irgendwie > nützlich für mich wäre. Ich glaube auch nicht, dass ich > damit die absolute Ausnahme bin... Zumindest bei Win11 spielt das unterliegende System keine Rolle mehr. Du kannst eine HDD aus einem Laptop in einen Desktop stecken - die Treiber für die fehlende Hardware werden bei Systemstart nachgeladen und ersetzt - LAN vorausgesetzt. Das dürfte bei Rückspielen eines System Images auch der Fall sein.
Hans H. schrieb: > Was ich nicht herausfinden konnte: Was ist mit Dateien oder > Verzeichnissen, die in der Quelle nicht mehr vorhanden sind, weil > ausgemistet wurde? Die sollten dann im Ziel gelöscht werden. Ist dem so? Wie gesagt, mit Rsync wäre das kein Ding:
1 | rsync -ai --stats --progress --delete / --exclude={"/var/lib/lxcfs/proc/*","/boot/*","/swap.img","/BU/*","/dev/*","/proc/*","/sys/*","/tmp/*","/run/*","/mnt/*","/media/*","/lost+found"} /storage/shares/rene/Backups/node-1 |
Damit z.b. wird ein kompletter Server kopiert. Nur geänderte Dateien, Systemdateien werden nicht mitkopiert, Dateien welche im Ziel noch vorhanden aber in der Quelle gelöscht wurden werden ebenso im Ziel gelöscht. Bei Linux wäre das nun so: Ich setze einen völlig wildfremden Rechner auf Linux auf. Kopiere dann diese Daten dort ins Root - und alles läuft genauso wie vorher auf dem anderen Server (Anpassung an die NICs müssen noch von Hand gemacht werden). Für deinen Fall wäre ein einfaches:
1 | rsync -ai --progress --delete /Quellordner/* /Zielordner |
Wie gesagt... das geht in Windows, Linux, MacOS... Sogar via SSH über diese Grenzen hinaus. Wenn ich z.b. einfach auf einen anderen Rechner syncroniseren möchte:
1 | rsync -ai --progress --delete /Quellordner/* user@192.168.178.10:/Zielordner |
und da spielt es dann auch keine Rolle ob ich von win zu win, Linux zu win, win zu linux etc... kopiere. SSH muss nur da sein und die Ordnerstruktur muss stimmen.
Rene K. schrieb: > Hans H. schrieb im Beitrag > Wie gesagt, mit Rsync wäre das kein Ding: Wie gesagt, der Fragesteller verwendet Windows. Anscheinend gibts rsync über msys, aber ob man sich das antun will… da gibts für Windows-User sicherlich komfortable GUI Tools in bunt die das gewünschte Ergebnisse abliefern. Ich weiß es aber nicht, weil ich auch rsync unter Linux benutze.
Rene K. schrieb: > Hippelhaxe schrieb: >> Es mag wohl sein, dass ich irgend etwas übersehe, aber ich >> habe nicht den Eindruck, dass ein System-Image irgendwie >> nützlich für mich wäre. Ich glaube auch nicht, dass ich >> damit die absolute Ausnahme bin... > > Zumindest bei Win11 spielt das unterliegende System keine > Rolle mehr. Du kannst eine HDD aus einem Laptop in einen > Desktop stecken - die Treiber für die fehlende Hardware > werden bei Systemstart nachgeladen und ersetzt - LAN > vorausgesetzt. Das dürfte bei Rückspielen eines System > Images auch der Fall sein. Schön -- aber STARTET das rückgespielte System auch? Und läuft es korrekt? Ich weiss nicht, ob ich Dich richtig verstehe... Ein System Image ist für mich quasi ein "dd" der System- partition. Okay... gesetzt, ich habe so etwas auf einer Backup-Festplatte. So. Jetzt fährt der Blitz in meinen PC; das Ding geht komplett in Flammen auf. Netzteil, Mainboard, Prozessor, Festplatte... alles hin. Ich kaufe mir notgedrungen einen neuen PC; wahrscheinlich wird da Win11 drauf sein. Jetzt mache ich -- wie? -- weiter, um das auf der Backup-Platte gesicherte System zum Laufen zu bringen? Für das reine RÜCKSPIELEN des Backup kann ich die HD aus meinem neuen Rechner ausbauen und beide Platten beim Kumpel an seine Win11-Kiste anstecken. Meinetwegen. LÄUFT dieses System dann auch auf meinem neuen Rechner, wenn ich die Platte dort einbaue? Wo liegt mein Denkfehler?
Frank E. schrieb: > Um Hardware-Unterschiede, auch mit Bezug auf Backup > und Restore, in ihrer Bedeutung zu senken, wurde die > Virtualisierung erfunden ... Mag sein... für meine privaten Kisten ist mir da die Einstiegsschwelle zu hoch. Ich mache das ja nicht beruflich... Ich bin mit einer separaten Partition für /home, NILFS und rbackup weitgehend zufrieden.
Hippelhaxe schrieb: > LÄUFT dieses System dann auch auf meinem neuen Rechner, > wenn ich die Platte dort einbaue? Jup - hab ich so mit nem Laptop gemacht. SSD aus Laptop (war auch noch Intel) raus -> SSD in Desktop PC (Ein AMD Ryzen) rein -> hat zwei mal neu gestartet und dann lief es wie auf dem Laptop. Man braucht halt Geduld und muss ihn einfach machen lassen - Treiber die er nicht zwingend zum Betrieb braucht (Grafik, Sound, etc...) lädt er dann nach während er läuft. Er hatte erst in eine Art Grafikrückfallmodus mit 1024x768 Pixel geschaltet und nach nen paar Minuten hatte er den Treiber unten und schaltete dann automatisch auf 4K um. Da kann man über Windows halt sagen was man will, aber in dieser Hinsicht hat sich wahnsinnig viel positives getan.
:
Bearbeitet durch User
Rene K. schrieb: > Hippelhaxe schrieb: >> LÄUFT dieses System dann auch auf meinem neuen Rechner, >> wenn ich die Platte dort einbaue? > > Jup - hab ich so mit nem Laptop gemacht. [...] Ahh okay. Wusste nicht, dass das tatsächlich so geht. Dann nehme ich natürlich meine Schmähungen gegen PeDa mit dem Ausdruck tiefsten Bedauerns zurück. > Da kann man über Windows halt sagen was man will, aber > in dieser Hinsicht hat sich wahnsinnig viel positives > getan. Ganz offensichtlich. Ich verwende seit 20 Jahren privat kein aktuelles Windows, und mein Wissensstand ist offenbar ETWAS veraltet... Danke für die präzisen Auskünfte.
Hans H. schrieb: > Was ich nicht herausfinden konnte: Was ist mit Dateien oder > Verzeichnissen, die in der Quelle nicht mehr vorhanden sind, weil > ausgemistet wurde? Die sollten dann im Ziel gelöscht werden. Ist dem so? Ich meine das geht mit der Option "asymmetrisch", bin mir aber nicht zu 100% sicher. Mache Dir doch einfach mal 2 Testvezeichnisse mit vielleicht je 10 Dateien und spiele mit diesen mal Deine möglichen Szenarien durch. Ansonsten lies mal hier http://www.heiniger-turgi.ch/Peter/pc/it_newsletter/EDV/TotalCommander_Handbuch.pdf, da wird auch der Umgang mit der Synchronisierungsfunktion beschrieben.
Noch nicht erwähnt wurde bisher der alte DOS Befehl "XCOPY", dieser kann ebenfalls neuere Dateien kopieren oder überschreiben, gleiche Dateien überspringen, jedoch nicht nichtmehr vorhandene Dateien im Backup löschen. Die Befehlszeiche wäre:
1 | xcopy /s /e /d |
und dazu noch die Quell/Ziel Pfade. XCopy ist jetzt nicht das Beste, jedoch für einfaches Kopieren funktional.
xcopy (die bessere Alternative: robocopy) kann zwar irgendwelche Dateien kopieren, aber ein eine bootfähige Kopie eines Windows-Systems kann man damit nicht anfertigen, weil bei einem laufenden Windows jede Menge Dateien existieren, die von andere Prozessen exklusiv geöffnet sind.
Markus M. schrieb: > Noch nicht erwähnt wurde bisher der alte DOS Befehl "XCOPY", dieser kann > ebenfalls neuere Dateien kopieren oder überschreiben, gleiche Dateien > überspringen, jedoch nicht nichtmehr vorhandene Dateien im Backup > löschen. Na endlich, das nutze ich seit Jahren per Batchfiles und auch im Netzwerk gegen einen UNC-Pfad als Quelle. Harald K. schrieb: > xcopy (die bessere Alternative: robocopy) kann zwar irgendwelche Dateien > kopieren, aber ein eine bootfähige Kopie eines Windows-Systems kann man > damit nicht anfertigen Wer lesen kann, hätte erkannt, das Hans nur Dateien synchronisieren möchte, bootfähig fordert er nicht.
Harald K. schrieb: > Ein gutes Backup läuft vollautomatisch, ohne Benutzereingriffe. Ein wirkliches Backup ist (fast immer) offline und nur durch physischen Benutzereingriff online zu bekommen. Und es muss mindestens drei Generationen davon geben. Physisch getrennt vom zu sichernden System und voneinander. Das ist vollautomatisch nicht lösbar. Ja mehr noch: es darf gar nicht vollautomatisch lösbar sein, um sicher zu sein. Alles andere sind nur Notlösungen, geschuldet der Faulheit/Praktikabilität. Aber natürlich bedeuten all diese Notlösungen einen herben Verlust an Sicherheit, darüber muss man sich jederzeit im Klaren sein. Aber klar: aus praktischen Gründen nimmt man das dann i.d.R. doch in Kauf. Denn noch schlimmer als ein unsicheres Backup ist nur noch eins: gar kein (zeitnahes) Backup.
Ob S. schrieb: > Ein wirkliches Backup ist (fast immer) offline und nur durch physischen > Benutzereingriff online zu bekommen. Die Radikallösung. Ein besonders in Unternehmen praktikablerer Kompromiss ist ein System mit dem Backup-Medium, das vom zu sichernden System aus nicht schreibbar oder überhaupt nicht ansprechbar ist, sondern nur seinerseits das zu sichernde System anspricht. Damit kann ein infiziertes System nicht auch Backups vernichten.
:
Bearbeitet durch User
Hätte da noch ein Beispiel: Man ist dabei, ein eigenes Programm zu erweitern und hat eine Version bereits im Ziel gespeichert. Bei der weiteren Programmierung merkt man, dass man sich in eine Sackgasse manövriert hat. Also löscht man alles und holt sich von einem externen Medium die Version vor der Erweiterung. Nun hat man also in der Quelle eine alte Version und im Ziel eine neuere Version. Bei einer erneuten Synchronisation müsste das Tool nun die neuere Version im Ziel durch die alte Version der Quelle ersetzen. Wird dem so sein?
Hans H. schrieb: > Also löscht man alles und holt sich von einem externen > Medium die Version vor der Erweiterung. Bei auf Rsync basierenden Verfahren: https://en.wikipedia.org/wiki/Rsync#Determining_which_files_to_send Insoweit Du dich auf Quellcode beziehst, wäre eine Versionsverwaltung wie "git" nicht gänzlich verkehrt. :)
:
Bearbeitet durch User
Hans H. schrieb: > Wird dem so sein? So etwas ist in Backup Programmen üblicherweise konfigurierbar. Ich nutze ein Programm dass auf Rsync basiert. Es kopiert alle ausgewählten Verzeichnisse auf eine externe HDD in ein Unterverzeichnis mit dem aktuellen Datum. Aber: Dateien die auf der externen HDD hereits existieren, werden nur verlinkt. Das spart Speicherplatz und Zeit. Erst wenn alle Links auf die Datei (in allen Backup-Verzeichnissen) gelöscht sind wird der Speicherplatz der Datei frei gegeben. Ich mag dabei besonders, daß man zum Lesen des Backups keine spezielle Software braucht.
(prx) A. K. schrieb: > Ein besonders in Unternehmen praktikablerer Kompromiss ist ein System > mit dem Backup-Medium, das vom zu sichernden System aus nicht schreibbar > oder überhaupt nicht ansprechbar ist, sondern nur seinerseits das zu > sichernde System anspricht. Damit kann ein infiziertes System nicht auch > Backups vernichten. Wir machen sowas ähnliches. Die Behälter der Backupgenerationen sind normalerweise offline (tatsächlich heruntergefahren). Sie wissen aber, wann Backups für ihre Generation zu erwarten ist. Kurz vorher wachen sie auf, fahren sie sich hoch und sind dann für die Quelle verfügbar. Wenn alle erwarteten Backup-Jobs innerhalb der erwartbaren Zeit erledigt sind, fahren sie wieder runter und sind dann wieder komplett offline. Wenn sie online bleiben, hat irgendwas nicht geklappt. Das wird dann manuell bemerkt und geprüft. Wobei: Generation ist hier vielleicht der falsche Begriff. Innerhalb jeder physischen Generation gibt es nämlich noch differentielle Subgenerationen. Bei einem gezielten Angriff sind die natürlich völlig Huppse, dagegen hilft nur das Generationenkonzept und die Offline-Eigenschaft. Aber für den Normalfall des eher zufälligen Datenverlusts sind sie doch sehr hilfreich. Diese Subgenerationen entsprechen vom "Erfolg" her etwa dem rsync-Mechanismus mit Hardlinks, laufen aber auf Sector-Level, da immer FS-Images (bzw. deren Differenzen) gesichert werden. Das geht einfach mal viel, viel schneller als das Durchrödeln der Filesysteme.
Ob S. schrieb: > (prx) A. K. schrieb: > >> Ein besonders in Unternehmen praktikablerer Kompromiss ist ein System >> mit dem Backup-Medium, das vom zu sichernden System aus nicht schreibbar >> oder überhaupt nicht ansprechbar ist, sondern nur seinerseits das zu >> sichernde System anspricht. Damit kann ein infiziertes System nicht auch >> Backups vernichten. > > Wir machen sowas ähnliches. > > Die Behälter der Backupgenerationen sind normalerweise offline > (tatsächlich heruntergefahren). Sie wissen aber, wann Backups für ihre > Generation zu erwarten ist. Kurz vorher wachen sie auf, fahren sie sich > hoch und sind dann für die Quelle verfügbar. Und genau das ist falsch, sie dürfen NIE erreichbar sein. Denn genau dann schlägt die Ransomware zu, die checkt ja normalerweise lange vorher die Aktivitäten im Netz. Die Lösung heisst Pull-Backup, d.h. nicht der (Netz-) Server macht das Backup und schiebt die Daten auf den Backup-Rechner, sondern der vom Netz aus nicht sichtbare Backup-Rechner holt sich die Daten aus dem Netz.
meine Fundstücke: FFS for regular desktop users who like the simplicity of a GUI doesn't have a client/server model, so it will copy the complete file. Rsync for people who like the simplicity of a CLI must be installed on both the source and destination. checks the modification time and size reading file directory information, it is quick Vergleich - vermutlich perspektivisch verzerrt und ob aktuell? https://en.wikipedia.org/wiki/Comparison_of_file_synchronization_software dort stehen noch Grünfelder bei FFS + detect conflict + rename and moves + bidirectional Rsync hat ein rotes Feld bei "bidirectional" und bei "propagate deletes" brauchts "using --delete". Was einem Codeklopfer ein müdes Lächeln entlockt, müsste ich mir mühsam anlernen. Als Normalnutzer tendiere ich ergo zu FFS. Hoffentlich zurecht.
:
Bearbeitet durch User
Stephan S. schrieb: > Und genau das ist falsch, sie dürfen NIE erreichbar sein. Denn genau > dann schlägt die Ransomware zu, die checkt ja normalerweise lange vorher > die Aktivitäten im Netz. Dir ist schon klar, das die Richtung einer Verbindung keine Rolle mehr spielt, wenn sie erstmal aufgebaut ist? Sprich: die Malware kann die von der Gegenseite aufgebaute Verbindung genauso nutzen.
Ob S. schrieb: > Dir ist schon klar, das die Richtung einer Verbindung keine Rolle mehr > spielt, wenn sie erstmal aufgebaut ist? Mir nicht. Aus einem Server wird deshalb kein Client und umgkehrt. Bitte etwas ausführlicher.
:
Bearbeitet durch User
Die Skriptorgien mit den Dinosauriern rsync/Robocopy/dd/etc sind für Nerds ja nett, aber unter Windows ist die mit Abstand einfachste Möglichkeit der Dateiversionsverlauf. 1. Externe USB Festplatte anhängen 2. Startmenü "Dateiversionsverlauf" eintippen 3. "Einschalten" drücken, und fertig ist das Backup Ansonsten ist für Normalsterbliche Onedrive eine einfache und sichere Backup Lösung (hat Versionsverlauf). Besteht ausserdem den Einbrecher und den Blitzeinschlags Test. Für manuelle Backups mit mehr Kontrolle eignet sich sonst auch 7zip, das kann im Menü "Art der Aktualisierung" auch "Synchronisieren" oder "Aktualisieren", also ein inkrementelles Backup. Für die Windows Systemdaten und Programme mache ich schon seit Jahren kein Backup, zahlt sich nicht aus, da eine Neuistallation einfacher ist, bzw die Hardware heute zuverlässig genug ist.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Ob S. schrieb: >> Dir ist schon klar, das die Richtung einer Verbindung keine Rolle mehr >> spielt, wenn sie erstmal aufgebaut ist? > > Mir nicht. Aus einem Server wird deshalb kein Client und umgkehrt. Bitte > etwas ausführlicher. Mein Gott, eine "Verbindung" hat immer Datenpfade in beide Richtungen. Wenn du eine TCP-Verbindung öffnest, wird automatisch auch immer eine Pfad für die Gegenrichtung aufgebaut. Das macht eine "Verbindung" eigentlich aus: sowas ist per Definition immer bidrektional. Ob "Server" oder "Client" spielt nur für den Aufbau der Verbindung eine Rolle. Nach dem Aufbau der Verbindung sind beide Peers sowohl "Server" als auch "Client". Jeder Peer kann jederzeit jeden Scheiß an sein Gegenüber senden. Und es ist für eine Malware mit Systemrechten genau so leicht, sich auf eine eingehende Verbindung TCP-Verbindung "aufzuschalten", wie selber eine ausgehend aufzubauen.
Ich benutze rsync nicht mit einem Script, sondern mit einer GUI. Unter Windows gefiel mit der "Backup Maker" von Ascomp auch ganz gut, weil sein Ausgabeformat ohne spezielle Software lesbar ist. In diesem Fall waren es ZIP Dateien.
Ob S. schrieb: > Mein Gott, eine "Verbindung" hat immer Datenpfade in beide Richtungen. Und zwar bei TCP genau eine bidirektionale Session, keine Scheunentore. In diesem Fall vom Backup-System Port X ausgelöst zum zu sichernden Gerät Port Y. Mehr ist nicht. Die kann zwar vom Trojaner beschüffelt oder aktiv gehackt werden, aber diese eine Session kann deshalb noch lange keine Aktionen auf dem Backup-System bewirken. Lediglich die transportieren Daten verfälschen, aber jeder Backup nach der Infektion ist sowieso verdorben. Nur die Stände davon sind nutzbar.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Die kann zwar vom Trojaner beschüffelt oder aktiv gehackt werden, aber > diese eine Session kann deshalb noch lange keine Aktionen auf dem > Backup-System bewirken. Wie kommst du denn darauf? Sobald eine eingehende Verbindung steht, kann der Angreifer natürlich genau dasselbe tun, was er auch bei einer ausgehenden (von ihm selbst aufgebauten) Verbindung tun könnte. > Lediglich die transportieren Daten verfälschen, > aber jeder Backup nach der Infektion ist sowieso verdorben. Nur die > Stände davon sind nutzbar. Ach was... Mir scheint, dass das ein Backupsystem irgendwie substanziell schädigen könnte... Mein Gott: der Angreifer muss sich nicht mal die Mühe machen, die Kontrolle über das entfernte Backup-System übernehmen zu wollen, um seinen Primärschaden anzurichten. Er kann aber natürlich zusätzlich zur Schadfunktion auch noch den Versuch dazu unternehmen. Wenn das Backup-System eine bekannte, nicht gefixte Sicherheitslücke hat, könnte er damit erfolgreich sein.
Ob S. schrieb: > Wie kommst du denn darauf? Gute 3 Jahrzehnte Verständnis von Networking, Layer 2 aufwärts, inklusive Client/Server Programmierung.
:
Bearbeitet durch User
Ein Offline-Backup, was entfernt im Schrank liegt, ist ein gutes Backup. Leider fallen manchmal so viele Daten an, dass es eine andere Lösung braucht. Für Schulungsinstallationen hatten wir daher einen Server, von dem man nur Daten abholen konnte, aber keine Scheibrechte hatte. Das hat uns manchen Virusbefall erspart.
Egal ob nun der Backup Rechner oder der PC das Backup auslöst, für einen Verschlüsselungs Trojaner mit de fakto Root Rechten auf dem PC ist es leicht möglich das Backup zu unterbinden. Wenn der PC das Backup auslöst, dann muss er nur das Backup Programm durch seine eigene Version ersetzen, oder die Konfig Dateien für das Backup manipulieren. Wenn der Backup Rechner das Backup auslöst, dann muss auf dem PC ein Server laufen, der genauso leicht manipuliert werden kann. Im einfachsten Fall ersetzt der Trojaner den Server wieder durch seine eigene Version. Da kommt in vielen Fälle erst jemand drauf, wenn das Backup dringend benötigt wird. Dann stehen da nur verschlüsselte Daten drinnen. Den Aufwand wird der Trojaner Entwickler nur für verbreitete Backup Systeme machen, aber inzwischen ist das ja ein recht lukratives Geschäft. Da nützt es auch nichts, wenn man das Backup händisch anstösst. Das das Backup verschlüsselt ist merkt man erst wenn man es wieder aufspielen will. Also ohne Kontrolle das das Backup wiederaufspielbar ist, hat ein Trojaner leichtes Spiel, weil der Schaden nach einem Jahr richtig gross ist, wenn dann der Trojaner das Life System verschlüsselt.
:
Bearbeitet durch User
Udo K. schrieb: > Wenn der Backup Rechner das Backup auslöst, dann muss auf dem PC ein > Server laufen, der genauso leicht manipuliert werden kann. Ein infizierter PC ist ab dem Stand der Infektion hauptsächlich forensisch interessant. Wichtig ist zunächst der Stand davor. Wobei man sich beliebig komplexe Szenarien ausdenken kann, mit dem Trojaner bekannten Bugs in allen Komponenten des Netzes und der Backups. Aber ich denke, das führt hier im Thread zu weit. Hier geht es erklärtermassen um ein relativ einfaches Szenario bei Sicherung von Daten, nicht um Wiederherstellung infizierter Systemen. Und auch nicht um iranische Uranzentrifugen. Zu den häufigsten Anwendungen von Backups gehört neben Datenverlust durch Hardware-Defekte die Schusseligkeit von Leuten, die versehentlich Daten löschen oder durch Zuckungen beim mausen ins falsche Verzeichnis wegschieben, und mehr in der Art. Schädlinge rangieren deutlich dahinter.
:
Bearbeitet durch User
Die besten tools hier sind z.B. MAcrium Refelt und auf das andere komme ich gerade nicht, aber ich selber nutze Macrium, das ist top, kann für Backup und Image Genutzt werden rsync etc sind eher Spielzeuge im heimbereich, bzw nur im Profibereich geeignet, da die sehr fehlerträchtig bei der Bedienung sind Das tool wo mir der Name gerade nicht einfällt, hat nochm den Vorteil mehr CPU Kerne gleichzeitig zu nutzen, der Geschwindigkeitsvorteil ist aber überschaubar
:
Bearbeitet durch User
Ich hänge nach jedem klonen die Quellplatte aus und boote die Sicherung. Danach weiß ich was ich habe, ehe ich sie abstecke und beiseite nehme. Überraschungen wie bei Images gibt es nicht. Etwas Disziplin gehört freilich dazu, ist mir aber Fleisch und Blut. Alles automatisch erledigen zu lassen, da neigt man da zu unberechtigt zu glauben ,es läuft alles nach Plan. Dabei kann aber viel unbemerkt schief gehen. Man möge es lustig finden mein Prozedere manuell zu handeln, aber näher kann man an der Sicherung wichtiger Daten nebst System nicht dran sein. Zwei Sticks sichern das wichtige zwischen den vier Wochen, und das wird nur dann benötigt falls was passiert mit der Arbeitsplatte. Den Notfall hatte ich noch nicht.
AHH, ich glaube es war Aomei Backupper Bei beiden braucht man den Aufwand des ständigen Testens nicht zu machen, da das alles sehr zuverlässig und Fehlbediensicher ist. Leider gibt es nichts vergleichbares unter Linux
:
Bearbeitet durch User
und O&O war auch gut, aber Macrium ist mein Favourit, schau dir das mal an https://www.macrium.com/reflectfree#backup-and-recovery-software-for-home-pcs Removable media imaging and cloning Create images of running Windows OS Restore non-booting systems Scalable and navigable log view interface Instantly boot backups in Hyper-V / Oracle VirtualBox VM Direct disk cloning WinPE 11 rescue media Technical support via email for the trial duration Rapid Delta Clone and Restore Intra-daily backup scheduling Ransomware protection and encryption Incremental imaging
:
Bearbeitet durch User
Beitrag #7864422 wurde von einem Moderator gelöscht.
Werner schrieb im Beitrag #7864422: > Und welchen Vorteil haben kostenpflichtige Lösungen gegenüber FOSS außer > dem Support aka Lösegeld für die Enthüllung der intransparenten > Innereien? Weiss ich nicht. Für private nutzer ist das Programm kostenlos.
Beitrag #7864429 wurde von einem Moderator gelöscht.
Beitrag #7864434 wurde von einem Moderator gelöscht.
Beitrag #7864438 wurde von einem Moderator gelöscht.
Wie gesagt Macrium alles andere kannst du getrost vergessen, wenn dir die DAten was bedeuten. Falls die nicht so wichtig is,t ist es wurscht was du nimmst. Ich hatte etliches durchprobiertentscheident ist aber, wie zuverlässig sind die Backups und kommt man später auch wieder dran. Also auch gegen Fehlbedienung, es bringt nicht, wenn du dich auf deine BAckups verlässt und nach Monaten merkst, der hat gar nichts oder unvollständig gesichert etc. Hate da schon tolle Erlebnisse, da musste dann die version ziemlich genau passen, mit was das erstellt wurde, sonst ging es nicht z.B. Dahe wie gesagt, keine Alternative
owe, wenn es aber schon an einer email Adresse scheidet, bin ich rauss. Dann musstdu halt Spielzeug nehmen.+ Viel Erfolg
Werner schrieb im Beitrag #7864438:
> nur per Hose runter aka e-mail-Adresse verraten nutzbar, ergo NJET!
Die "belästigen" dich nur mit ein bisschen Werbung für ihre eigenen
Produkte, und das kann man problemlos abstellen.
Wer nicht will, der hat schon.
:
Bearbeitet durch User
Mairian schrieb: > entscheident ist aber, wie zuverlässig sind die Backups und kommt man > später auch wieder dran. ganz recht > Hate da schon tolle Erlebnisse, da musste dann die version ziemlich > genau passen Deswegen gefällt mir die Ausgabe im ZIP Format. Da muss ich mir um die Lesbarkeit des Backups keine Sorgen machen, und ich kann es auch ganz leicht kontrollieren. > Also auch gegen Fehlbedienung Ich denke, es ist wichtig, dass man das Programm versteht. Wenn es einen rätselhaft oder gar geheimnisvoll vorkommt, sollte man besser ein anderes wählen. Am Ende ist sogar simples Kopieren mit dem Dateimanager immer noch besser, als jedes Programm, dem man nicht vertrauen kann.
:
Bearbeitet durch User
Beitrag #7864461 wurde von einem Moderator gelöscht.
Werner schrieb im Beitrag #7864434: >> aber Macrium ist mein Favourit > "30-Day Free Trial" für die Privaten ist ein Ausschlußkriterium pur. computerbase.de sagt zu Macrium: "Hinweis: Macrium Reflect Free wurde mit Version 8.0 eingestellt. Bis zum 1. Januar 2024 wurden weiterhin Sicherheitsupdates zur Verfügung gestellt, inzwischen ist der Support beendet." Wer es hat, wie ich, hat das Ende der Free-Version nicht mitbekommen. Eigentlich auch egal, für die Synchronisierung reiner Dateiverzeichnisse ist es eh das falsche Tool. Ich benutze seit Jahren Fastcopy, meist aus einer Batchdatei aufgerufen und nur vereinzelt manuell per GUI. Es ist etwas Arbeit, die Aufrufparameter zu begreifen. Es kann auch Schaden machen, wenn man falsche Parameter übergibt! https://fastcopy.jp/ Für Heimnutzung kostenlos: https://fastcopy.jp/help/fastcopy_eng.htm#license "It is only available for free use by individuals (non-profit) within the household."
Beitrag #7864523 wurde von einem Moderator gelöscht.
Werner schrieb im Beitrag #7864523:
> FFS synct nicht nur Verzeichnisse, sondern die echte Dateistruktur.
Was ist für Dich die "echte" Dateistruktur, und worin unterscheidet die
sich von der "unechten"?
Beitrag #7864705 wurde vom Autor gelöscht.
Beitrag #7864707 wurde vom Autor gelöscht.
Beitrag #7864708 wurde vom Autor gelöscht.
Beitrag #7864711 wurde vom Autor gelöscht.
Beitrag #7864713 wurde vom Autor gelöscht.
Beitrag #7864715 wurde vom Autor gelöscht.
Beitrag #7864716 wurde vom Autor gelöscht.
Beitrag #7864720 wurde von einem Moderator gelöscht.
Mairian schrieb: > Wie gesagt Macrium alles andere kannst du getrost vergessen, wenn dir > die DAten was bedeuten. GERADE aus diesem Grund ist Macrium die schlechteste Wahl die man nehmen kann. Ein proprietäres Protokoll, ein Versionsabhängigkeit... Und zu guter Letzt: eine Lizenzabhängigkeit. Nie und nimmer würde ich so etwas meine Daten für Backupzwecke anvertrauen. Das ist für die Computer-Bild und PC-Welt Leser mit Sicherheit das beste was es auf dem Markt gibt... Für Leute die sich mit EDV auskennen, die machen einen riesen Bogen um solch einen Schund!
Beitrag #7864871 wurde von einem Moderator gelöscht.
Oder sowas wie hier, Hardlinkbackup: https://www.lupinho.net/ Wie rsync. Kein proprietäres Format, sondern normales NTFS, mit Versionierung.
:
Bearbeitet durch User
Beitrag #7864882 wurde von einem Moderator gelöscht.
"HardlinkBackup ist ein einfaches, schnelles Backup-Programm für inkrementelle Backups, das Hardlinks benutzt, Backups planen, E-Mail-Benachrichtigungen versenden und automatisch alte Backups löschen kann. HardlinkBackup liest die Quellverzeichnisse ein und vergleicht die Dateien mit früheren Backups. Nur die geänderten Dateien werden anschließend kopiert, die unveränderten Dateien werden mit Hard-Links mit den Dateien der bereits bestehenden Backups verlinkt (Voraussetzung ist, dass das Ziellaufwerk Hardlinks unterstützt, also z.B. mit NTFS formatiert wurde). Auf diese Art und Weise befindet sich auf dem Backup-Laufwerk immer eine komplette Kopie der Quellverzeichnisse vom jeweiligen Datum. Jedoch wird nur der Platz einer Kopie plus der veränderten Dateien benötigt. Wird eine alte Backup-Kopie nicht mehr benötigt kann sie ohne Probleme entsorgt werden, indem einfach das entsprechende Backup-Verzeichnis gelöscht wird. Von der Idee her entspricht HardlinkBackup dem rsyncbackup.vbs der Zeitschrift c’t, erweitert um eine grafische Benutzeroberfläche und viele weitere Features."
(prx) A. K. schrieb: > Auf diese Art und Weise befindet sich auf dem > Backup-Laufwerk immer eine komplette Kopie der Quellverzeichnisse vom > jeweiligen Datum. ... mit der winzigen Einschränkung, dass dieses Programm das RECHT auf ALLES zuzugreifen braucht. Wenn man auf Sachen nicht zugreifen kann, kann man sie auch nicht sichern. Deswegen ist gelegentlich ein Test-Restore ganz nützlich. Sonst steht man im Ernstfall mit leeren Händen da.
Ist kein Werkzeug für alle Fälle. Ich sehe es in der Rolle von Backups von privaten Datenbeständen, nicht von vollständigen Systemen. Da hat man es eher nicht mit Rechtefragen zu tun. Der "Testrestore" der Sicherung wäre ein Vergleich der Dateibäume. Weiss nicht mehr, ob das im Programm drin ist, weil mangels Windows kein Bedarf mehr. Restore ist per Explorer oder xcopy oder so, was keine Vollständigkeit belegt.
:
Bearbeitet durch User
Wenn man den Thread so durchliest, dann stellt man fest wie kompliziert automatische Datensicherung sein kann und welche Fallstricke die Methoden beinalten. Da fällt mit wieder mein Clonezilla ein und meine Stirn, welche überhaupt keine Sorgenfalten zeigt. Klonen dauert nur 3 Minuten zum "anschieben", dann kann man das werkeln lassen. Am Ende hab ich alles was notwendig ist inklusive Betriebssystem.
Clonezilla ist etwas unpraktisch, wenn du eine einzelne Datei vernichtet hast, und nur diese zurück haben willst. Deshalb: Beitrag "Re: Tool für Datensicherung gesucht"
:
Bearbeitet durch User
Mairian schrieb: > Wie gesagt Macrium alles andere kannst du getrost vergessen, > wenn dir die DAten was bedeuten. > Falls die nicht so wichtig is,t ist es wurscht was du nimmst. Hmm. Du meinst das wirklich ernst, ja? Und Du glaubst auch, dass einer solchen Empfehlung irgend jemand folgt, der noch bei halbwegs klarem Verstand ist?
Lu schrieb: > ... mit der winzigen Einschränkung, ??? JEDES Programm, das einen bestimmten Datenbestand sichern soll, braucht das Recht, den gesamten Bestand zu lesen. Das ist keine Einschränkung eines bestimmten Programmes... > dass dieses Programm das RECHT auf ALLES zuzugreifen > braucht. ??? Du weisst aber schon, dass aktuelle Betriebssysteme das Recht, bestimmte Daten zu VERÄNDERN, sorgfältig von dem Recht, diese Daten zu LESEN, unterscheiden?
Clonezilla ist unvorteilhaft, wenn der PC kaputt geht, und der neue zum Image inkompatibel ist. Unabhängig davon wäre mir auf einem neuen PC eine frische Softwareinstallation lieber. So wird man einige Altlasten los, die sich im Laufe der Zeit ansammeln. Zu diesem Zweck habe ich mir eine Liste aller wichtigen Einstellungen gemacht, um so eine Neuinstallation oder gar ein OS Wechsel zügig durch zu ziehen. Auf der Arbeit steht meine meine Liste im Wiki, weil sie von der ganzen Firma genutzt wird. Beim wechsel von HDD auf SSD mittels Image gab es einen gemeinen Fallstrick, den man erst Monate später am frühzeitigen Verschleiß der SSD merkt, weil das OS noch auf HDD Modus konfiguriert ist. Ich finde so ein Image allerdings sinnvoll, wenn man etwas riskantes ausprobieren will, was man eventuell wieder komplett verwerfen will/muss.
:
Bearbeitet durch User
Sherlock 🕵🏽♂️ schrieb: > Clonezilla ist unvorteilhaft, wenn der PC kaputt geht, und der neue zum > Image inkompatibel ist. Es geht nicht um ein Image sondern um "klonen". Wenn der PC defekt geht und die Hardware nicht mehr passt gibt es Wege bei W10, und no Probleme bei W11.
Herbert Z. schrieb: > Sherlock 🕵🏽♂️ schrieb: >> Clonezilla ist unvorteilhaft, wenn der PC kaputt geht, und >> der neue zum Image inkompatibel ist. > > Es geht nicht um ein Image sondern um "klonen". ??? Erkläre mir mal bitte mit allgemeinverständlichen Worten den Unterschied. Und falls Zweifel daran bestehen: Diese Frage ist a) ernst und b) völlig sachlich gemeint.
Herbert Z. schrieb: > Am Ende hab ich alles was notwendig ist inklusive > Betriebssystem. Das ist für mich ein Widerspruch in sich. Wirklich unwiederbringlich sind nur meine Daten. Die will ich daher regelmäßig sichern. Die Dateien, in denen meine Daten enthalten sind, verwenden im großen und ganzen verbreitete, standardisierte Formate. Daher gibt es in der Regel mehrere bis viele Anwendungs- programme, die diese Dateien verarbeiten können. (Auch wenn ich selbst nur genau EIN Programm verwende, finde ich es wichtig, dass Verwendung anderer Programme möglich ist.) Viele dieser Anwendungsprogramme sind frei verfügbar und werden ständig weiterentwickelt; es ist also nicht sinnvoll, diese lokal zu sichern. Die Anwendungsprogramme benötigen ein Betriebssystem, um zu arbeiten. Ich verwende ein freies Betriebssystem, das ständig weiterentwickelt wird. Warum sollte es für mich notwendig sein, das Betriebssystem zusammen mit meinen Daten zu sichern?
Hippelhaxe schrieb: > Du weisst aber schon, dass aktuelle Betriebssysteme das Recht, > bestimmte Daten zu VERÄNDERN, sorgfältig von dem Recht, diese > Daten zu LESEN, unterscheiden? Bei Backups inklusive des Systems und aller Eigenschaften der Files gibt es obendrein noch weitere Dinge zu beachten. Reine Sicherung von eigenen Datenverzeichnissen ist meist anspruchsloser, da reicht Leserecht.
:
Bearbeitet durch User
Hippelhaxe schrieb: > Wirklich unwiederbringlich sind nur meine Daten. Und manchmal auch die passende Version der Anwendung, die damit noch korrekt umgehen kann. Wenn schon etwas angestaubt. ;)
:
Bearbeitet durch User
Sherlock 🕵🏽♂️ schrieb: > Ich finde so ein Image allerdings sinnvoll, wenn man etwas riskantes > ausprobieren will, was man eventuell wieder komplett verwerfen > will/muss. Mit Virtualisierung ist man dabei erheblich besser dran. Da geht das sehr einfach ohne Klon/Image, über Snapshots der VM.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Hippelhaxe schrieb: >> Du weisst aber schon, dass aktuelle Betriebssysteme das Recht, >> bestimmte Daten zu VERÄNDERN, sorgfältig von dem Recht, diese >> Daten zu LESEN, unterscheiden? > > Bei Backups inklusive des Systems und aller Eigenschaften der > Files gibt es obendrein noch weitere Dinge zu beachten. Damit mögen sich die Leute herumärgern, die das beruflich machen und dafür -- hoffentlich anständig -- bezahlt werden... :-) > Reine Sicherung von eigenen Datenverzeichnissen ist meist > anspruchsloser, da reicht Leserecht. Ja. Deswegen beschränke ich mich darauf. Überdies läuft die Installation des Betriebssystems und der Anwendungssoftware hier weitgehend scriptgesteuert; ich kann also bei dringendem Bedarf eine annähernd ähnliche Installation auf neuer Hardware herstellen. Server-Betrieb ist für mich nicht relevant.
(prx) A. K. schrieb: > Hippelhaxe schrieb: >> Wirklich unwiederbringlich sind nur meine Daten. > > Und manchmal auch die passende Version der Anwendung, die > damit noch korrekt umgehen kann. Wenn schon etwas angestaubt. ;) Ja. Habe ich bei privatem, persönlichem Kram bisher vermeiden können durch Beschränkung auf Standard-Software und übliche Dateiformate. Im geschäftlichen Kontext kann man sich das häufig nicht aussuchen; das ist mir schon klar...
Sherlock 🕵🏽♂️ schrieb: > Clonezilla ist unvorteilhaft, wenn der PC kaputt geht, > und der neue zum Image inkompatibel ist. Clonezilla für Datenbackup zu verwenden kommt mir vor wie Hemden bügeln mit der Dampfwalze für den Straßenbau. Irgendwie nutzt man das gebotene Leistungsprofil nicht richtig aus... > Unabhängig davon wäre mir auf einem neuen PC eine frische > Softwareinstallation lieber. Das ist ja der Punkt. Ich neige ohnehin nicht dazu, meine Software besonders engmaschig zu aktualisieren... um es mal vorsichtig auszudrücken. Wenn meine Kiste also mal ernsthaft krank wird, wird das ein Anlass sein, meine bisher angesammelten Daten auf ein halbwegs zeitgemäßes System zu übertragen.
Hippelhaxe schrieb: > Wenn meine Kiste also mal ernsthaft krank wird, wird das > ein Anlass sein, meine bisher angesammelten Daten auf ein > halbwegs zeitgemäßes System zu übertragen. Ich habe die Daten auch privat auf einem schon recht altbackenen Serverlein. Ist einfach angenehmer, wenn man mal vom Desktop und mal vom Laptop darauf zugreift. Und wenn die HDDs dort rotieren, wo das Geräusch nicht stört. Einige Bekannte stellten sich eine NAS in die Wohnung. So eine Qnap hat ein beachtlich langes Leben. Und kriegt auch nach 10 Jahren noch kritische Bugfixes.
:
Bearbeitet durch User
Hippelhaxe schrieb: >> Es geht nicht um ein Image sondern um "klonen". Das merkst du spätestens dann wenn du dein Image benötigst und es nicht funktioniert. Das kommt öfter vor als man denkt. Ist ein Umstand den du beim Klon schon lange bemerkt hast weil du hoffentlich so Klever warst und hast deine gerade erstellte Sicherung gebootet. Ein sehr wichtiger Unterschied wie ich meine. Mehr sag ich dazu nicht mehr auch dann nicht wenn Hippelhaxe das anders sieht.
Hippelhaxe schrieb: > Clonezilla für Datenbackup zu verwenden kommt mir vor wie > Hemden bügeln mit der Dampfwalze für den Straßenbau. Versteh ich nicht ,denn was ist besser als einen kompletten Zwilling der Arbeitsplatte zu besitzen oder zwei wie bei mir? Dein Vergleich, hat keine Füße. Hippelhaxe schrieb: > Irgendwie nutzt man das gebotene Leistungsprofil nicht > richtig aus... Jetzt schreibst du aber "verschlüsselt"...
Herbert Z. schrieb: > Versteh ich nicht ,denn was ist besser als einen kompletten Zwilling der > Arbeitsplatte zu besitzen oder zwei wie bei mir? Dein Vergleich, hat > keine Füße. Weil es teilweise völlig sinnlos ist.
Herbert Z. schrieb: > Versteh ich nicht ,denn was ist besser als einen kompletten Zwilling der > Arbeitsplatte zu besitzen oder zwei wie bei mir? Je nach Anwendungsfall ist ein Backup besser. Zum Beispiel, wenn ich aus Versehen eine Datei gelöscht oder kaputt gemacht habe. Dann möchte ich nicht den ganzen PC einen Monat zurück versetzen, sondern nur diese eine Datei. Wahrscheinlich kann man aus dem Image einzelne Dateien extrahieren. Ein primitives Backup (kopierte Dateien) ist in dem Fall wesentlich leichter zugänglich.
:
Bearbeitet durch User
In Linux kann man unkomprimierte 1:1 Imagefiles direkt mounten und darauf fileweise zugreifen. Man kann es mit entsprechenden Tools bestimmt auch in Windows. Wirkt aber eher als Notlösung, zumal das bei inkrementellen, komprimierten oder parzellierten Images schwierig wird. Weshalb es wie schon angesprochen sehr sinnvoll sein kann, Datensicherung und Systembackup auseinander zu halten und unterschiedlich zu implementieren.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Hippelhaxe schrieb: >> Wenn meine Kiste also mal ernsthaft krank wird, wird das >> ein Anlass sein, meine bisher angesammelten Daten auf ein >> halbwegs zeitgemäßes System zu übertragen. > > Ich habe die Daten auch privat auf einem schon recht > altbackenen Serverlein. Ich habe die dezent formulierte Kritik verstanden... > Ist einfach angenehmer, wenn man mal vom Desktop und > mal vom Laptop darauf zugreift. Ja... aber auch unangenehmer, wenn mal der Wurm im Netzwerk steckt, weil dann gleich gar nix mehr funktioniert. Zentrale Datenhaltung ist super, solange sie funktioniert. Auch wenn sie nur wegen persönlicher Blödheit nicht funktioniert, funktioniert sie trotzdem nicht... > Einige Bekannte stellten sich eine NAS in die Wohnung. Steht hier auch... ist nur noch nicht in Betrieb. Ich weiss noch nicht, wie das Optimum aussieht.
Hippelhaxe schrieb: > Ja... aber auch unangenehmer, wenn mal der Wurm im > Netzwerk steckt, weil dann gleich gar nix mehr > funktioniert. Vom Server booten tu ich Laptop und Desktop nicht, das schaffen die schon noch selbst. Aber natürlich ist es ratsam, Passwörter für den Server nicht nur auf dem Server zu speichern. ;)
:
Bearbeitet durch User
Hippelhaxe schrieb: > Auch wenn sie nur wegen persönlicher > Blödheit nicht funktioniert, funktioniert sie trotzdem > nicht... Nicht funktionierende dezentrale Datenhaltung wirkt auf mich in diesem Kontext auch nicht überzeugender. ;)
:
Bearbeitet durch User
Hippelhaxe schrieb: > Ich habe die dezent formulierte Kritik verstanden... Du siehst was, was ich nicht seh. 😆
Herbert Z. schrieb: > Hippelhaxe schrieb: >>> Es geht nicht um ein Image sondern um "klonen". Nein, DAS schrieb Hippelhaxe nicht. Bitte korrekt zitieren. > Das merkst du spätestens dann wenn du dein Image > benötigst und es nicht funktioniert. ??? > Das kommt öfter vor als man denkt. Ist ein Umstand den du > beim Klon schon lange bemerkt hast weil du hoffentlich so > Klever warst und hast deine gerade erstellte Sicherung > gebootet. ??? Ich sichere meine DATEN -- und NUR meine Daten. Da bootet nix. Die Software lässt sich bei Bedarf jederzeit wieder installieren; sie findet sich auf vielen Servern in allen Teilen der Welt -- auch wenn ich aus Bequemlichkeit lokale Kopien von manchem habe... > Ein sehr wichtiger Unterschied wie ich meine. Unterschied -- durchaus. Aber inwiefern Vorteil?
Herbert Z. schrieb: > Hippelhaxe schrieb: >> Clonezilla für Datenbackup zu verwenden kommt mir vor wie >> Hemden bügeln mit der Dampfwalze für den Straßenbau. > > Versteh ich nicht ,denn was ist besser als einen kompletten > Zwilling der Arbeitsplatte zu besitzen oder zwei wie bei mir? > Dein Vergleich, hat keine Füße. Wir leben in verschiedenen Welten. In meinem PC arbeiten zwei Festplatten, eine "Systemplatte", wo die ganze Software drauf ist, und eine "Datenplatte". Beide Platten sind heftig partitioniert; die Systemplatte enthält u.a. eine Boot-Partition, mehrere m.o.w. funktionierende Linux-Installationen, ein Debian-Paketarchiv, eine Swap-Partition und noch anderen Krempel. Die Datenplatte enthält -- neben reichlich anderem Krempel -- mein /home-Verzeichnis. Auf meine Daten in /home kann ich von jeder Linux-Installation aus zugreifen -- auch wenn das (aufgrund von Schlamperei) mal besser, mal schlechter funktioniert. Von meinen Daten in /home gibt es ungefähr zehn "Zwilllinge" auf diversen externen Backup-Platten -- angefertigt mit rsync/rsnapshot. > Hippelhaxe schrieb: >> Irgendwie nutzt man das gebotene Leistungsprofil nicht >> richtig aus... > Jetzt schreibst du aber "verschlüsselt"... Soweit ich verstanden habe, ist Clonezilla gut, wenn man identische Installationen auf einer Vielzahl von Rechnern benötigt. Brauche ich aber gar nicht. Ich habe nur EINEN Rechner -- aber Daten, die sich immer mal ändern.
Hippelhaxe schrieb: > Beide Platten sind heftig partitioniert Bei mir gibt's nur eine (Nutz-) Partition pro PC - aber einen Hypervisor. Scheint mir einfacher. Mag wie neumodischer Krimskrams erscheinen, gibts aber schon seit einem Vierteljahrhundert. 😉 Imagebackups sind sehr einfach und umgänglich, wenn es Images von VMs sind. Auch Wechsel der zugrundeliegende Hardware bereitet kein Kopfzerbrechen. Und eines Tages trat der Windows-Desktop-PC seinen Weg vom Blech in eine VM unter Linux an, damals auf der gleichen Hardware. Mittlerweile ist er klaglos zwei Geräte weiter gewandert.
:
Bearbeitet durch User
Rene K. schrieb: > Weil es teilweise völlig sinnlos ist. Gut, dann warte ich auf den Tag und die Stunde, wo ich feststelle, dass meine Zwillinge zu nichts taugen. Ps. Im übrigen habe ich auch keine maximal 4 Wochen Lücke zwischen den Sicherungen weil mein beiden USB Sticks alles wichtige in dieser Zeit nebenbei sichern und zwar täglich. Die Betonung liegt dabei auf "WICHTIG". Der Thread wird noch lange werden schätze ich mal. Im übrigen hast du sicher schon mitbekommen, dass ich identische Hardware meines Arbeitsrechners (Mainboard ,CPU ,Arbeitsspeicher) doppelt in Reserve habe. Ist zwar nicht W11 tauglich ,aber egal, geht an mir vorbei.
Hippelhaxe schrieb: > Viele dieser Anwendungsprogramme sind frei verfügbar und > werden ständig weiterentwickelt; es ist also nicht sinnvoll, > diese lokal zu sichern. Viele Anwendungsprogramme werden bunter, größer und langsamer, ohne einen Mehrnutzen zu bieten. Also besser den bewährten Kram sichern. Fast alles findet sich als 'portable App', kann dann mit auf der Datenplatte liegen und einfach kopiert werden. (prx) A. K. schrieb: > Weshalb es wie schon angesprochen sehr sinnvoll sein kann, > Datensicherung und Systembackup auseinander zu halten und > unterschiedlich zu implementieren. Das ist ein alter Hut und hier seit Jahren so. Für das Betriebssystem ein Image mit Acronis oder Macrium, für die Daten Kopien, im simpelsten Fall mit xcopy. Konsequent angewendet, kopiert man Daten und portierbare Software auf den neuen PC und fast alles läuft wie gehabt.
Heute im "Heise Osterkalender": BackUp Maker Professional https://www.ascomp.de/de/products/backupmaker https://www.heise.de/download/blog/heise-Osteraktion-2025-Ei-22-10343785
Herbert Z. schrieb: > Ps. Im übrigen habe ich auch keine maximal 4 Wochen Lücke zwischen den > Sicherungen weil mein beiden USB Sticks alles wichtige in dieser Zeit > nebenbei sichern und zwar täglich. Aber, nur um wirklich sicher zu gehen, du ziehst dir nicht täglich ein Image deiner System- oder Datenplatte, richtig?! Bei mir wird, wie gesagt, nachts um vier per Magic Paket ein Rechner gestartet, dort via Rsync das System synchronisiert, danach verifiziert - danach läuft ein Python Script welches LXC Container und VMs startet und die Services abruft. Danach legt sich der Rechner wieder bis zum nächsten Tag schlafen. Das ist mein Proxmox. So ähnlich läuft das Backup meiner Daten aus dem Pool ab: es werden zwei Rechner gestartet - einer hier daheim und einer via VPN bei Würzburg. Dort werden die Daten synchronisiert, verifiziert in einem 7/4/2 Rhythmus - danach fahren die Rechner wieder runter - das täglich um drei. Mir fehlen, sollte etwas im Pool passieren (z.b. zwei Platten gleichzeitig defekt), maximal ein Tag an Daten. Was aber tatsächlich noch nie passiert ist. Virus ist tatsächlich ein Thema. Aber, wie will man dies umgehen? Wie lange hält sich ein Virus als Sleeper im System / Daten bevor er aktiv und bemerkt wird? Der Vorteil an meinen Daten im Pool ist dieser, das dort keine ausführbaren Dateien liegen - aber man weiß auch nicht WIE sich Viren verteilen. Mehr als ein aktuellen AV kann man halt nicht drüber laufen lassen - da ist man halt dem Risiko ausgesetzt.
Rene K. schrieb: > Aber, nur um wirklich sicher zu gehen, du ziehst dir nicht täglich ein > Image deiner System- oder Datenplatte, richtig?! Nein ,nur das was innerhalb der 4 Wochen als wichtig anfällt. Stell dir mal vor, du arbeitest über Tage an einem Layout.Du machst täglich Fortschritte. Da steckt viel Arbeit drinnen, da will man nicht von vorne anfangen müssen. Bei solche Sachen sichere ich auch mehrmals den Fortschritt am Tag. Nur ein Beispiel jetzt...
Rene K. schrieb: > Virus ist tatsächlich ein Thema. Ist ein Thema, aber ich hatte außer in den Anfangszeiten meines Internet Anschlusses kein Problem damit. Ich habe auch nur die Windows eigene AV am laufen, die ist gut. Mein Konto ist eingeschränkt, da installiert sich so schnell nichts ohne mein zutun. Viren...AV ja, aber sonst kein Thema. Wenn ich mir überlege wie lange ich ohne Updates mit XP und W7 im Netz war und zwar ohne Probleme, dann ist die Gefahrenlage zu einem großen Teil nur Geschäftsinteresse. Ich kaufe mir keinen neuen Rechner mehr wegen W11. Microsoft will Millionen guter Rechner verschrotten. Da spiele ich nicht mit. Kommt Zeit kommt Rat, aber ich habe noch Zeit...
(prx) A. K. schrieb: > In Linux kann man unkomprimierte 1:1 Imagefiles direkt mounten und > darauf fileweise zugreifen. Man kann es mit entsprechenden Tools > bestimmt auch in Windows. Wirkt aber eher als Notlösung, zumal das bei > inkrementellen, komprimierten oder parzellierten Images schwierig wird. DriveSnapshot kann das, sehr einfach. Das mounted Dir Dein Backup als extra Laufwerk, und damit kannst Dir Deine Daten raussuchen. DriveSnapshot hat gegenüber Clonezilla noch einen weiteren Vorteil: Das Backup läuft bei laufendem System. Was nützt ein Backup, das nicht gemacht wird? Zum Komplett-Restore nimmst Du ein Windows-Installationsimage, gehst in die Kommandozeile und startest von dort das Restore. fchk
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.