Hallo zusammen, ich möchte zwei "große" Festplatten (ca. 2TB) anschaffen um diese (gespiegelt) als Backup für meine Daten zu nutzen. Sinnvoll wäre es hier ja sicherlich zwei unterschiedliche Hersteller zu nehmen. Mit welchen habt ihr gute Erfahrung bezüglich der Langlebigkeit gemacht? Gruß Dennis
Dennis S. schrieb: > ich möchte zwei "große" Festplatten (ca. 2TB) anschaffen um diese > (gespiegelt) als Backup für meine Daten zu nutzen. gespiegelt als Backup? Wenn dann beim Schreiben das OS oder ein Virus das Dateisystem kaputt macht, sind beide Kopien kaputt. Normalerweise nimmt man 2 (oder besser 3) Platten, die man immer nur abwechselnd beschreibt. Wenn eine kaputt gehen sollte, hat man noch 2 weitere Kopien und es sind nur ein paar Tage mehr verloren gegangen und nicht alles. Sollen die Platten dauerhaft im PC mitlaufen oder sollen die extern angeschlossen werden? Ich würde letzteres vorschlagen und auch raten, die Platten nur bei Bedarf (=Erstellen des Backups) anzustecken.
Dennis S. schrieb: > Mit welchen habt ihr gute Erfahrung bezüglich der Langlebigkeit gemacht? Retouren-Statistik eines französischen Händlers: http://www.hardware.fr/articles/934-6/disques-durs.html
Wie schon geschrieben: Vergiss Spiegel und Backup! Ein Spiegel bringt Dir bei Backups überhaupt nichts! Ein Spiegel kann Dich zwar vor Festplattenausfällen schützen, nicht aber vor Softwarefehlern oder schlicht menschlichem Versagen. Nimm lieber zwei einfach Platten und mach doppelt so viele Backups, falls das zu lange dauert, einfach eine Kopie des Backups auf beide Platten. Was Dir ein Spiegel bringen würde ist Verfügbarkeit. Wenn Dir eine Platte ausfällt kannst Du auf der anderen weiter arbeiten bis Ersatz da ist. Das ist im industriellen Umfeld wichtig, im privaten aber schon deutlich weniger und bei Backups erreichst Du das gleiche Ziel mit zwei einzelnen Platten genauso gut. Was auch gerne vergessen wird: Ein Spiegel bringt überhaupt nichts ohne Monitoring. Spiegelsoftware soll einen Plattenausfall vor dem Nutzer verbergen und das tut sie sehr gut. Wenn Du aber nicht nur Nutzer sondern auch Admin bist und den Ausfall einer Platte erst bemerkst, wenn auch die andere ausfällt, hast Du auch nichts gekonnt. Du brauchst also immer auch ein Stück Software, das irgendwo eine rote Lampe angehen lässt bei Ausfall einer Platte. Was die Wahl der Platte angeht kannst, liegst Du schon richtig: Nimm zwei verschiedenen Hersteller. Obwohl Du auch da nicht ausschließen kannst, dass sie vom selben Band gelaufen sind, so sind sie es wohl wenigsten mit gewissem zeitlichen Abstand. Ansonsten kannst Du getrost die preisgünstigsten nehmen. So mache ich das und ich hatte im privaten Umfeld in den letzten 20 Jahren nur zwei Ausfälle, eine davon eine Markenplatte, die andere eine SSD. Einige meiner Platten sind 10 Jahre und länger im Betrieb. Platten sind heute sehr robust und werden meisten ersetzt, weil sie zu klein sind, lange bevor sie ausfallen.
Backup macht man eigentlich inkrementell, das geht am schnellsten und du hast viele Versionsstände deiner Datei. Musst dir halt entsprechende Software besorgen, ich kann da leider nichts empfehlen, bei mir geht das von selbst.
Fritz Ganter schrieb: > Musst dir halt entsprechende Software besorgen, ich kann da leider > nichts empfehlen, bei mir geht das von selbst. Linux: rsnapshot Windows: Hardlinkbackup
Stimmt, rsnapshot war es unter Linux. Hardlinkbackup scheint genau das zu machen was ich meine.
ich benutze rsync zum backup machen, und mehrere externe platten in
rotation. klingt möglicherweise kompliziert und aufwändig, aber wenn
sich "freitag ist backuptag" erstmal etabliert hat geht alles ruck-zuck.
das bild ist zum angeben und prahlen was ich doch für ein ordentlicher
und sorgfältiger typ bin - eine platte fehlt hier noch… die ist im büro
damit nicht alle backups an einem platz rumgammeln.
> Mit welchen habt ihr gute Erfahrung bezüglich der Langlebigkeit gemacht?
ich hab noch keine negativen erfahrungen mit festplatten gemacht.
vielleicht hatte ich bisher einfach nur glück.
c.m. schrieb: > vielleicht hatte ich bisher einfach nur glück. Es gab schon Platten, die vom Tisch fielen und unlesbar waren. Ansonsten würde ich schnellere Platten mit 7200 U/min bevorzugen damit es nich so lange dauert. Ein komplettes Image ist schneller zurückgespielt als tausende Einzeldateien mit rsync, weil bei Einzeldateien viel öfter das Direktory akutalisiert wird, was zusätzliche Kopfbewegungen verursacht. Daher gelegentlich ein Komplettbackup und später rsync für den kleinen Rest.
Beide Verfahren haben ihre Vor- und Nachteile. Image-Verfahren sind deutlich schneller, das stimmt. Auch können darin alle Fileeigenschaften erhalten bleiben und ggf. auch nicht für Lesen freigegebene Files (Win) gesichert werden. Aber sie benötigen ein zuverlässig funktionsfähiges Restore-Programm, dass in diversen Fullbackups und Increments ohne viel Sucharbeit die Versionen findet. Bei Verfahren wir rsync (rsnapshot/Hardlinkbackup/...) ist hingegen kein Restore-Programm nötig und trotz ausschliesslich inkrementeller Sicherung ist jeder Stand des Backups ein vollständiges Abbild des gesicherten Dateibaums. Da kommt man mit jedem System ran, auch jungfräulich installiert.
oszi40 schrieb: > Daher gelegentlich ein Komplettbackup und später rsync für den kleinen > Rest. Fullbackup mit Image und Rsync inkrementell? Wie soll das funktionieren? Rsync ist synchronisiert einen Dateibaum, mit Images hat es nichts am Hut. Bei den oben genannten auf Hardlinks basierende Rsync Varianten liegt bei sich üblicherweise nur moderat verändernden Filesystemen der Hauptaufwand im Anlegen der immens vielen Links auf unveränderte Versionen. Zwischendurch komplett zu kopieren kostet Aufwand und erspart bei späteren Inkrements exakt nichts.
Hallo nochmal, danke für eure Antworten, auch wenn sie meist nicht zur Frage passen. ;-) Mit "Spiegeln" meine ich: beide HD enthalten alle / dieselben Daten statt z.B. Platte 1 hat alle Bilder und Platte 2 alle Dokumente. Da ich der französischen Sprache nicht (mehr) mächtig bin: sehe ich das richtig, dass Seagate und Western Digital statistisch am zuverlässigsten sind? Meine Frage zielte insbesondere darauf ab, dass ich mal hörte, dass die externen Platten intern alle von ziemlich dem gleichen Hersteller sind. Frage wäre also, welche Hersteller muss ich "extern" wählen damit ich "intern" auch eine gewissen Diversität habe? Gruß Dennis P.S.: Sorry für "intern" und "extern" aber ich die korrekten Bezeichnungen sind mir unbekannt.
Dennis S. schrieb: > Meine Frage zielte insbesondere darauf ab, dass ich mal hörte, dass die > externen Platten intern alle von ziemlich dem gleichen Hersteller sind. Wenn die externen Platten von einem Festplattenhersteller stammen, kann davon ausgegangen werden, daß die Platte im Gehäuse von diesem Festplattenhersteller stammt. Ein USB-Gehäuse von Seagate enthält also auch eine Seagate-Platte, so wie ein USB-Gehäuse von WD eine WD-Platte enthält. Bei Herstellern, die keine Festplatten bauen, muss die Festplatte naturgemäß von einem der wenigen Hersteller gekauft werden, die es noch gibt. Und das sind nur noch drei: Seagate (hat zuletzt Samsung geschluckt) WD (hat zuletzt HGST geschluckt, was früher IBM und Hitachi waren) Toshiba (hat zuletzt Fujitsu geschluckt)
Rufus Τ. Firefly schrieb: > Und das sind nur noch drei: > > Seagate (hat zuletzt Samsung geschluckt) > WD (hat zuletzt HGST geschluckt, was früher IBM und Hitachi waren) > Toshiba (hat zuletzt Fujitsu geschluckt) Super, danke für die Info! Gruß Dennis
Ansonsten kann man Platte und Gehäuse ja auch getrennt kaufen.
> Rsync ist synchronisiert einen Dateibaum, > mit Images hat es nichts am Hut. Richtig. Es kann aber recht nützlich sein, gelegentlich (nicht stündlich)ein KOMPLETTES (Clonezilla-)Backup der GANZEN HD zu haben und später nur die paar aktuellen Änderungen hinzuzufügen. http://www.heise.de/download/clonezilla-screenshot1.html Ein frisches System aufsetzten und alle speziellen Einstellungen, Programme, Treiber und Lizenzen wieder zusammenzusuchen kann "etwas" dauern.
oszi40 schrieb: >> Rsync ist synchronisiert einen Dateibaum, >> mit Images hat es nichts am Hut. > > Richtig. Es kann aber recht nützlich sein, gelegentlich (nicht > stündlich)ein KOMPLETTES (Clonezilla-)Backup der GANZEN HD zu haben und > später nur die paar aktuellen Änderungen hinzuzufügen. Also ein inkrementelles Clonezilla-Image? Wie geht das denn? > http://www.heise.de/download/clonezilla-screenshot1.html Schönes Bild vom Clonezilla-Grub. Was willst du damit sagen?
oszi40 schrieb: > Ein frisches System aufsetzten und alle speziellen Einstellungen, > Programme, Treiber und Lizenzen wieder zusammenzusuchen kann "etwas" > dauern. Systemabbild und Datenbackup mache ich getrennt. Dann ist das System in wenigen Minuten wieder eingespielt. Systembackups mache ich nur nach größeren Änderungen oder Updates. Für die Daten reicht ne Batch mit XCOPY vollkommen aus. Bis 2TB nehme ich externe 2,5 Zoll USB3, dann braucht man kein extra Netzteil.
Rolf Magnus schrieb: > Ansonsten kann man Platte und Gehäuse ja auch getrennt kaufen. Das stimmt und gefällt mir auch ganz gut. Dann kann man die Gehäuse zur not auch schön stapeln. :-) Gruß Dennis
Peter Dannegger schrieb: > Systembackups mache ich nur nach größeren Änderungen oder Updates. Systembackups mache ich gar nicht mehr. Nach meiner Erfahrung ist hier ein gutes Installations-Log samt Kopie der Installationsmedien besser als jedes Backup. Das hilft nicht nur nach Plattenausfällen, sondern auch bei Virenbefall, Migrationen oder Upgrades. Gerade bei MS-Systemen ist eine Neuinstallation ja schon aus „hygienischen Gründen“ ab und zu mal ganz nützlich. Ein 100%-ig konsistentes Backup lässt sich ohnehin nur offline machen, daher wandern Systeme, für die doch mal ein Systembackup angesagt ist, von Anfang an in eine virtuelle Maschine. Da wird dann ganze Image gesichert.
A. H. schrieb: > Ein 100%-ig konsistentes Backup lässt sich ohnehin nur offline machen, Da hat sich über die Jahre schon was getan. Heutige System-Images arbeiten auf Basis von Snapshots und sind schon recht konsistent. Zumal Microsoft einen Mechanismus drin hat, der Anwendungen wie Datenbanken bei Snapshots zur Seite steht, damit zum Zeitpunkt des Snapshots auch Anwendungen einen sauberen Zeitpunkt herstellen. VM Serverfarmen werden routinemässig im laufenden Galopp gesichert und Restores solcher Backups funktionieren.
:
Bearbeitet durch User
A. K. schrieb: > A. H. schrieb: >> Ein 100%-ig konsistentes Backup lässt sich ohnehin nur offline machen, > > Da hat sich über die Jahre schon was getan. Heutige System-Images > arbeiten auf Basis von Snapshots und sind schon recht konsistent. Zumal > Microsoft einen Mechanismus drin hat, der Anwendungen wie Datenbanken > bei Snapshots zur Seite steht, damit zum Zeitpunkt des Snapshots auch > Anwendungen einen sauberen Zeitpunkt herstellen. > > VM Serverfarmen werden routinemässig im laufenden Galopp gesichert und > Restores solcher Backups funktionieren. Im industriellen Umfeld ist der Aufwand sicher auch gerechtfertigt und meine Kunden würden mir wohl auch aufs Dach steigen wenn ich ihnen erzählte, ich mache von ihren Systemen keine (vollständigen) Backups :-) Schon deshalb kann ich hier nur für mich selbst sprechen. Da ist mir der einfachste Weg aber immer noch der liebste. (Und auch bei meinen Kunden bestehe ich auf ein gutes Installations-Log, da ich wie gesagt überzeugt bin, dass es im Zweifel mehr Wert is, als ein Backup.)
A. K. schrieb: > Heutige System-Images > arbeiten auf Basis von Snapshots und sind schon recht konsistent. "Schon recht konsistent" reicht aber nicht. 100%ige Konsistenz ist gefragt. Richtig kompliziert wird es, wenn zusammengehörende Daten auf mehreren Servern verteilt liegen. Praktisches Beispiel, eine Steuerberatersoftware speichert Word-Dokumente oder Exceltabellen unter einem fortlaufend vergebenen Dateinamen im Bewegungsdatenpfad auf dem Fileserver. Die Information, zu welcher Akte und an welche Stelle des Aktenbaumes die Datei gehört, wird aber in der Datenbank auf dem SQL-Server gespeichert. Wird die Sicherung im laufenden Betrieb ausgeführt, kann es u.U. zu Inkonsistenzen kommen. Je nachdem, ob zuerst die Datenbank oder die Bewegungsdaten gesichert werden, ist entweder die Datei vorhanden und der Datenbankbezug fehlt oder der Datenbankeintrag verweist auf eine nicht vorhandene Datei. Aufgrund der mit beängstigtem Tempo anwachsenden Datenmengen wird in Zukunft eine Offline-Sicherung aber gar nicht mehr möglich sein, weil das Zeitfenster zwischen Feierabend und Arbeitsbeginn dafür nicht mehr ausreicht.
Icke ®. schrieb: > Praktisches Beispiel, eine > Steuerberatersoftware speichert Word-Dokumente oder Exceltabellen unter > einem fortlaufend vergebenen Dateinamen im Bewegungsdatenpfad auf dem > Fileserver. Die Information, zu welcher Akte und an welche Stelle des > Aktenbaumes die Datei gehört, wird aber in der Datenbank auf dem > SQL-Server gespeichert. Wird die Sicherung im laufenden Betrieb > ausgeführt, kann es u.U. zu Inkonsistenzen kommen. Je nachdem, ob zuerst > die Datenbank oder die Bewegungsdaten gesichert werden, ist entweder die > Datei vorhanden und der Datenbankbezug fehlt oder der Datenbankeintrag > verweist auf eine nicht vorhandene Datei. Das klingt ja nach einem wirklich durchdachten Design. Schon mal den Hersteller gefragt, wie der sich das so denkt? > Aufgrund der mit beängstigtem Tempo anwachsenden Datenmengen wird in > Zukunft eine Offline-Sicherung aber gar nicht mehr möglich sein, weil > das Zeitfenster zwischen Feierabend und Arbeitsbeginn dafür nicht mehr > ausreicht. Als gestresster Admin würde ich folgendes probieren: Datenbank und Fileserver spiegeln (einen dreifach-Spiegel in diesem Fall), Datenbank und Fileserver herunterfahren, Spiegel auftrennen , Datenbank und Fileserver hochfahren, vom Spiegel sichern, Spiegel wieder mergen.
Icke ®. schrieb: > Aufgrund der mit beängstigtem Tempo anwachsenden Datenmengen wird in > Zukunft eine Offline-Sicherung aber gar nicht mehr möglich sein, weil > das Zeitfenster zwischen Feierabend und Arbeitsbeginn dafür nicht mehr > ausreicht. Korrekt. Zumal auch nicht in jeder Firma diese Zeit für Offline-Backups zur Verfügung steht. Sei es aufgrund abweichender Arbeitszeit, sei es aufgrund nachts laufender Jobs. In Umgebung mit solchen Datenmengen muss man sich deshalb über kurz oder lang mit Snapshot-Mechanismen und Online-Backups befassen. Moderne Filesysteme bieten dies, so dass man nicht den aktuellen Stand des Filesystem sichert, sondern den Snapshot. Dafür hat man dann 24h Zeit. Alternativ kann man in Umgebungen mit grosser Datenmenge Snapshots eines Primärsystems inkrementell auf eine Sekundärsystem spiegeln (kann dann SATA sein). Mobile Medien benötigt man dann nur noch für den Katastrophenfall und die zieht man vom Sekundärsystem ab, wodurch auf dem Primärsystem keine Last entsteht.
:
Bearbeitet durch User
A. H. schrieb: > Gerade bei MS-Systemen > ist eine Neuinstallation ja schon aus „hygienischen Gründen“ ab und zu > mal ganz nützlich. Wie kommst Du darauf? Ich hab das früher mal auch gemacht, aber außer viel Zeit damit zu verschwenden, hatte es keinen Effekt. Eh man alle Anwendungen wieder installiert und upgedatet hat und alle Einstellungen wieder seinen Wünschen angepaßt hat, vergehen Tage. Auch kann es Probleme geben mit Anwendungen, die online lizensiert wurden. Dagegen sind 5min für das Einspielen des Systemabbilds ein Klacks.
Peter Dannegger schrieb: > A. H. schrieb: >> Gerade bei MS-Systemen >> ist eine Neuinstallation ja schon aus „hygienischen Gründen“ ab und zu >> mal ganz nützlich. > > Wie kommst Du darauf? > Ich hab das früher mal auch gemacht, aber außer viel Zeit damit zu > verschwenden, hatte es keinen Effekt. Also ich bin gefühlt ständig am Installieren und das aus den ganz unterschiedlichsten Gründen: Man hat im Eifer des Gefechts übersehen, ein Häkchen zu entfernen und nun hat sich irgendetwas mit installiert was ich nicht mehr los werde, eine Anwendung ließ sich nicht vollständig entfernen und macht nun Probleme beim Patchen oder mit der Folgeanwendung, die Testperiode einer Demo-Version ist abgelaufen :-) und, und, und. Dazu kommen die üblichen Verdächtigen: auf neue Hardware migriert (d.h. neue und/oder andere Treiber), auf SSD migriert (andere Plattengeometrie) und, und, und. Kann man alles auch anderes lösen, keine Frage, aber die Zeit ist mir zu schade. Einfach neu installieren und das System ist in einem sauberen, definierten Zustand. > Eh man alle Anwendungen wieder installiert und upgedatet hat und alle > Einstellungen wieder seinen Wünschen angepaßt hat, vergehen Tage. > Auch kann es Probleme geben mit Anwendungen, die online lizensiert > wurden. > Dagegen sind 5min für das Einspielen des Systemabbilds ein Klacks. Was ich unter MS noch verwende kann ich meist in den Standardeinstellungen belassen, was nicht, geht (isoliert) in eine virtuelle Maschine. Von der mache ich dann eine Backup bevor ich irgendetwas an den Einstellungen ändere.
:
Bearbeitet durch User
A. H. schrieb: > Also ich bin gefühlt ständig am Installieren und das aus den ganz > unterschiedlichsten Gründen: Privat oder beruflich? > Kann man alles auch anderes lösen, > keine Frage, aber die Zeit ist mir zu schade. Ich sehe in diesen beiden Aussagen einen gewissen Widerspruch. Du bist die ganze Zeit am installieren, weil du die Wege, diese Zeit einzusparen, aus Zeitgründen nicht gehen willst?
A. H. schrieb: > Schon mal den Hersteller gefragt, wie der sich das so denkt? Die Software (Addison Akte aka "10it" bzw. "tse:nit") wurde vom Grunde her Ende der 90er entwickelt. Trotz einiger technischer Unzulänglichkeiten ist sie aus administrativer Sicht dennoch um Größenordnungen leichter zu handhaben als bspw. Datev. Serverumzüge o.ä. sind dank einer zentralen Konfigurationsdatei sehr einfach möglich, bei Datev dagegen der blanke Horror. Nur hat wohl niemand ernsthaft daran gedacht, daß die Datenmengen in realen Umgebungen ein klein wenig größer ausfallen als auf den Testservern des Herstellers. Die zunehmende Aufblähungen mit neuen Features verstärkt die Tendenz weiter. Mal eben über Nacht ein Update einspielen, was vor 10 Jahren noch problemlos ging, is nich mehr. Alleine die Sicherung dauert mittlerweile 3 Stunden. Bis der Letzte von den Servern verschwindet, schlägt es i.d.R. 23 Uhr und morgens kurz nach 6 Uhr fangen die ersten schon wieder an. Zeit für ein Fallback bleibt da nicht. A. H. schrieb: > Datenbank und Fileserver spiegeln Die Gesichter werden angesichts der Kosten ziemlich lang werden. Noch geht es, aber in absehbarer Zukunft wird es eng.
Icke ®. schrieb: > Richtig kompliziert wird es, wenn zusammengehörende Daten auf > mehreren Servern verteilt liegen. App/DB runterfahren, auf allen betreffenden Systemen Filesystem-Snapshots erzeugen, wieder hochfahren. Dann in aller Ruhe die Snapshots sichern und direkt danach oder nach ein paar Tagen wieder löschen. Sollte auch mit stinknormalem Windows funktionieren. Die Offline-Zeit davon liegt im Minutenbereich.
:
Bearbeitet durch User
A. H. schrieb: > Kann man alles auch anderes lösen, > keine Frage, aber die Zeit ist mir zu schade. Ein Systemabbild gehört zu den Windos-Bordmitteln. Du mußt nichts installieren, einfach nur anklicken und weiter arbeiten. Das kann sogar Lieschen Müller machen. Und dann im Ernstfall die Boot-DVD einlegen und es wieder einspielen. Es macht eine exakte 1:1 Wiederherstellung von C:. Das überlebt kein Virus oder Ablaufschlüssel einer Demoversion. Und es rödelt nicht ewig, wie eine Neuinstallation und stellt auch nicht zwischendurch dumme Fragen. Es dauert nur solange, wie die belegte Datenmenge zu kopieren eben dauert. Mehr Zeit sparen, geht nicht.
Dennis S. schrieb: > Mit welchen > habt ihr gute Erfahrung bezüglich der Langlebigkeit gemacht? Das ist reine Glückssache sprich egal. Wenn das externe Platten sein sollen und USB3, dann ist es sinnvoller auf brauchbare Chipsätze in der verbauten Gehäusen zu achten und ob die Kombi mit deinem Motherboard vernünftig läuft, dazu noch passende Kabel,... Damit hatte ich bis jetzt mehr Probleme als mit den reinen Platten. Manche Dinge würde ich noch auf einem anderen Medium speichern, je nach Menge DVD oder BluRay. Allen Unkenrufen zum trotz, bei einer Platte kannst du im Rücksicherungsfall noch genug Blödsinn anstellen um dir deine Daten zu schrotten. Optische Medien übershreibt man nicht einfach mal so aus versehen. Habe schon genug Fälle erlebt wo bei der Rücksicherung die Backupplatte aus versehen neu partioniert und formatiert wurde oder andere Dummheiten.
A. K. schrieb: > A. H. schrieb: >> Also ich bin gefühlt ständig am Installieren und das aus den ganz >> unterschiedlichsten Gründen: > > Privat oder beruflich? Privat. >> Kann man alles auch anderes lösen, >> keine Frage, aber die Zeit ist mir zu schade. > > Ich sehe in diesen beiden Aussagen einen gewissen Widerspruch. Du bist > die ganze Zeit am installieren, weil du die Wege, diese Zeit > einzusparen, aus Zeitgründen nicht gehen willst? Die Installation stoße ich an und sie läuft weitgehend alleine durch, ab und zu mal draufschauen und weiter klicken genügt. Nach der Uhr dauert das vielleicht länger aber ich kann inzwischen andere Sachen machen. Für eine Fehlersuche muss ich aktiv Zeit und Mühe investieren und das Ergebnis ist nie so sauber und definiert, wie bei einer Neuinstallation. Installationen mache ich auch nur bei Bedarf, ein Backup aber nützt nur etwas, wenn es regelmäßig gemacht wird und das kostet Zeit. Einarbeitung in die Backup-Software kostet Zeit, die Software kostet vielleicht Geld und ändert sich ständig. Das lohnt sich, wenn ich sie bei vielen Kunden nutzen kann, nicht aber zu Hause. Ein Backup ist eigentlich nur dann sicher, wenn ich auch einmal einen Restore-Test gemacht habe. Das kostet Zeit und Geld, denn ich werde den Test ja nicht auf die Platte machen, der Backup ich testen will :-) Die Installation dagegen ist erprobt und wenn sie sich beim Upgrade ändert muss ich sie spätestens dann ohnehin neu erlernen. Das kostet mich nichts (zusätzlich).
A. H. schrieb: > ein Backup aber nützt nur > etwas, wenn es regelmäßig gemacht wird und das kostet Zeit. Aber nicht meine Zeit. Das macht die Kiste selbständig. > Ein Backup ist eigentlich nur dann > sicher, wenn ich auch einmal einen Restore-Test gemacht habe. Wenn du natürlich jeden einzelnen Backup erst einmal testest, dann verstehe ich, wieso du zu nichts kommst. ;-)
Peter Dannegger schrieb: > Und dann im Ernstfall die Boot-DVD einlegen und es wieder einspielen. Es > macht eine exakte 1:1 Wiederherstellung von C:. Das überlebt kein Virus > oder Ablaufschlüssel einer Demoversion. Das glaube ich Dir alles gerne und ich will es Dir ja auf keinen Fall ausreden. Bei mir geht es bei einer Installation aber eben nur ganz selten um Wiederherstellung, meistens um Anpassung, Aufräumen oder Reparatur. Bei Anpassungen nützt ein Backup gar nichts, bei Aufräumen müsste ich wahrscheinlich auf ein weit zurück liegendes Backup zurückgreifen und die Änderungen bis heute ohnehin manuell nachziehen. Da kann ich dann auch gleich neu installieren. Gleiches gilt für Reparaturen, es sei denn ich bin in der glücklichen Situation, dass das letzte nutzbare Backup – nutzbar weil der Schaden schnell genug erkannt wurde – noch nicht allzu weit zurück liegt. Da ich für all diese Zwecke ohnehin über einen gut etablierten und dokumentierten Installations-Prozess verfüge kann ich den ohne Weiteres für auch für den seltenen Fall der Wiederherstellung nutzen ohne mir dabei Gedanken um einen eigene Backup-Prozess machen zu müssen. Ich denke, das dürfte für viele Umgebungen im privaten Umfeld gelten, deshalb habe ich es hier erwähnt. Natürlich kann der Ansatz nicht für alle und jede Situation geeignet sein.
A. H. schrieb: > Da kann ich dann auch gleich neu installieren. Warum dann nicht direkt nach einer Neuinstallation + Updates ein Systemabbild machen? Schon das spart ne Menge Gerödel und Zeit.
Peter Dannegger schrieb: > A. H. schrieb: >> Da kann ich dann auch gleich neu installieren. > > Warum dann nicht direkt nach einer Neuinstallation + Updates ein > Systemabbild machen? Das mache ich bei virtuellen Maschinen so. Da habe ich inzwischen ein ganzes Repository unterschiedlicher BS in unterschiedlichen Konfigurationen. Die sind auch standardisiert, egal auf welcher Plattform sie laufen. Aber warum bei physischen Maschinen? Weiß ich denn heute, ob die nächste Installation noch auf die gleiche Festplatte geht, auf die gleiche Maschine oder ob noch die gleiche Netzwerkkarte drin steckt? Ob ich das passende Backup für genau diese Maschine dann überhaupt noch finde? Kann man alles lösen, keine Frage. Aber warum einen zweiten, sich möglicherweise schnell wechselnden Prozess etablieren und warten, wenn es der eine gut funktionierende tut. Ich bin da eher RISC-orientiert. :-)
A. K. schrieb: > App/DB runterfahren, auf allen betreffenden Systemen > Filesystem-Snapshots erzeugen, wieder hochfahren. Dann in aller Ruhe die > Snapshots sichern Das setzt allerdings virtualisierte Systeme voraus...
Icke ®. schrieb: > Das setzt allerdings virtualisierte Systeme voraus... Nein. Snapshots hat Windows auch. Aka Volume Shadow Copy. https://en.wikipedia.org/wiki/Shadow_Copy
:
Bearbeitet durch User
A. K. schrieb: > Snapshots hat Windows auch. Aka Volume Shadow Copy. Schon klar, dazu muß es aber laufen. Oder meinst du, nur die entsprechenden Dienste beenden?
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.