Wir haben einen ganzen Ordner voller wichtiger CAD Datein und sichern diese auf zwei Externe SSD Festplatten. Die Frage ist nun, ist dies eine angemessene Sicherung oder sollte es noch anders gesichert werden. Auch die Frage, sollte sich Ransomware einnisten, wie sichert man richtig seine Daten? Entsprechender Bedrohungsschutz ist selbstverständlich vorhanden!
:
Bearbeitet durch User
Ron 9. schrieb: > Wir haben einen ganzen Ordner voller wichtiger CAD Datein und sichern > diese auf zwei Externe SSD Festplatten. > > Die Frage ist nun, ist dies eine angemessene Sicherung oder sollte es > noch anders gesichert werden. > Auch die Frage, sollte sich Ransomware einnisten, wie sichert man > richtig seine Daten? Entsprechender Bedrohungsschutz ist > selbstverständlich vorhanden! Das ist nicht zeitgemäß und auch nicht sicher. Die erste Stufe einer Sicherung sollte ein Dokumentenmanagement sein. Wie z.B. git. Das verhindert schon mal das dauerhafte und unbemerkte löschen oder verändern. Solche Dinge kommen nämlich am häufigsten vor. Und steht der git Server nicht einfach zugänglich im LAN, dann kommt auch Ransomware da erst mal nicht ran. DANN kann man sich Gedanken um ein Backup machen. Wenn man den git Server einfach per cloud einkauft, muss man gar nichts selbst machen, sondern lässt das vom Anbieter sichern. Alles nur eine Kostenfrage. Das ist jedenfall die moderne Methode. Ansonsten halt automatische Sicherung am besten zu einem anderen Standort. Wegen Brand z.B.
:
Bearbeitet durch User
Ron 9. schrieb: > wie sichert man richtig seine Daten? Inkrementell. Redundant. Offline. > Entsprechender Bedrohungsschutz ist selbstverständlich vorhanden! Schlangenöl?
Cyblord -. schrieb: > DANN kann man sich Gedanken um ein Backup machen. Wenn man den git > Server einfach per cloud einkauft, muss man gar nichts selbst machen, > sondern lässt das vom Anbieter sichern. Alles nur eine Kostenfrage. Das > ist jedenfall die moderne Methode. Dann ist aber die Frage des Datenschutzes bei Kundendaten.
Ron 9. schrieb: > Cyblord -. schrieb: >> DANN kann man sich Gedanken um ein Backup machen. Wenn man den git >> Server einfach per cloud einkauft, muss man gar nichts selbst machen, >> sondern lässt das vom Anbieter sichern. Alles nur eine Kostenfrage. Das >> ist jedenfall die moderne Methode. > > Dann ist aber die Frage des Datenschutzes bei Kundendaten. Das muss man nur richtig handhaben. Ist aber kein Showstopper für externe Server. Niemand muss heute mehr eigene Server im Keller haben. Solche Ressourcen, samt Backup, kauft man einfach ein. Die 90er sind vorbei. Wie sieht denn euer Datenschutzkonzept aus? Das hält doch auch keinem Audit stand. Ein paar freigegebene Netzlaufwerke ohne besonderen Schutz und Passwort als Post It am Monitor? DAS ist doch die Realität bei Buden die alles intern haben.
:
Bearbeitet durch User
Cyblord... Ich wäre vorsichtig: Herr Kimbichler kommt gleich wieder umme Ecke und behauptet Cloud wäre Teufelszeug und die gehen sowieso alle pleite und die Daten sind weg. ;-)
Cyblord -. schrieb: > Solche Ressourcen, samt Backup, kauft man einfach ein. Wie auch IT-Kompetenz. Kauft man alles einfach ein. Braucht man nicht selbst. Und den "Consultant", der einem erklärt, worauf man zu achten hat, den kauft man auch ein. Der kennt sich mit seinen 23 Jahren und seinem Bachelor in Marketinginformatik bestens mit allem aus, der ist kein Boomer, sondern Digital Native. Und der kennt auch jemanden, der dem Unternehmen den Auftritt auf tiktok gestalten kann.
Rene K. schrieb: > Cyblord... Ich wäre vorsichtig: Herr Kimbichler kommt gleich wieder umme > Ecke und behauptet Cloud wäre Teufelszeug und die gehen sowieso alle > pleite und die Daten sind weg. ;-) Ja sicher. Genau wie die Leute die behaupten ihre DVD Sammlung wäre besser geschützt als Inhalte auf einem Amazon Rechenzentrum. Ein rein lokales Backup auf ein paar Festplatten, kann man gerne zusätzlich haben. Aber zu denken, das wäre auch nur ein 1/1000 so sicher und zuverlässig wie ein ordentliches Cloud-Backup ist Irrsin. Das Risiko durch Feuer oder Wasserschaden oder schlicht dass man nach 10 Jahren das Backup braucht und die SSD macht keinen Pieps mehr, ist so viel höher. Das ganze braucht auch ein entsprechendes Management. Das beginnt beim Backup selber: Automatisch? Wie oft? Auf wie viele Medien. Dann müssen die regelmäßig getauscht werden. Wer macht das? Wie trackt man das? Solche Fragen können kleine Buden nicht beantworten. Da gammelt dann irgendein nicht aktuelles Backup irgendwo rum, weil man nach 3 Monaten aufgehört hat ein Backup zu erstellen. Das zweite Backup hat der Chef "mal schnell" mit einem Film für den Firmen-Videoabend überspielt und vergessen. > Wie auch IT-Kompetenz. Kauft man alles einfach ein. Man muss sie immer einkaufen. Nur die Frage ob intern oder extern. Und ob man eben eine komplette IT Abteilung intern beschäftigen will, nur um zuverlässige Backups zu haben.
:
Bearbeitet durch User
Richtig, ich sichere meine Daten auf einem zweiten Rechner - jede Nacht um vier - und wenn dies fertig ist sowie eine WAN Verbindung besteht wird noch in der Cloud auf einer AWS Instanz gesichert. Und beim Thema Backup-Strategie bin ich noch immer beim alten 7/4/12 Schema: Datenspeicher kostet nix mehr. Cyblord, ich stehe da völlig hinter dir.
Ron 9. schrieb: > Die Frage ist nun, ist dies eine angemessene Sicherung oder sollte es > noch anders gesichert werden. Vielleicht ein paar wichtige oder aktuellere Sachen noch auf einem oder mehreren USB-Sticks sichern. Wenn noch keine (feinere (als Namen oder Zeiten)) Ordnung drin ist (Index, Doku usw.) kann man die auch noch nachträglich dazu tun. Wenn man günstig an Bandlaufwerke kommt, könnte man diese zusätzlich nutzen.
wenn das Backup-Medium (Platte oder Rechner) vom Netz aus erreichbar ist, killt Ransomware auch das Backup. Dagegen hilft ein Pull-Backup, das wird aber leider sehr selten gemacht.
:
Bearbeitet durch User
Stephan S. schrieb: > wenn das Backup-Medium (Platte oder Rechner) vom Netz aus erreichbar > ist, killt Ransomware auch das Backup. Deswegen schrieb ich: Offline
Harald K. schrieb: >> wenn das Backup-Medium (Platte oder Rechner) vom Netz aus erreichbar >> ist, killt Ransomware auch das Backup. > > Deswegen schrieb ich: Offline Gute Ransomware killt dir das Backup auch wenn du offline bist. Lebe einfach damit - die Welt ist ein unsicherer Ort.
:
Bearbeitet durch User
> Wenn man den git Server einfach per cloud einkauft,
Sicherung auf nem Cloud-Server - klar, dann kann man bequem mit dem
Finger auf Amazon&Co zeigen "Die sind schuld!".
Ich warte ja nur auf die Ransomware, die sich mal quer durch die
Cloud-Server durchfrisst - dann werd ich ganz schnell zum Prepper.
- Betroffener des Einbruchs bei Südwestfalen-IT.
PS: Letztens erst in Schulen passiert: alles auf iPads "aufgerüstet".
Die Schüler fleißig nur noch die Notizapp benutzt. Bei einem Update der
App waren plötzlich alle Notizen aller Schüler weg. Die, die kurz vor
der Abi-Prüfung standen, haben am lautesten geschrien ...
Foobar schrieb: > Ich warte ja nur auf die Ransomware, die sich mal quer durch die > Cloud-Server durchfrisst Das muss noch nicht mal Ransomware sein: https://www.heise.de/news/Abgebranntes-Rechenzentrum-OVH-eroeffnet-feuersicheren-Nachfolger-in-Strassburg-7263363.html Blind alles "in die Cloud" zu schaufeln, sieht nur auf den ersten Blick sicher und günstig aus. Wenn es um wichtige Geschäftsdaten geht, wären langlebige Medien im Bankschliessfach eine zusätzliche Sicherheit.
Cyblord -. schrieb: > Das ist jedenfall die moderne Methode. Dann aber bitte die Internetanbindung hochrüsten (servicemäßig und evtl. den Upload) und/oder einen Zweitweg bestellen. > Ansonsten halt automatische Sicherung am besten zu einem anderen > Standort. Wegen Brand z.B. Kommt immer gut, gerade automatisch. Aber lokal als 1st Level (auch automatisch) ist immer noch ne gute Idee. Und natürlich testen, wie man die Backups wieder zurückspielt.
Udo K. schrieb: > Gute Ransomware killt dir das Backup auch wenn du offline bist. Wie macht sie das, wenn das Offlinebackup in Form einer Festplatte oder eines LTO-Bandes im Schrank liegt?
Harald K. schrieb: > Wie macht sie das, wenn das Offlinebackup in Form einer Festplatte oder > eines LTO-Bandes im Schrank liegt? 1.Schon mal eine gute Idee, auch ein paar Daten im Schrank offline zu haben. Frage ist dann später, wie aktuell sie noch sind. Leider sind die meisten Daten heute nicht mehr schreibgeschützt wie auf einer CD, sodass der Virus auch schon manches "sicher geglaubte" Backup unbemerkt angegriffen hat. Weitere Frage ist die Wiederherstellungszeit der Datenmenge. 2.Wenn es die Zeit zulässt, mindestens ein komplettes Image an einen sicheren Ort legen. Dann sind die ganzen Einstellungen und Lizenzdaten noch nicht verloren, was bei der Wiederherstellung sonst viel Aufwand machen kann.
:
Bearbeitet durch User
Lu O. schrieb: > 1.Schon mal eine gute Idee, auch ein paar Daten im Schrank offline zu > haben. Frage ist dann später, wie aktuell sie noch sind. So aktuell, wie die Disziplin des Datensichernden halt ist. Wenn zur Sicherungsprozedur gehört, einmal pro $(Zeiteinheit) ein Band/eine Platte in den Schrank zu legen, dann sind die Daten so aktuell, wie $(Zeiteinheit) halt lang ist. Lu O. schrieb: > Weitere Frage ist die Wiederherstellungszeit der > Datenmenge. Was soll daran eine Frage sein, und welche Entscheidung soll daraus abgeleitet werden? Wenn das Wiedereinspielen eines Backups jemandem zu lange dauert, dann kann die logische Antwort nicht lauten, aufs Backup zu verzichten.
>> Entsprechender Bedrohungsschutz ist selbstverständlich vorhanden!
Aber ja doch. Ganz sicher.
Immer noch der beste Schutz vor allem. Bedrohungen, Unsicherheit, Trojanern, Koreanern, Zahnschmerzen, Viren, Makroviren, Makrophagen, Koryphäen und Bauchweh!
Ob es ein "richtiges" Backup gibt? Das ist halt wieder so ein Thema, frag 5 Leute und du kriegst 10 Meinungen. Und natürlich, nur die eigene Backupstrategie ist die richtige, alle anderen sind ja sowieso doof ;-) Am Ende des Tages muss man halt eine Strategie finden die man auch über längere Zeit durchhalten kann. Die beste Strategie nützt nichts wenn diese so aufwendig oder teuer ist dass man nach 2 Wochen keinen Bock mehr hat. Aufwand Nutzen Risiko müssen passen. Ich persönlich habe meine Daten auf einem NAS. Von diesem NAS (und von den Systempartitionen aller anderen Geräte im Haushalt) ziehe ich in regelmäßigen Abständen (ca. 1 mal pro Woche) ein Image (inkrementelles Backup, d.h. Widerherstellung älterer Stände möglich). Es handelt sich dabei um Pull-Backups, d.h. die Maschine, welches die Backups erstellt, zieht sich die Daten über ssh/rsnapshot von den clients. Kein client hat direkten Zugriff auf das Backup. Die Maschine läuft nur wenn Backup-Tag ist. Das ist manueller Aufwand. In unregelmäßigen Abständen wird die Backup-Platte noch auf eine verschlüsselte, zweite Platte gespiegelt die im Elternhaus steht (ebenfalls über ssh/Portweiterleitung). Damit fahr ich schon ne Weile ganz gut, die Strategie passt für mich. Wenn natürlich am Samstag das NAS abraucht und am Sonntag wär Backup-Tag gewesen gibts potentiell Datenverlust.
:
Bearbeitet durch User
Und bitte keine SSD, die verlieren Daten wenn sie zu lange keine Stromversorgung haben.
Le X. schrieb: > Und natürlich, nur die eigene Backupstrategie ist die richtige, alle > anderen sind ja sowieso doof ;-) Wie gut die Strategie war weiss man sowieso erst nach einem Hausbrand. Etwa wenn man zwar verschlüsselt in die Cloud sichert, damit also die Daten alle noch vorhanden sind, aber der Schlüssel oder die verwendete Software in der erforderlichen Version nicht mehr auffindbar ist. :)
:
Bearbeitet durch User
Ralf H. schrieb: > Und bitte keine SSD, die verlieren Daten wenn sie zu lange keine > Stromversorgung haben. Geht es ums Archivieren oder um ein Backup? Beim Archivieren ist das Langeliegenlassenkönnen wichtig, bei einem Backup nicht, da hat man mehrere Medien, die man zyklisch durchrotiert. Macht man z.B. wöchentlich ein Backup und hat vier Medien, ist das älteste Backup gerade mal vier Wochen alt -- eine SSD hat keine Probleme damit, vier Wochen herumzuliegen.
Schon jemand eine SSD gehabt, die durch rumliegen Daten verlohren hat? Alle alten 32GB und größer SSDs die ich so rumliegen habe booten auch nach fast 10 Jahren ohne Strom noch wie immer. Bei Festplatten funktioniert das seit die Selbstauflösenden Glasplatter weg sind und IBM Platten mit defekten Hallsensoren weg sind auch fast immer. Die Zeiten die festklebenden Köpfe lösen zu müssen sind zum Glück um. MfG Michael
Michael O. schrieb: > Schon jemand eine SSD gehabt, die durch rumliegen Daten verlohren hat? Samsung hatte mal eine Serie, die nach Monaten langsam wurde und deren Fix darin bestand, im Hintergrund Refreshs der Bestandsdaten durchzuführen, wenn nötig. So ab TLC wird das offenbar relevant. Schätze das machen alle, wenn sie können. > Alle alten 32GB und größer SSDs die ich so rumliegen habe booten auch > nach fast 10 Jahren ohne Strom noch wie immer. Das werden SLC und MLC sein.
:
Bearbeitet durch User
Ron 9. schrieb: > Die Frage ist nun, ist dies eine angemessene Sicherung oder sollte es > noch anders gesichert werden. Da Backups ja eine ganz neue Entwicklung im IT-Breich sind, mit denen überhaupt noch niemand wirkliche Erfahrungen hat (sieht man ja auch an deiner Frage), lässt sich das natürlich erst in ein paar Jahrzehnten beantworten, wenn dazu ausreichende Erfahrungen vorliegen. Bis dahin wirst du wohl mit den Backupstrategien auskommen müssen, die sich mit einer einfachen Suche im Netz so finden lassen. Oder anders gesagt. Das ist eine der Fragen, die man nur mit "ist google kaputt?" beantworten kann. Oliver
Oliver S. schrieb: > Das ist eine der Fragen, die man nur mit "ist google > kaputt?" beantworten kann. Vor der haben es immerhin schon 27 Leute geschafft die Frage auf andere Art zu beantworten, eine vermutlich vielfach höhere Dunkelziffer hat es sogar geschafft die Frage zu ignorieren.
Harald K. schrieb: > Ron 9. schrieb: >> wie sichert man richtig seine Daten? > > Inkrementell. > > Redundant. > > Offline. Richtig. Ganz besonders wichtig ist auch noch die untere Grenze für die Redundanz von 3. Es sollten also mindestens drei Generationen gleichzeitig existieren, von denen zu jedem beliebigen Zeitpunkt (incl. Backup oder Restore) immer nur genau eine "online" sein darf. Außerdem fehlt da noch: Verteilt. Also: Jede der (im Minimum) drei Generationen muß voneinander räumlich getrennt aufbewahrt werden. Und mit Ausnahme von maximal einer (bei der gerade ein Backup oder Restore erfolgt) auch räumlich getrennt von dem zu sichernden Datenbestand.
Und richtig schlechte Strategien wie inkrementelle Backups werden auch hier empfohlen. Dazu braucht es nicht mal Tante Google um das Scheitern zu erleben MfG Michael
Michael O. schrieb: > Und richtig schlechte Strategien wie inkrementelle Backups werden > auch hier empfohlen. Sorry, aber da hilft mir Google nicht wirklich, da mir nicht klar ist, was genau du darunter verstehst, welche Verfahren du ablehnst. Der Begriff "inkrementell" alleine ist zu wenig. Manche Enterprise-Backups arbeiten per "incremental forever". Man sollte bei Backups auch zwischen Desaster-Recovery kompletter Medien und selektivem Restore von Files/Directories unterscheiden. Es kann darauf hinaus laufen, beides mehr oder weniger getrennt zu fahren.
:
Bearbeitet durch User
Michael O. schrieb: > Und richtig schlechte Strategien wie inkrementelle Backups werden auch > hier empfohlen. Dem stimme ich zu, ich sehe allerdings bei differentiellen Backups keine größeren Probleme. Jedenfalls, wenn man mit einem Backupsystem wie z.B. Acronis arbeitet. Jedes Mal ein Vollbackup zu machen, kann bei größeren Datenbeständen durchaus nervig sein. ciao Marci
Michael O. schrieb: > Und richtig schlechte Strategien wie inkrementelle Backups werden auch > hier empfohlen. Natürlich, denn das ist keine schlechte Strategie, sondern im Gegenteil eine sehr gute. Natürlich unter der Voraussetzung, dass das Generationen-Prinzip korrekt umgesetzt wird. Bei größeren Datenbeständen macht es die Sache überhaupt erst praktisch handelbar. Da besteht nämlich das Problem, dass die mögliche "Frequenz" der Backups ohne dieses Konzept schlicht zu klein wird, um wirklich sinnvoll zu sein. Gerade die jüngsten Daten sind typisch die wichtigsten.
(prx) A. K. schrieb: > Sorry, aber da hilft mir Google nicht wirklich, da mir nicht klar ist, > was genau du darunter verstehst, welche Verfahren du ablehnst. Er meint vermutlich die Strategie, nach einem Vollbackup bei jedem Sicherungslauf nur die Daten zu sichern, die sich seit dem letzten SICHERUNGSLAUF geändert haben. Das verstehe ich unter inkrementellem Backup. Wenn hingegen nach einem Vollbackup bei jedem Sicherungslauf die Daten gesichert werden, die sich seit dem letzten VOLLBACKUP geändert haben, ist das ein differentielles Backup. Braucht natürlich mehr Platz, dafür wird das Restore deutlich einfacher. So jedenfalls kenne ich das. ciao Marci
Erste Frage waere, wieviel Daten das überhaupt sind, die ein Backup benoetigen. Wenn das ein paar Zettabyte sein sollten, dann werden 3 Backups nicht so richtig weiterhelfen. Zwei SSD als Backup, kann alles sein zwischen 2x250GB bis 2x250TB (Samsung im August 2023 auf einer Messe vorgestellt).
Marci W. schrieb: > So jedenfalls kenne ich das. Das ist das, was man traditionell mit Bandsicherungen macht. Beispielsweise eine Vollsicherung pro Woche und täglich Inkrements oder Differenzen dazu. Beim Restore mehrerer oder alles Files geht es alle diese nacheinander durch. Es geht aber auch anders. Es fängt damit an, anhand welcher Kritierien die Änderungen erkannt werden. Timestamp, "Changed" Bit, Vergleiche mit Datenbank gesicherter Files ind n Ständen? Kann man über die Datenbank gleich auf den letzten oder gewünschten Stand gehen? Es gibt seit Äonen Enterprise-Backups, die im Normalfall nie Vollsicherungen machen. Das pauschal für falsch zu deklarieren, halte ich für verfehlt.
:
Bearbeitet durch User
Wie so oft gut gedacht und fast immer schlecht gemacht. Wer schon viele mal im Leben Desaster recovery betreiben durfte und daran gescheitert ist das das Rücksichern an einem Lesefehler auf einem Datenträger des Inkrementellen Backups mit einer sinnlosen Fehlermeldung komplett gescheitert ist und sinnfreien Datensalat auf den Platten hinterlassen hat wird bestenfalls noch differenzielle und Fullbackups mit Nachgewiesener recovery Strategie und regelmäßigen Tests akzeptieren ohne Würgereize zu bekommen mfG Michael
Michael O. schrieb: > ist das das Rücksichern an einem Lesefehler auf einem Datenträger des > Inkrementellen Backups mit einer sinnlosen Fehlermeldung komplett > gescheitert ist Weshalb gute Backup-Systeme die Daten redundant halten. Da gibt es dann von allen Daten zusätzlich zum Version im Backup-Pool mindestens eine Kopie in einem Copy-Pool. Ob parallel mitgezogen, oder danach erstellt. Und diese Copy-Medien sind oder landen idealerweise andernorts, ausserhalb der Brandzone. Was ich damit sagen will: Es gibt Verfahren inkrementeller Sicherung, die hier vielleicht nicht jeder kennt. Dass die in kleinem privaten Rahmen sinnvoll sind, will ich nicht postulieren. Nur obige Pauschalaussage etwas ankratzen. Tägliche Vollsicherungen von grossen Datenmengen, von denen sich täglich nur 1% ändern, sind nicht wirklich ökonomisch. Du haust da Ressourcen ohne Ende rein.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Weshalb gute Backup-Systeme die Daten redundant halten. Da gibt es dann > von allen Daten zusätzlich zum Version im Backup-Pool mindestens eine > Kopie in einem Copy-Pool. Ob parallel mitgezogen, oder danach erstellt. > Und diese Copy-Medien sind oder landen idealerweise andernorts, > ausserhalb der Brandzone. Jetzt bewegen wir uns aber ein klein wenig außerhalb von dem, was von einem Privatmenschen oder einem Handwerkerladen noch sinnvoll darstellbar ist ;-)
(prx) A. K. schrieb: > Tägliche Vollsicherungen von grossen Datenmengen, von denen sich täglich > nur 1% ändern Wenn überhaupt. Bei uns liegt die Quote bei 0,2%. Datenbestand total derzeit ca. 80TB. Wobei ich persönlich schätze, das bestimmt die Hälfte davon nie wieder irgendwie benötigt werden wird. Aber wer kann teuere Arbeitszeit darauf verschwenden, das zu durchforsten und auszumisten? Ein ordentliche durchdachtes inkrementelles Backupsystem schleppt diese ganzen potentiellen Leichen halt einfach mit, so dass sie den täglichen Betrieb nicht weiter stören, aber denoch verfügbar sind, falls sich irgendwann doch mal rausstellen sollte, dass sie gebraucht werden. Der Hauptnachteil ist: natürlich brauchen auch diese Quasi-Leichen ihren Speicherplatz. So what? Nie war der so günstig zu haben wie heute...
Le X. schrieb: > Jetzt bewegen wir uns aber ein klein wenig außerhalb von dem, was von > einem Privatmenschen oder einem Handwerkerladen noch sinnvoll > darstellbar ist ;-) Klar, das beschriebene Beispiel (IBM TSM aka Storage Protect) ist eher am oderen Ende. Das hatte ich selbst ja auch angedeutet. :) Indes: Man sollte ein wenig aufpassen, dass man bei Backups nicht mehr automatisch in althergebrachten Bändern und bei Datentransport ans Turnschuhnetzwerk denkt. Auch Lösungen für kleinere Umgebungen haben längst Methoden, inkrementelle Sicherungsverfahren mit Redundanz zu verbinden. Bei Disk-Storage als Medium ist das auch kein Problem mehr. Und Leitungen jenseits Spuckreichweite sind hinreichend günstig, um Kopien von Backups darüber auszulagern - inkrementellen Transport vorausgesetzt. Beispiel: Dem Handwerkerladen hat sein IT-Dienstleister einen kleinen VM-Host hingestellt. Das würde ich zwecks einfacher Hardware-Migration und Absicherung bei Updates heute immer machen, selbst wenn nur eine einzige VM drauf läuft. Eine QNAP/Synology-NAS dient als primärer Backup-Space. Dazu sekundären Backup-Space in der Cloud, auf einer zweiten NAS ausserhalb der Brandzone oder auf Wechselmedium. Dann noch ein überschaubares Nakivo als Backup-Software und das wars. Wahrscheinlicher aber hat der Handwerker nichts dergleichen, sondern seinen Kram schon jetzt oder bald komplett in der Cloud. Backup inklusive, wenn dran gedacht. In solcher Dimension erscheint mir das auch als sinnvoll.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Eine QNAP/Synology-NAS dient als primärer Backup-Space. Wenn man ein nicht ganz weit unten links eingeordnetes Synology-NAS verwendet (das DS220+/223+ ist das kleinste in Frage kommende Modell), dann kann man "Synology Active Backup for Business"* nutzen. Das läuft auf dem NAS und kann VMs von VMware (auch ESXi) und Hyper-V sichern, und mit einem auf dem Client zu installierenden Backup-Agent auch nicht virtualisiert laufende Rechner sichern. Für diesen Fall gibts auch ein Bare-Metal-Restore. Die Agents gibts für Windows, Linux und macOS. Und zu guter Letzt kann das Ding auch SMB- und rsync-Server sichern. Die nötige Lizenz ist im Lieferumfang des NAS enthalten (man muss allerdings ein Synology-Konto einrichten). *) https://www.synology.com/de-de/dsm/feature/active-backup-business/pc
Mit dem geringsten Aufwand und zuverlässig nicht verloren gehen die Daten, die nicht angefallen sind. ;) Ron 9. schrieb: > Ransomware Wenn sich die Ransomware unterhalb des Dateimanagers angesiedelt haben sollte, werden die Dateien als ok angezeigt, während Du schon ein paar Backups hinter Dich gebracht hast. Dann sind vielleicht alle Backups auch verschlüsselt. Das fällt nur auf, wenn die Platten an einem anderen Rechner mit einem anderen Betriebssystem geprüft werden. Wenn es noch tiefer hineingeht, dann könnte sogar die Firmware der Festplatte betroffen sein: https://techwatch.de/externe-festplatte/hackergruppe-infiziert-festplatten-firmware/
@Dieter: Wenn also die Produktionszählen von Marmorplatten und Meisseln krass ansteigen, dann sind bestimmte Regierungen und Geheimdienste gerade dabei, ihre wichtigsten Daten zu sichern. ;)
:
Bearbeitet durch User
Dieter D. schrieb: > Das fällt nur auf, wenn die Platten an einem anderen Rechner mit einem > anderen Betriebssystem geprüft werden. ... oder jemand die ganz alten "überflüssigen" Daten benötigt! Manches darf Jahre nach Vertragsablauf weg. Deine Geburtsurkunde sowie Immobiliensachen sollten ewig verfügbar bleiben. Ob Dein heutiges Backup dann in 100 Jahren noch verwendbar ist? (prx) A. K. schrieb: > Marmorplatten Sind heute noch lesbar :-) Einige NASA-Daten? https://www.heise.de/news/NASA-In-die-Cloud-geschubst-1926189.html
Lu O. schrieb: > Ob Dein heutiges Backup > dann in 100 Jahren noch verwendbar ist? Nur wenige sind nach hundert Jahren noch an der eigenen Geburtsurkunde interessiert ...
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.