Hallo. Ich überlege gerade wie ich am besten meine Datensicherung organisiere. Ich habe 3 Server jeweils Raid 3tb. Alle drei sind gut voll also gesamt ungefähr 9 tb an Daten. Bislang dachte ich durch das Raid system brauch ich kein Backup. Aber was wenn mal wer was Löscht... Also ich denke mindestens einmal im Monat sollten alle Daten irgendwo gesichert werden. Am besten auch für mehrere Monate. Nur worauf? Was gibt es da gerade an brauchbaren mitteln? Lg
Nur schrieb: > Bislang dachte ich durch das Raid system brauch ich kein Backup. Aber > was wenn mal wer was Löscht... gut erkannt > Was gibt es da gerade an brauchbaren mitteln? wenn Geld keine rolle spielt und es wirklich wichtige Daten sind: http://de.wikipedia.org/wiki/Linear_Tape_Open http://www.storagenewsletter.com/rubriques/tapes/unitex-lt50-usb/
Wie kritisch sind die Daten? Wenn der Kram einen Hausbrand überleben soll, dann müssen es Wechselmedien sein, die man ausser Haus deponieren kann. Was freilich auch USB-Disks sein können. RAID Systeme wie QNAP, Synology & Co unterstützen Backups über Datensynchronisation. Ob nun auf weitere lokale RAID Systeme, oder in eine Cloud.
Noch einen Server kaufen, der alles aufnehmen kann und dann z.B. http://burp.grke.org/ nutzen. Funktioniert bei mir wunderbar. 2. Server kann dann außer Haus stehen. Kommt auch immer darauf an, wie oft sich Daten ändern und verschoben werden, etc.
Sven S. schrieb: > 2. Server > kann dann außer Haus stehen. Kommt auch immer darauf an, wie oft sich > Daten ändern und verschoben werden, etc. Wobei manche NAS Geräte wie beispielsweise QNAP von Haus aus Daten synchronisieren können.
:
Bearbeitet durch User
A. K. schrieb: > die man ausser Haus deponieren > oder in > eine Cloud. Wenn der TO eine <= 16000er DSL-Leitung hat stelle ich mir den Upload in die Cloud lustig vor... Ich habe eine ähnliche Serverlösung mit 2x 2TB, die hängen allerdings nicht in einem RAID-Verbund. Zur Datensicherung habe ich für jedes Drive eine externe Festplatte gleicher Größe, wo ich wöchentlich eine Sicherung durchführe. Meist über Nacht. Ist mMn die günstigste und praktikabelste Lösung.
Jens schrieb: >> oder in eine Cloud. > > Wenn der TO eine <= 16000er DSL-Leitung hat stelle ich mir den Upload in > die Cloud lustig vor... Er hätte eben rechtzeitig damit anfangen sollen. Backups zu prokrastinieren rächt sich irgendwann. ;-) Mit Annex J kriegt man pro Jahr immerhin knapp 1TB in die Cloud. Und im Urlaub in Frankreich hatte ich 16,5Mb/s in beiden Richtungen. In D lebt man eben noch etwas hinter dem Mond.
:
Bearbeitet durch User
A. K. schrieb: > prokrastinieren rächt sich irgendwann Ja, aufschieben ist keine Lösung, aber selbst WENN er täglich 3 Dateien in die Cloud schiebt, ist noch nicht sicher dasss sie noch BRAUCHBAR sind, wenn er sie mal schnell braucht. Schnell kann lange dauern oder gar nicht funktionieren wenn er sein Zugangs-PW dazu verbeutelt hat. 9TB Daten bekommt der TS auf 2 größere USB-HDs wenn er etwas komprimieren kann und evtl. den Rest genullt hat. Wichtig wäre mir: die Daten anschließend an einen anderen sicheren Ort zu bringen, um sie vor Feuer, Wasser, Sturm usw. zu schützen.
A. K. schrieb: > Mit Annex J kriegt man pro Jahr immerhin knapp 1TB in die Cloud. Also braucht er neun Jahre für die erste Sicherung. Im zehnten Jahr beginnen dann die Incremental-Backups :-)) Nur schrieb: > Alle drei sind gut voll also gesamt > ungefähr 9 tb an Daten.
Eine Cloud mag ich nicht. Ich möchte meine Daten nicht ins Netz laden. Und ich möchte auch nicht das der Hoster irgendwann dicht macht und ich umzihen muss oder irgendwas. Zumal 9 Tb 1 mal im Monat sichern is sicher auch mit meiner 50er leitung nicht lustig. Ach ja war da nicht mal was mit drosselung der Dsl leistungen ab x Gigabyte... Aus den Vorschlägen höre ich aber herraus das die beste Lösung Usb Platten sind welche ich dann Auslager? Aber mindestens 6 stk 3Tb platten sind immerhin fast 600€. Ich weiß Datenverlust is teurer...
Nur schrieb: > Aber mindestens 6 stk 3Tb platten > sind immerhin fast 600€. Bänder plus Laufwerk sind teurer. > Zumal 9 Tb 1 mal im Monat sichern is sicher > auch mit meiner 50er leitung nicht lustig. Hast du einen derart hohem Umsatz, oder hast du bloss nichts von inkrementeller Sicherung gehört? Stell eine ausreichend grosse NAS in die Bude von Freundin, Eltern oder Wemauchimmer. Anfangs synchronisierst du die einmalig bei dir, um dio 9TB abzuladen, dann stellst du sie dort hin und sicherst nurmehr die Änderungen. Das sollte doch per Internet gehen. Oder setzt du täglich etliche Gigabytes um? Das ist nicht unbedingt billiger als USB Disks, erspart aber das hin- und hergerenne mit Medien und ist auch tagesaktuell machbar.
:
Bearbeitet durch User
>> Aber mindestens 6 stk 3Tb platten sind immerhin fast 600€.
Kommt darauf an, ob sich diese 9TB Daten noch gut komprimieren lassen.
Dann wird Dein Backup wesentlich kleiner. Nur bereits komprimierte Daten
werden nicht kleiner.
Inkrementelle Sicherungen sind nur tägliche Sahnehäubchen, wenn man
schon eine FUNKTIONIERENDE Komplettsicherung auf einem üblichen
Datenträger im Lager hat. Eine Komplettsicherung ist schneller
eingespielt als 1000 einzelne inkrementelle, wo das System 1000x im
Direktory herumsuchen muß. Deshalb oft genug eine Komplettsicherung über
Nacht.
Von Bändern halte ich nicht mehr viel, weil exotische Bandgeräte nicht
Jahrzehnte funktionieren und Bänder ab der ca. 70. Benutzung schon
Fehler zeigten. Man sollte auch auf die Wiederherstellungszeiten achten.
Vom Band eine bestimmte Datei suchen kann sehr lange dauern, wenn sie am
Ende ist.
oszi40 schrieb: > Von Bändern halte ich nicht mehr viel, weil exotische Bandgeräte nicht > Jahrzehnte funktionieren und Bänder ab der ca. 70. Benutzung schon > Fehler zeigten. sie werden ja auch als Archiv genutzt, damit muss man es kaum 70mal überschreiben. > Man sollte auch auf die Wiederherstellungszeiten achten. > Vom Band eine bestimmte Datei suchen kann sehr lange dauern, wenn sie am > Ende ist. dafür hat man Sicherungssoftware, die kennt die Stelle wo eine Datei steht. Das Spulen geht recht schnell und die Transferrate ist besser als bei normalen Festplatten. Bei 9TB lohnt sich aber der Kauf von einem Bandlauflaufwerk noch nicht. Die Bänder würde nur 115€ kosten.
oszi40 schrieb: > Inkrementelle Sicherungen sind nur tägliche Sahnehäubchen, wenn man > schon eine FUNKTIONIERENDE Komplettsicherung auf einem üblichen > Datenträger im Lager hat. Hast du eine Deadline, muss der Kram morgen wieder komplett stehen, dann hast du recht. Aber wer diese Forderung hat, der lacht über 600€. Es geht ihm also offensichtlich um private Daten. Da ist gewöhnlich wichtiger, dass er sie nicht verliert, aber das Tempo der Wiederherstellung ist nicht so entscheidend. > Eine Komplettsicherung ist schneller > eingespielt als 1000 einzelne inkrementelle, Es gibt längst intelligente Formen von inkrementeller Sicherung, die bei der Wiederherstellung keine 1000 Inkrements abklappern müssen. Wenn man Backup-Disks nicht als neuartige Form von sequentiell arbeitenden Bändern betrachtet (weil die olle Software es nicht besser weiss), dann hat man entspreched bessere Möglichkeiten mit ihnen umzugehen. Darunter solche, die auf rsync basieren. Solch ein Sicherungsmedium kann ein normales Filesystem mit mehreren Ständen sein, von denen jeder Stand ein normaler Dateibaum eines bestimmten Zeitpunkts ist. Der Spareffekt entsteht über Hardlinks, die unveränderte Versionen nur einmalig speichern. Backups über 1:1 Replikation von NAS Devices ist gut geeignet, Daten auf verschiedenen Lokationen katastophensicher abzulegen. Hier werden auch nur die Änderungen repliziert, also inkrementell, aber ohne dass dabei auf dem Zielsystem abzuklappernde Inkrements entstehen. Man verliert dabei aber die Versionierung und damit die Möglichkeit, vorgestern gelöschte Daten wieder zu bekommen. > Vom Band eine bestimmte Datei suchen kann sehr lange dauern, wenn sie am > Ende ist. Bänder taugen wenig, wenn man häufig an einzelne Files und Directories ran muss. Was man heute im Zeitalter von vergleichsweise günstigem und versioniertem Nearline Store auch nicht muss. Bänder sind aber weiterhin sinnvoll, um Daten katastrophensicher auslagern zu können. Da interessiert dann auch selektiver Restore nicht. Aber da sind wir wieder im professionellen Bereich. > Kommt darauf an, ob sich diese 9TB Daten noch gut komprimieren lassen. Wie kriegt man 9TB an privaten Daten zusammen? Was ausser massenhaft Filmen und vielleicht HighQ Bildern kann eine solche Menge entstehen lassen? Und die sind nicht komprimierbar. > und Bänder ab der ca. 70. Benutzung schon Fehler zeigten Mit LTO3 habe ich ausgesprochen gute Erfahrungen gemacht, das ist auch bei häufiger Bandnutzung sehr zuverlässig. Wenn Bänder rausfliegen, dann mit Schreibfehler aufgrund der Hinterbandkontrolle, aber praktisch nie mit Lesefehler (und die Bänder werden verfahrensbedingt häufig gelesen). Neuere Versionen hatte ich bisher noch nicht verwendet.
Peter II schrieb: > sie werden ja auch als Archiv genutzt, damit muss man es kaum 70mal > überschreiben. Professionelle Backup-Systeme wie IBMs Tivoli Storage Manager lesen und schreiben verfahrensbedingt recht häufig. Nicht dass dieses System hier relevant wäre, aber u.A. daher stammen meine Erfahrungen mit Bändern. > Bei 9TB lohnt sich aber der Kauf von einem Bandlauflaufwerk noch nicht. Richtig. Vorteile haben sie aber schon: Man kann sie leicht auslagern, sie kommen dort nicht "versehentlich" abhanden und wahrscheinlich guckt keiner neugierig auf den Inhalt. Bei USB Disks ist das anders, sofern nicht im Stahlschrank eingeschlossen.
kopfkratz Also vom Preis/Leistungs Verhältnis sind Festplatten das günstigste. Allerdings besser auf Redundanz achten und verschiedene Hersteller nehmen. LTO sind im Vergleich teurer aber auch standardisiert so das man mit anderen Laufwerken auch die gesicherten Bänder lesen und schreiben kann. DVD-RAM wäre noch sehr sicher aber auch sehr teuer. Auf Cloud oder Freehoster hochladen ist wie erwähnt etwas längerfristig aber möglich. Ich würde wohl die Variante mit zwei NAS als RAID5/6 nehmen und die abwechselnd jeden Tag inkrementell sichern, nach der Vollsicherung. Dann noch einen Safe oder Lagerraum in einem anderen Gebäude und die Daten sind sicher außer die Bombe läßt sich nicht überreden :-P
kopfkratzer schrieb: > DVD-RAM wäre noch sehr sicher aber auch sehr teuer. Und hat vor allem eine lächerliche Speicherkapazität selbst im Vergleich zu einem schon ziemlich alten LTO-2-Band.
Rufus Τ. Firefly schrieb: > schon ziemlich alten LTO-2-Band. Fragt sich, ob Dein PC/Server in x Jahren noch ein Programm/Laufwerk hat, um diese auszulesen. Deshalb lieber gängige Formate und verbreitete Geräte wählen.
Rufus Τ. Firefly schrieb: > kopfkratzer schrieb: >> DVD-RAM wäre noch sehr sicher aber auch sehr teuer. > > Und hat vor allem eine lächerliche Speicherkapazität selbst im Vergleich > zu einem schon ziemlich alten LTO-2-Band. Das ist ja der Grund warum es so teuer ist ... Allerdings kenne ich kein anderes optisches Medium das auf Datensicherheit so viel Wert legt wie eine DVD-RAM. Und aktuelle LTO sind wie gesagt standardisiert und gibt es in TB Bereichen. Festplatten sind allerdings günstiger und genauso sicher wie Bänder. Was soll also diese Ansage ?
kopfkratzer schrieb: > Festplatten sind allerdings günstiger 2,5TB für 35€ - dafür bekomme ich keine Festplatte > und genauso sicher wie Bänder. An einer Festplatte können viel mehr dinge kaputt gehen als an einem Band. Es reicht schon wenn sie vom Tisch fällt.
A. K. schrieb im Beitrag #3838834:
> Das Laufwerk mirrechnen.
Aber 30TB rechnet sich es schon.
oszi40 schrieb: > Rufus Τ. Firefly schrieb: >> schon ziemlich alten LTO-2-Band. > > Fragt sich, ob Dein PC/Server in x Jahren noch ein Programm/Laufwerk > hat, um diese auszulesen. Deshalb lieber gängige Formate und verbreitete > Geräte wählen. a) Wenn es überhaupt einen sinnvollen und verbreiteten Standard für Bandgeräte gibt, dann LTO. b) LTO-Streamer sind recht weit abwärtskompatibel, d.h. neue Geräte können alte Bänder zumindest noch lesen. Allerdings mit Einschränkungen; LTO-2 wird von LTO-4-Geräten noch gelesen, LTO-5 oder -6-Geräte können maximal LTO-3 lesen. c) ging es überhaupt nicht um alte Bänder, sondern um den Vergleich mit DVD-RAM, was aufgrund der lächerlichen Kapazität als Datensicherungsmedium komplett ausscheidet LTO-2 erwähnte ich nur, weil bereits das 200 GiB auf einem Band unterbringt (unkomprimiert), und DVD-RAM bestenfalls etwa 9 GiB.
Rufus Τ. Firefly schrieb: > b) LTO-Streamer sind recht weit abwärtskompatibel, d.h. neue Geräte > können alte Bänder zumindest noch lesen. LTO Generation N kann N-1 lesen und schreiben und N-2 lesen.
:
Bearbeitet durch User
Ich stelle mir gerade vor, ich hätte etliche Terabyte über Monate/Jahre in einer Cloud deponiert und dann teilt mir die Cloud-Firma mit, dass sie den Betrieb in 4 Wochen einstellen wird und man bis dahin seine Daten noch retten kann. Oder die Firma ist von heute auf morgen insolvent oder die Cloud gehackt/gelöscht/verschlüsselt... Ach ja, 9 Terabyte nach 9 Jahren hochgeladen und zum Wiederholen nochmal 9 Jahre? Eine schöne Generationen übergreifende Aufgabe ;)
Wenn es nur um private Daten geht und nur gelegentlich gesichert werden soll: 3x 3TB HDD + Wechselrahmen (z.B FANTEC MR-35SATA) Da ist man mit unter 400 Euro dabei. Billiger dürfte es nicht gehen und für den privaten Bereich ist es meiner Meinung nach absolut ausreichend. Alternativ gibt es sowas auch in professionell und teuer unter dem Markennamen RDX.
A. K. schrieb: > Runter geht bei DSL erheblich schneller. Mag sein, aber wenn alle Kunden gleichzeitig in Panik ihre Daten retten wollen, kann es auf dem Server eng werden.
A. K. schrieb: > LTO Generation N kann N-1 lesen und schreiben und N-2 lesen. Manchmal auch -3; zumindest entnahm ich der Beschreibung eines LTO-6-Gerätes, daß das auch LTO-3 lesen können solle.
Wenn man nicht ständig ein Backup machen muss, könnte man auch überlegen ob man sich ein Laufwerk ausleiht. http://www.infotheek.nl/de/verhuurportal/8/Storage-Backup.aspx 300€ / Woche dann für die Bänder noch mal 150€ dann ist man noch billiger als mit Festplatten.
300 Euro pro Woche = günstig?! Das dürfte nur dann sinnvoll sein, wenn man alte Bänder auslesen will, für die man kein Laufwerk mehr hat.
hi, was sollen diese 1TB/a ich hab vdsl 50 telekom mit 10 Mbit/s upload sagen wir mal es sind konstante 1/2 MB/s Nettodaten dann sind, dass 1,8GB/h also 40GB/d. 1024/40=26d/TB=>234 Tage für alle 9 TB. Also nix Generationsübergreifend. Mfg ich
ich schrieb: > ich hab vdsl 50 telekom mit 10 Mbit/s upload Das hat aber nicht jeder; ein Zehntel der Datenrate ist allgemein üblich.
ich schrieb: > hi, was sollen diese 1TB/a > ich hab vdsl 50 telekom mit 10 Mbit/s upload VDSL 100 mit 40 MBit/s Upload (nein, hab ich nicht, solls aber geben).
tk schrieb: > 300 Euro pro Woche = günstig?! > Das dürfte nur dann sinnvoll sein, wenn man alte Bänder auslesen will, > für die man kein Laufwerk mehr hat. Wenn man nur einmal Sicherung muss (warum auch immer) und dann nur im Notfall darauf zugreifen muss dann ist das günstiger als sich extra Festplatten zu kaufen.
Peter II schrieb: > Wenn man nur einmal Sicherung muss Das einer keine neuen Daten hat, ist bei mir noch nicht vorgekommen! Problem ist eher die alten in einem lesbaren Zustand zu halten. Das heißt: HW und SW sollten in x Tagen oder Jahren noch leicht verfügbar sein. Was nützt ein Dokument Deiner Lebensversichrung wenn es Deine Wittwe nicht lesen kann?
oszi40 schrieb: > Peter II schrieb: >> Wenn man nur einmal Sicherung muss > > Das einer keine neuen Daten hat, ist bei mir noch nicht vorgekommen! > Problem ist eher die alten in einem lesbaren Zustand zu halten. Das > heißt: HW und SW sollten in x Tagen oder Jahren noch leicht verfügbar > sein. Was nützt ein Dokument Deiner Lebensversichrung wenn es Deine > Wittwe nicht lesen kann? Wenn eine Firma z.b ein großen Datenprojekt für einen Kunden gemacht hat, der Auftrag erledigt ist das muss sie die Daten einmalig sichern und lagern. Und LTO ist auch in Jahren noch lesbar.
Achte darauf, das du auch ein Backup der gelöschten und geänderten Sachen für eine gewisse Zeit behältst. Also mindestens ein 6Bay NAS (3x 3GB Nutzdaten, 1x3GB fürs Raidlevel, 1x 3GB für Point in Time Geschichten) Das lässt noch einen Slot für Zuwachs frei, man dürfte also auch gerne 8 Bays nehmen, wenn man ein sinnvolles Raidlevel oder mehr Zukunftssicherheit haben möchte. Oder man nimmt gleich 4TB oder 6TB Disks. Backup to disk ist auch durchaus gängig, da sich in vielen Anwendungsgebieten andernfalls keine sinnvoller RTO zum einspielen der Backups halten lässt.
Ich würde mir einen Ordner machen, in den der wirklich wichtige Kram reinkommt. Also Dokumente, eigene Fotos etc - alles eben, was man nicht ersetzen kann. Nur das muss gesichert werden. Damit ists nicht mehr ganz so viel. Das passt bei mir z.B auf eine 1TB - USB-Festplatte. Dann habe ichs 3x: 1xPC, 1xNAS, 1xUSB-HDD. Das sollte für Privat reichen. Dan ganzen anderen Kram, d.h. alles was man auf DVD hat oder frei im Internet bekommt, würde ich als ersetzbar betrachten und nicht sichern. Den Mist in die Cloud lagern ist keine gute Idee. Dann haben nämlich die NSA Kellerkinder Facebook-Werbepartner-Angestellten was zum wi***en, falls Nacktfotos deiner Kinder dabei sind: http://www.pcwelt.de/news/NSA-Mitarbeiter_tauschen_Nacktfotos-Snowden-8819143.html Dazu wenig praktikabel bei 256kBit - 1Mbit Upload. Man Vergleiche: USB : 400Mbit (oder mehr...), Internet : 0,26Mbit...
wenn irgendwo Linux involviert ist: rsnapshot. Das setze ich seit einigen monaten ein (aufgrund einer Empfehlung hier aus dem Forum) und bin extrem zufrieden damit. Der Trick dabei ist speicherplatz-sparendes "rotieren" (7 tage, 4 Wochen, 6 Monate) wobei jeder "Snapshot" in sich vollständig ist (wird realisiert mit Hardlinks) Das ganze mach ich zweiphasig: Zuerst direkt auf meinem Server, und wöchentlich werden alle Snapshots abwechselnd auf USB-Platten kopiert und extern gelagert
WehOhWeh schrieb: > Ich würde mir einen Ordner machen, in den der wirklich wichtige Kram > reinkommt. War auch mein erster Gedanke. Wer braucht privat bitte 9 Terabyte. Ist der TO vieleicht eher zu faul zum sortieren und aufräumen, also viel Plattenplatz und immer rein mit den Daten? Oder es sind unzählige gerippte Videos.
Udo Schmitt schrieb: > War auch mein erster Gedanke. Wer braucht privat bitte 9 Terabyte. Wenn du jeden gesendete Tatort in HD auf Platte bannst, dann schaffst du das mühelos. Allerdings wärs da fraglich, ob sich der Backup lohnt. ;-)
Udo Schmitt schrieb: > Ist der TO vieleicht eher zu faul zum sortieren und aufräumen, also viel > Plattenplatz und immer rein mit den Daten? Ein Daten-Messi. Leider zunehmend überall problematisch, nicht nur im privaten Umfeld. Ich predige meinen Kunden regelmäßig, sie sollten doch angesichts der rasant wachsenden Datenmengen ihre Speicherorte auf veraltete oder nicht mehr benötigte Daten prüfen und diese löschen. Aber.. es interessiert KEIN Schwein. Im Gegensatz zu in Papierform vorhandenen Unterlagen, die mit der Zeit die Schränke verstopfen würden, stört digitaler Abfall die User in keinster Weise. Geschätzt sind mindestens zwei Drittel der Daten überflüssig, Tendenz mehr. Seit es Smartphones gibt, kommt noch ein weiterer Platzfresser hinzu. Die werden nämlich gern komplett, inklusive zig Gigabytes an privaten Filmchen, Fotos und Musik, auf das Firmennetzwerk gesichert, obwohl maximal Termine und Mails dorthin gehören.
Icke ®. schrieb: > Aber.. es interessiert KEIN Schwein. Doch. Den Admin. Seit es Quotas gibt hat sich das allerdings beruhigt.
A. K. schrieb: > Seit es Quotas gibt hat sich das allerdings beruhigt So die Theorie. In der durchschnittlichen Mittelstandsbude jedoch praktisch nicht einsetzbar, weil es kaum übersichtliche Strukturen der Datenablage gibt und somit der Durchblick längst verloren gegangen ist. Ich könnte vielleicht die Homeverzeichnisse begrenzen, das wahre Chaos herrscht jedoch in den öffentlichen Ordnern. Ich kann die Leute nur anhalten, Ordnung reinzubringen, aber sie tun es leider selten bis nie.
Icke ®. schrieb: > das wahre Chaos herrscht jedoch in den öffentlichen Ordnern. Ich kann > die Leute nur anhalten, Ordnung reinzubringen, aber sie tun es leider > selten bis nie. Zur Zeit der 20-MByte-Festplatten hatte ich mal einen Chef, der die Einsicht hatte, daß es billiger ist, eine neue (größere) Festplatte zu verwenden, als aufzuräumen ... der war ansonsten eher aus der Schule "es muss gespart werden, koste und dauere es, was es wolle". Und so wird die Keimzelle jedes Datenmessis gegründet:
1 | 1. Iteration |
2 | c:\geraffel-von-alter-platte |
3 | |
4 | 2. Iteration |
5 | c:\archiv\platte-aus-RechnerXY\geraffel-von-alter-platte |
6 | |
7 | 3. Iteration |
8 | c:\Entrümpeln!\Platte_C_aus_RechnerAB\archiv\platte-aus-RechnerXY\geraffel-von-alter-platte |
9 | |
10 | 4. Iteration |
11 | c:\AufgehobenesVomAltenRechner\Entrümpeln!\Platte_C_aus_RechnerAB\archiv\platte-aus-RechnerXY\geraffel-von-alter-platte |
Und irgendwann motzt das Dateisystem, weil die Pfade zu lang werden.
1) Den ganzen illegalen Muell loeschen 2) Ein NAS hinstellen, idealerweis ein kleines RAID, das sich gut erweitern laesst 3) Jede Nacht auf dem NAS ein Snapshot machen mit cp -al 4) Danach mit rsync den neuen Stand von allen Maschinen auf das NAS syncen
Und womit wird der Inhalt des NAS gesichert? Irgendwie ist Deine "Lösung" keinen Schritt weiter.
Rufus Τ. Firefly schrieb: > Und so wird die Keimzelle jedes Datenmessis gegründet: Jawoll, genau so läuft das... > Zur Zeit der 20-MByte-Festplatten hatte ich mal einen Chef, der die > Einsicht hatte, daß es billiger ist, eine neue (größere) Festplatte zu > verwenden, als aufzuräumen . Die Speicherkapazität an sich ist gar nicht das Thema, da Plattenplatz nicht wirklich viel kostet. Anspruchsvoll ist die Verwaltung, Bewegung und Sicherung der Datenberge. Das nächtliche Zeitfenster für automatische Sicherungen wird über kurz oder lang nicht mehr ausreichen und dann gibt es mindestens zwei Probleme. Erstens beeinträchtigt eine im Hintergrund laufende Sicherung die Performance des Produktivsystems und zweitens ist die Konsistenz des Backups nicht mehr gewährleistet.
Icke ®. schrieb: > Die Speicherkapazität an sich ist gar nicht das Thema, da Plattenplatz > nicht wirklich viel kostet. Wenn der Speicher hochverfügbar ist, dann kann der ganz ordentlich Geld kosten. Und dann musst du eben doch die Leute per Quota zwingen, im produktiven Bereich Platz zu sparen und Archive in den billigen Archivspeicher zu legen.
A. K. schrieb: > Wenn der Speicher hochverfügbar ist, dann kann der ganz ordentlich Geld > kosten. Im Vergleich zu den Wartungspauschalen für Branchensoftware oder den Lohnkosten trotzdem ein Fall für die Portokasse.
Icke ®. schrieb: > Im Vergleich zu den Wartungspauschalen für Branchensoftware oder den > Lohnkosten trotzdem ein Fall für die Portokasse. Kennst du die Preise von NetApp-Clustern? Da unterscheidet man dann doch gerne zwischen dem produktiven Bereich im SAS-Cluster und dem Archiv anderswo.
:
Bearbeitet durch User
Rufus Τ. Firefly schrieb: > nd womit wird der Inhalt des NAS gesichert? > > Irgendwie ist Deine "Lösung" keinen Schritt weiter. Doch, er fragte nach einem Backup mit Historisierung und das ist genau das.
A. K. schrieb: > Kennst du die Preise von NetApp-Clustern? Nicht billig, aber macht bei den Buden, die sowas brauchen trotzdem keinen bedeutenden Teil des Etats aus. In meinem Einzugsbereich findet man solche Storage-Monster nicht, wohl aber jährliche Wartungspauschalen für Software, die ein mehrfaches kosten.
Gustav schrieb: > Das NAS ist kein Backup, wenn nur dort die Daten liegen. Ich hatte geschrieben: 2) Ein NAS hinstellen, idealerweis ein kleines RAID, das sich gut erweitern laesst Also bitte Gustav, einfach den Kontext beachten!
Oscar O. schrieb: > 2) Ein NAS hinstellen, idealerweis ein kleines RAID, das sich gut > erweitern laesst Was so ziemlicher Unsinn für ein Backup ist. Jedes dauerhaft mit den Rechnern verbundene Gerät kann kein sicheres Backup gewährleisten. 1. Ein eingeschleppter Virus könnte die Daten zerstören 2. Ein Überspannungsimpuls (naher Blitzschlag) erledigt das Backup genauso schnell oder noch schneller als die Daten auf den PCs. 3. Ein unbedarfter User friemelt an den Daten herum. Ja das kann man mit Benutzerverwaltung in den Griff kriegen, aber wo vor allem bei Windows Systemen wird das privat eingehalten. ...
Oscar O. schrieb: > 2) Ein NAS hinstellen, idealerweis ein kleines RAID, das sich gut > erweitern laesst Die Zauberwörter bei Ahnungslosen heißen immer: NAS und RAIDx.
Icke ®. schrieb: > es interessiert KEIN Schwein Ich mach's so, dass vor dem Backup zuerst ein Vorspann laeuft und alle mp3, mp4 und dergleichen löscht. Ich kann zwar nicht behaupten, dass die Angestellten mich lieben, aber damit kann ich leben.
> dass vor dem Backup zuerst ein Vorspann laeuft und alle > mp3, mp4 und dergleichen löscht. Dann werden Deine User den Mist in Zukunft zippen? Kein Mittel ist von Dauer. Im Explorer Daten nach Größe sortieren hilft, die großen Brocken schneller zu erkennen.
oszi40 schrieb: > zippen? Ganz bestimmt nicht! Die Leute sind für sowas viel zu faul. Ich habe übrigens auf jedem Server einen für alle zugaenglichen Bereich No-Backup. Dort können die Angestellten speichern was sie wollen. Interessanterweise wird dieser Bereich nur von wenigen benutzt.
Nur schrieb: > Nur worauf? Was gibt es da gerade an brauchbaren mitteln? Ich habe schon alles durch: USB2: zuverlässig aber heute zu lahm. hatte aber auch schon den Effekt das beim Anstöpseln bestimmter Geräte wie gewisse USB-Sticks die Partiton bei anderen angeschlossenen Platten 'verloren geht'. Klingt undenkbar war aber so, reproduzierbar. Diverse Schrottcontroller waren am Anfang auch ein Problem USB3: schnell aber unzuverlässig. Alles auf dieser basis ist schrott, ist auf dem zuverlässigkeitsstand wie es USB2 am Anfang mit diversen schrottigen Controllern war. Spontane disconnects, 'verlorene' Partitionstabellen, mehrere Anläufe bis Gerät erkannt wird, ... das alles mit unterschiedlichen Controllern, Kabeln... das übelste Kroppzeug das man sich für Backups in die Bude holen kann. Das schlimme ist dass man dem Grund nie 100% auf die Spur kommen kann wenn es mal hakt, wenn man denkt jetzt hat man die Lösung gefunden, zickt das Zeug später doch wieder rum. -> absoluter Schrott für Backups. RAID: Funktioniert am Anfang irgendwann verreckt dir eine Platte und dann gehts los: Wiederherstellen funktioniert praktisch nicht, egal welches "sichere" RAID du hast, ich kenne keinen bei dem das je funktioniert hätte. Verreckt dir der Controller musst du einen passenden auftreiben und da das Reparieren sowieso nicht funktioniert und endlos dauert ist RAID auch nur ein Placebo. Richtige RAID-Controller mit enspr. Hardware drauf kosten ein Schweinegeld und stümpern bei Wiederherstellung genauso. Für Backup würde ich das nie verwenden, jedenfalls nicht das Zeug aus dem Consumerbereich. NAS: Der gleiche Müll wie ein RAID, nur noch mit einer weiteren Murksschicht, nämlich dem Netzwerk, dazwischen. Da fehlen plötzlich Dateien mit Sonderzeichen, sehr grosse Dateien sind korrupt, Daten scheinbar geschrieben sind aber nach Neustart nicht vorhanden. Auch lustig wenn grosse Platten nicht korrekt erkannt (4k Sektoren) werden oder scheinbar richtig erkannt werden aber später herauskommt dass das Ding doch nicht damit zurechtkommt. Foren sind voll mit Problemen. Das richtige NAS zu kaufen ist Glückssache. DVD-RAM: extrem lahm, zu klein, zu unsicher. Die Legende dass es zuverlässig wäre ist reines Werbegelaber, bis heute gibt es kein Testlabor wo man überhaupt die Medien testen kann. Medien von einem alten Panasonic können in einem neuen Panasoniclaufwerk nicht gelesen werden, soviel zur Zuverlässigkeit. Dass das ganze Dateisystem geschrottet wurde (diverse FS) kam bei mir auch schon öfters vor. Blu-Ray: War am Anfang sehr skeptisch aber die Dinger arbeiten bei mir einwandfrei, mit diversen Laufwerken. Ich nutze die mittlerweile für Zeug zum Auslagern das man selten braucht. Es gibt auch spezielle BRs die für Archivzweke geeignet sein sollen, entspr. Laufwerke kosten nur geringfügig Aufpreis, Medien deutlich mehr. Ob das was taugt weiss aber auch keiner. Für Backup von 9TB sowieso unbrauchbar. Ansonsten mache ich Backups auf Festplatten die an einem rausgeschleiften (e)SATA-Port hängen. Die melde ich händisch am System an und ab und das funktioniert im Gegensatz zu USB3 einwandfrei und schnell. Platten kosten heute nix mehr, eine 6TB-Platte aktuell 250€. Wenn ich 9TB a 3TB RAID sichern müsste, würde ich ne Kiste voll 3 TB Platten ordern und die als Backupmedien verwenden. Einmal in der Woche ein Vollbackup und nur Vollbackups. Inkrementell ist auch so ein Mist, dauert zu lange, funktioniert oft nicht richtig, merkt man erst im Restorefall. Von Backupsoftware würde ich auch die Finger lassen. c't hat mal vor Jahren diverse getestet auch 'professionelle' jede hatte Macken, Daten waren bei allen nicht einwandfrei wiederherstellbar, das deckt sich auch mit meinen Erfahrungen. Das Zeug rüberkopieren, ein paar Checks einbauen (stimmt Anzahl, stimmt Grösse,...) fertig ist der Lack, das ist im Notfall auch wieder problemlos lesbar, ohne spezielle Controller, Software, ... Man kann auch zusätzlich redundanten Daten erzeugen, wenn mal gewisse Bereiche der HDD kaputt sind, dauert aber auch lange, da ist eine zweite Platte und ein weiterer Backuplauf einfacher. Evt. sollte man sich noch einen Sicherungsadapter kaufen der SATA-Schreibkommandos ignoriert, wenn man die Platte im Restorefall wieder anklemmt, das schüzt dann vor eigener Dummheit bei einem Restore ("Muss die neue Platte erst partitionieren und formatieren - ups das war die Backupplatte, oder das System installiert sich automatisch auf diese Platte,...."), das ist der Nachteil bei Platten, die haben keinen Read-Only-Schalter.
backup is for wimps schrieb: > RAID: Funktioniert am Anfang irgendwann verreckt dir eine Platte und > dann gehts los: Wiederherstellen funktioniert praktisch nicht, egal > welches "sichere" RAID du hast, ich kenne keinen bei dem das je > funktioniert hätte. Ich habe beruflich in vielen verschiedenen RAID Systemen über die Jahre schon ziemlich viele defekte Platten getauscht und der Ersatz einschliesslich Rebuild hatte stets funktioniert. Von SCSI über SSA und SAS zu SATA. > Verreckt dir der Controller musst du einen passenden auftreiben Weshalb man im privaten Bereich mit BSD/Linux-SoftRAID besser dran ist. Die üblichen Klein-NAS basieren oft darauf, weshalb man mit einem PC gewisse Chancen hat, die Daten rauszufischen. > Richtige RAID-Controller mit enspr. Hardware drauf > kosten ein Schweinegeld und stümpern bei Wiederherstellung genauso. Wie gesagt, gänzlich andere Erfahrung. > Das richtige NAS zu kaufen ist Glückssache. Oder Preisfrage. ;-) Allerdings kenne ich ein paar Leute mit Qnaps und Synaptics, die bisher nicht klagen. > Von Backupsoftware würde ich auch die Finger lassen. Im privaten Bereich bevorzuge ich Backupformate, die keine sind. Also Backups, die ihre Daten auf dem Device als normale Files in normalen Filesystemen platzieren. Variationen auf Basis von rsync, wie das bereits genannte rsnapshot, bieten das inkrementell einschliesslich Verwaltung etlicher Sicherungsstände. Restore-Programm unnötig, es kann direkt auf den gesamten Baum des gewünschten Standes zugegriffen werden.
backup is for wimps schrieb: > USB3: schnell aber unzuverlässig. Alles auf dieser basis ist schrott, > ist auf dem zuverlässigkeitsstand wie es USB2 am Anfang mit diversen > schrottigen Controllern war. Ist wohl von PC zu PC unterschiedlich. Bisher hatte ich mit 3.0 Festplatten keine Probleme. Ich hab mir nen 7-er 3.0 Hub (4A Netzteil) auf den Monitorfuß geklebt. Da die Festplattenkabel recht kurz sind, kann so die Platte nicht runterfallen. Probleme hatte ich mit einem 3.0 Gehäusetyp, wenn ich ihn an die frontseitigen Buchsen des PC angeschlossen habe. Da ist wohl der Spannungsabfall am Kabel bis zur Frontplatte zu hoch. Die Festplatten habe ich auch mit einem anderen Gehäuse gewechselt, die waren nicht das Problem. Mit dem Hub ist nun alles o.k.
A. K. schrieb: > Ich habe beruflich in vielen verschiedenen RAID Systemen über die Jahre > schon ziemlich viele defekte Platten getauscht und der Ersatz > einschliesslich Rebuild hatte stets funktioniert. PS: Von einigen Fällen defekter Backplane-Anschlüsse abgesehen. Nicht immer ist es tatsächlich die Platte, die verreckt ist. Aber da kann das RAID nix für.
:
Bearbeitet durch User
A. K. schrieb: > der Ersatz einschliesslich Rebuild hatte stets funktioniert. Die Rebuild-Laufzeit kommt auf die Systemlast während des Rebuilds an. Das kann auch Taaage dauern! Wenn dabei weitere (meist typgleiche) HD stirbt, brauchst Du doch das komplette Backup. A. K. schrieb: > Nicht immer ist es tatsächlich die Platte, die verreckt ist Stimmt. Ein falsches/kaputtes Netzteil kann MEHR zerstören als man denkt.
oszi40 schrieb: > Die Rebuild-Laufzeit kommt auf die Systemlast während des Rebuilds an. > Das kann auch Taaage dauern! Wenn dabei weitere (meist typgleiche) HD > stirbt, brauchst Du doch das komplette Backup. Klar. Hatte ich aber noch nicht. Nur einmal waren bei einem frisch gelieferten System nach wenigen Tagen mehrere Platten verreckt (und nicht nur bei mir). Aber das ist schon locker 10 Jahre her.
eigentlich sucht TE: >Ich überlege gerade wie ich am besten meine Datensicherung organisiere. Denn der hat erkannt: > Aber was wenn mal wer was Löscht... Fakt ist, wer sein Backupsystem vernünftig konfiguriert, braucht keinen RAID. Fakt ist auch: >NAS: Der gleiche Müll wie ein RAID, nur noch mit einer weiteren >Murksschicht, nämlich dem Netzwerk, dazwischen Die Netzwerkschnittstelle ist, selbst von Q-NAP und Synology, ein Flaschenhals, dann lieber mit USB3.0 Will nicht schlecht über RAID reden, aber ein vernünftiges RAID System kostet sein Geld, privat kann keiner bezahlen. backup is for wimps schrieb: >Das Zeug rüberkopieren, ein paar Checks einbauen (stimmt Anzahl, stimmt >Grösse,...) fertig ist der Lack, das ist im Notfall auch wieder >problemlos lesbar, ohne spezielle Controller, Software, ... Wenn man täglich Datensicherung macht, ist mit Sicherheit keine gute Idee. Nochmal: RAID schützt Daten vor Plattenausfall, niemals vor Datenverlust. Die dynamische Datenmenge von 9TB zu sichern, kostet viel, entweder Zeit oder Geld. Da hilfst nur die dynamische Datenmenge zu reduzieren oder so: >Ich mach's so, dass vor dem Backup zuerst ein Vorspann laeuft und alle >mp3, mp4 und dergleichen löscht. Ich kann zwar nicht behaupten, dass die >Angestellten mich lieben, aber damit kann ich leben Tja, wenn man selber der Chef ist. Aber wenn man selber Angestellte ist, kann man seinen Platz schon räumen.
Tany schrieb: > Fakt ist, wer sein Backupsystem vernünftig konfiguriert, braucht keinen > RAID. Verallgemeinerungen sind immer falsch. ;-) > Die Netzwerkschnittstelle ist, selbst von Q-NAP und Synology, ein > Flaschenhals, dann lieber mit USB3.0 Wenn die Disk von mehreren Geräten genutzt werden soll, egal ob als Datensenke oder Backupmedium, dann ist eine NAS praktischer. So immens ist der Unterschied im Durchsatz übrigens nicht. In Gbit-Ethernet sind vom Netz her 110MB/s durchaus realistisch. So arg viel schneller sind SATA Disks der 5K Klasse auch direkt angebunden nicht. NFS-Durchsatz der kleinsten aktuellen QNAP, der 1-Disk TS112P, frisch gemessen: 90MB/s lesend, 43MB/s schreibend. Ich bin grad durch ein paar USB 3.0 Vergleiche im Web. Mit HDDs gemessen sah das nicht so viel besser aus. > Will nicht schlecht über RAID reden, aber ein vernünftiges RAID System > kostet sein Geld, privat kann keiner bezahlen. Kann man auch selber bauen. Kosten vor ein paar Jahren: HP Microserver 160€ plus maximal 4 Disks. Linux drauf, RAID über Linux md. War damit billiger als eine entsprechende QNAP, aber auch die sind nicht unbezahlbar. Klar, es gibt auch RAID-Systeme gänzlich anderer Klasse. Aber das macht die kleinen nicht wertlos. Wobei die richtig teuren NAS bei der Performance den Fokus nicht so auf MB/s legen, sondern eher auf transactions/s. Andere Anforderung.
:
Bearbeitet durch User
Und vergiss das Backup vom Backup vom Backup vom Backup zu machen... Man kann sich anstellen. Messi verhalten. Iwann kommt "das entrümpler Team" von RTL2 mit Schubkarren voll mit Festplatten bei euch aus der Bude...
mpl schrieb: > Man kann sich anstellen. Messi verhalten. Und als nächstes kommt dann das übliche "ich habe gerade die Festplatte mit den Bildern meiner Kinder drauf gehimmelt"-Geheule. mpl schrieb: > Iwann kommt "das entrümpler Team" Wer ist Iwan?
Rufus Τ. Firefly schrieb: > mpl schrieb: >> Iwann kommt "das entrümpler Team" > > Wer ist Iwan? Nicht autorisierte Abkürzung von "irgendwann" sag ich mal. :)
A. K. schrieb: > So immens ist der Unterschied im Durchsatz übrigens nicht. In > Gbit-Ethernet sind vom Netz her 110MB/s durchaus realistisch. Theoretisch ja, praktisch nie, nicht mal annähend. Pauschal ca. 30-50MB/s. Bei NAS noch weniger.
Tany schrieb: > Theoretisch ja, praktisch nie, nicht mal annähend. Theoretisch ja, praktisch auch. Ich schreib sowas nicht aus dem Bauch raus. Oft genug gemessen. Nur muss die Disk dahinter deutlich fixer sein als diese 110MB/s, oder du sprichst mit dem Cache. Glaubst du, ich erfinde die obigen 90MB/s der TS112P? Und das ist deren kleinste. Diese 110MB/s sind bei hinreichend schneller I/O des angesprochenen Systems sowohl mit SMBv2 als auch mit NFS problemlos erreichbar. Mit SMBv1 gehts nicht (XP, Win2003, Samba bis 3.5) und mit 5K SATA HDD u.U. auch nicht, weil nicht genug Spielraum oder sogar langsamer als das Netz. Frisch gemessen: 105MB/s per NFS gelesen von RAID1 aus 2 alten 7K SATAs.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.