Forum: PC Hard- und Software „Volume erweitern“ ausgegraut


von Walter L. (Gast)


Lesenswert?

Hallo,

habe meine C: 128 ssd m.2 2280 mit clonzilla auf eine 512 geklont.
128 raus, 512 rein, gestartet, klappt, die größe ist weiterhin 128Gb
Bei dem Versuch über Datenträgerverwaltung den Rest C: zuzuweisen, 
erscheint mit Rechtsklick auf C: "Volume erweitern". Toll, ist aber 
ausgegraut, geht also nicht.

Hat jemand eine Lösung?

VG Walter

von Εrnst B. (ernst)


Lesenswert?

Walter L. schrieb:
> Hat jemand eine Lösung?

Windows mag nicht gerne an der Platte rumschrauben, von der es läuft?

Hast du ein USB->m2 Gehäuse und einen zweiten PC?

Oder du könntest versuchen, die Partition erstmal unter Linux zu 
vergrößern (Clonezilla hast du ja schon, und das sollte die nötigen 
Werkzeuge auch mitbringen)

von (prx) A. K. (prx)


Lesenswert?

Εrnst B. schrieb:
> Windows mag nicht gerne an der Platte rumschrauben, von der es läuft?

Kein Problem. Auch verkleinern ist live möglich, wenngleich mit 
Einschränkungen.

von (prx) A. K. (prx)


Lesenswert?

Walter L. schrieb:
> habe meine C: 128 ssd m.2 2280 mit clonzilla auf eine 512 geklont.
> 128 raus, 512 rein, gestartet, klappt, die größe ist weiterhin 128Gb

Könnte sein, dass du erst einmal den MBR reparieren muss, damit der Rest 
der Disk sauber eingepflegt ist. Bei einer 1:1 Kopie von 128GB auf 512GB 
geht das extended partition record im MBR nur bis 128GB. Eine Live-CD 
mit gparted dürfte helfen. Geht vielleicht auch mit Windows' DISKPART, 
aber frag mich nicht nach Details.

: Bearbeitet durch User
von Walter L. (Gast)


Lesenswert?

(prx) A. K.

MBR, Live-C, gparted was ist das???

Ich glaube, ich gebe das Ganze in eine PC-Bude. Kostet 70 EURONEN pro 
LAPTOP.

VG Walter

von Michael U. (amiga)


Lesenswert?

Hallo,

meist liegt am Ende, also hinter der C-Partition noch eine 
Wiederherstellungspartition, das wird jetzt auch so sein. Dann kann 
Windows nicht vergrößern.
Schau Dir Minitools an und verschiebe die nach hinten.
https://de.minitool.com/partition-manager/partition-wizard-startseite.html

Nutze ich in solchen Fällen seit Jahren problemlos und zuverlässig.

Grußaus Berlin
Michael

von (prx) A. K. (prx)


Lesenswert?

Walter L. schrieb:
> MBR, Live-C, gparted was ist das???

MBR = Master Boot Record. Da steht u.A. die primäre Partitionierung 
drin.

Eine Live-CD ist das, was du vmtl bei CloneZilla genutzt hast, d.h. eine 
bootfähige CD mit in diesem Fall gparted drauf.

Gparted ist ein Linux-Programm zur Manipulation von Partitionen. Bevor 
Windows das selbst live beherrschte, war das auch in Windows ein 
einfacher Weg, C: zu vergrössern.

> Ich glaube, ich gebe das Ganze in eine PC-Bude.

Wenn du die Original-Disk noch als Fallback für den Fall der Vernichtung 
des Inhalts der neuen Disk hast, kannst du natürlich auch selbst 
rumprobieren.

von Phasenschieber S. (Gast)


Lesenswert?

Walter L. schrieb:
> Ich glaube, ich gebe das Ganze in eine PC-Bude. Kostet 70 EURONEN pro
> LAPTOP.

Ein Tip bevor du es weggibst:

Downloade dir das Programm "Hasleo WinToHDD", hier: 
https://www.easyuefi.com/backup-software/backup-suite-free.html

Damit kannst du deine Platte klonen.

In der Bezahlversion werden sämtliche Partitionen 1:1 geklont, jedoch in 
der Free-Version wird nur die primäre Partition geklont.
Meistens reicht das auch. Dabei wird die Ziel-HDD komplett formatiert, 
d.h. bestehende Partitionen werden komplett zusammen gefasst.

Probiers.

Beitrag #7221412 wurde vom Autor gelöscht.
von Peter D. (peda)


Lesenswert?

Klonen ist nicht die geeignete Methode bei unterschiedlichen Größen.
Nimm ein Backup-Tool, mache ein Systemabbild der alten SSD, und restore 
es auf der neuen SSD. Diese Tools wissen auch, was sie alles nicht 
kopieren müssen (Auslagerungsdatei, Papierkorb usw.), sind also deutlich 
schneller, als ein Kloner.
Ich nehme den Aomei Backupper.

von (prx) A. K. (prx)


Lesenswert?

Peter D. schrieb:
> sind also deutlich schneller, als ein Kloner.

Was bei einer 128 GB SSD nicht wirklich dramatisch ist. CloneZilla 
optimiert obendrein ebenfalls, kopiert nur genutzte Inhalte und lässt 
ggf den Swapspace weg. Aber die Sache mit den Partitionen erledigen 
spezielle Windows-Progs wahrscheinlich wirklich gleich mit.

von Phasenschieber S. (Gast)


Lesenswert?

Peter D. schrieb:
> Klonen ist nicht die geeignete Methode bei unterschiedlichen Größen.

Wie kommst du auf dieses schmale Brett?

Ich benutze verschiedene Programme zum Klonen, bei einem kann ich die 
verschiedenen Partitionsgrößen bequem mit einem Schieber festlegen.

von Walter L. (Gast)


Lesenswert?

Danke für wertvollen Tipps.
Richtig, wird auch geschrieben, wenn neben C: noch was steht, ist 
„Volume erweitern“ ausgegraut. Bei mir müsste ich die 
Wiederherstungspartition löschen. Geht aber nicht. Muss mir wohl 
minitool holen, damit soll das fkt.

VG Walter

von (prx) A. K. (prx)


Lesenswert?

Walter L. schrieb:
> Wiederherstungspartition löschen

Schon mal bei Google direkt nach diesen 2 Worten gesucht?

von Jens M. (schuchkleisser)


Lesenswert?

- Gparted laden: https://gparted.org/
- Nach Anleitung auf deren Seite z.B. einen bootfähigen Stick oder auch 
eine CD/DVD anfertigen
- Davon starten
- im grafischen Editor die Festplatte mittels Verschieben, Vergrößern, 
Löschen und Neu so zusammenferkeln wie es soll
- "Übernehmen"
- warten....
- ????
- Profit: kostet nix, macht was es soll, geht schnell und einfach, und 
wenn die originale SSD noch unangetastet da liegt auch völlig risikolos.

Alternativ:
- Macrium Rescue (ist auch kostenlos für privat)
- auf USB-Stick laden
- davon starten
- Image des Originals machen
- neue Platte einbauen
- Image zurückspielen, dabei Partitionen anpassen

von Schlaumaier (Gast)


Lesenswert?

Walter L. schrieb:
> habe meine C: 128 ssd m.2 2280 mit clonzilla auf eine 512 geklont.

Da liegt schon der Fehler. ;)

Hättest du beim Zurückspielen gesagt, er soll das Image aufblasen wären 
alle Probleme gelöst.

Aber man macht auch kein CLONE-Backup sondern ein ganz normales 
VOLUMEN-Backup.

von (prx) A. K. (prx)


Lesenswert?

Schlaumaier schrieb:
> Aber man macht auch kein CLONE-Backup sondern ein ganz normales
> VOLUMEN-Backup.

Mit Bordmitteln?

Heise hat zwei Varianten aufgeführt, und realistisch kommentiert: 
https://www.heise.de/tipps-tricks/Backup-erstellen-mit-Windows-10-3858841.html

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Schlaumaier schrieb:
> Aber man macht auch kein CLONE-Backup sondern ein ganz normales
> VOLUMEN-Backup.

NB: Im professionellen Umfeld sind Backups über Cloning recht 
verbreitet. Nicht zuletzt weil bei full restore schneller und 
zuverlässiger als bei file backup/restore. Aber auch inkrementell und 
selective restore geht.

: Bearbeitet durch User
von Michael U. (amiga)


Lesenswert?

Hallo,

Jens M. schrieb:
> - Profit: kostet nix, macht was es soll, geht schnell und einfach, und
> wenn die originale SSD noch unangetastet da liegt auch völlig risikolos.

Gilt für die MiniTools auch, Bootstick ist nicht nötig, Ablauf sont wie 
bei GParted.

Jens M. schrieb:
> Alternativ:
> - Macrium Rescue (ist auch kostenlos für privat)
Bei mir Macrium Reflect Free. Image kann man auch aus dem laufenden 
System anlegen. Clone geht auch, bei Clone einer eingebauten HD/SSD auf 
ein Medium im ext. USB-Gehäuse kann es Überraschungen geben, wenn der 
USB-Controller eine andere Blockgröße meldet. Macrium warnt dann bzw. 
verweiger das Clonen.

Gruß aus Berlin
Michel

von Walter L. (Gast)


Lesenswert?

von (prx) A. K. (prx)
>14.10.2022 16:14 Schon mal bei Google direkt nach diesen 2 Worten gesucht?

Immer diese blöden Bemerkungen...(prx) A. K. (prx) schäme dich.

So. ich habe es aus
https://praxistipps.chip.de/wiederherstellungspartition-in-windows-loeschen-so-gehts_31288
Danach kann ich C: erweitern

Zum Löschen der Wiederherstellungspartition gehen Sie wie folgt vor:

    Drücken Sie gleichzeitig auf die Tasten [Windows] und [R], sodass 
sich der Befehl "Ausführen" öffnet.
    Geben Sie hier "diskmgmt.msc" ein und bestätigen Sie mit "OK". 
Anschließend startet die "Datenträgerverwaltung".
    Suchen Sie nach der Wiederherstellungspartition und schauen Sie 
unten, auf welchem Datenträger sie liegt. In der Regel handelt es sich 
um den "Datenträger 0".
    Drücken Sie erneut auf [Windows] und [R] und geben Sie den Befehl 
"diskpart" ein. Bestätigen Sie wieder mit "OK".
    Geben Sie "select disk 0" ein, falls es sich bei Ihnen um den 
Datenträger 0 handelt.
    Geben Sie anschließend "list partition" ein und suchen Sie sich die 
Wiederherstellungspartition heraus. In unserem Fall ist es Partition 1.
    Schreiben Sie nun folgenden Befehl ein: "select partition 1". Weicht 
die Nummer bei Ihnen ab, passen Sie diese im Befehl an.
    Tippen Sie zum Schluss den Befehl: "delete partition override" ein.
    Anschließend wird die Wiederherstellungspartition entfernt.
    In der Datenträgerverwaltung können Sie den neuen freien 
Speicherplatz einer anderen Partition zuordnen. Hier zeigen wir Ihnen, 
wie Sie die Partitionen zusammenführen.

von Michael U. (amiga)


Lesenswert?

Hallo,

natürlich kann man mit diskpart die Wiederherstellungspartition löschen 
wenn sie nciht mehr haben will. Die kann aber durchaus mal nützlich 
sein, bei mir darf sie also bleiben.
diskpart hat für ungeübte benutzer auch den Nachteil, daß ein Tippfehler 
zum Verlust der falschen Partition oder mehr ausreicht.
Man dann da auch Tipparbeit sparen: die Befehle von Diskpart lassen sich 
mit den ersten 3 Buchstaben abkürzen.
sel dis 0 reicht also z.B.

Ich beginne immer mit lis dis und schaue ob die Nummer Pallet die 
richtige ist. Dann meist sel dis 0 und lsi par, dann sehe ich nochmal, 
ob die Partitionen meiner Erwartung entsprechen.

Gruß aus Berlin
Michael

von Jens M. (schuchkleisser)


Lesenswert?

Michael U. schrieb:
> Bei mir Macrium Reflect Free

Sorry, das meinte ich auch. Rescue heißt das Medium bei mir auf dem 
Ventoy-Stick, da hatte ich einen Hirnschluss.

Michael U. schrieb:
> Image kann man auch aus dem laufenden
> System anlegen.

Das hab ich mich bislang nie getraut, weil ja letztendlich das System 
dann doch nicht benutzbar ist, denn in welchem Stand sind dann Programme 
die gerade laufen?
Außer man lässt jetzt was unwichtiges wie den Browser offen, der kann 
leicht zurückgesetzt werden, aber z.B. ein CAD oder was Officemäßiges 
wäre mir da zu riskant.
Wie sind da deine Erfahrungen?

von (prx) A. K. (prx)


Lesenswert?

Jens M. schrieb:
> Das hab ich mich bislang nie getraut, weil ja letztendlich das System
> dann doch nicht benutzbar ist, denn in welchem Stand sind dann Programme
> die gerade laufen?

Wird der Volume Shadow Copy Mechanismus genutzt, entsteht ein 
konsistentes Image. Das ist eine Art Snapshot des Systems auf NTFS 
Basis.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Walter L. schrieb:
> Immer diese blöden Bemerkungen...(prx) A. K. (prx) schäme dich.

Schneeflocken sind nicht mein Ding.

von Jens M. (schuchkleisser)


Lesenswert?

Mit Schattenkopien und Exceldateien klappt das bei mir nicht, die sind 
dann "halb" und Excel meckert, oder sie sind "alt" und mir fehlt die 
gemachte Arbeit. So oder so kann ich also bestimmte Programme während 
des Imagevorgangs nicht nutzen.

Wenn das der gleiche Mechanismus ist, weiß ich warum ich vom Stick ein 
Rescue-Medium starte, was im übrigen mit Ventoy seeehr komfortabel geht: 
Iso draufkopieren, läuft.

von (prx) A. K. (prx)


Lesenswert?

Jens M. schrieb:
> Mit Schattenkopien und Exceldateien klappt das bei mir nicht, die sind
> dann "halb" und Excel meckert, oder sie sind "alt" und mir fehlt die
> gemachte Arbeit. So oder so kann ich also bestimmte Programme während
> des Imagevorgangs nicht nutzen.

Bei Schattenkopien ist beabsichtigt und Teil des Verfahrens, dass du den 
Stand des Systems erhältst, zu dem die Schattenkopie angelegt wurde.

Inwieweit Anwendungsprogramme damit zurecht kommen, ist unterschiedlich. 
Einige Datenbanksysteme klinken sich in den VSS ein und stellen sicher, 
dass ihr Datensalat in einem Zustand ist, der den Snapshot anschliessend 
sauber und ohne hässliche Kommentare nutzbar macht.

Andere Snapshot-Verfahren arbeiten eine Ebene tiefer auf Storage-Ebene 
und eine Involvierung des VSS ist zwar bei manchen aus dem gleichen 
Grund möglich, aber nicht zwingend. In diesem Fall enthält man einen 
Snapshot, in dem generell alle Disk-Aktivitäten aller Volumes vor 
Zeitpunkt X enthalten sind und alle danach nicht. Ein aus einem solchen 
Snapshot entstehender Klon ist in etwa vergleichbar mit einem System, 
das nach hartem Abschalten mitten im Betrieb neu gestartet wurde.

: Bearbeitet durch User
von Jens M. (schuchkleisser)


Lesenswert?

(prx) A. K. schrieb:
> Ein aus einem solchen
> Snapshot entstehender Klon ist in etwa vergleichbar mit einem System,
> das nach hartem Abschalten mitten im Betrieb neu gestartet wurde.

Daher "Booten mit externem Medium" ;)
Da hatte ich solche Probleme noch nie, wenn der Stick bootet ist das 
Image klar. Und der Stand ist auch fix und bekannt, wenn die Kiste 
normal runtergefahren wurde.

von (prx) A. K. (prx)


Lesenswert?

Jens M. schrieb:
> Daher "Booten mit externem Medium" ;)

Für den Fall des TE zweifellos. Hat er ja auch gemacht.

von rbx (Gast)


Lesenswert?

Walter L. schrieb:
> habe meine C: 128 ssd m.2 2280 mit clonzilla auf eine 512 geklont.

Ich finde meistens Vor-Partitionieren besser. Dann hat man auch mehr 
Möglichkeiten der Aufteilung des größeren Speicherplatzes.

Wenn man gerne experimentiert, kann man auch gucken, welches Dateisystem 
sinnvoll ist, oder wie flexibel das ganze ist.

https://de.wikipedia.org/wiki/Liste_von_Dateisystemen

von Zeno (Gast)


Lesenswert?

Walter L. schrieb:
> habe meine C: 128 ssd m.2 2280 mit clonzilla auf eine 512 geklont.
> 128 raus, 512 rein, gestartet, klappt, die größe ist weiterhin 128Gb
> Bei dem Versuch über Datenträgerverwaltung den Rest C: zuzuweisen,
> erscheint mit Rechtsklick auf C: "Volume erweitern". Toll, ist aber
> ausgegraut, geht also nicht.

Das Problem ist das Du den 1. Sector mit geklont hast. Dort ist 
normalerweise auch die Größe der Platte hinterlegt. Windows meint nun 
das die Platte nich größer als 128GB ist und graut den Eintrag deshalb 
aus.
Du mußt wahrscheinlich den MBR neu schreiben, dannach sollte es 
funktionieren.

von michael_ (Gast)


Lesenswert?

rbx schrieb:
> Walter L. schrieb:
>> habe meine C: 128 ssd m.2 2280 mit clonzilla auf eine 512 geklont.
>
> Ich finde meistens Vor-Partitionieren besser. Dann hat man auch mehr
> Möglichkeiten der Aufteilung des größeren Speicherplatzes.

Hä?
Bei einem Image zurückschreiben interessiert das gar nicht.
Und nie clonen!
Immer über ein Image gehen.
Ich habe da schon wundersame Dinge erlebt.

von Michael U. (amiga)


Lesenswert?

Hallo,

Jens M. schrieb:
> Michael U. schrieb:
>> Image kann man auch aus dem laufenden
>> System anlegen.
>
> Das hab ich mich bislang nie getraut, weil ja letztendlich das System
> dann doch nicht benutzbar ist, denn in welchem Stand sind dann Programme
> die gerade laufen?

Ich nutze es öfter, natürlich dann nur Sachen, deren Daten sowieso auf 
einer anderen HD liegen. Ansonsten gehe ich vom Stand bei Begin des 
Backups aus.

(prx) A. K. schrieb:
> Wird der Volume Shadow Copy Mechanismus genutzt, entsteht ein
> konsistentes Image. Das ist eine Art Snapshot des Systems auf NTFS
> Basis.

Wird von Macrium genutzt.
Ich habe das System-Image bisher noch nie wirklich nutzen müssen. Meist 
erstelle ich ein Image so nebenbei, wenn ich am System was ausprobieren 
will oder Win mit größeren Updates droht. Nach Murphy habe ich es noch 
nie gebraucht, weil ja nichts schief geht, wenn man ein BU hat. ;)

Also Win Datenträgerverwaltung, Diskpart, Minitools Partition Wizard und 
Macrium Reflect Free.
Ein Programm will ich noch erwähnen, das kostet allerdings: File 
Scavenger für "echte" Datenrettung und manchmal als "undelete".
Das hat eine Vorgeschichte: ein Bekannter (Autowerkstatt) rief um Hilfe, 
weil sein Reparaturverwaltungsprogramm streikte. Alter 19" Server, alte 
Win 7 Server Installation, 2x IBM SCSI im Raid1. Eine HD war wohl schon 
Monate tot, das BU-Script lief sowieso schon ewig nicht mehr. Jetzt war 
die 2. HD am Ende. System fuhr aber noch soweit hoch. Alle gerade 
greifbaren Scantools versanken in ewiges Suchen oder fanden nichts.
FileScavenger war mit Scannen nach 5 Minuten fertig und fand zumindest 
alle Files und die Struktur richtig. Da die Demo beschränkt war, kaufte 
ich den Lizenzkey und 2 Stunden später waren alle Files seines Programms 
bis auf eine wirklich defekte kopiert. Eine Ersatzplatte (besorgt schon, 
als die erste ausfiel und ins Regal gelegt, spielt ja noch alles...) war 
da.
Raid Rebuild lief zum Glück mit Fehlermeldung durch.
Sein altes Programm lief zum Glück, die Sekretärin hatte noch 
Nacharbeit, weil sie ein paar aktuelle Kundenadressen von Hand 
nachtragen durfte.
Alles nur, weil guter Bekannter von mir mich aus Peking! anrief (der war 
dort für fast ein Jahr dienstlich) weil er nicht mehr auf den Server 
raufkam, den er dort sonst eben so nebenbei am Leben hielt.
2. Platte kam ein paar Tage später, die habe ich noch eingebaut, dann 
war wenigstens der Mirror wieder komplett, das BU-Script wurde per 
Fernzugriff auf Peking repariert usw. HDs waren die einigen sicher noch 
bekannten 18GB 10000U/min Wide-SCSI.

Gruß aus Berlin
Michael

von 1234567890 (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Könnte sein, dass du erst einmal den MBR reparieren muss

Wohl eher die GUID (GPT). Ein Datenträger mit mehr als einem protective 
MBR ist wohl eher die Ausnahme als die Regel, vor Allem da heute 
nichtmehr davon ausgegangen werden darf, dass CSM standardmäßig 
aktiviert oder überhaupt vorhanden ist.

von SuperDickMann (Gast)


Lesenswert?

Frage mal bei den Grünen. Da steht gerade Eine vor versammelter 
Mannschaft, die weiß, wie man sein Volumen erweitert.

https://cdn.mdr.de/nachrichten/deutschland/politik/mdraktuell-parteitag-gruene-104-resimage_v-variantSmall16x9_w-576.jpg?version=58339

von Der echte und einzig wahre Schlaumeier (Gast)


Lesenswert?

Hat nur nicht den passenden Nachnamen dazu.

von kleiner Admin (Gast)


Lesenswert?

michael_ schrieb:
> Und nie clonen!
> Immer über ein Image gehen.

Kommt darauf an. 😉

Beim richtigen Klonen sind die Sektoren von Ausgang- und Zielsystem 
absolut gleich, d.h. es können z.B. auch Lizenzschlüssel oder Programme, 
die am Betriebssystem vorbei auf die Platten zugreifen, kopiert werden. 
Bei einem echten Klon ist tatsächlich die Größe beider Dateisysteme 
gleich. Das kann aber später ggf. geändert werden (ist aber vom 
Dateisystem abhängig, ob das geht).
Aber es ist schon richtig, daß man das heute nur noch relativ selten 
nutzt, weil das logischerweise erheblich langsamer ist, da auch leere 
Bereiche mitkopiert werden müssen.

Das Image hingegen legt eine logische Kopie von Ausgangs- und Zielsystem 
an. Dabei ist die Kopie dann meistens auch gleich defragmentiert. Hier 
können leere Bereiche übersprungen werden, dadurch ist die Methode 
schneller.

Und dann gibt es noch Programme für einen Transfer von einer Hardware 
auf die nächste, da manche Betriebssysteme zickig auf einen Wechsel der 
Hardware reagieren. Hier sollen alle speziellen Treiber und 
Erweiterungen entfernt werden, um in einer Art "Notfallmodus" neu zu 
starten.
N.m.E. funktioniert das mehr oder weniger gut. Ich würde das jedoch nur 
dann machen, wenn es nicht anders geht.

@Thema
Evtl. läßt sich in der Datenträgerverwaltung der freie Platz als 
zusätzliche Partition nutzen und formatieren. Dann hätte man eben zwei 
logische Laufwerke, was ohnehin von Vorteil sein könnte (früher als man 
Win98 noch alle zwei Jahre neu installieren mußte, WAR das wirklich ein 
Vorteil).

von michael_ (Gast)


Lesenswert?

kleiner Admin schrieb:
> michael_ schrieb:
>> Und nie clonen!
>> Immer über ein Image gehen.
>
> Kommt darauf an. 😉
>
> Beim richtigen Klonen sind die Sektoren von Ausgang- und Zielsystem
> absolut gleich, d.h. es können z.B. auch Lizenzschlüssel oder Programme,
> die am Betriebssystem vorbei auf die Platten zugreifen, kopiert werden.
> Bei einem echten Klon ist tatsächlich die Größe beider Dateisysteme
> gleich.

Unsinn!
Bei beiden Varianten kommt es auf das Verfahren an.
Unter Win kann beim Clonen aber die Hive übelste Probleme bereiten.
Kommt auf das Programm und die Einstellung an.

kleiner Admin schrieb:
> Das Image hingegen legt eine logische Kopie von Ausgangs- und Zielsystem
> an.

Siehe oben. Kommt auf das Verfahren an.
Unter Win braucht es kein sektorweises kopieren.

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> weil das logischerweise erheblich langsamer ist, da auch leere Bereiche
> mitkopiert werden müssen.

Wobei man Disks intelligent klonen kann und dann Partitionen klont, 
nicht einfach blind alles.

CloneZilla verwendet partclone, vorausgesetzt es kennt das Filesystem. 
Das kopiert die Partition zwar im Prinzip 1:1 auf Blockebene ohne 
Defragmentierung etc, lässt aber leere Bereiche weg, ebenso Swap- und 
Hibernate-Files.

https://partclone.org/

Ob das direkt zwischen Devices erfolgt, oder unter Zwischenschaltung von 
Image-Files, ist hinsichtlich des Verfahrens unerheblich.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Beim richtigen Klonen sind die Sektoren von Ausgang- und Zielsystem
> absolut gleich, d.h. es können z.B. auch Lizenzschlüssel

Intelligente Verfahren zum klonen können auf Blockebene kopierte Ziele 
zusätzlich mit Methoden anreichern, die bei ersten Start Modifikationen 
durchführen, um beispielsweise System-ID und -Namen zu ändern und den 
Lizenzschlüssel neu einzutragen. Microsoft hat dazu ein Verfahren 
definiert, das nebenbei auch bestimmte Einstellungen auf den 
Ursprungszustand zurücksetzt. Siehe Sysprep.

Die wird interessant, wenn man damit Systeme ausrollt, routinemässig 
eine Vorlage repliziert.

: Bearbeitet durch User
von kleiner Admin (Gast)


Lesenswert?

Das ist letztlich eine Frage der Definition.

Ein "echtes" Klonprogramm erzeugt eine 1:1 Kopie, incl. aller leeren 
Bereiche. Selbstverständlich können auch SWAP-Bereiche und auch diverse 
andere Partitionstypen geklont werden. So etwas braucht man z.B. in der 
Forensik, da sich in den leeren Bereichen z.B. die Reste der gelöschten 
Daten befinden. Ein anderes Anwendungsfeld waren früher die Medien mit 
Kopierschutz, bei denen dann der Kopierschutz einfach mitkopiert wurde.

In 99% der Fälle wendet man heute aber Imageverfahren an, die dann 
landläufig auch als klonen bezeichnet werden. Die sind ganz 
unterschiedlich von den technischen Fähigkeiten und auch der Bedienung.

Das Klonen erfordert immer einen Fremdstart des Computers. Beim Image 
würde ich ihn aus meiner Erfahrung zumindest sehr dringend empfehlen. 
Auch würde ich grundsätzlich zu Fullimages raten, da man ansonsten evtl. 
auf eine ganze Sammlung von Teilimages zurückgreifen müßte.

Ich habe in meinem Berufsleben bereits eine vierstellige Zahl an 
Rechnern über Klonprogramme bzw. Images installiert. Der Tausch von 
Festplatten kommt seit etwa 10 Jahren fast gar nicht mehr vor (ist auch 
eher typisch für SOHO). Meist wird der ganze Rechner getauscht, dann ist 
ohnehin eine komplette Neuinstallation angesagt, weil Windoof ziemlich 
zickig ist bei geänderter Hardware. Außerdem ermöglicht auch nur die 
eine "saubere" Installation auf einen definierten Ausgangszustand.

BTW: Seit Win7 benötigt man auch keine händisch geänderte SID mehr. 
Manchmal muß Windows dann neu aktiviert werden, manchmal auch nicht.

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> In 99% der Fälle wendet man heute aber Imageverfahren an, die dann
> landläufig auch als klonen bezeichnet werden.

Da alle Welt das als Klone bezeichnet, nicht als Image-Kopien, legte ich 
bisher keinen Wert darauf, diese Haare zu spalten. Gibt es eine formale 
Definition des Unterschieds? Sonst reden wir bloss aneinander vorbei.

> da sich in den leeren Bereichen z.B. die Reste der gelöschten
> Daten befinden

Es gibt verschiedene Anwendungsfälle. Forensisches Klonen ist nur einer 
davon.

> Das Klonen erfordert immer einen Fremdstart des Computers.

Ein Hypervisor kann einen Snapshot der VM duplizieren. Ebenso kann man 
auf Snapshots im vom Computer genutzten Storage-System zugreifen und 
Disks kopieren. Beide Verfahren verwenden dafür zwar ein Fremdsystem, 
sind aber in vollem Galopp des Computers möglich.

> Selbstverständlich können auch SWAP-Bereiche und auch diverse
> andere Partitionstypen geklont werden.

Das war andersrum gemeint. Ein intelligentes Klonprogramm kann optional 
irrelevante Bereiche weglassen, indem es das Filesystem einer Partition 
analysiert und darin ungenutzte oder für die Kopie nicht relevante 
Bereiche erkennt. Für forenische Zwecke ist das natürlich nicht 
sinnvoll.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Der Tausch von
> Festplatten kommt seit etwa 10 Jahren fast gar nicht mehr vor

Der Tausch von Festplatten kam bei uns noch innerhalb dieses Zeitraums 
systematisch vor, weil eine SSD als Ersatz einer HDD deutlich billiger 
war, als ein neuer Rechner. Allerdings wurde dabei i.d.R. kein Inhalt 
kopiert, sondern das Ergebnis automatisiert neu installiert.

> Auch würde ich grundsätzlich zu Fullimages raten, da man ansonsten evtl.
> auf eine ganze Sammlung von Teilimages zurückgreifen müßte.

Was meinst du damit? Mit den Begriffen Full- vs Teilimage kann ich nicht 
viel anfangen.

> Seit Win7 benötigt man auch keine händisch geänderte SID mehr.

Allerdings braucht man für ein paar Zwecke schon noch eine geänderte 
SID. Nur muss man die nicht händisch ändern, sondern kann das 
automatisieren.

: Bearbeitet durch User
von kleiner Admin (Gast)


Lesenswert?

> Klon vs. Image
Die ersten Verfahren ermöglichten eine sektorgenaue Kopie von Festplatte 
zu Festplatte (erforderte Festplatten mit gleicher Geometrie). Viele 
Imageprogramme können auch heute noch sektorgenaue Kopien, aber das wird 
selten angewandt, denn ursprünglich waren die Festplatten klein, da 
erfolgte das Klonen in Minuten. Heute sind sie gerne 1000fach so groß, 
da dauert das einfach zu lange. 😊

> weil eine SSD als Ersatz einer HDD deutlich billiger war
Festplattenschäden sind aber GsD kaum noch ein Thema, das war früher 
anders.

Den Wechsel einer Festplatte gegen eine SSD aus Performancegründen 
nehmen wir meistens nur dann vor, wenn ohnehin das OS gewechselt wird. 
Dabei gibt es dann auch einen Wechsel von Office und den ganzen 
Standardprogrammen. Das ist dann aber kein Fall fürs Klonen, sondern 
eine komplette Neuinstallation (mit Imageverfahren).

Und nach 5 Jahren werden bei uns PCs dann eh nur noch im Sonderfall 
repariert, ansonsten bei jeder Störung einfach durch ein neues Gerät 
ersetzt.

> Full- vs Teilimage
Einige Hersteller bewerben da so eine Funktion, die wohl an das 
klassische Backup angelegt ist. Man kann ein Image erstellen und später 
dann weitere Images, die dann nur noch die veränderten Teile enthalten. 
Die müssten dann ggf. sequentiell nacheinander wieder eingespielt 
werden.
Habe ich aber noch nie gemacht, weil ich das für kontraproduktiv halte, 
denn so erhält man keinen genau definierten Ausgangszustand  (da der 
Rechner ja im Betrieb war).

> Allerdings braucht man für ein paar Zwecke schon noch eine geänderte
SID.
Wofür denn? Seit Win7 machen wir das nicht mehr. Win erkennt die 
veränderte Hardware und ändert selbstständig die SID. Lediglich der 
Computername und die IP müssen unbedingt unterschiedlich sein (und 
natürlich die MAC-Adresse der Netzwerkkarte).

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Die ersten Verfahren ermöglichten eine sektorgenaue Kopie von Festplatte
> zu Festplatte (erforderte Festplatten mit gleicher Geometrie).

Danke.

Ich finde diesen begrifflichen Unterschied tatsächlich so bei einigen 
Herstellern von Backup-Programmen. Ein Klon ist eine Kopie auf eine 
andere Disk während ein Image ein File (oder mehrere) auf einem 
beliebigen Speichermedium ist. Die Forderung zur Geometrie versprüht 
allerdings den stark modrigen Hauch CHS-adressierter Disks, weil sie bei 
LBA auf mindestens gleiche Grösse eindampft.

Es geht dabei also ausschliesslich um die Art des Zielmediums, nicht um 
die verwendete Methode. Ob bei der Kopie allerdings exakt 1:1 alles 
kopiert wird, oder ob ungenutzte Teile eines Filesystems und 
Swap/Hibernate-Bereiche übersprungen werden, ob der Fokus auf der Disk 
oder auf den einzelnen Partitionen liegt, das ist von der Art des 
Zielmediums unabhängig und kann auch bei einer Disk-to-Disk Kopie 
angewandt werden.

In Virtualisierung ist das, was eine VM als Disk sieht, auf der Ebene 
des Hosts meist ein Image. In SAN-Systemen kann das, was der SAN-Client 
als Disk/LUN sieht, seitens des Speichersystems ein Image auf einem 
Filesystem sein. Das obendrein vielleicht keine 1:1 Kopie darstellt, 
wenn nur genutzte Bereiche der Disk im Image gespeichert werden und 
gleiche Bereiche verschiedener LUNs/VDisks nur einmal gespeichert 
werden.

Wenn man dann auf Storage-Ebene (VM oder SAN) ein Disk-Image kopiert und 
die Kopie für einen zweiten Rechner nutzt, dann ist es aus Sicht der 
Rechner ein klonen, aus Sicht darunter aber imaging. Kommen dann noch 
Snapshots der Images hinzu... Und man kann ein solcherart auf einem 
Linux- oder Windows-System erstelltes Imagefile auf diesem System ohne 
zweite Kopieraktion und ohne Virtualisierung direkt als Filesystem 
mounten (vgl ISO-File bei CD/DVD).

Der Wert dieser in den Tiefen der Geschichte immer mehr verschwindenden 
Unterscheidung nimmt für mich daher seit langem ab. Die Begriffe "Disk" 
und "Image" verschwimmen. Weshalb ich - und offenbar nicht nur ich - 
diese Begriffe nicht mehr so streng unterscheide wie du.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Wofür denn? Seit Win7 machen wir das nicht mehr.

Beispiel: Ob das nun genau die Rechner-SID ist, habe ich gerade nicht 
parat. Aber WSUS verwendet eine ID, um die Maschinen zu identifizieren. 
Und haben wir es gelegentlich erlebt, dass ein Klon (eine Imagekopie ;-) 
die gleiche ID nutzte wie das Original, obwohl eigentlich die übliche 
Anpassung des Zielsystems erfolgte.

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
>> Full- vs Teilimage
> Einige Hersteller bewerben da so eine Funktion, die wohl an das
> klassische Backup angelegt ist. Man kann ein Image erstellen und später
> dann weitere Images, die dann nur noch die veränderten Teile enthalten.

Kenne ich unter Begriffen wie incremental image oder so.

> Die müssten dann ggf. sequentiell nacheinander wieder eingespielt
> werden.

Wobei das beschriebene Schema auch ein wenig modrig riecht, weil manche 
Backup-Systeme längst permanent so arbeiten, ohne dabei aber dieses 
sequentielle Restore-Verfahren zu erfordern. Wenn der Image-Store eine 
Datenbank enthält, was sich in welchem Stand wo befindet, funktioniert 
der Restore direkt, nicht sukzessive. Auch bei Band als Medium für den 
Inhalt, nur die Datenbank fürs Mapping braucht eine Disk.

Obendrein kann man bei solchen Systemen u.U. auch ohne Zwischenschaltung 
eines Restores direkt per Disk- oder Filesystem-Mount auf den Inhalt des 
Image-Stores zugreifen, oder parallel zum Restore.

: Bearbeitet durch User
von rbx (Gast)


Lesenswert?

Ich kenne Clonen eher vom CD "kopieren". Hatte ich aber nicht wirklich 
gebraucht, Nero war gut genug für meine Bedürfnisse - und meistens sogar 
besser, z.B. für Audiosachen.

Images und Snapshots .. Disketten übertragen aus dem Internet auf den 
Rechnern zuhause. Musikinstrumente, Atari, dies und das.
Gelegentlich auch für Bios-Files.
( https://www.winimage.com/winimage.htm )

Mir geht es auch eher um funktionelle Fragen. Beispielsweise hat gerade 
das CD/DVD Laufwerk auf dem Windows 8 NB eine Macke. Oblivion startet 
dann nicht mehr, und eine gute "Kopie" der SpieleCD nützt in diesem Fall 
nicht viel.
Tatsächlich brauche ich keine Kopie, habe die SpieleCD mehrfach. Bundle 
A, Bundle B, Spielesammlung X, Spielesammlung Y sowas in der Art. Ist 
meistens auch kein Thema Ersatz nachzukaufen. Nicht immer 1:1, wegen der 
leicht unterschiedlichen Spieleversionen. Aber unterm Strich fast egal.

Für den Atari gab es viele Probleme beim Diskettenkopieren. So wurde 
viel versucht, und es gab verschiedene Kopierprogramme für verschiedene 
Probleme.

von Manfred (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Und haben wir es gelegentlich erlebt, dass ein Klon (eine Imagekopie ;-)
> die gleiche ID nutzte wie das Original, obwohl eigentlich die übliche
> Anpassung des Zielsystems erfolgte.

Dafür gab es doch von Microsoft "Sysprep", den Rechner neutral machen, 
bevor man das Image erzeugt.

von (prx) A. K. (prx)


Lesenswert?

Manfred schrieb:
> Dafür gab es doch von Microsoft "Sysprep", den Rechner neutral machen,
> bevor man das Image erzeugt.

Der übliche Weg in VMware geht über automatische anschliessende 
Anpassung eines Klons, mit neuem Namen, Netzwerkkonfiguration, Lizenzkey 
etc. Funktioniert ganz gut, nur bei der Integration in WSUS kommt es ab 
und zu vor, dass man anschliessend Hand anlegen muss.

Sysprep oder etwas in dieser Art ist sicherlich Teil dieses Verfahrens. 
Diverse Einstellungen werden dabei zurückgesetzt, etwa bei der 
Taskleiste, was typisch für Sysprep ist.

Ein File-Image als Zwischenstation wird dabei nicht verwendet. VMware 
erzeugt die Kopie direkt aus einem dafür ad hoc angelegten Snapshot der 
Original-VM. Letzte muss man deshalb dafür auch nicht runterfahren.

: Bearbeitet durch User
von kleiner Admin (Gast)


Lesenswert?

> SID bei WSUS

Wie gesagt werden bei uns neue Rechner per Image (gezogen als Goldenes 
Image) installiert. Ohne Sysprep oder dergleichen. Funktioniert 
tadellos, auch WSUS scheint die Rechner tatsächlich über ihren Namen(!) 
anzusprechen.

Früher waren die Images mal auf CD, dann auf DVD, heute geht praktisch 
nur noch eine externe Festplatte, weil die Images selbst bei maximaler 
Kompression so riesig sind.

> Incremental Backup/Image

Beim Backup lasse ich mir das ja gerade noch gefallen, weil es manchmal 
nicht anders geht, aber bei einem Image lieber nicht.
Natürlich hat unser Tapesystem auch eine SQL-Datenbank, aber wir haben 
da mal so ein Incrementelles Backup zurückspielen müssen, das auf 46 
Bänder verteilt war. Der ganze Schei$$ hat fast eine Woche gedauert - 
gut immer noch besser als Datenverlust. Da empfiehlt sich doch 
gelegentlich ein Fullbackup...

> Klon als sektorgenaue Kopie

Der Hauptvorteil des Clonens ist, daß es absolut unabhängig vom 
Betriebssystem oder dem Filesystem funktioniert. Auslassen von freien 
Bereichen erfordert immer, daß das Imageprogramm wissen sollte, was es 
da tut. bei gängigen OS sicher kein Problem, aber wenn man die verteckte 
Kopie einer Novell Netware Partition kopieren möchte...

Ehrlich gesagt weiß ich gar nicht, ob man bei einer SSD überhaupt noch 
eine sektorgenaue Kopie machen kann, weil da schließlich noch ein 
Controller dazwischen sitzt, der die Pages managed. Aber für das OS 
sieht das dann möglicherweise wie eine sektorgenaue Kopie aus.

OT: Ich habe das jetzt auch schon jahrelang nicht mehr machen müssen. Da 
ging es auch nicht um Spiele, sondern um Steuerungsrechner. Manche 
Hersteller treiben da die tollsten Sachen als Kopierschutz. Ein Gerät 
hatte z.B. einen erzeugten Schlüssel aus IP-Adresse und Rechnernamen 
(und was weiß ich, woraus sonst noch) - ein Umbenennen des Rechners 
kostete 5.000€ für die Installation eines neuen Schlüssels; in dem Fall 
"lohnt sich" schon eine sektorgenaue Kopie auf einer Ersatzfestplatte. 😊 
Wir hatten auch schon mal den Fall, daß der Schlüssel an die MAC der 
Netzwerkkarte gebunden war; damals waren die Netzwerkkarten noch 
Steckkarten, so daß man immerhin den Rest des Rechners auswechseln 
konnte.

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Ehrlich gesagt weiß ich gar nicht, ob man bei einer SSD überhaupt noch
> eine sektorgenaue Kopie machen kann, weil da schließlich noch ein
> Controller dazwischen sitzt, der die Pages managed. Aber für das OS
> sieht das dann möglicherweise wie eine sektorgenaue Kopie aus.

Aus Sicht der physikalischen Blöcke auf den Flash-Modulen ist eine 
exakte Kopie effektiv unmöglich. Aus Sicht der logischen über das 
Interface zum Controller adressierten Blöcke ist eine exakte Kopie kein 
Problem. Block 1 auf Block 1, Block 9999 auf Block 9999, wo immer die in 
den Flash-Chips gerade liegen - das ändert sich sowieso bei jedem 
Schreibvorgang. Einzig die logische Sicht zählt.

Das ist aber nur ein weiterer Teil der von mir oben beschriebenen 
Trennung von logischer Betrachtung (VM-Disk, SAN-LUN) und dem darunter 
liegenden Layer (Image-File der VM, Image-File einer NAS). Das kann ja 
dann auch noch ein paar Ebenen weiter nach unten gehen, wenn die Files 
der NAS mit dem LUN-Image wiederum auf SSDs liegen.

Da sind so viele translation layer dazwischen, dass jedwede Vorstellung 
von 1:1 Abbildungen vollkommen sinnlos wird. Manche SAN-Systeme haben 
vorneweg einen SAN-Controller, der seinen realen Storage wiederum über 
mehrere sekundäre SAN-Storage-Systeme ggf anderer Hersteller verteilt, 
ohne dass dies auf der primären Seite irgendwie sichtbar wäre.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Wie gesagt werden bei uns neue Rechner per Image (gezogen als Goldenes
> Image) installiert.

Bei uns werden PCs per Netzboot vollständig automatisiert installiert, 
Windows und Anwendungen. Keinerlei Images. Zur Neuinstallation eines 
bestehenden PCs wird die MAC-Adresse des PCs im entsprechenden System 
eingetragen, gestartet, und gut eine Stunde danach ist er fertig. Bei 
einem neuen Anwender kommt natürlich noch die Auswahl der Anwendungen 
hinzu. Die können recht verschieden sein, je nach Einsatzbereich.

Was ich oben über Klone per VMware beschrieb, bezieht sich auf Server 
und einige Linux-VMs für Anwender.

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Natürlich hat unser Tapesystem auch eine SQL-Datenbank, aber wir haben
> da mal so ein Incrementelles Backup zurückspielen müssen, das auf 46
> Bänder verteilt war. Der ganze Schei$$ hat fast eine Woche gedauert

Yep. Aber bei heutigen Disk-Kapazitäten sind Bänder - soweit überhaupt 
noch vorhanden - eher als Sekundärspeicher relevant. Den letzten Stand 
der Sicherung bewahrt man tunlichst auf Disk auf, um schnell 
ranzukommen. Sowas im Katastrophenfall von Band holen zu müssen, ist 
kaum noch machbar. Da schaut man eher, dass man den Backup-Storage 
anderweitig aus der kritischen Zone kriegt, nicht mehr über 
herumgeschubste Bänder. Mittlerweile kann das z.B. auch die Amazon S3 
Technik in der Cloud sein.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Wir hatten auch schon mal den Fall, daß der Schlüssel an die MAC der
> Netzwerkkarte gebunden war

Diesen Mist kenne ich nur zu gut. Beispielsweise USB-Dongles für VMs. 
Dafür gibt es zwar Lösungen via Netz, aber eine hochverfügbare Umgebung 
zu haben, die sogar dann noch funktioniert, wenn das Gebäude mit einem 
der Serverräume geflutet wird, nützt nichts, wenn der paranoide Anbieter 
einer Lösung partout nur einen einzigen Dongle liefert - mit dem Ersatz 
notfalls per Taxi quer durch die Republik. Ziemlich gaga. Aber 
mittlerweile haben auch jene Mitarbeiter das kapiert, die die Lösungen 
aussuchen. Mancher merkt es erst, wenn es hektisch wird.

: Bearbeitet durch User
von rbx (Gast)


Lesenswert?

kleiner Admin schrieb:
> Der ganze Schei$$ hat fast eine Woche gedauert

Herrlich. Aber wie darf man sich das vorstellen (den technischen Teil)?

Früher konnte man mit WinZip größere Dateien (meist MP3 oder Treiber, 
Linux/Gcc/MuLinux auch mal) auf mehrere Disketten verteilt speichern.
Daumen drücken, dass auch alle Disketten mitmachen.
Das war nicht immer gegeben, und falls nicht, hatte man zusätzliches 
Chaos mit Datenschrott.

Spaß auch mit Datenkassetten zum Speichern von Synthesizer-Patches oder 
Samples.

Selbst wenn man diese Piepsfolgen gesampelt hatte (TX16W z.B.) und so 
etwas mehr Kontrolle über Lautstärke und Geschwindigkeit der Piepser da 
war - eine Macherei mit Herumprobieren (vor allem Lautstärke) war das 
doch immer wieder.

Noch viel früher:
Datenbänder (Personalverwaltung Kohlebergbau) im Safe mit Nummernschloss 
gesichert.
Der Zugang war längst verloren bzw. aufgegeben. So hieß es jedenfalls 
offiziell, und ich kann mein Glück ruhig versuchen.
(Der Raum, in dem der Safe stand, war gleichzeitig der Pausenraum der 
Elektriker (Hausinstallationsstuff) (bei denen ich ein paar Wochen lang 
Schule-bedingtes Praktikum machte)).

von (prx) A. K. (prx)


Lesenswert?

rbx schrieb:
> Aber wie darf man sich das vorstellen (den technischen Teil)?

Mit Bandroboter: Restore anstossen und w-a-r-t-e-n. Den Rest verhandeln 
Backup-Software und Roboter untereinander.

: Bearbeitet durch User
von kleiner Admin (Gast)


Lesenswert?

rbx schrieb:
> Herrlich. Aber wie darf man sich das vorstellen (den technischen Teil)?

Wir haben zwei Libraries, die jeweils 60 LTO-bänder aufnehmen können. 
Diese werden jeweils durch einen "Laderoboter" bedient, aber die 
Bestückung der Magazine erfolgt von Hand.
Nun sind aber natürlich nur ein paar Slots frei, z.B. 10 Stück. Die 
Software sucht für den Restore nach den Bändern, die benötigt werden in 
der Datenbank. Der Job startet, es werden Bänder angefordert, die nicht 
im Magazin sind. Jetzt kann man die ersten 10 einlegen (wenn man denn 
eine ausgedruckte Liste hat, welcher Job auf welchem Band ist, sonst muß 
man in der Datenbank mit einer nervigen Filteroberfläche herumsuchen), 
dann muß eine Inventarisierung durchgeführt werden, damit die Library 
weiß, was in welchem Slot ist (die Bänder haben einen Barcode). Dann 
kann man dem Job sagen, mache gefälligst weiter.
Warten, warten, irgendwann braucht der Job ein Band, das nicht im 
Magazin ist, dann muß man welche entnehmen und die gewünschten einlegen, 
inventarisieren, fortsetzen. Das Spielchen kann sich dann wiederholen 
bis der Job abgearbeitet ist.

Das ist natürlich nichts für absolut lebenswichtige Daten, die haben wir 
dann z.B. auch auf Disk, aber zur Langzeitspeicherung ist das nicht 
verkehrt. Außerdem ist der Preis pro TB bei den LTO-bändern relativ 
moderat.
Kleinere Sachen kann man natürlich auch rotierend auf Band sichern. Z.B. 
am Monatsanfang eine neues Band nehmen, dann eine Vollsicherung und 
jeden Tag eine Differentialsicherung. Und nach 5 Monaten wieder das 
erste Band nehmen.

Aus der Sache haben wir gelernt, daß auf einem Band möglichst immer nur 
ein "Volume" gespeichert wird, damit man ggf. nicht auf so viele Bänder 
zurückgreifen muß. Außerdem verwenden wir die meisten Bänder für die 
großen Volumes tatsächlich nur noch einmal, da man die User einfach 
nicht dazu bekommt, vernünftige Vorgaben zu machen, hebt man besser den 
ganzen Müll auf. (Ja, wir sichern tatsächlich noch Installationsdateien 
für den Netscape Navigator 4. Es ist gar nicht gut für meinen Blutdruck, 
das zu genau wissen zu wollen. 🙄 )
Das ist etwas tricky, weil die Software natürlich stets selbst bestimmen 
möchte, was sie wo speichert; die Software muß also etwas ausgetrickst 
werden.  🙄

von rbx (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Restore anstossen und w-a-r-t-e-n.

Ah, ach so. Danke. Das war beim Commodore 16 auch recht zuverlässig: 
Play-Taste drücken und warten, bis der Programmbildschirm erscheint.

Wie lange dauert eigentlich heute so ein Snapshot? Früher musste man für 
Größen bei ab 3-stelliger GB Zahl schon ein paar Stunden warten.

Vor diesem Hintergrund mache ich doch lieber gezielte Ordner-Kopien.

und das ist auch nochmal ein wenig OT:
Sampler vs Sythesizer. Für Synths braucht man nicht so viel Speicher, 
und kann trotzdem viel mit machen.

Unser "Gedächtnis" läuft ganz ähnlich ab.
Bei einem Uni-Vortrag meinte ich mal: "ganz ähnlich wie Malen nach 
Zahlen"
Verdutzte Blicke aus der Zuhörermenge: "Was ist Malen nach Zahlen?"
Das hatte mich verdutzt, das hatte ich in meinen Vortragsvorbereitungen 
nicht bedacht. Ich dachte, das Prinzip war gut bekannt, und so leicht 
verstanden.
Da hatte ich mich aber geirrt.

Man könnte auch sagen, so ähnlich wie bei Synthesizern vs Samplern. Man 
nimmt normalerweise keinen kompletten "Wellensalat" auf, sondern eher 
nur ein paar Eckpunkte und macht daraus selber "Wellensalat". ;)

(ist nur eine Theorie, aber eine recht gut belegte bzw. untersuchte)

Eine weitere interessante Theorie ist das "Blitzlicht-Gedächtnis". Da 
könnte man aber vermuten, dass die ständige Wiederholung der Bilder, und 
das ständige Neuerzählen für eine gute Menge an erinnerbaren 
Einzelheiten sorgt.

Ein Abzweig dieser Geschichte ist dann noch Gedächtnis und Emotion. Da 
könnte man noch eine ganze Menge zu erzählen - so ganz grob kann man 
sagen, ist beides nicht ganz unabhängig voneinander.

von (prx) A. K. (prx)


Lesenswert?

rbx schrieb:
> Wie lange dauert eigentlich heute so ein Snapshot? Früher musste man für
> Größen bei ab 3-stelliger GB Zahl schon ein paar Stunden warten.

Kommt drauf an was du damit wirklich meinst und wo du ihn anlegst. Ein 
Snapshot ist zunächst keine Sicherung, weil auf dem gleichen Medium wie 
das Original.
* CoW Filesysteme Netapp/ZFS/btrfs: Sekunden.
* VMware inaktive VM: sofort
* VMware aktive VM: unter 1 Minute bis mehrere Minuten, je nachdem, ob 
mit oder ohne RAM-Stand und welche Art der Transaktionssicherung.

von rbx (Gast)


Lesenswert?

kleiner Admin schrieb:
> (wenn man denn
> eine ausgedruckte Liste hat, welcher Job auf welchem Band ist, sonst muß
> man in der Datenbank mit einer nervigen Filteroberfläche herumsuchen)

Danke auch dir für ausführlicheren Erklärungen.

Im Alltagsleben auch nicht so unbekannt: Videokassetten beschriften oder 
nicht?
Früher wusste ich noch, welche Aufnahme auf welcher Videokassette ist. 
Gelegentliche Suche gab es auch - aber irgendwann später hatte ich auf 
einmal alle Hinweise vergessen.
Die ein oder andere Erinnerung an den Inhalt selber ist noch vorhanden. 
Schwierig jetzt nur die Wiederholung auf Band bzw. die zugehörige 
Videokassette finden.

Ein wenig Ersatzbefriedigung ist YT + altes Buch bzw. Lexikon von '77 
mit der Vorstellung verschiedener Musikgruppen (Disco/Ilja Richter 
Sonderband o.ä.) - jetzt kann man die endlich mal hören :)

von (prx) A. K. (prx)


Lesenswert?

rbx schrieb:
> Vor diesem Hintergrund mache ich doch lieber gezielte Ordner-Kopien.

Snapshots auf Speichersystemen wie Netapp werden problemlos z.B. 
stündlich automatisch angelegt und wieder weggeräumt, ohne jedwede 
Auswirkung auf den laufenden Betrieb. Die Kapazität des Volumes spielt 
dabei keine Rolle, also ob 5 GB oder 5 TB.

Anders als bei Ordnerkopien kosten dabei nur zwischenzeitlich geänderte 
Daten neuen Platz, und auch darin nur jene Teile grosser Files, die sich 
änderten. Auf alte Stände lässt sich im Kontextmenu des Windows 
Explorers direkt zugreifen, über den gleichen Menupunkt wie bei den 
Wiederherstellungspunkten in Windows selbst (ein damit verwandtes 
Verfahren).

Solche Snapshots ersetzen keine Desaster-Backups, können aber Teil 
solcher Backups sein, um konsistente Zustände zu einem exakten Zeitpunkt 
sicherzustellen. In dem also über das gesamte Volume alles drin ist, was 
vorher geschah, und nichts, was später geschah. Inkrementelle Backups 
können sie nutzen, indem jeweils die Differenz zweier Snapshots 
gesichert wird. Die ergibt sich aus der Implementierung, erfordert also 
keine aufwändige Suche.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

rbx schrieb:
> Im Alltagsleben auch nicht so unbekannt: Videokassetten beschriften oder
> nicht?

In automatisierten Bandsystemen werden Bänder verwendet, die mit einer 
maschinenlesbaren ID versehen sind, in Form eines Barcodes.

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> Das ist etwas tricky, weil die Software natürlich stets selbst bestimmen
> möchte, was sie wo speichert; die Software muß also etwas ausgetrickst
> werden.

In manchen Backupsystemen lässt sich konfigurieren, ob und bis zu 
welchem Grad zusammenhängende Daten auch zusammenhängend gespeichert 
werden. Das geht vom einen Extrem eines vom System völlig frei 
verwalteten Bandpools bis zur Minimierung der Anzahl Bänder, auf die 
sich ein gesichertes Volume verstreut.

Was man dabei wählt, hängt vom verfolgten Ziel ab. Geht es um möglichst 
schnelle Recovery verlorener Volumes, wird man Letzteres wählen. Für 
Archivdaten, auf die man nur selektiv zugreift, kann Ersteres sinnvoller 
sein.

Es können dabei auch Staging-Verfahren zum Einsatz kommen. D.h. die 
akute Sicherung landet zunächst in einem Disk-Pool, dessen Inhalt erst 
danach automatisch auf Band verschoben wird. Das nutzt die Laufwerke 
effizienter und Backup-Sessions sind nicht auf die Anzahl Bandlaufwerke 
begrenzt. Ggf landen die Backups parallel in einem weiteren Disk-Pool, 
der nur den letzten Stand jedes auf dem gesicherten System noch 
vorhandenen Objektes enthält. Damit geht der Restore des letzten Standes 
recht flott, weil man keine Bänder benötigt.

: Bearbeitet durch User
von Εrnst B. (ernst)


Lesenswert?

(prx) A. K. schrieb:
> Snapshots auf Speichersystemen wie Netapp werden problemlos z.B.
> stündlich automatisch angelegt und wieder weggeräumt, ohne jedwede
> Auswirkung auf den laufenden Betrieb.
> [...] Auf alte Stände lässt sich im Kontextmenu des Windows
> Explorers direkt zugreifen, über den gleichen Menupunkt wie bei den
> Wiederherstellungspunkten in Windows selbst

Wer das selber nachbauen will:

btrfs,
"snapper" zum Anlegen/Aufräumen der 
stündlichen/täglichen/wöchentlichen/jährlichen Snapshots,
samba mit "vfs objects = btrfs snapper ..."

von (prx) A. K. (prx)


Lesenswert?

Εrnst B. schrieb:
> Wer das selber nachbauen will:

Bei Suse auf Grundlage von btrfs ist diese Möglichkeit bereits von 
vorneweg dabei und wird von Suses System-Management Tool auch 
unterstützt. Soweit ich mich erinnere bis zur Möglichkeit, einen alten 
Stand zu booten.

Bei Ubuntus ZFS Option war das zumindest zu jenem Zeitpunkt, zu dem ich 
einen Blick darauf war, noch nicht so konsequent integriert.

: Bearbeitet durch User
von Εrnst B. (ernst)


Lesenswert?

(prx) A. K. schrieb:
> Bei Suse

Kann ich mir vorstellen, snapper ist ja auch ein SuSE-Projekt.

Ersetzt zwar kein Backup, aber der Samba Snapshot-Zugriff für 
Windows-Clients ist echt Gold wert.

Was der an "Hilfe, ich habe meine Datei 
überschrieben/gelöscht/verloren"-Anfragen an den Admin spart ...

von (prx) A. K. (prx)


Lesenswert?

Wer sich drüber wundert, dass das nichts zu kosten scheint: Der 
Schlüssel dazu sind Copy-on-Write Filesysteme wie WAFL(Netapp), ZFS und 
btrfs. Auf diese Funktion bezogen lassen die sich quick-and-dirty so 
beschreiben:

Deren grundlegendes Arbeitsprinzip besteht darin, alle zig Sekunden 
einen Snapshot anzulegen, und niemals Daten zu überschreiben, die sich 
in einem noch bestehenden Snapshot befinden, sondern sie stets in 
unbenutzten Bereich zu schreiben. Metadaten wie Directories und 
Blockmaps inklusive. Normalerweise werden diese impliziten Snapshots 
gleich wieder weggeräumt, sobald der nächste definitiv vollständig auf 
Disk ist. Aber wenn man einen länger braucht, dann halt nicht.

Positiv: Jeder solche Stand ist vollständig point-in-time konsistent, 
ohne dass man dazu irgendwelche Vorkehrungen traditioneller Filesysteme 
implementieren muss, wie Journalling (NTFS, ext4). Was bis zum letzten 
Snapshot im Filesystem enthalten war, ist im Fall eines Stromausfalls 
exakt so vorhanden, was danach kam ist vollständig weg.

Negativ: Selektiv geschriebene Files wie Datenbank-Container 
fragmentieren höllisch, weil mit der Zeit das, was einstmals sequentiell 
auf Disk stand, sich nun kunterbunt über die Disk verteilt. In Zeiten 
von HDDs konnte sich das auf die Performance von full table scans sehr 
markant auswirken. Aber mit dem Siegeszug der SSDs ist das irrelevant 
geworden.

: Bearbeitet durch User
von Εrnst B. (ernst)


Lesenswert?

(prx) A. K. schrieb:
> und niemals Daten zu überschreiben, die sich
> in einem noch bestehenden Snapshot befinden, sondern sie stets in
> unbenutzten Bereich zu schreiben.

Um den Bogen zurück zu Backups zu spannen:
Dadurch kann das Dateisystem sehr leicht ermitteln welche Blöcke sich 
zwischen zwei Snapshots verändert haben.
Die lassen sich dann exportieren ("btrfs/zfs send") & archivieren, oder 
auch direkt auf eine Off-Site-Maschine übertragen und dort wieder in ein 
Dateisystem importieren ("btrfs/zfs receive"). Dort entsteht dann eine 
Backup-Kopie incl. eigener Versionshistorie...

von rbx (Gast)


Lesenswert?

(prx) A. K. schrieb:
> In manchen Backupsystemen lässt sich konfigurieren, ob und bis zu
> welchem Grad zusammenhängende Daten auch zusammenhängend gespeichert
> werden. Das geht vom einen Extrem eines vom System völlig frei
> verwalteten Bandpools bis zur Minimierung der Anzahl Bänder, auf die
> sich ein gesichertes Volume verstreut.
>
> Was man dabei wählt, hängt vom verfolgten Ziel ab. Geht es um möglichst
> schnelle Recovery verlorener Volumes, wird man Letzteres wählen. Für
> Archivdaten, auf die man nur selektiv zugreift, kann Ersteres sinnvoller
> sein.

Kann man das noch etwas näher betrachten?

Ich denke z.B. an die Bedienung von den Samplern Yamaha TX16W vs Emu 
Emax2. Beim TX16w waren die Wellenformen in einem Pool, und man konnte 
sie so vielfältig bearbeiten, kombinieren, Klänge austauschen usw. 
Nachbearbeitung z.B. mit Filtern oder LFO wurden später gemacht. Die 
Filter selber waren auch spannend, die waren keine einfachen Filter, 
sondern es gab verschiedene Tabellen mit unterschiedlichen Kurven zum 
Ausprobieren. Ein Filter-Pool. Freiheit der Digitaltechnik 
gewissermaßen.. Wenn man die Nachbearbeitungen soweit fertig hatte, 
kamen die Multisample-Einstellungen, Tastaturzuordungen, Midikanäle usw.
Vielen war die fragmentierte, mehr experimentelle Bedienung zu 
kompliziert.
Später gab es noch ein anderes Betriebssystem mit anderen Stärken, wie 
Resampling, Komprimierung, besser klingender Filter (statt nur gut 
aussehen) und auch eine einfachere Bedienung.
Aber dann hatte man auch schon Probleme mit der Datensicherung, wegen 
der zwei unterschiedlichen Betriebssysteme.

Beim Emax2 wurde man beim Samplen schon genötigt, ein Multisample + 
passende Nachbearbeitungen zu erstellen. Einen Wellenpool gab es in 
diesem Sinne nicht.
Die Nachbearbeitungen waren nicht so zwingend, aber die schwebten 
gewissermaßen schon über den Multisamples drüber und Patchbezogen. Man 
brauchte nicht extra ein Menü für Nachbearbeitungen aufrufen, sondern im 
"Patch" nur einen Knopf drücken, Wert einstellen, fertig.
Prinzipiell eine sehr angenehme, und im musikalischen Sinne förderliche 
Bedienung.

Von der Indexierung her denke ich an das Open Directory - wie schwierig 
manchmal die Diskussionen waren, was wohin "gehört". Für viele Links war 
erstmal wichtig, die reinzuschaufeln, bevor man irgendeine 
Ordnungsvorstellung darauf anwendet.

Unabhängig davon sehr nützlich war immer die alphabetische Sortierung. 
Da brauchte man auch nicht soviel streiten.

Was ich meine ist: Wenn die Software die "Ordnung" der 
Sicherungsspeicherung auf Bändern vorgibt:
Da könnte man schauen, ob die Ordnung angemessen ist.

Manchmal kann man sich aber auch nur wundern über gewisse Automatismen. 
Die Haskell-Plattform hatte sich im Windows TMP (oder Temp?)-Ordner 
ausgepackt. Das ging aber nicht, meine Windows (ME)-Partition war zu 
klein.
Nach dem Umleiten des Auspack-Ziels kam dann die Meldung (im 
übertragenen Sinne): Windows zu alt..
Die Watcom-Entwicklungsumgebung ließ sich viel unproblematischer 
Installieren.
Aber wie bei Haskell: tonnenweise Literatur ;)

von (prx) A. K. (prx)


Lesenswert?

Εrnst B. schrieb:
> Dort entsteht dann eine Backup-Kopie incl. eigener Versionshistorie...

Yep. Man wird dann auf dem teuren Primärsystem nur wenige Stände für 
akute Anfragen bevorraten, während das billige Sekundärsystem auf viele 
Monate oder Jahre zurückblickt.

: Bearbeitet durch User
von kleiner Admin (Gast)


Lesenswert?

> Snapshots

Dabei muß man aber immer bedenken, daß das keine Backups sind. Ein 
Backup ist immer eine Kopie, bei einem Snapshot werden jedoch nur die 
Daten gespeichert, die sich geändert haben. Geht die unveränderte 
Originaldatei verloren, dann fehlt die auch in allen Snapshots.

Unser Backupprogramm arbeitet auch mit Snapshots/Shadow Copy, um zu 
einem definierten Zeitpunkt konsistente Daten zu haben. Anders ginge das 
auch kaum noch, da manche Datensicherungsjobs durchaus Stunden/Tage 
dauern können.

Wir benutzen die Tapes auch zur Aufbewahrung von Originaldaten, d.h. 
nach der Archivierung werden die Originale von den Festplatten gelöscht.

Womit ich jedoch noch nie experimentiert habe ist das LTO-Filesystem. 
Man kann die Bänder so formatieren, daß sie mit einem wahlfreien Zugriff 
genutzt werden können, also beliebiges/selektives Lesen und Schreiben.
Das andauernde Spulen dürfte für die Tapes und die Laufwerke ziemlich 
belastend sein. Und im Zeitalter von Festplatten im TB Bereich erscheint 
das auch nicht wirklich reizvoll.

Eine RS6000 habe ich einmal spaßeshalber von einem Band aus gebootet 
(die Maschine hatte noch kein CD-Laufwerk). Hat gefühlt mindestens eine 
Stunde gedauert bis der Unix Prompt erschienen ist. Hat aber 
funktioniert.

rbx schrieb:
> Was ich meine ist: Wenn die Software die "Ordnung" der
> Sicherungsspeicherung auf Bändern vorgibt:
> Da könnte man schauen, ob die Ordnung angemessen ist.

Auch die IT unterliegt Modeerscheinungen. Unsere Backupsoftware will 
eigentlich, daß man Pools an Speichermedien definiert auf der Basis wie 
lange die Daten aufbewahrt werden müssen. Klingt erst einmal nicht 
schlecht, aber das erste Problem ist schon einmal, daß eigentlich nur 
die Nutzer das wirklich beurteilen könnten - meistens dazu aber gar 
nicht in der Lage sind oder schlicht keine Lust dazu haben. Außerdem 
kann das dazu führen, daß das tägliche Zuwachsbackup jeden Tag auf einem 
anderen Band landet, so daß nur noch die Datenbank weiß, was wo 
gespeichert ist.
Aber was ist, wenn die Datenbank kaputt geht. Klar kann man die neu 
aufbauen durch Einlesen sämtlicher Bänder, aber das würde im Falle des 
Falles eben ewig dauern. Beispiel 1 Band = 3h, 200 Bänder = 600h, das 
wären dann 25 Tage.

Wir haben uns daher für die Lösung entschieden: Datenbestand A auf Pool 
A, Datenbestand B auf Pool B, usw. Ist vielleicht nicht optimal, was die 
Kapazitätsnutzung und die Sicherungsgeschwindigkeit angeht, aber dafür 
weiß man, was auf den Bändern ist.

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> bei einem Snapshot werden jedoch nur die Daten gespeichert, die sich
> geändert haben. Geht die unveränderte Originaldatei verloren, dann fehlt
> die auch in allen Snapshots.

Nein. Ein Snapshot besteht aus allen Daten, die zum entsprechenden 
Zeitpunkt gültig waren. Egal ob kurz vorher geändert oder schon uralt. 
Ein Snapshot ist keine Differenz zu vorherigen Ständen.

Dies gilt für die erwähnten Filesysteme und für Microsofts Shadow Copies 
im NTFS. Nur die jeweilige Implementierung differiert. Ich frage mich 
daher, von was für Snapshots du gerade redest.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

PS: Was man in der Wikipedia zu copy-on-write in Filesystemen findet, 
ist mindestens problematisch und in diesem Fall schlichtweg falsch:
https://en.wikipedia.org/wiki/Copy-on-write#In_computer_storage
Siehe auch Kommentar dazu:
https://en.wikipedia.org/wiki/Talk:Copy-on-write#Alternate_meaning

: Bearbeitet durch User
von Michael U. (amiga)


Lesenswert?

Hallo,

rbx schrieb:
> Wie lange dauert eigentlich heute so ein Snapshot? Früher musste man für
> Größen bei ab 3-stelliger GB Zahl schon ein paar Stunden warten.

da ich, wiel wohl auch der TO, kein Datenzentrum zuhause habe:
Image der HD wo mein Win10 drauf ist:
Quelle: eNVME 1TB WDS100T3X0C
System 660GB / 260GB frei
"Arduino"-Kram 270GB / 180GB frei
Wiederherstellung, UEFI-Kram / was Win10 so anlegt.

Ziel: externe USB3-HD ST4000DM000

Image mit Macrium Reflect Free 8.0 "nebenbei" erstellt (webserven, 
Sciptgeschichten, die auf anderer HD liegen usw.)
Laufzeit 20-25min. erzeugte Dateigröße ca. 185GB.
Eine 2. SATA SSD mit Daten wird seltener genauso gesichert, Dateigröße 
ca. 350GB. 2 Partitionen einer 4TB-HD mit "Lagerdaten, wo sich sehr 
wenig ändert, wird mit RoboCopy-Scripten gesichert.
Zumindest ist mir in den letzen 20 Jahren noch nichts wichtiges abhanden 
gekommen. Gerade geschaut: die Sicherungen meines damaligen Amiga 4000 
von Dez. 2002 liegen als .lha auch noch auf der Lager-HD. Genauso wie 
irgendwann mal geretteter C64-Kram incl. Schaltpläne im Pagefox-Format 
incl. der nötigen Zutaten für einen Emulator oder einen echten C64. Den 
gibt es hier auch noch...

Gruß aus Berlin
Michael

von Jens M. (schuchkleisser)


Lesenswert?

(prx) A. K. schrieb:
> Ein Snapshot ist keine Differenz zu vorherigen Ständen.
>
> Dies gilt für die erwähnten Filesysteme und für Microsofts Shadow Copies
> im NTFS.

Ganz abgesehen davon das der Thread mal wieder vollkommen entgleist ist:
Um vollständige Kopien zu sein, sind NTFS-Schattenkopien viel zu schnell 
und viel zu klein.
Wie könnte man sonst 50 Schattenkopien auf einer Festplatte haben, die 
mehr als 2% voll ist?
Wie andere Dateisystem das machen weiß ich nicht, aber VSS ist definitiv 
ein Differenzsystem.

von (prx) A. K. (prx)


Lesenswert?

Jens M. schrieb:
> Um vollständige Kopien zu sein, sind NTFS-Schattenkopien viel zu schnell
> und viel zu klein.

Richtig. Es sind keine vollständigen Kopien. Snapshots sind keine 
Desaster-Backups, sie selbst eignen sich nicht zur Wiederherstellung 
eines zerstörten Volumes. Zur Wiederherstellung von Dateien und 
Dateibäumen, die ein Anwender versifft hat, sind sie hingegen ideal. Das 
ist Tagesgeschäft in Unternehmen.

Das spricht eine häufig auftretende Begriffsverwirrung an. Es gibt zwei 
verschiedene Verständnisse des "Backup" Begriffs. (1) Vollständige 
Wiederherstellung im Desaster-Fall und (2) selektive Wiederherstellung 
einzelner Daten. Das muss nicht unbedingt durch ein einziges Verfahren 
implementiert sein.

Für Wiederherstellung von Volumes und Speichersystemen muss man andere 
Methoden verwenden. Die Differenz zweier Snapshots kann aber, wie oben 
beschrieben, dabei helfen, mit wenig Aufwand auf einem Zweitsystem 
(vorzugsweise an einem anderen Ort) eine inkrementell mitlaufende 
vollständige Kopie auf Disk(s) vorzuhalten.

> Wie könnte man sonst 50 Schattenkopien auf einer Festplatte haben, die
> mehr als 2% voll ist?

Unveränderte Daten werden nicht kopiert. Es wird nur mitgezählt, wie 
viele Snapshots auf die gleichen Daten verweisen. Kopien von Blöcken 
(nicht Files) entstehen erst, wenn sie verändert werden.

: Bearbeitet durch User
von Jens M. (schuchkleisser)


Lesenswert?

Ja, das weiß ich.
Das bezog sich auf deine Aussage oben

(prx) A. K. schrieb:
> Ein Snapshot ist keine Differenz zu vorherigen Ständen.

Genau das ist er eben wohl, wenn es sich um einen VSS-Snapshot handelt.
Der Snapshot selbst beinhaltet keinen kompletten Stand, sondern nur die 
Unterschiede zum vorherigen.

von kleiner Admin (Gast)


Lesenswert?

Und wenn man sich den totalen Kick geben will, dann macht man 
"Deduplizierung", d.h. es gibt jede Datei nur noch einmal im Original 
und der Rest sind Verweise.
So etwas gibt es auch für Backups: da muß man dann aber tiefes Vertrauen 
in die Technik haben. 😉

Michael U. schrieb:
> Laufzeit 20-25min. erzeugte Dateigröße

Das entspricht auch ungefähr der Laufzeit für die Images. Zwar werden 
die Medien schneller, aber dafür wird auch der Datenberg größer.
Ausnahme sind z.B. ganz alte Rechner, die noch kein USB3 haben. Da 
dauert das Aufspielen eines Images schon mal 1,5 Stunden... Aber immer 
noch besser als das ganze OS und alle Programme von Hand zu 
installieren. 😁

von rbx (Gast)


Lesenswert?

kleiner Admin schrieb:
> Und wenn man sich den totalen Kick geben will, dann macht man
> "Deduplizierung", d.h. es gibt jede Datei nur noch einmal im Original
> und der Rest sind Verweise.
> So etwas gibt es auch für Backups: da muß man dann aber tiefes Vertrauen
> in die Technik haben.

DAS ist interessant - da fällt mir eine ganze Menge zu ein. Hoffentlich 
vergesse ich beim Schreiben des Artikels nicht, was ich schreiben 
wollte.

Hier und da gibt es wohl begriffsbedingte Missverständnisse.

Auf jeden Fall hatte ich mal mit dem Programm Drive Snapshot meine 
Windows Me Installation auf einer 20 GB Festplatte gesichert. Für ME 
hatte ich experimentell nur eine Partition von 1 GB ausprobiert. 
Tatsächlich ist 1 GB etwas zu knapp, aber man konnte später einige 
Sachen löschen um wieder mehr Platz für dies und das zu haben.
Die anderen Partitionen für Datengrab, Backups, Usb, CD(DVD)-Brennen und 
sonst noch.

Mainboard von 2001.
Gesichert hatte ich auf eine Usb-Festplatte, 1TB.

http://www.drivesnapshot.de/de/index.htm

Dauer: 6-8 Stunden.

Das brennen der "Backup"-Partition(en) dauerte meistens nur ein paar 
Minuten.

Die Festplatte meines 2008 ersten NBs war, bzw. ist 250 GB groß, die 
hatte ich zweimal mit Clonezilla auf die Usb-Festplatte "kopiert".
Das dauerte wohl auch zwei drei Stunden, oder länger.

So, jetzt zurück zu den Links:

Die Sicherungen von dem NB sind für mich nicht wirklich ideal, weil ich 
die nicht so oft mache, und die älteren Sicherung durch Veränderung des 
Inhalts auf dem aktuellen PCs schnell sinnloser werden.
Man müsste eigentlich täglich sichern, und ein paar Tage puffern.

(mache ich aber nicht)

(die Uni schon, die hatte 14 Tage Puffer)

Zusätzlich habe ich viele Original-CDs, die bei der Restaurierung nach 
Notfällen helfen.

Bei meinen Diablo2-Charakteren Online (Battle.net) gibt es keine 
Offline-Speicherung der Charaktere, außer durch Hacks.

Da ich aber oft mehrere Charaktere und sogenannte "Mulis", Platzhalter 
für Items, pro Ladderrun nutzte fand ich Bilder, also Screenshots sehr 
hilfreich.
Welcher Charakter (auf welchem Konto) hatte jetzt die Schuhe aus dem 
Sigon-Set?
Manchmal hatte ich extra einen Charakter für diese Sigon-Rüstung oder 
auch nur für diese Art von im Spiel grünen Set-Items.

Screenshots können sehr hilfreich sein, weil man bei Neuinstallationen 
verschiedenen Zusammenhänge aus dem Urzustand leicht vergessen kann.

Hier würde nicht nur ein Sceenshot helfen, sondern auch eine gelistete, 
also ausdruckbare Ausgabe/Übericht des Inhalts der Festplatte und aller 
Unterordner.

Bei den Bändern könnte man - wenn die nicht so teuer sind - eine 
experimentelle Reihe versuchen. Eine Datenbank mit vollem Zugriff auf 
alle Inhalte, und ihre Sicherung.
Eine Ausgabe zur Übersicht der Inhalte auf Papier oder einer anderen 
Liste - und natürlich äußere Ressourcen (Original CDs, Internet, 
Usb-Stick-Turnschuhnetzwerk, Notizbuch und andere Sachen)

Die Vergessenskurven sind recht linear (schräg nach unten). Aber es gibt 
sie. Was ist merkwürdig?

Früher (sehr viel früher) war Gedächtniskunst beliebt.

Merkwürdig:
https://www.amazon.de/Art-Memory-Frances-Yates/dp/1847922929

von (prx) A. K. (prx)


Lesenswert?

Jens M. schrieb:
> Genau das ist er eben wohl, wenn es sich um einen VSS-Snapshot handelt.
> Der Snapshot selbst beinhaltet keinen kompletten Stand, sondern nur die
> Unterschiede zum vorherigen.

Wobei Snapshot und Original dieser NTFS Shadow Copies für mich eine 
zusammengehörige Einheit darstellen und der Snapshot keine vom Volume 
sinnvoll lösbare Komponente darstellt. Unbekannt war mir bis dato, dass 
man bei NTFS für den Snapshot-Space auch ein separates Medium verwenden 
kann. Mit diesem alleine kann man wirklich nichts anfangen.

Dass Snapshots keine Desaster-Backups darstellen, war schon geklärt. Das 
ist nicht deren Sinn.

Die Diskussion bezog sich hierauf:

kleiner Admin schrieb:
> Geht die unveränderte
> Originaldatei verloren, dann fehlt die auch in allen Snapshots.

: Bearbeitet durch User
von kl (Gast)


Lesenswert?

rbx schrieb:
> Das brennen der "Backup"-Partition(en) dauerte meistens nur ein paar
> Minuten.

Ein Image ist für eine Datensicherung sicherlich keine ganz optimale 
Lösung, aber eine relativ einfache. Es wird einfach ein aktueller 
Zustand komplett gesichert; nicht mehr und nicht weniger. Wenn man das 
z.B. einmal pro Halbjahr macht, dann hat man immer ein relativ aktuelles 
System in Reserve (plus noch ein paar ältere). Allerdings sollte dann 
das Image immer auf einem entnehmbaren Datenträger (heute wohl meist 
externe Platte oder vielleicht ein großer Stick) liegen.

Sehr gut geeignet ist das Verfahren, wenn man das Betriebssystem öfter 
einmal neu installieren muß. Es gab mal eine Studie, daß in einem 
komplett installierten und konfigurierten(!) Arbeitsplatz etwa 200 
Arbeitsstunden stecken. Da sind die 20 Minuten für das Erstellen des 
Images nicht viel.
Allerdings hat die Dringlichkeit heute vielleicht etwas nachgelassen, 
aber zu Zeiten von Win95/98/ME kam das schön öfter einmal vor (manche 
scherzten, daß man 1x pro Jahr Windows neu installieren sollte, um die 
Registry wieder zu verschlanken). Früher hatte man auch noch sehr oft 
Computer, die mehrere Betriebssysteme alternativ booten konnten 
(Dualboot, Tripleboot, usw. - Rekord war mal ein Rechner mit 7 
Installationen), da steckte in der Einrichtung oft noch viel mehr 
Arbeit.
Im Falle von VM lassen sich heute die Images schnell erstellen und auch 
ebenso schnell wieder "zurückspielen". Ideal, wenn z.B. Software unter 
verschiedenen Betriebssystemen getestet werden soll.

Und der andere typische Anwendungsfall ist der Tausch der Festplatte 
(wie beim TO). Gerade in Laptops paßt ja im Regelfall keine zweite 
Festplatte, daher ist der einfachste Weg eben: Booten von Medium, Image 
alte HDD -> externe HDD, Platte wechseln, Booten von Medium, Image 
externe HDD -> neue HDD/SSD, evtl. noch Partitionen anpassen, fertig. 
Funktioniert unabhängig vom Betriebssystem ohne große Kenntnisse zu 
erfordern.

von kleiner Admin (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Snapshot-Space auch ein separates Medium

Damit könnte man z.B. verhindern, daß die Snapshots die Festplatte 
zumüllen. Oder man könnte dafür ein langsames und billigeres Medium 
verwenden. gerade bei VM, wo die VMs möglicherweise auf teuren RAID SSD 
Systemen liegen, könnten die Snapshots (und auch die Images) auf den 
langsameren, aber riesigen SATA Platten liegen.

von (prx) A. K. (prx)


Lesenswert?

kleiner Admin schrieb:
> könnten die Snapshots (und auch die Images) auf den langsameren, aber
> riesigen SATA Platten liegen.

Nicht vergessen, dass die Snapshots dieses Verfahrens keine mit dem 
Zeitpunkt eingefrorenen Daten sind. Mit jeder ersten Änderung von Daten 
gegenüber dem Zustand zum Zeitpunkt des letzten Snapshots werden Daten 
aus dem Primärvolume in diesen Snapshotspace kopiert, plus Metadaten.

Da diese Operation für die Konsistenz kritisch ist, kann die Performance 
eine Rolle spielen. Das ist ein Nachteil dieses Verfahrens gegenüber 
CoW, bei dem Snapshots rein statisch sind.

: Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.