Forum: PC Hard- und Software Kurze Frage zur Imagerstellung (Benötigte Speichergröße)


von Pascal N. (Gast)


Lesenswert?

Hallo zusammen,

bitte entschuldigt, auf die schnelle konnte ich per Websuche auch keine 
richtige Lösung finden.

Meine Frage ist, ob ein Festplattenimage immer so groß wie der 
Quelldatenträger wird?

Bisher habe ich noch keine Images erstellt, daher bin ich in solchen 
Dingen völlig unerfahren. Ich lese nur Überall, das es eine 1:1 Kopie 
ist die dann auch genauso Groß wird. Oder werden mit bestimmten Tools 
die Images nur so groß, wie sie sein müssen?

Mein Grundproblem ist Folgendes:

Eigentlich brauche ich heute noch eine neue SSD und eigentlich würden 
mir auch 128GB ausreichen (nur für zwei OS - Linux und kaum benutztes 
Win7, die Daten liegen auf 1TB HDD).

Allerdings bekomme ich jetzt nur noch 250GB (Samsung 860 EVO Basic 
250GB). Das wäre halt blöd, wenn ich dann bei der Datensicherung 250GB 
Images habe, die eigentlich fast "leer" sind.

Ich Danke euch für eine kurze Aufklärung :)

Nette Grüße,
Pascal

von georg (Gast)


Lesenswert?

Pascal N. schrieb:
> Meine Frage ist, ob ein Festplattenimage immer so groß wie der
> Quelldatenträger wird?

Das kommt auf die Software an, mit der das Image erstellt wird. Acronis 
z.B. "versteht" Dateisysteme von Windows und Linux und speichert nur was 
belegt ist, und die Komprimierung kann das manchmal noch auf die Hälfte 
reduzieren - aber nicht wenn die Daten schon komprimiert sind wie 
Bilddaten oder Zip-Dateien. Man muss also mindestens so viel Platz haben 
wie auf dem Original belegt ist, sonst kann das Backup schiefgehen. Die 
Komprimierbarkeit lässt sich nicht im voraus berechnen, die ist ja für 
jede Datei anders.

Die oft vorgeschlagenen kostenlosen Lösungen wie Linux dd kopieren aber 
tatsächlich Sektor für Sektor, und manche einfachen Imager verstehen 
Linux-Systeme nicht und müssen die daher auch 1:1 kopieren.

Georg

von Bernd K. (prof7bit)


Lesenswert?

Du kannst es durch gzip pipen bevor Du es wegschreibst.

z.B. so:

   dd if=/dev/sda1 | gzip > ~/image-compress_sda1.img.gz

Oder du könntest es sogar nach dem gzip noch durch gpg pipen um es auch 
gleich noch zu verschlüsseln.

Die Kompression mit gzip wird sehr effektiv sein denn bei einer SSD mit 
trimmendem Dateisystem (NTFS, Ext, und viele mehr) werden alle 
unbenutzten Blöcke der SSD zeitnah als jederzeit löschbar wieder 
zurückgegeben (die tut den Block dann wieder in ihren Wear-Leveling 
Pool). Und wenn man solche freigegebenen Blöcke wieder liest kommt nur 
noch 0 zurück. Der ganze freie unbenutzte Platz im Dateisystem wird also 
beim Auslesen stets als genullt erscheinen und das komprimiert extrem 
gut, die ganzen freien Gigabytes werden beim Komprimieren also auf so 
gut wie nichts zusammenschrumpfen.

: Bearbeitet durch User
von Andreas Müller (Gast)


Lesenswert?

georg schrieb:
> Die oft vorgeschlagenen kostenlosen Lösungen wie Linux dd kopieren aber
> tatsächlich Sektor für Sektor, und manche einfachen Imager verstehen
> Linux-Systeme nicht und müssen die daher auch 1:1 kopieren.


Clonezilla kopiert bei den vielen bekannten Dateisystemen (siehe 
Homepage) nur die Daten und nicht die leeren Sektoren.
Clonezilla gibt es schon seit Ewigkeiten.
Nur bei unbekannten Dateisystemen nutzt es dd.

von Andreas Müller (Gast)


Lesenswert?

Bernd K. schrieb:
> Du kannst es durch gzip pipen bevor Du es wegschreibst.
>
> z.B. so:
>
>    dd if=/dev/sda1 | gzip > ~/image-compress_sda1.img.gz


Also wenn schon dd, dann besser mit pigz, das nutzt dann immerhin alle 
Kerne aus und beschleunigt das Ganze immens.

von Manfred (Gast)


Lesenswert?

Pascal N. schrieb:
> Oder werden mit bestimmten Tools
> die Images nur so groß, wie sie sein müssen?

Deine Fragestellung kommt mir einigermaßen wirr rüber, mir ist unklar, 
was Du eigentlich willst.

Windows (2000 bis Win7) sichere ich mit Acronis TrueImage home. Wie 
georg (Gast) schon schrieb, kennt es die gängigen Systeme und speichert 
nur benutzte Sektoren. Zusätzlich kann es komprimieren, dass das 
abhängig vom Inhalt ist, wurde auch schon gesagt. Komprimieren bezieht 
sich natürlich nur auf die Größe der Imagedatei, beim Zurücksichern wird 
die volle Größe benötigt.

In gewissen Grenzen ist es auch möglich, das Image auf eine neue Platte 
auszupacken, welche kleiner ist.

Ich glaube kaum, dass es dazu eine allgemeingültige Antwort geben kann - 
machen und ausprobieren ist angesagt!

von Peter M. (r2d3)


Lesenswert?

Hallo Manfred,

Manfred schrieb:
> Windows (2000 bis Win7) sichere ich mit Acronis TrueImage home.

welche Version von TrueImage Home nutzt Du?
Läuft die stabil?
Bist Du mit der zufrieden?

von Manfred (Gast)


Lesenswert?

Peter M. schrieb:
> Manfred schrieb:
>> Windows (2000 bis Win7) sichere ich mit Acronis TrueImage home.
> welche Version von TrueImage Home nutzt Du?
2011 14-6867, ausschließlich per Boot-CD oder USB-Boot-Stick. Das 
Eigenleben von dem Zeug, wenn es unter Windows installiert wurde, will 
ich auf dem Haupt-PC nicht haben.

> Läuft die stabil?

Ich bekomme Images, die funktionieren. Im Falle eines verbastelten oder 
verseuchten Windows, kommt auf meiner Internethure öfter mal vor, kann 
ich zurückspielen, viel mehr erwarte ich nicht.

Auf einer Maschine habe ich es im Windows installiert, damit lassen sich 
aus dem Image auch einzelne Files gezielt heraus ziehen.

> Bist Du mit der zufrieden?

Halbwegs. Die Bedienung ist mir an einigen Ecken wenig intuitiv, nach 
Beendigung eines Jobs ist mitunter der PC tot und braucht einen harten 
Reset.

Hinterhältig und gemein ist, dass Images einer anderen Version gerne mal 
als fehlerhaft abgewiesen werden, anstatt einfach zu sagen "falsche 
Version".

Ich habe noch eine andere Eigenheit: Ich habe sehr schlanke 
Bootpartitionen C:\, Programme sind generell auf D:\ und überwiegend 
portierbare Versionen. Meine Bootpartition muß ich als Image sichern, 
alles weitere kann ich überwiegend als simple zip-Files sichern bzw. 
einfach im Netzwerk kopieren.

von Pascal N. (Gast)


Lesenswert?

Cool, danke für die schnellen Infos! Das hat mir schon sehr geholfen 
(war genau das, was ich wissen wollte). Ihr seid wirklich super! :)

Dann kann die Arbeit ja jetzt losgehen ;)

DANKE!

von Herr Troll (Gast)


Lesenswert?

Pascal N. schrieb:
> Das wäre halt blöd, wenn ich dann bei der Datensicherung 250GB
> Images habe, die eigentlich fast "leer" sind.

Kommt ganz darauf an, was das Imageprogramm erkennt. Ein Image mit 
leeren oder ausgenullten Sektoren wird eigentlich gut komprimiert. 
Trotzdem würde ich heute die größere 250 GB SSD benutzen, da sicher noch 
viele Updates kommen und Dir die Platte füllen. Zur Erinnerung:Bei XP 
waren es über 500 Patche.

von Rolf M. (rmagnus)


Lesenswert?

georg schrieb:
> Die oft vorgeschlagenen kostenlosen Lösungen wie Linux dd kopieren aber
> tatsächlich Sektor für Sektor,

Dann nehme man die oft vorgeschlagenen kostenlosen Lösungen wie Linux 
partclone, denn das "versteht" Dateisysteme von Windows und Linux und 
speichert nur was belegt ist, und die Komprimierung kann das manchmal 
noch auf die Hälfte reduzieren. ;-)
Siehe https://partclone.org/

von Michael U. (amiga)


Lesenswert?

Hallo,

für Windows-Rechner ist inzwischen statt Acronis mein Favorit:
Macrium Reflect Free Edition.

Ist für mich mittlerweile das, was Acronis mal war: gut überschaubar, 
biete alles, was ich brauche, ist aktuell und kommt auch mit dem 
Clonen/kopieren von HD auf SSD klar.

Gruß aus Berlin
Michael

von Peter D. (peda)


Lesenswert?

Pascal N. schrieb:
> Allerdings bekomme ich jetzt nur noch 250GB (Samsung 860 EVO Basic
> 250GB). Das wäre halt blöd, wenn ich dann bei der Datensicherung 250GB
> Images habe, die eigentlich fast "leer" sind.

Beim Windows Systemabbild wird nur der belegte Bereich gesichert und 
unnötige Systemdateien ausgeschlossen (hiberfil.sys, System Volume 
Information, recycle.bin, pagefile.sys).

von georg (Gast)


Lesenswert?

Rolf M. schrieb:
> Dann nehme man die oft vorgeschlagenen kostenlosen Lösungen wie Linux
> partclone

Das mag ein brauchbarer Vorschlag sein, weiss ich nicht, aber ich habe 
hier bestimmt schon mehr als 20 Diskussionen zum Thema mitgelesen, und 
IMMER wurde von den Linux-Fanatikern dd vorgeschlagen, natürlich per 
Kommandozeile mit unzähligen Parametern - wie das eben für "richtiges" 
Linux sein muss.

Ich kann da nichts dafür, das ist halt Tradition. Man schreibt ja auch 
seine Briefe mit vi usw.

Georg

von Norbert (Gast)


Lesenswert?

georg schrieb:
> Das mag ein brauchbarer Vorschlag sein, weiss ich nicht, aber ich habe
> hier bestimmt schon mehr als 20 Diskussionen zum Thema mitgelesen, und
> IMMER wurde von den Linux-Fanatikern dd vorgeschlagen, natürlich per
> Kommandozeile mit unzähligen Parametern - wie das eben für "richtiges"
> Linux sein muss.

Kann ich verstehen,
1
dd  <woher>  <wohin>
Das ist sicherlich für viele Menschen hart an der mentalen 
Schmerzgrenze.

Wenn man dann noch einen weiteren Parameter in die ohnehin schon arg 
überfüllte Zeile pressen möchte wie zB.
1
conv=sparse
dann sieht das für nicht-Eingeweihte schon bald wie Magie aus.

von Eric (Gast)


Lesenswert?

Warum sicherst Du nicht die Daten mit rsync oder tar von einem Linux 
Live-System aus?

von c-hater (Gast)


Lesenswert?

Peter D. schrieb:

> Beim Windows Systemabbild wird nur der belegte Bereich gesichert und
> unnötige Systemdateien ausgeschlossen (hiberfil.sys, System Volume
> Information, recycle.bin, pagefile.sys).

Das ist korrekt, zeigt aber die Schwäche im Vergleich zu einem 
"richtigen" Image. Man braucht ein lauffähiges Windows, um so ein 
Systemabbild wieder zu einem lauffähigen Windows zu machen. Und selbst 
dann muss man noch recht genau wissen, was man tut, vor allem beim 
ersten Schritt, der Erstellung einer neuen Windows-Unstallation, die 
dann fähig ist, das Systemabbild einzuspielen, kann man viele Fehler 
machen.

Sprich: für den gemeinen DAU bedeutet es: der Systemabbild-Mechanismus 
ist nutzlos, sobald sein Windows nicht mehr startet, also genau dann, 
wenn er die Sicherung am Dringendsten benötigt...

von oszi40 (Gast)


Lesenswert?

Andreas Müller schrieb:
> Clonezilla kopiert bei den vielen bekannten Dateisystemen (siehe
> Homepage) nur die Daten und nicht die leeren Sektoren.

Dem ist wenig hinzuzufügen, außer dass man GRÜNDLICH lesen muß, bevor 
man was tut. https://www.heise.de/download/product/clonezilla-49483

von michael_ (Gast)


Lesenswert?

c-hater schrieb:
> Das ist korrekt, zeigt aber die Schwäche im Vergleich zu einem
> "richtigen" Image. Man braucht ein lauffähiges Windows, um so ein
> Systemabbild wieder zu einem lauffähigen Windows zu machen.
...

Blanker Unsinn!
Halte dich doch da zurück, wovon du keine Ahnung hast.

von Yalu X. (yalu) (Moderator)


Lesenswert?

georg schrieb:
> Das mag ein brauchbarer Vorschlag sein, weiss ich nicht, aber ich habe
> hier bestimmt schon mehr als 20 Diskussionen zum Thema mitgelesen, und
> IMMER wurde von den Linux-Fanatikern dd vorgeschlagen, natürlich per
> Kommandozeile mit unzähligen Parametern - wie das eben für "richtiges"
> Linux sein muss.

Solche Tools haben den Vorteil, dass sie wirklich eine exakte 1:1-Kopie
des Mediums machen, unabhängig von dem darauf befindlichen Filesystem.
Je niedriger die Intelligenz des Tools, desto geringer ist auch die
Gefahr, dass auf Grund von Softwarebugs doch einmal etwas schief geht.
Es mag vielleicht etwas paranoid klingen, aber zu einer 1:1-Kopie, an
deren Größe ich sofort erkennen kann, ob wirklich das gesamte Medium
kopiert wurde, habe ich einfach mehr Vertrauen.

Ich benutze dazu normalerweise aber nicht dd mit seiner ungewohnten
IBM-Syntax, sondern ganz einfach cp. Die Parameter sind dabei nicht
"unzählig", sondern beschränken sich auf die Angabe von Quelle und Ziel.
dd braucht man eigentlich nur, wenn man lediglich einen Ausschnitt eines
Mediums kopieren möchte, was aber so gut wie nie vorkommt.

Um eine nur mäßig gefüllte Partition auf ein anderes Medium zu kopieren
(bspw. um eine bestehende Linux-Installation auf einen neuen Rechner
umzuziehen), gehe ich nicht den Umweg über ein Image, sondern kopiere
die Daten direkt und dateiweise mit cp -a. Als netter Nebeneffekt wird
dabei das Filesystem im gleichen Arbeitsgang auch noch defragmentiert.

von c-hater (Gast)


Lesenswert?

Yalu X. schrieb:

> Solche Tools haben den Vorteil, dass sie wirklich eine exakte 1:1-Kopie
> des Mediums machen, unabhängig von dem darauf befindlichen Filesystem.
> Je niedriger die Intelligenz des Tools, desto geringer ist auch die
> Gefahr, dass auf Grund von Softwarebugs doch einmal etwas schief geht.

Der Hauptvorteil von dd und Konsorten ist, dass sie auch das 
"Startsystem" mitkopieren, wenn man das komplette Medium imaged und 
nicht nur einzelne Partitionen.

Für erfahrende Anwender ist dieser Vorteil natürlich weniger wichtig, 
die sind in der Lage, auch ausgehend von nur einem Partitionsimage 
wieder ein lauffähiges System zu erstellen.

Nur sind halt leider 99% (oder mehr) der existierenden Menschen keine 
"erfahrenen Anwender", sondern schlicht nur DAUs.

> Um eine nur mäßig gefüllte Partition auf ein anderes Medium zu kopieren
> (bspw. um eine bestehende Linux-Installation auf einen neuen Rechner
> umzuziehen), gehe ich nicht den Umweg über ein Image, sondern kopiere
> die Daten direkt und dateiweise mit cp -a. Als netter Nebeneffekt wird
> dabei das Filesystem im gleichen Arbeitsgang auch noch defragmentiert.

Naja, das funktioniert mit Linux, aber natürlich nicht mit Windows. Die 
ganzen ACLs und und etliche NTFS-Spezialitäten fallen dabei hinten 
runter. Im allerbesten Fall (so ungefähr bis WindowsXP) könnte immerhin 
ein lauffähiges System entstehen. Allerdings auch dies nur mit sehr 
eingeschränktem Wert, weil die ohnehin recht geringe Sicherheit dabei 
ganz sicher komplett komplett verloren geht.

von michael_ (Gast)


Lesenswert?

Mit  cp -a geht das schon lange nicht mehr.
Mindestens Xcopy, aber das seit 25 Jahren nicht mehr nötig.

Für WIN gibt es doch schöne Tools, welche die ellenlangen dd Befehle mit 
einem Mausklick einstellen kann.
Und auch Sector-Copy geht mit einem Klick.

Ich persönlich nehme Paragon.
Die V.2012 geht bis W7 problemlos. W10 zickt, lässt sich aber 
reparieren.

Natürlich geht auch die WIN eigene Sicherung.
Dann gibt es auch noch das von c't. Das WIMage.

Bei allen ist aber die Kopie kleiner, als das Original.
Mindestens bei Paragon kann ich die Komprimierung in vier Stufen 
einstellen.
Die Zeit ist dann unterschiedlich.

Für LINUX, bleibt doch glücklich mit dd.

von Sven B. (scummos)


Lesenswert?

Ich würde für sowas lz4 statt gzip nehmen, ist viel schneller und die 
Nullen wegkomprimieren kann das genausogut.

von Rolf M. (rmagnus)


Lesenswert?

Sven B. schrieb:
> Ich würde für sowas lz4 statt gzip nehmen, ist viel schneller und die
> Nullen wegkomprimieren kann das genausogut.

Dazu müssen da aber auch Nullen vorhanden sein. Wenn in dem Sektor schon 
mal Daten drin waren, stehen da keine Nullen mehr.
Ich hab in der Vergangenheit dafür eher bzip2 (bzw. dessen 
Multicore-Variante pbzip2) verwendet. Das ist zwar langsamer als gzip, 
aber komprimiert dafür besser. Aber heutzutage nutze ich normalerweise 
eher Clonezilla. Das kopiert alles, was für ein funktionierendes System 
nötig ist.

von Michael U. (amiga)


Lesenswert?

Hallo,

michael_ schrieb:
> Ich persönlich nehme Paragon.
> Die V.2012 geht bis W7 problemlos. W10 zickt, lässt sich aber
> reparieren.

ich hatte oben auch schon Macrium Reflect Free vorgeschalgen, aber 
praktische Lösungen sind hier offenbar nicht so gefragt...

PS: ich habe auch Linux und DD schon genutzt, auch zur Datenrettung von 
einer teildefekten HD, nur warum sollte ich mir das ohne zwingenden 
Grund antun?

Gruß aus Berlin
Michael

von Peter D. (peda)


Lesenswert?

c-hater schrieb:
> Man braucht ein lauffähiges Windows, um so ein
> Systemabbild wieder zu einem lauffähigen Windows zu machen.

Nö, man muß nur die Recovery-CD einlegen und den Anweisungen folgen.

von Bernd K. (prof7bit)


Lesenswert?

Rolf M. schrieb:
> Dazu müssen da aber auch Nullen vorhanden sein. Wenn in dem Sektor schon
> mal Daten drin waren, stehen da keine Nullen mehr.

Er hat ne SSD. Ich habs doch oben ausführlich erklärt, nicht gelesen? 
Wenns richtig konfiguriert ist sind alle ungenutzen Sektoren immer 
genullt denn bei einer SSD kann man es sich nicht leisten den Inhalt von 
ungenutzten Sektoren für die Ewigkeit zu konservieren, ungenutzte 
Sektoren gibt man umgehend an den Wear-leveling pool zurück, der ist 
wichtiger. Und wenn man solchermaßen freigegebene Sektoren wieder liest 
kommt nur noch 0 zurück.

von Sven B. (scummos)


Lesenswert?

Rolf M. schrieb:
> Sven B. schrieb:
>> Ich würde für sowas lz4 statt gzip nehmen, ist viel schneller und die
>> Nullen wegkomprimieren kann das genausogut.
>
> Dazu müssen da aber auch Nullen vorhanden sein. Wenn in dem Sektor schon
> mal Daten drin waren, stehen da keine Nullen mehr.

Dann komprimiert gzip es aber auch nicht gescheit. ;)

von c-hater (Gast)


Lesenswert?

Peter D. schrieb:

> Nö, man muß nur die Recovery-CD einlegen und den Anweisungen folgen.

Blöd bloß, wenn man keine Recovery-CD hat und/oder auch kein optisches 
Laufwerk, um selbige einlegen zu können...

Nö, bei Notebooks ist schon seit langem Usus, dass es überhaupt keine 
CD/DVD mehr gibt, sondern nur eine Recovery-Partition auf der Platte...

von Peter D. (peda)


Lesenswert?

c-hater schrieb:
> Blöd bloß, wenn man keine Recovery-CD hat und/oder auch kein optisches
> Laufwerk, um selbige einlegen zu können...

Ach Gottchen, jeder Windows-PC nervt nach dem Kauf, man solle eine 
Recovery-CD anfertigen.
Und ein externer USB DVD-Writer ist auch nicht so teuer. Zum Linux 
booten oder installieren brauchst Du doch auch ein Laufwerk.

von Toxic (Gast)


Angehängte Dateien:

Lesenswert?

Michael U. schrieb:
> ich hatte oben auch schon Macrium Reflect Free vorgeschalgen, aber
> praktische Lösungen sind hier offenbar nicht so gefragt...

Das Problem mit Macrium Reflect Free ist,dass es eben kostenlos 
ist,funktioniert und einfach zu benutzen ist.Ausserdem wird es alle 
naselang weiterentwickelt und eventuelle Probleme werden auch sofort per 
automatischem Patch-Update beseitigt.Ein weiterer Minuspunkt ist,dass 
sich das Interface auf German umstellen laesst - man hat's halt nicht 
leicht im Leben.....erwaehnt hatte ich Macrium auch schon des 
oefteren.Wird aber regelmaessig von den Acronis & LinuxFans uebertoent 
und zwar so ohrenbetaeubend laut,wie diese bekloppten Vuvuzela-Troeten 
bei der Fussball-WM ......?

Fuer den TO:
Ich habe eine 1TByte Laptop-HDD.Davon sind 150GByte fuer Windows 
reserviert.
45GByte werden dabei von Windows10 und installierten Programmen belegt 
belegt.
Eine Image-Erstellung der 150GByte (2 Windowspartitionen/45GByte 
belegt)mit Macrium Reflect ergibt eine Datei(Image)groesse von 25GByte 
bei mittlerer Kompression.
Das Macrium auch SSD bedienen kann,braucht nicht sonderlich erwaehnt zu 
werden....

von Manfred (Gast)


Lesenswert?

c-hater schrieb:
> Blöd bloß, wenn man keine Recovery-CD hat und/oder auch kein optisches
> Laufwerk, um selbige einlegen zu können...
Peter D. schrieb:
> Und ein externer USB DVD-Writer ist auch nicht so teuer.
Ja, und vor allem scheißend lahmarschig, macht keinen Spaß.

> Zum Linux booten oder installieren brauchst Du doch auch ein Laufwerk.
Gerüchten zufolge sollen sich auch USB-Sticks passend einrichten lassen.

Früher habe ich mit PowerQuest DriveImage von Boot-CD gesichert, bis es 
dann von Norton übernommen und beerdigt wurde. Dann kam Acronis, das 
habe ich sowohl als Boot-CD als auch als Boot-Stick.

Mir ist wichig, dass es nicht auf dem Rechner installiert werden muß und 
ich vom Bootmedium aus auf eine leere Platte zurücksichern kann.

> Ach Gottchen, jeder Windows-PC nervt nach dem Kauf, man solle eine
> Recovery-CD anfertigen.

Die dann im Zweifelsfall strunzdoof den unbrauchbaren Auslieferzustand 
restoren kann. Der Kram ersetzt keine ordentliche Insatll-DVD und schon 
garnicht ein Image.

Toxic schrieb:
> Das Problem mit Macrium Reflect Free ist,dass es eben kostenlos
> ist,funktioniert und einfach zu benutzen ist.

Gut formuliert! Ich kenne es nicht, kann das als Boot-CD gebaut werden?

von Toxic (Gast)


Angehängte Dateien:

Lesenswert?

Manfred schrieb:
> Ich kenne es nicht, kann das als Boot-CD gebaut werden?

Wer Macrium das erste mal installiert wird nach dem Starten des Programs 
sofort darauf hingewiesen eine auf WindowsPE basierende BootCD oder 
entsprechenden bootbaren USB-Stick zu erstellen.Dazu muss man nur den 
Anweisungen folgen.Kinderleicht.....

Ich lasse mir grundsaetzlich eine ISO-Datei erstellen,welche dann 
Bestandteil meines Multiboot-USBsticks ist.Ist aber nicht notwendig.....

Die Anhaenge zeigen diverse Menues als Info und dienen nicht dazu 
jemanden zu verwirren....

https://www.macrium.com/reflectfree

von Eztof Lemmip (Gast)


Lesenswert?

Pascal N. schrieb:
> Eigentlich brauche ich heute noch eine neue SSD und eigentlich würden
> mir auch 128GB ausreichen (nur für zwei OS - Linux und kaum benutztes
> Win7, die Daten liegen auf 1TB HDD).
>
> Allerdings bekomme ich jetzt nur noch 250GB (Samsung 860 EVO Basic
> 250GB). Das wäre halt blöd, wenn ich dann bei der Datensicherung 250GB
> Images habe, die eigentlich fast "leer" sind.

Folgendes ist hochgradig IIRC:
Du kannst das Image der 128GB auch auf eine grössere SSD 
zurückschreiben, vor dem mounten vergrösserst du die letzte Partition 
bis zum Ende mit einem parttool, danach machst du ein fsck auf dieser 
Partition und damit ist auch das FS entsprechend gewachsen. Das geht mit 
allen Dateisystemem unter Linux die 'wachsen' können, zumindest geht das 
so mit ext4.
Soll eine Partition "zwischendrinn" vergrössert werden legst du die 
partitionen mit einem parttool vorher an, kopierst jede part aus dem 
Image in die entspr. neuen partition, machst für jede Part die gewachsen 
ist den entspr. fsck und fertig ist die Laube.

von Peter D. (peda)


Lesenswert?

Manfred schrieb:
> Ja, und vor allem scheißend lahmarschig, macht keinen Spaß.

Ich hab da keinen Unterschied zu einem internen Laufwerk bemerkt. 
Limitierend ist die Geschwindigkeit der CD/DVD und nicht das USB.

Wenns Dir zu langsam ist, nimmste eben einen USB-Stick. Ab 16GB kannst 
Du dann nicht nur das Recovery für das Systemabbild drauf installieren, 
sondern die komplette W10 Installation.

von juergen (Gast)


Lesenswert?

Manfred schrieb:

>
> Ich habe noch eine andere Eigenheit: Ich habe sehr schlanke
> Bootpartitionen C:\, Programme sind generell auf D:\ und überwiegend
> portierbare Versionen. Meine Bootpartition muß ich als Image sichern,
> alles weitere kann ich überwiegend als simple zip-Files sichern bzw.
> einfach im Netzwerk kopieren.

Alle, wirklich alle Programme, auf D:/Programme zu packen, finde ich 
nicht
unbedingt gut. Die kleinen Programme kommen bei mir auf C:/Programme - 
dann kann ich gleich nach der Widerherstellung auf den gewohnten 
Dateimanager und auf andere wichtige Programme zugreifen - unabhängig 
von Partition D:. Dann brauche ich mich nicht, wenn auch nur 
vorübergehend, mit dem Window-Explorer rumärgern. Außerdem wehren sich 
einige Programme vehement gegen eine Installation auf D:/Programme. Die 
kleinen Progamme fallen doch nicht groß ins Gewicht?

Wichtig aber: Die eigenen Dateien immer nach ganz nach hinten auf die 
letzte Partition speichern. Die muß man ja nicht unbedingt im Image 
mitschleppen!

Die großen Programme und Datenbanken natürlich auf D: bzw. D:/Programme

So hat man auch ein schlankes Image.

(Ich bin kein Computer-Freak)

von juergen (Gast)


Lesenswert?

"TrueImage de Luxe" gab es mal gratis auf Heft CD.
Auf XP lief das Programm ausgezeichnet.
Für Win98 hatte ich mal Drive Image...ging auch!

von c-hater (Gast)


Lesenswert?

Peter D. schrieb:

> Ach Gottchen, jeder Windows-PC nervt nach dem Kauf, man solle eine
> Recovery-CD anfertigen.
> Und ein externer USB DVD-Writer ist auch nicht so teuer. Zum Linux
> booten oder installieren brauchst Du doch auch ein Laufwerk.

Nö, das mach ich natürlich vom USB-Stick. Windows übrigens auch, schon 
seit XP-Zeiten...

von Manfred (Gast)


Lesenswert?

Toxic schrieb:
> Wer Macrium das erste mal installiert wird nach dem Starten des Programs
> sofort darauf hingewiesen eine auf WindowsPE basierende BootCD oder
> entsprechenden bootbaren USB-Stick zu erstellen.

Danke für die Info! Ich habe keine akute Not, aber werde mal gucken, ob 
das eine Alternative zu A* ist.

Peter D. schrieb:
>> Ja, und vor allem scheißend lahmarschig, macht keinen Spaß.
> Ich hab da keinen Unterschied zu einem internen Laufwerk bemerkt.
> Limitierend ist die Geschwindigkeit der CD/DVD und nicht das USB.

Ich empfinde es so und nutze es ungerne.

> Wenns Dir zu langsam ist, nimmste eben einen USB-Stick.

Habe ich erwähnt und mache ich auch.

juergen schrieb:
> Alle, wirklich alle Programme, auf D:/Programme zu packen, finde ich
> nicht
> unbedingt gut. Die kleinen Programme kommen bei mir auf C:/Programme -
> dann kann ich gleich nach der Wi e derherstellung auf den gewohnten
> Dateimanager und auf andere wichtige Programme zugreifen

Ansichtssache. Auf c:\ habe ich den WinZip und sehr wenige Dinge, die es 
andernorts verweigern. Ich habe mehrere Rechner, ich kann Netzwerk - da 
sind meine Programme zügig herkopiert.

juergen schrieb:
> "TrueImage de Luxe" gab es mal gratis auf Heft CD.
> Auf XP lief das Programm ausgezeichnet.

Kenne ich nicht, ich habe TI-Home, bis Win7-64 und Srv2008 eigenhändig 
erprobt. TrueImage gab es auch als OEM-Version von einigen oder einem 
HD-Hersteller, lief aber nur, wenn auch eine Platte von jenem im System 
vorhanden war.

> Für Win98 hatte ich mal Drive Image...ging auch!

Funktionierte auch mit NT4 und XP, wollte aber mit SATA nicht mehr 
umgehen können. Schade, ich mochte es gerne.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.