Hallo zusammen, bitte entschuldigt, auf die schnelle konnte ich per Websuche auch keine richtige Lösung finden. Meine Frage ist, ob ein Festplattenimage immer so groß wie der Quelldatenträger wird? Bisher habe ich noch keine Images erstellt, daher bin ich in solchen Dingen völlig unerfahren. Ich lese nur Überall, das es eine 1:1 Kopie ist die dann auch genauso Groß wird. Oder werden mit bestimmten Tools die Images nur so groß, wie sie sein müssen? Mein Grundproblem ist Folgendes: Eigentlich brauche ich heute noch eine neue SSD und eigentlich würden mir auch 128GB ausreichen (nur für zwei OS - Linux und kaum benutztes Win7, die Daten liegen auf 1TB HDD). Allerdings bekomme ich jetzt nur noch 250GB (Samsung 860 EVO Basic 250GB). Das wäre halt blöd, wenn ich dann bei der Datensicherung 250GB Images habe, die eigentlich fast "leer" sind. Ich Danke euch für eine kurze Aufklärung :) Nette Grüße, Pascal
Pascal N. schrieb: > Meine Frage ist, ob ein Festplattenimage immer so groß wie der > Quelldatenträger wird? Das kommt auf die Software an, mit der das Image erstellt wird. Acronis z.B. "versteht" Dateisysteme von Windows und Linux und speichert nur was belegt ist, und die Komprimierung kann das manchmal noch auf die Hälfte reduzieren - aber nicht wenn die Daten schon komprimiert sind wie Bilddaten oder Zip-Dateien. Man muss also mindestens so viel Platz haben wie auf dem Original belegt ist, sonst kann das Backup schiefgehen. Die Komprimierbarkeit lässt sich nicht im voraus berechnen, die ist ja für jede Datei anders. Die oft vorgeschlagenen kostenlosen Lösungen wie Linux dd kopieren aber tatsächlich Sektor für Sektor, und manche einfachen Imager verstehen Linux-Systeme nicht und müssen die daher auch 1:1 kopieren. Georg
Du kannst es durch gzip pipen bevor Du es wegschreibst. z.B. so: dd if=/dev/sda1 | gzip > ~/image-compress_sda1.img.gz Oder du könntest es sogar nach dem gzip noch durch gpg pipen um es auch gleich noch zu verschlüsseln. Die Kompression mit gzip wird sehr effektiv sein denn bei einer SSD mit trimmendem Dateisystem (NTFS, Ext, und viele mehr) werden alle unbenutzten Blöcke der SSD zeitnah als jederzeit löschbar wieder zurückgegeben (die tut den Block dann wieder in ihren Wear-Leveling Pool). Und wenn man solche freigegebenen Blöcke wieder liest kommt nur noch 0 zurück. Der ganze freie unbenutzte Platz im Dateisystem wird also beim Auslesen stets als genullt erscheinen und das komprimiert extrem gut, die ganzen freien Gigabytes werden beim Komprimieren also auf so gut wie nichts zusammenschrumpfen.
:
Bearbeitet durch User
georg schrieb: > Die oft vorgeschlagenen kostenlosen Lösungen wie Linux dd kopieren aber > tatsächlich Sektor für Sektor, und manche einfachen Imager verstehen > Linux-Systeme nicht und müssen die daher auch 1:1 kopieren. Clonezilla kopiert bei den vielen bekannten Dateisystemen (siehe Homepage) nur die Daten und nicht die leeren Sektoren. Clonezilla gibt es schon seit Ewigkeiten. Nur bei unbekannten Dateisystemen nutzt es dd.
Bernd K. schrieb: > Du kannst es durch gzip pipen bevor Du es wegschreibst. > > z.B. so: > > dd if=/dev/sda1 | gzip > ~/image-compress_sda1.img.gz Also wenn schon dd, dann besser mit pigz, das nutzt dann immerhin alle Kerne aus und beschleunigt das Ganze immens.
Pascal N. schrieb: > Oder werden mit bestimmten Tools > die Images nur so groß, wie sie sein müssen? Deine Fragestellung kommt mir einigermaßen wirr rüber, mir ist unklar, was Du eigentlich willst. Windows (2000 bis Win7) sichere ich mit Acronis TrueImage home. Wie georg (Gast) schon schrieb, kennt es die gängigen Systeme und speichert nur benutzte Sektoren. Zusätzlich kann es komprimieren, dass das abhängig vom Inhalt ist, wurde auch schon gesagt. Komprimieren bezieht sich natürlich nur auf die Größe der Imagedatei, beim Zurücksichern wird die volle Größe benötigt. In gewissen Grenzen ist es auch möglich, das Image auf eine neue Platte auszupacken, welche kleiner ist. Ich glaube kaum, dass es dazu eine allgemeingültige Antwort geben kann - machen und ausprobieren ist angesagt!
Hallo Manfred, Manfred schrieb: > Windows (2000 bis Win7) sichere ich mit Acronis TrueImage home. welche Version von TrueImage Home nutzt Du? Läuft die stabil? Bist Du mit der zufrieden?
Peter M. schrieb: > Manfred schrieb: >> Windows (2000 bis Win7) sichere ich mit Acronis TrueImage home. > welche Version von TrueImage Home nutzt Du? 2011 14-6867, ausschließlich per Boot-CD oder USB-Boot-Stick. Das Eigenleben von dem Zeug, wenn es unter Windows installiert wurde, will ich auf dem Haupt-PC nicht haben. > Läuft die stabil? Ich bekomme Images, die funktionieren. Im Falle eines verbastelten oder verseuchten Windows, kommt auf meiner Internethure öfter mal vor, kann ich zurückspielen, viel mehr erwarte ich nicht. Auf einer Maschine habe ich es im Windows installiert, damit lassen sich aus dem Image auch einzelne Files gezielt heraus ziehen. > Bist Du mit der zufrieden? Halbwegs. Die Bedienung ist mir an einigen Ecken wenig intuitiv, nach Beendigung eines Jobs ist mitunter der PC tot und braucht einen harten Reset. Hinterhältig und gemein ist, dass Images einer anderen Version gerne mal als fehlerhaft abgewiesen werden, anstatt einfach zu sagen "falsche Version". Ich habe noch eine andere Eigenheit: Ich habe sehr schlanke Bootpartitionen C:\, Programme sind generell auf D:\ und überwiegend portierbare Versionen. Meine Bootpartition muß ich als Image sichern, alles weitere kann ich überwiegend als simple zip-Files sichern bzw. einfach im Netzwerk kopieren.
Cool, danke für die schnellen Infos! Das hat mir schon sehr geholfen (war genau das, was ich wissen wollte). Ihr seid wirklich super! :) Dann kann die Arbeit ja jetzt losgehen ;) DANKE!
Pascal N. schrieb: > Das wäre halt blöd, wenn ich dann bei der Datensicherung 250GB > Images habe, die eigentlich fast "leer" sind. Kommt ganz darauf an, was das Imageprogramm erkennt. Ein Image mit leeren oder ausgenullten Sektoren wird eigentlich gut komprimiert. Trotzdem würde ich heute die größere 250 GB SSD benutzen, da sicher noch viele Updates kommen und Dir die Platte füllen. Zur Erinnerung:Bei XP waren es über 500 Patche.
georg schrieb: > Die oft vorgeschlagenen kostenlosen Lösungen wie Linux dd kopieren aber > tatsächlich Sektor für Sektor, Dann nehme man die oft vorgeschlagenen kostenlosen Lösungen wie Linux partclone, denn das "versteht" Dateisysteme von Windows und Linux und speichert nur was belegt ist, und die Komprimierung kann das manchmal noch auf die Hälfte reduzieren. ;-) Siehe https://partclone.org/
Hallo, für Windows-Rechner ist inzwischen statt Acronis mein Favorit: Macrium Reflect Free Edition. Ist für mich mittlerweile das, was Acronis mal war: gut überschaubar, biete alles, was ich brauche, ist aktuell und kommt auch mit dem Clonen/kopieren von HD auf SSD klar. Gruß aus Berlin Michael
Pascal N. schrieb: > Allerdings bekomme ich jetzt nur noch 250GB (Samsung 860 EVO Basic > 250GB). Das wäre halt blöd, wenn ich dann bei der Datensicherung 250GB > Images habe, die eigentlich fast "leer" sind. Beim Windows Systemabbild wird nur der belegte Bereich gesichert und unnötige Systemdateien ausgeschlossen (hiberfil.sys, System Volume Information, recycle.bin, pagefile.sys).
Rolf M. schrieb: > Dann nehme man die oft vorgeschlagenen kostenlosen Lösungen wie Linux > partclone Das mag ein brauchbarer Vorschlag sein, weiss ich nicht, aber ich habe hier bestimmt schon mehr als 20 Diskussionen zum Thema mitgelesen, und IMMER wurde von den Linux-Fanatikern dd vorgeschlagen, natürlich per Kommandozeile mit unzähligen Parametern - wie das eben für "richtiges" Linux sein muss. Ich kann da nichts dafür, das ist halt Tradition. Man schreibt ja auch seine Briefe mit vi usw. Georg
georg schrieb: > Das mag ein brauchbarer Vorschlag sein, weiss ich nicht, aber ich habe > hier bestimmt schon mehr als 20 Diskussionen zum Thema mitgelesen, und > IMMER wurde von den Linux-Fanatikern dd vorgeschlagen, natürlich per > Kommandozeile mit unzähligen Parametern - wie das eben für "richtiges" > Linux sein muss. Kann ich verstehen,
1 | dd <woher> <wohin> |
Das ist sicherlich für viele Menschen hart an der mentalen Schmerzgrenze. Wenn man dann noch einen weiteren Parameter in die ohnehin schon arg überfüllte Zeile pressen möchte wie zB.
1 | conv=sparse |
dann sieht das für nicht-Eingeweihte schon bald wie Magie aus.
Warum sicherst Du nicht die Daten mit rsync oder tar von einem Linux Live-System aus?
Peter D. schrieb: > Beim Windows Systemabbild wird nur der belegte Bereich gesichert und > unnötige Systemdateien ausgeschlossen (hiberfil.sys, System Volume > Information, recycle.bin, pagefile.sys). Das ist korrekt, zeigt aber die Schwäche im Vergleich zu einem "richtigen" Image. Man braucht ein lauffähiges Windows, um so ein Systemabbild wieder zu einem lauffähigen Windows zu machen. Und selbst dann muss man noch recht genau wissen, was man tut, vor allem beim ersten Schritt, der Erstellung einer neuen Windows-Unstallation, die dann fähig ist, das Systemabbild einzuspielen, kann man viele Fehler machen. Sprich: für den gemeinen DAU bedeutet es: der Systemabbild-Mechanismus ist nutzlos, sobald sein Windows nicht mehr startet, also genau dann, wenn er die Sicherung am Dringendsten benötigt...
Andreas Müller schrieb: > Clonezilla kopiert bei den vielen bekannten Dateisystemen (siehe > Homepage) nur die Daten und nicht die leeren Sektoren. Dem ist wenig hinzuzufügen, außer dass man GRÜNDLICH lesen muß, bevor man was tut. https://www.heise.de/download/product/clonezilla-49483
c-hater schrieb: > Das ist korrekt, zeigt aber die Schwäche im Vergleich zu einem > "richtigen" Image. Man braucht ein lauffähiges Windows, um so ein > Systemabbild wieder zu einem lauffähigen Windows zu machen. ... Blanker Unsinn! Halte dich doch da zurück, wovon du keine Ahnung hast.
georg schrieb: > Das mag ein brauchbarer Vorschlag sein, weiss ich nicht, aber ich habe > hier bestimmt schon mehr als 20 Diskussionen zum Thema mitgelesen, und > IMMER wurde von den Linux-Fanatikern dd vorgeschlagen, natürlich per > Kommandozeile mit unzähligen Parametern - wie das eben für "richtiges" > Linux sein muss. Solche Tools haben den Vorteil, dass sie wirklich eine exakte 1:1-Kopie des Mediums machen, unabhängig von dem darauf befindlichen Filesystem. Je niedriger die Intelligenz des Tools, desto geringer ist auch die Gefahr, dass auf Grund von Softwarebugs doch einmal etwas schief geht. Es mag vielleicht etwas paranoid klingen, aber zu einer 1:1-Kopie, an deren Größe ich sofort erkennen kann, ob wirklich das gesamte Medium kopiert wurde, habe ich einfach mehr Vertrauen. Ich benutze dazu normalerweise aber nicht dd mit seiner ungewohnten IBM-Syntax, sondern ganz einfach cp. Die Parameter sind dabei nicht "unzählig", sondern beschränken sich auf die Angabe von Quelle und Ziel. dd braucht man eigentlich nur, wenn man lediglich einen Ausschnitt eines Mediums kopieren möchte, was aber so gut wie nie vorkommt. Um eine nur mäßig gefüllte Partition auf ein anderes Medium zu kopieren (bspw. um eine bestehende Linux-Installation auf einen neuen Rechner umzuziehen), gehe ich nicht den Umweg über ein Image, sondern kopiere die Daten direkt und dateiweise mit cp -a. Als netter Nebeneffekt wird dabei das Filesystem im gleichen Arbeitsgang auch noch defragmentiert.
Yalu X. schrieb: > Solche Tools haben den Vorteil, dass sie wirklich eine exakte 1:1-Kopie > des Mediums machen, unabhängig von dem darauf befindlichen Filesystem. > Je niedriger die Intelligenz des Tools, desto geringer ist auch die > Gefahr, dass auf Grund von Softwarebugs doch einmal etwas schief geht. Der Hauptvorteil von dd und Konsorten ist, dass sie auch das "Startsystem" mitkopieren, wenn man das komplette Medium imaged und nicht nur einzelne Partitionen. Für erfahrende Anwender ist dieser Vorteil natürlich weniger wichtig, die sind in der Lage, auch ausgehend von nur einem Partitionsimage wieder ein lauffähiges System zu erstellen. Nur sind halt leider 99% (oder mehr) der existierenden Menschen keine "erfahrenen Anwender", sondern schlicht nur DAUs. > Um eine nur mäßig gefüllte Partition auf ein anderes Medium zu kopieren > (bspw. um eine bestehende Linux-Installation auf einen neuen Rechner > umzuziehen), gehe ich nicht den Umweg über ein Image, sondern kopiere > die Daten direkt und dateiweise mit cp -a. Als netter Nebeneffekt wird > dabei das Filesystem im gleichen Arbeitsgang auch noch defragmentiert. Naja, das funktioniert mit Linux, aber natürlich nicht mit Windows. Die ganzen ACLs und und etliche NTFS-Spezialitäten fallen dabei hinten runter. Im allerbesten Fall (so ungefähr bis WindowsXP) könnte immerhin ein lauffähiges System entstehen. Allerdings auch dies nur mit sehr eingeschränktem Wert, weil die ohnehin recht geringe Sicherheit dabei ganz sicher komplett komplett verloren geht.
Mit cp -a geht das schon lange nicht mehr. Mindestens Xcopy, aber das seit 25 Jahren nicht mehr nötig. Für WIN gibt es doch schöne Tools, welche die ellenlangen dd Befehle mit einem Mausklick einstellen kann. Und auch Sector-Copy geht mit einem Klick. Ich persönlich nehme Paragon. Die V.2012 geht bis W7 problemlos. W10 zickt, lässt sich aber reparieren. Natürlich geht auch die WIN eigene Sicherung. Dann gibt es auch noch das von c't. Das WIMage. Bei allen ist aber die Kopie kleiner, als das Original. Mindestens bei Paragon kann ich die Komprimierung in vier Stufen einstellen. Die Zeit ist dann unterschiedlich. Für LINUX, bleibt doch glücklich mit dd.
Ich würde für sowas lz4 statt gzip nehmen, ist viel schneller und die Nullen wegkomprimieren kann das genausogut.
Sven B. schrieb: > Ich würde für sowas lz4 statt gzip nehmen, ist viel schneller und die > Nullen wegkomprimieren kann das genausogut. Dazu müssen da aber auch Nullen vorhanden sein. Wenn in dem Sektor schon mal Daten drin waren, stehen da keine Nullen mehr. Ich hab in der Vergangenheit dafür eher bzip2 (bzw. dessen Multicore-Variante pbzip2) verwendet. Das ist zwar langsamer als gzip, aber komprimiert dafür besser. Aber heutzutage nutze ich normalerweise eher Clonezilla. Das kopiert alles, was für ein funktionierendes System nötig ist.
Hallo, michael_ schrieb: > Ich persönlich nehme Paragon. > Die V.2012 geht bis W7 problemlos. W10 zickt, lässt sich aber > reparieren. ich hatte oben auch schon Macrium Reflect Free vorgeschalgen, aber praktische Lösungen sind hier offenbar nicht so gefragt... PS: ich habe auch Linux und DD schon genutzt, auch zur Datenrettung von einer teildefekten HD, nur warum sollte ich mir das ohne zwingenden Grund antun? Gruß aus Berlin Michael
c-hater schrieb: > Man braucht ein lauffähiges Windows, um so ein > Systemabbild wieder zu einem lauffähigen Windows zu machen. Nö, man muß nur die Recovery-CD einlegen und den Anweisungen folgen.
Rolf M. schrieb: > Dazu müssen da aber auch Nullen vorhanden sein. Wenn in dem Sektor schon > mal Daten drin waren, stehen da keine Nullen mehr. Er hat ne SSD. Ich habs doch oben ausführlich erklärt, nicht gelesen? Wenns richtig konfiguriert ist sind alle ungenutzen Sektoren immer genullt denn bei einer SSD kann man es sich nicht leisten den Inhalt von ungenutzten Sektoren für die Ewigkeit zu konservieren, ungenutzte Sektoren gibt man umgehend an den Wear-leveling pool zurück, der ist wichtiger. Und wenn man solchermaßen freigegebene Sektoren wieder liest kommt nur noch 0 zurück.
Rolf M. schrieb: > Sven B. schrieb: >> Ich würde für sowas lz4 statt gzip nehmen, ist viel schneller und die >> Nullen wegkomprimieren kann das genausogut. > > Dazu müssen da aber auch Nullen vorhanden sein. Wenn in dem Sektor schon > mal Daten drin waren, stehen da keine Nullen mehr. Dann komprimiert gzip es aber auch nicht gescheit. ;)
Peter D. schrieb: > Nö, man muß nur die Recovery-CD einlegen und den Anweisungen folgen. Blöd bloß, wenn man keine Recovery-CD hat und/oder auch kein optisches Laufwerk, um selbige einlegen zu können... Nö, bei Notebooks ist schon seit langem Usus, dass es überhaupt keine CD/DVD mehr gibt, sondern nur eine Recovery-Partition auf der Platte...
c-hater schrieb: > Blöd bloß, wenn man keine Recovery-CD hat und/oder auch kein optisches > Laufwerk, um selbige einlegen zu können... Ach Gottchen, jeder Windows-PC nervt nach dem Kauf, man solle eine Recovery-CD anfertigen. Und ein externer USB DVD-Writer ist auch nicht so teuer. Zum Linux booten oder installieren brauchst Du doch auch ein Laufwerk.
Michael U. schrieb: > ich hatte oben auch schon Macrium Reflect Free vorgeschalgen, aber > praktische Lösungen sind hier offenbar nicht so gefragt... Das Problem mit Macrium Reflect Free ist,dass es eben kostenlos ist,funktioniert und einfach zu benutzen ist.Ausserdem wird es alle naselang weiterentwickelt und eventuelle Probleme werden auch sofort per automatischem Patch-Update beseitigt.Ein weiterer Minuspunkt ist,dass sich das Interface auf German umstellen laesst - man hat's halt nicht leicht im Leben.....erwaehnt hatte ich Macrium auch schon des oefteren.Wird aber regelmaessig von den Acronis & LinuxFans uebertoent und zwar so ohrenbetaeubend laut,wie diese bekloppten Vuvuzela-Troeten bei der Fussball-WM ......? Fuer den TO: Ich habe eine 1TByte Laptop-HDD.Davon sind 150GByte fuer Windows reserviert. 45GByte werden dabei von Windows10 und installierten Programmen belegt belegt. Eine Image-Erstellung der 150GByte (2 Windowspartitionen/45GByte belegt)mit Macrium Reflect ergibt eine Datei(Image)groesse von 25GByte bei mittlerer Kompression. Das Macrium auch SSD bedienen kann,braucht nicht sonderlich erwaehnt zu werden....
c-hater schrieb: > Blöd bloß, wenn man keine Recovery-CD hat und/oder auch kein optisches > Laufwerk, um selbige einlegen zu können... Peter D. schrieb: > Und ein externer USB DVD-Writer ist auch nicht so teuer. Ja, und vor allem scheißend lahmarschig, macht keinen Spaß. > Zum Linux booten oder installieren brauchst Du doch auch ein Laufwerk. Gerüchten zufolge sollen sich auch USB-Sticks passend einrichten lassen. Früher habe ich mit PowerQuest DriveImage von Boot-CD gesichert, bis es dann von Norton übernommen und beerdigt wurde. Dann kam Acronis, das habe ich sowohl als Boot-CD als auch als Boot-Stick. Mir ist wichig, dass es nicht auf dem Rechner installiert werden muß und ich vom Bootmedium aus auf eine leere Platte zurücksichern kann. > Ach Gottchen, jeder Windows-PC nervt nach dem Kauf, man solle eine > Recovery-CD anfertigen. Die dann im Zweifelsfall strunzdoof den unbrauchbaren Auslieferzustand restoren kann. Der Kram ersetzt keine ordentliche Insatll-DVD und schon garnicht ein Image. Toxic schrieb: > Das Problem mit Macrium Reflect Free ist,dass es eben kostenlos > ist,funktioniert und einfach zu benutzen ist. Gut formuliert! Ich kenne es nicht, kann das als Boot-CD gebaut werden?
Manfred schrieb: > Ich kenne es nicht, kann das als Boot-CD gebaut werden? Wer Macrium das erste mal installiert wird nach dem Starten des Programs sofort darauf hingewiesen eine auf WindowsPE basierende BootCD oder entsprechenden bootbaren USB-Stick zu erstellen.Dazu muss man nur den Anweisungen folgen.Kinderleicht..... Ich lasse mir grundsaetzlich eine ISO-Datei erstellen,welche dann Bestandteil meines Multiboot-USBsticks ist.Ist aber nicht notwendig..... Die Anhaenge zeigen diverse Menues als Info und dienen nicht dazu jemanden zu verwirren.... https://www.macrium.com/reflectfree
Pascal N. schrieb: > Eigentlich brauche ich heute noch eine neue SSD und eigentlich würden > mir auch 128GB ausreichen (nur für zwei OS - Linux und kaum benutztes > Win7, die Daten liegen auf 1TB HDD). > > Allerdings bekomme ich jetzt nur noch 250GB (Samsung 860 EVO Basic > 250GB). Das wäre halt blöd, wenn ich dann bei der Datensicherung 250GB > Images habe, die eigentlich fast "leer" sind. Folgendes ist hochgradig IIRC: Du kannst das Image der 128GB auch auf eine grössere SSD zurückschreiben, vor dem mounten vergrösserst du die letzte Partition bis zum Ende mit einem parttool, danach machst du ein fsck auf dieser Partition und damit ist auch das FS entsprechend gewachsen. Das geht mit allen Dateisystemem unter Linux die 'wachsen' können, zumindest geht das so mit ext4. Soll eine Partition "zwischendrinn" vergrössert werden legst du die partitionen mit einem parttool vorher an, kopierst jede part aus dem Image in die entspr. neuen partition, machst für jede Part die gewachsen ist den entspr. fsck und fertig ist die Laube.
Manfred schrieb: > Ja, und vor allem scheißend lahmarschig, macht keinen Spaß. Ich hab da keinen Unterschied zu einem internen Laufwerk bemerkt. Limitierend ist die Geschwindigkeit der CD/DVD und nicht das USB. Wenns Dir zu langsam ist, nimmste eben einen USB-Stick. Ab 16GB kannst Du dann nicht nur das Recovery für das Systemabbild drauf installieren, sondern die komplette W10 Installation.
Manfred schrieb: > > Ich habe noch eine andere Eigenheit: Ich habe sehr schlanke > Bootpartitionen C:\, Programme sind generell auf D:\ und überwiegend > portierbare Versionen. Meine Bootpartition muß ich als Image sichern, > alles weitere kann ich überwiegend als simple zip-Files sichern bzw. > einfach im Netzwerk kopieren. Alle, wirklich alle Programme, auf D:/Programme zu packen, finde ich nicht unbedingt gut. Die kleinen Programme kommen bei mir auf C:/Programme - dann kann ich gleich nach der Widerherstellung auf den gewohnten Dateimanager und auf andere wichtige Programme zugreifen - unabhängig von Partition D:. Dann brauche ich mich nicht, wenn auch nur vorübergehend, mit dem Window-Explorer rumärgern. Außerdem wehren sich einige Programme vehement gegen eine Installation auf D:/Programme. Die kleinen Progamme fallen doch nicht groß ins Gewicht? Wichtig aber: Die eigenen Dateien immer nach ganz nach hinten auf die letzte Partition speichern. Die muß man ja nicht unbedingt im Image mitschleppen! Die großen Programme und Datenbanken natürlich auf D: bzw. D:/Programme So hat man auch ein schlankes Image. (Ich bin kein Computer-Freak)
"TrueImage de Luxe" gab es mal gratis auf Heft CD. Auf XP lief das Programm ausgezeichnet. Für Win98 hatte ich mal Drive Image...ging auch!
Peter D. schrieb: > Ach Gottchen, jeder Windows-PC nervt nach dem Kauf, man solle eine > Recovery-CD anfertigen. > Und ein externer USB DVD-Writer ist auch nicht so teuer. Zum Linux > booten oder installieren brauchst Du doch auch ein Laufwerk. Nö, das mach ich natürlich vom USB-Stick. Windows übrigens auch, schon seit XP-Zeiten...
Toxic schrieb: > Wer Macrium das erste mal installiert wird nach dem Starten des Programs > sofort darauf hingewiesen eine auf WindowsPE basierende BootCD oder > entsprechenden bootbaren USB-Stick zu erstellen. Danke für die Info! Ich habe keine akute Not, aber werde mal gucken, ob das eine Alternative zu A* ist. Peter D. schrieb: >> Ja, und vor allem scheißend lahmarschig, macht keinen Spaß. > Ich hab da keinen Unterschied zu einem internen Laufwerk bemerkt. > Limitierend ist die Geschwindigkeit der CD/DVD und nicht das USB. Ich empfinde es so und nutze es ungerne. > Wenns Dir zu langsam ist, nimmste eben einen USB-Stick. Habe ich erwähnt und mache ich auch. juergen schrieb: > Alle, wirklich alle Programme, auf D:/Programme zu packen, finde ich > nicht > unbedingt gut. Die kleinen Programme kommen bei mir auf C:/Programme - > dann kann ich gleich nach der Wi e derherstellung auf den gewohnten > Dateimanager und auf andere wichtige Programme zugreifen Ansichtssache. Auf c:\ habe ich den WinZip und sehr wenige Dinge, die es andernorts verweigern. Ich habe mehrere Rechner, ich kann Netzwerk - da sind meine Programme zügig herkopiert. juergen schrieb: > "TrueImage de Luxe" gab es mal gratis auf Heft CD. > Auf XP lief das Programm ausgezeichnet. Kenne ich nicht, ich habe TI-Home, bis Win7-64 und Srv2008 eigenhändig erprobt. TrueImage gab es auch als OEM-Version von einigen oder einem HD-Hersteller, lief aber nur, wenn auch eine Platte von jenem im System vorhanden war. > Für Win98 hatte ich mal Drive Image...ging auch! Funktionierte auch mit NT4 und XP, wollte aber mit SATA nicht mehr umgehen können. Schade, ich mochte es gerne.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.