Forum: PC Hard- und Software Festplatte kopieren dauert endlos lange


von Matthias W. (matt007)


Lesenswert?

Zum Kopieren der Festplattendaten unter WinXP hängt an der 
USB3-Schnittstelle eine neue Medion-Festplatte HDDrive 2Go mit 1 TB.

Ein Dateiordner ist 216GB gross und enthält auch viele kleinere Dateien. 
Der Kopiervorgang mit TeraCopy dauert nun schon viele Stunden. 96GB 
(44.6%) sind kopiert und 242000 Dateien. Für die restlichen ca 180000 
Dateien wird eine Restdauer von 1-109 Tagen angezeigt.

Wenn ich es stattdessen mit dem TotalCommander probiere komme ich auf 
eine Zeitangabe von ca. 78 Stunden.

Ist das normal daß so etwas so lange dauert?

Gibt es Möglichkeiten das deutlich zu beschleunigen?

von MaWin (Gast)


Lesenswert?

> Ist das normal daß so etwas so lange dauert?

Ja.

Falls du noch 3 Virenscanner eingeschaltet hast, diese
mal abschalten.


> Gibt es Möglichkeiten das deutlich zu beschleunigen?

Weniger Dateien, also z.B. vorher ZIP-Archive anlegen
(deren Anlagen natürlich genau so lange dauert).

von Εrnst B. (ernst)


Lesenswert?

Matthias W. schrieb:
> Gibt es Möglichkeiten das deutlich zu beschleunigen?

Du hast doch schon eine gefunden:
> Restdauer von 1-109 Tagen angezeigt.
...
> TotalCommander probiere komme ich auf eine Zeitangabe von ca. 78 Stunden.

Ansonsten: Nachschauen, ob das Gerät wirklich als USB3 erkannt und 
verwendet wird, oder ob nur das Kabel eine andere Farbe hat...

Und bei vielen kleinen Dateien wie bei dir: Schreibcache erlauben.
Dann aber nicht mehr einfach so "Stecker ziehen", sondern immer sauber 
auswerfen.

von Uwe (Gast)


Lesenswert?

Oder nen Image ziehen das geht dann ca. so schnell wie formatieren.

von ./. (Gast)


Lesenswert?

xcopy ist immer noch am schnellsten.
Prioriataet auf "above normal" setzen, dann gehts noch schneller.

von Lukas T. (tapy)


Lesenswert?

Ehrlich gesagt, nicht XP verwenden.
Der Windowsinterne Kopiermechanismus wird erst ab 8 richtig flott bei 
kleinen Dateien.

von Matthias W. (matt007)


Lesenswert?

MaWin schrieb:
> Falls du noch 3 Virenscanner eingeschaltet hast, diese
> mal abschalten.

Danke Mawin. Den Avast kann ich abschalten.

> Weniger Dateien, also z.B. vorher ZIP-Archive anlegen
> (deren Anlagen natürlich genau so lange dauert).

das ist dann wohl nicht so genial. Bei meinen alten Digitalbildern hatte 
ich es mit zips gemacht. Diese verlor ich dann aus Versehen bei einem 
Kopiervorgang. 20 Jahre Digitalbilder weg weil ich keine zweite 
Sicherung dazu hatte.

von MAD (Gast)


Lesenswert?

./. schrieb:
> xcopy ist immer noch am schnellsten.

100% ACK! xcopy in der Command-Shell aufrufen und fertig.
Ich brauche für einen Backup von 500 GB auf externes USB2.0 Gerät
im Schnitt 30 Minuten.
Wichtig ist, wie schon geschrieben wurde, nach dem Start von xcopy dem 
Task im Taskmanager die höchste Priorität geben und danach am Rechner 
nichts mehr machen. Antiviren-Programme natürlich vorher ausschalten.

von Matthias W. (matt007)


Lesenswert?

Εrnst B✶ schrieb:
> Ansonsten: Nachschauen, ob das Gerät wirklich als USB3 erkannt und
> verwendet wird, oder ob nur das Kabel eine andere Farbe hat...

auf der Platte selbst steht USB3.0. Im Gerätemanager gibt es einen 
Renesas USB3.0-Controller. Die Platte wird als ST1000DM 003-9YN162 USB 
Device angezeigt. Der Treiber stammt vom 1.7.2001. Version 5.1.2535.0. 
Damals gab es doch gar kein USB3.0?

> Und bei vielen kleinen Dateien wie bei dir: Schreibcache erlauben.

Das ist im Treiber anwählbar - nur wohl nicht während dem Lauf. Es 
dauert lange bis man wieder da ist beim Kopiervorgang wo man war. Auch 
rasch mal im Bios schauen geht schwer.

von Matthias W. (matt007)


Lesenswert?

MAD schrieb:
> 100% ACK! xcopy in der Command-Shell aufrufen und fertig.
> Wichtig ist, wie schon geschrieben wurde, nach dem Start von xcopy dem
> Task im Taskmanager die höchste Priorität geben und danach am Rechner
> nichts mehr machen. Antiviren-Programme natürlich vorher ausschalten.

vielen Dank für den Hinweis. Xcopy also aus DOS-Zeiten.

von Timmo H. (masterfx)


Lesenswert?

MAD schrieb:
> ./. schrieb:
>> xcopy ist immer noch am schnellsten.
>
> 100% ACK! xcopy in der Command-Shell aufrufen und fertig.
> Ich brauche für einen Backup von 500 GB auf externes USB2.0 Gerät
> im Schnitt 30 Minuten.
Unmöglich. Mit USB 2.0 schaffst du mit etwas Glück 34-35 MiB/s. Sind 
also in 30 Minuten maximal: 30*60s*35MiB/s = 63000MB = 61,5 GiB.

von Matthias W. (matt007)


Lesenswert?

Timmo H. schrieb:
> Unmöglich. Mit USB 2.0 schaffst du mit etwas Glück 34-35 MiB/s. Sind
> also in 30 Minuten maximal: 30*60s*35MiB/s = 63000MB = 61,5 GiB.

Teilweise - bei großen Dateien - sehe ich Kopiergeschwindigkeiten bis 85 
MB/s. Das scheint also schon USB3 zu sein. Nur bremsen die sehr vielen 
kleinen Dateien das stark aus.

von Timmo H. (masterfx)


Angehängte Dateien:

Lesenswert?

Viele kleine Dateien dauern generell länger als Große (Overhead, IOs,
Zugriffszeiten...)

Aktiviere mal den Schreibcache des Datenträgers (sofern noch nicht
geschehen), das hilft schon etwas.

von Matthias W. (matt007)


Lesenswert?

Timmo H. schrieb:
> Aktiviere mal den Schreibcache des Datenträgers (sofern noch nicht
> geschehen), das hilft schon etwas.

das mache ich. Danke Timmo !
Fast Copy will ich auch mal testen. Oder Rich Copy.

von (prx) A. K. (prx)


Lesenswert?

Schnelle Programme sind schön und gut, aber die Performance wird beim 
Schreiben einer grossen Anzahl eher kleiner Files von den Operationen 
auf den Metadaten des Filesystems bestimmt. Und da hilft nur Caching.

von oszi40 (Gast)


Lesenswert?

1.Viele kleine Dateien dauern meist länger als eine große, weil öfter 
was im Directory geschrieben werden muß (außer komplettes Image 
kopieren).

2.Ein krankes Dateisystem könnte besonders lange brauchen, weil es an 
der kranken Stelle kaum weiterkommt.  Schlimmstenfalls Ordnerweise in 
anderer Reihenfolge kopieren um den kranken wegzulassen?

3.Auch eine neue HD kann Fehler haben. Deshalb ist ein gründliches 
Formatieren zur Diagnose VOR dem Ersteinsatz nicht schädlich.

von Matthias W. (matt007)


Lesenswert?

oszi40 schrieb:

Danke für Deine Hinweise. Es sind leider sehr viele kleine Dateien in 
einem Ordner. Den hätte ich besser weglassen sollen oder nur Teile 
daraus kopieren lassen.

Ich hoffe daß das Dateisystem ok ist. Früher ließ man ja gelegentlich 
mal chkdsk laufen. Machen die heutigen moderneren Betriebssysteme so was 
denn nicht selbsttätig?

Bei neuen Festplatten hofft man daß der Hersteller diese getestet hat 
und daß die Smart-Funktionen selbst schauen ob die Platte ok ist. So 
dachte ich jedenfalls. Ein gründliches Formatieren dauert bei großen 
Platten lange. Viele Rechner stehen ja in Firmen. Treiben die wirklich 
so einen Aufwand?

von oszi40 (Gast)


Lesenswert?

Matthias W. schrieb:
> Treiben die wirklich so einen Aufwand?

Kaum! Wir leben in einer Wegwerfgesellschaft.

Ärgerlich ist nur, wenn eine fast volle HD dann Fehler zeigt, die man 
schon beim Kauf hätte finden können. Vor einiger Zeit fand mal ein 
interessanter Test der Paketdienste statt, mit wieviel G die Pakete beim 
Transport herumflogen.

HD-SMART-Werte auslesen bringt auch Erkenntnisse, garantiert aber nicht, 
daß der Schreibkopf (NACH dem Fall der HD auf die Straße oder vom 
Schreibtisch) schon überall fehlerfrei geschrieben hat. Das merkt man 
erst wenn man diesen Bereich benutzt.

von Timmo H. (masterfx)


Lesenswert?

oszi40 schrieb:
> Matthias W. schrieb:
>> Treiben die wirklich so einen Aufwand?
>
> Kaum! Wir leben in einer Wegwerfgesellschaft.
Das stimmt so nicht. Die low Level Formatierung wird heutzutage immer 
vom Hersteller durchgeführt. Dabei werden auch schon die defekten 
Sektoren in der P-liste eingetragen. Dies ist gleichzeitig auch der 
Funktionstest der Festplatte.
Wenn Festplatten kaputt gehen (aufgrund von Fertigungsfehlern) dann 
meist in den ersten paar Stunden/Tagen/Wochen. Ansonsten halten die 
dinger 5-10 Jahre, je nach beanspruchung und Temperatur. Die Technik ist 
inzwischen schon recht ausgereift durch die Jahrzehnte lange Erfahrung. 
Mir sind seit 1995 nur zwei Festplatten kaputt gegangen bei einer 
durchschnittlichen Benutzung von etwa 2-4 Jahren. Danach wurden sie 
aufgrund der zu geringen Kapazität und oder Geschwindigkeit 
ausgetauscht. Aber ich habe hier auch noch Festplatten von 2000 die noch 
problemlos laufen

von Hubert M. (hm-electric)


Lesenswert?

Also ich kopiere meist ohne irgendeine Software, das geht auch recht 
Flott, und meine Kiste ist nicht auf dem neusten Stand..
Ansonsten benutze ich die Software Allsync in der Pro ausführung, die 
kostet etwas. Dafür kann man unzählige Einstellungen machen, und 
verhindert somit unnötige Dateien kopieren wie z.b. thumbs..

von Matthias W. (matt007)


Lesenswert?

Hubert Mueller schrieb:
> Also ich kopiere meist ohne irgendeine Software, das geht auch recht
> Flott, und meine Kiste ist nicht auf dem neusten Stand.

mit FastCopy dauert es auch recht lange. Die Laptopsicherung läuft 
gerade mit 1.23MB/s. 8.5 GB sind bereits kopiert, das sind 25%. Die 
Restzeit wird auf 5.5 Stunden geschätzt. Das klingt lange.

von (prx) A. K. (prx)


Lesenswert?

Wenn man sehr viele kleine Files schnell sichern will, ohne sich mit den 
Nebeneffekten von Caching befassen zu wollen, dann hilft (1) nach dem 
ersten Anlauf mit inkrementeller Sicherung arbeiten, also nur geänderte 
Files zu sichern, z.B. mit Robocopy, oder (2) ein Backup-Format mit 
Container-File verwenden, bei dem dann aber das Backup-Medium effektiv 
nur mit einem Restore-Programm genutzt werden kann.

von ./. (Gast)


Lesenswert?

> 1.23MB/s

Ah ja... FASTCOPY...

Klingt ja eher nach USB-1.

von MaWin (Gast)


Lesenswert?

> Also ich kopiere meist ohne irgendeine Software, das geht auch recht
> Flott

Alles ist relativ. Wenn du die tatsächliche Leistungsfähigkeit der 
Hardware mit dem vergleichst, was nach Windows hinten rauskommt, dann 
siehst du, daß Windows kein Betriebssystem ist, sondern ein 
Betrübssystem.

Jeder halbe Informatiker hat in der Vorlesung gehört, welche tollen 
Möglichkeiten ein Betriebssystem hat, um Dateioperationen zu 
beschleunigen durch effektives Zusammenfassen, da werden Kopfbewegungen 
optimiert und Daten in lineare Reihenfolge gebracht, damit 100 Dateien 
eben schneller kopierbar sind als 100 x 1 Datei, bloss was macht 
Windoof: Es wird langsamer.

Gib mal in Windoof (beisielsweise durch Drag&Drop) den Auftrag einen 
Verzeichnisbaum zu kopieren, und danach einen Zweiten. Nun machst du 
dasselbe, bloss den Auftrag den Zweiten zu kopieren gibst du kurz nach 
dem Start des Ersten, so daß beide gleichzeitg laufen können. Die 
Systemperformance bricht vollkommen zusammen, es dauert nicht so lange 
wie wenn man beide nacheinander gemacht hätte, sondern 10 mal so lange.

Windows ist kaputt.
In den USA hat offensichtlich niemand der Entwickler von Windoof jemals 
eine Informatik-Vorlesung besucht und es komplett versäumt, die 
Grundlagen der Betriebssysteme zu erlernen. Seiteneinsteiger die eine 
ganze Wirtschaft ruinieren.

Ein ordentliches Betriebssyetem würde sich freuen, daß ein zweiter 
Auftrage reinkommt, weil es dann die Operationen besser in eine 
schneller abzuarbeitende Reihenfolge bringen kann.

von Matthias W. (matt007)


Lesenswert?

MaWin schrieb:
> Wenn du die tatsächliche Leistungsfähigkeit der
> Hardware mit dem vergleichst, was nach Windows hinten rauskommt, dann
> siehst du, daß Windows kein Betriebssystem ist, sondern ein
> Betrübssystem.

da hast Du wohl leider recht. Leider hat sich dieses Windoof 
durchgesetzt. Die Firmen mögen das offenbar so. Wünsche einmal 
effizienter arbeiten zu wollen kommen wohl nicht. So scheint es.

Alles prima - oder was? Mit der Anwendersoftware ist es ja leider 
ähnlich. Eher bloatware statt effizient und klein. Eher unperformant 
statt performant. Eher benutzerunfreundlich statt benutzerfreundlich.

So erlebe ich das seit Jahren. Man hat sich daran gewöhnt, daß die PCs 
langsamer werden im Lauf der Zeit. Dann neu installieren oder Neukauf. 
Man hat sich an hunderte von Updates gewöhnt die doch kaum was spürbar 
besser machen. Man hat sich daran gewöhnt daß man nach dem Kauf eines 
neuen Druckers Dokumente neu formatieren muss weil auf dem PC 1 Punkt 
eben nicht 1 Punkt ist. Man hat sich daran gewöhnt daß Dokumente nicht 
problemlos austauschbar sind zwischen MS und OpenOffice. Man hat sich 
leider daran gewöhnt daß effizientes Arbeiten bisweilen schwer ist auf 
modernen Rechnern. So scheint es.

Es scheint daß das so bleiben muss. Denn wer wird es ändern?

Ich habe ein paar alte Disketten mit DOS-Utilities. Das waren um 1988 
vergleichsweise schlanke Programme die performant liefen. Heute ist die 
Rechnerleistung explodiert - nur wer merkt das? Teilweise sind die 
Programme nicht in der Lage mit der Tastatureingabe mitzukommen. Warten 
heißt es dann. Schade ! In der Tat wäre da ja Potential in der Hardware.

von Matthias W. (matt007)


Lesenswert?

./. schrieb:
>> 1.23MB/s
> Ah ja... FASTCOPY...  Klingt ja eher nach USB-1.

Ja - so "schnell" ist das ! Letztlich merkt man vom Fortschritt nicht so 
sehr viel. Die Platten haben nun SATA und USB3.0 ist ja auch der letzte 
Schrei. Das Motherboard ist kein Uralt-Ding, die CPU auch nicht. XP 
bekam hunderte von Updates! So ist der Stand nun mal. Mein Bruder meint 
daß mit Linux das wohl performanter liefe.

von (prx) A. K. (prx)


Lesenswert?

MaWin schrieb:
> Jeder halbe Informatiker hat in der Vorlesung gehört, welche tollen
> Möglichkeiten ein Betriebssystem hat, um Dateioperationen zu
> beschleunigen durch effektives Zusammenfassen,

Wenn man gleichzeitig die Forderung stellt, dass der Anwender zu fast 
jedem Zeitpunkt mitten beim Bitschubsen die Platte rausziehen oder den 
Strom abschalten können soll, ohne den Inhalt der Platte allzu sehr zu 
riskieren, dann bleibt das nicht ohne Folgen.

M.a.W: Microsoft hält seine Kunden für DAUs, deren Gewohnheiten man 
entgegen kommen muss. Zu Unrecht? Meldest du jedesmal deinen USB-Stick 
brav ab, bevor du ihn rausziehst? ;-)

Apple hat früher mal versucht, seine User zu erziehen. Interne 
Wechselmedien kann man u.U. so einrichten, dass der User die Dinger nur 
gegen Hinweis ans Betriebssystem raus kriegt. Aber die USB-Buchse mit 
elektronischer Verriegelung ist noch nicht erfunden. Ausserdem würden 
die Leute zetern was das Zeug hält.

von Matthias W. (matt007)


Lesenswert?

A. K. schrieb:
> Wenn man gleichzeitig die Forderung stellt, dass der Anwender zu fast
> jedem Zeitpunkt mitten beim Bitschubsen die Platte rausziehen

wenn da eine Lampe wäre - so könnte doch der Nutzer warten bis fertig 
ist? Ich fahre ja auch nicht an der Tankstelle los wenn der Rüssel noch 
im Stutzen hängt. Normalerweise stellt man die Zapfpistole ab bevor man 
sie rauszieht. Ist das denn nicht dem PC-Nutzer zu vermitteln? So schwer 
kann es nicht sein.

Wer zieht den Staubsauger raus solange er läuft. Oder den Mixer?

Die Neuinstallation des Betriebssystems kann man dann zumuten?
Und die nötige Neuformatierung der Texte nach Druckerwechsel?

von (prx) A. K. (prx)


Lesenswert?

Matthias W. schrieb:
> wenn da eine Lampe wäre - so könnte doch der Nutzer warten bis fertig
> ist? Ich fahre ja auch nicht an der Tankstelle los wenn der Rüssel noch
> im Stutzen hängt.

Wie der Sprit ins Auto kommt erkennt jeder. Tank - Säule - Schlauch - 
Stutzen - Auto, Sprit fl,iesst durch. Das kann dir jeder grob 
skizzieren, der genug Hirnzellen hat um den Lenker in die richtige 
Richtung zu dehen. Und ordnet sich brav den Notwendigkeiten des 
Automaten unter.

Frag aber mal den Durchschnittsuser, wie seine Bilder auf den USB-Stick 
kommen. Kann er sich nicht vorstellen. Aus ist's mit dem einfachen 
Modell, mit der Intuition. Es kommt jene Forderung, die ich deshalb 
schon gelegentlich hörte: Der Rechner hat sich in seiner Arbeitsweise 
gefälligst dem Menschen unterzuordnen, nicht der Mensch dem Rechner.

von MaWin (Gast)


Lesenswert?

> Wenn man gleichzeitig die Forderung stellt, dass der Anwender zu fast
> jedem Zeitpunkt mitten beim Bitschubsen die Platte rausziehen oder den
> Strom abschalten können soll, ohne den Inhalt der Platte allzu sehr zu
> riskieren, dann bleibt das nicht ohne Folgen.

Von welchem Phantasiebetriebssystem redest du ?

Das funktioniert doch unter Windoof sowieso nicht, funktionierte noch 
nie,
die hatten nie ein transaktionales Dateisystem.

Übrigens geht Massenkopieoptimierung auch in transaktionalen 
Dateisystemen sehr effektiv, man muss nämlich nur einen einzigen Commit 
zum Schluss machen.

von (prx) A. K. (prx)


Lesenswert?

MaWin schrieb:
> Von welchem Phantasiebetriebssystem redest du ?

Windows. Ist nicht perfekt, aber die Massnahmen aufgrund genau dieses 
Problems sorgen dafür, dass Operationen auf Metadaten im Gänsemarsch 
durchgeschrieben werden.

> Übrigens geht Massenkopieoptimierung auch in transaktionalen
> Dateisystemen sehr effektiv, man muss nämlich nur einen einzigen Commit
> zum Schluss machen.

Ja. Ich hätte auch nichts dagegen, dass Microsoft sowas mal bringt. Aber 
auch in Linux mit seiner sonst weit grösseren Änderungsfreudigkeit ist 
ein Filesystem, das konsequent auf Überschreiben von Inhalten zugunsten 
von copy-on-write verzichtet, nicht grad der Standard.

Übrigens hat auch das Nachteile. Die Anzahl Schreiboperationen pro 
Filesystemoperation steigt deutlich und alles was partikular 
überschrieben wird, wie etwa Datenbanken, fragmentiert teuflisch. Das 
merkst du dann beim Backup und beim nächsten full table scan.

von MaWin (Gast)


Lesenswert?

> Windows. Ist nicht perfekt

Die Untertreibung des Jahrhunderts

> und alles was partikular überschrieben wird, wie etwa Datenbanken

Gerade die sind besonders häufig schon heute (zwangsweise aus 
Betriebssicherheitsgründen) transaktional, und müssen das auf einem 
nicht-transaktionalen Dateisystem realisieren und machen dans natürlich 
durch copy statt overwrite. Die würden also am stärksten profitieren.

von ??? (Gast)


Lesenswert?

das Problem bei WindowsXP ist auch der Explorer. Wenn man größe 
Dateimengen mit dem Explorer kopiert geht das häufig in die Hose. Dann 
darf man ALLES nochmal kopieren. Ich hab mit Teracopy 
http://codesector.com/teracopy
gute Erfahrungen gemacht. Das hängt sich in den Explorer und führt ein 
Protokoll mit. Geht was schief, kann man an der Stelle der unterbrechung 
weitermachen oder alle nicht kopierten Dateien anzeigen und nochmal 
versuchen...

von (prx) A. K. (prx)


Lesenswert?

MaWin schrieb:
> Gerade die sind besonders häufig schon heute (zwangsweise aus
> Betriebssicherheitsgründen) transaktional, und müssen das auf einem
> nicht-transaktionalen Dateisystem realisieren und machen dans natürlich
> durch copy statt overwrite. Die würden also am stärksten profitieren.

Als Single-Client Datenbank. Also ideal für DOS. ;-)

Filesystem-Transaktion sind global. DB-Transaktionen hingegen 
Client-bezogen. Ich sehe da wenig Potential für Synergieeffekte, es sei 
denn man löst sich von gängigen Vorstellung eines Filesystems. Die 
Transaktions-Mechanismen von DBs und Filesystemen sind auch ziemlich 
verschieden.

von Dosianer (Gast)


Lesenswert?

Wo sind die Freaks?
Ein eigenes DOS zu schreiben, das die max. HW_Performance für reine 
Kopierzwecke nutzt, dürfte doch kein allzugrosses Problem darstellen.
Oder ist die Architektur und das BIOS heutzutage mit 7 Siegeln 
verplombt?

von MaWin (Gast)


Lesenswert?

> Filesystem-Transaktion sind global.

Erschreckend, daß sich nach 50 Jahren noch immer noch überall 
rumgesprochen hat, daß auch Dateisysteme natürlich hierarchische 
Transaktionen beherrschen müssen.

Schliesslich müssen auch Programme die Datenkonsistenz erhalten können, 
d.h. es wäre blöd, wenn Änderungen einer Datei geschrieben werden 
während Änderungen einer dazugehörigen anderen flöten gehen, denn dann 
wäre das System inkonsistent.

Daher haben kluge Transaktionssysteme ihre Transaktionen in einer 
Hierarchie. Dann klappt es auch mit den Datenbanken.

von (prx) A. K. (prx)


Lesenswert?

MaWin schrieb:
> Erschreckend, daß sich nach 50 Jahren noch immer noch überall
> rumgesprochen hat, daß auch Dateisysteme natürlich hierarchische
> Transaktionen beherrschen müssen.

Hättest du mir ein Beispiel eines Filesystems, das lokale Transaktionen 
kennt? Also solche, in denen Filesystem-bezogene Aktivitäten wie 
Erzeugen oder Umbenennen von Files in jedem Programm/Prozess individuell 
aber darin en bloc rückgängig gemacht werden können, ohne das andere 
Programme/Prozesse davon beeinflusst werden. Vorstellen kann ich mir das 
schon - deshalb ja auch mein Passus zu den "gängigen Vorstellungen" - 
nur habe ich da nichts parat.

von oszi40 (Gast)


Lesenswert?

Timmo H. schrieb:
> Die low Level Formatierung wird heutzutage immer
> vom Hersteller durchgeführt. Dabei werden auch schon die defekten
> Sektoren in der P-liste eingetragen. Dies ist gleichzeitig auch der
> Funktionstest der Festplatte.

Wenn der Test im Werk im Werk ok war, heißt das noch nicht, daß sie z.B. 
unterwegs nicht schon beim Transport mißhandelt wurde oder das 
Dateisystem durch plötzliche Spannungsabschaltung gelitten hat ...

KLuge Transaktionssysteme können einiges verhindern. Gesünder wird die 
HD davon auch nicht. Irgendwann ist das Maß voll.

von Uhu U. (uhu)


Lesenswert?

oszi40 schrieb:
> das Dateisystem durch plötzliche Spannungsabschaltung gelitten hat ...

Das gibts bei modernen Dateisystemen so gut wie gar nicht mehr.

von (prx) A. K. (prx)


Lesenswert?

Dosianer schrieb:
> Oder ist die Architektur und das BIOS heutzutage mit 7 Siegeln
> verplombt?

Mit UEFI statt BIOS und Secure Boot könnte es komplizierter werden.

von Timbo1 (Gast)


Lesenswert?

ist es eine Laptopfestplatte, also 2,5"die können oftmal keine 100GB am 
Stück mit voller Geschwindigkeit, nach 10GB oder werden die langasmer.
Mit 3,5" geht das Problemlos

von oszi40 (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
>> das Dateisystem durch plötzliche Spannungsabschaltung gelitten hat ...
>
> Das gibts bei modernen Dateisystemen so gut wie gar nicht mehr.

JA ein besseres DATEISYSTEM (z.B. http://de.wikipedia.org/wiki/Ext3 
)merkt was im Log, aber OHNE Strom schreibt es sich ziemlich schlecht 
auf die HD wodurch nicht jeder physische HD-Sektor hinterher noch gesund 
sein muß. Wenn zu viele Sektoren ausgelagert wurden, wird man das 
merken.

von (prx) A. K. (prx)


Lesenswert?

Rechne mal aus, wie lange es dauert, einen Sektor zu schreiben. Und dann 
überleg, was man, bewaffnet mit einem Spannungs-Sensor, aus dieser 
Erkenntnis machen kann.

von Klausensen (Gast)


Lesenswert?

Abgesehen von der Systemfrage und wie doof Windows jetzt tatsächlich 
ist,
ist erst einmal entscheidet ob Festplatte optimal bedient vom Rechner 
wird.
Des weiteren passiert es des öfteren, dass bei Internetdownloads 
Metadaten mit in der Datei gespeichert werden ( http://metadaten.net/). 
Diese sind, egal ob on- oder offline in Dateipackage vorhanden und 
nehmen ebenfalls zu viel Speicherplatz ein und verlangsamen daher den 
Übertragungsprozess. Diese solltest du vielleicht aus dem Quellcode der 
Dateien herausnehmen (natürlich sind solche nur bei gedownloadeten 
Dateien vorhanden) um den Kopierprozess zu optimieren.

von Matthias W. (matt007)


Lesenswert?

Klausensen schrieb:
> Des weiteren passiert es des öfteren, dass bei Internetdownloads
> Metadaten mit in der Datei gespeichert werden.

ok.

> Diese solltest du vielleicht aus dem Quellcode der
> Dateien herausnehmen (natürlich sind solche nur bei gedownloadeten
> Dateien vorhanden) um den Kopierprozess zu optimieren.

gibts denn eine einfache Möglichkeit das zu tun?
Muss ich ein Programm dafür schreiben? Kann das Nebenwirkungen haben?

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.