Zum Kopieren der Festplattendaten unter WinXP hängt an der USB3-Schnittstelle eine neue Medion-Festplatte HDDrive 2Go mit 1 TB. Ein Dateiordner ist 216GB gross und enthält auch viele kleinere Dateien. Der Kopiervorgang mit TeraCopy dauert nun schon viele Stunden. 96GB (44.6%) sind kopiert und 242000 Dateien. Für die restlichen ca 180000 Dateien wird eine Restdauer von 1-109 Tagen angezeigt. Wenn ich es stattdessen mit dem TotalCommander probiere komme ich auf eine Zeitangabe von ca. 78 Stunden. Ist das normal daß so etwas so lange dauert? Gibt es Möglichkeiten das deutlich zu beschleunigen?
> Ist das normal daß so etwas so lange dauert? Ja. Falls du noch 3 Virenscanner eingeschaltet hast, diese mal abschalten. > Gibt es Möglichkeiten das deutlich zu beschleunigen? Weniger Dateien, also z.B. vorher ZIP-Archive anlegen (deren Anlagen natürlich genau so lange dauert).
Matthias W. schrieb: > Gibt es Möglichkeiten das deutlich zu beschleunigen? Du hast doch schon eine gefunden: > Restdauer von 1-109 Tagen angezeigt. ... > TotalCommander probiere komme ich auf eine Zeitangabe von ca. 78 Stunden. Ansonsten: Nachschauen, ob das Gerät wirklich als USB3 erkannt und verwendet wird, oder ob nur das Kabel eine andere Farbe hat... Und bei vielen kleinen Dateien wie bei dir: Schreibcache erlauben. Dann aber nicht mehr einfach so "Stecker ziehen", sondern immer sauber auswerfen.
Oder nen Image ziehen das geht dann ca. so schnell wie formatieren.
xcopy ist immer noch am schnellsten. Prioriataet auf "above normal" setzen, dann gehts noch schneller.
Ehrlich gesagt, nicht XP verwenden. Der Windowsinterne Kopiermechanismus wird erst ab 8 richtig flott bei kleinen Dateien.
MaWin schrieb: > Falls du noch 3 Virenscanner eingeschaltet hast, diese > mal abschalten. Danke Mawin. Den Avast kann ich abschalten. > Weniger Dateien, also z.B. vorher ZIP-Archive anlegen > (deren Anlagen natürlich genau so lange dauert). das ist dann wohl nicht so genial. Bei meinen alten Digitalbildern hatte ich es mit zips gemacht. Diese verlor ich dann aus Versehen bei einem Kopiervorgang. 20 Jahre Digitalbilder weg weil ich keine zweite Sicherung dazu hatte.
./. schrieb: > xcopy ist immer noch am schnellsten. 100% ACK! xcopy in der Command-Shell aufrufen und fertig. Ich brauche für einen Backup von 500 GB auf externes USB2.0 Gerät im Schnitt 30 Minuten. Wichtig ist, wie schon geschrieben wurde, nach dem Start von xcopy dem Task im Taskmanager die höchste Priorität geben und danach am Rechner nichts mehr machen. Antiviren-Programme natürlich vorher ausschalten.
Εrnst B✶ schrieb: > Ansonsten: Nachschauen, ob das Gerät wirklich als USB3 erkannt und > verwendet wird, oder ob nur das Kabel eine andere Farbe hat... auf der Platte selbst steht USB3.0. Im Gerätemanager gibt es einen Renesas USB3.0-Controller. Die Platte wird als ST1000DM 003-9YN162 USB Device angezeigt. Der Treiber stammt vom 1.7.2001. Version 5.1.2535.0. Damals gab es doch gar kein USB3.0? > Und bei vielen kleinen Dateien wie bei dir: Schreibcache erlauben. Das ist im Treiber anwählbar - nur wohl nicht während dem Lauf. Es dauert lange bis man wieder da ist beim Kopiervorgang wo man war. Auch rasch mal im Bios schauen geht schwer.
MAD schrieb: > 100% ACK! xcopy in der Command-Shell aufrufen und fertig. > Wichtig ist, wie schon geschrieben wurde, nach dem Start von xcopy dem > Task im Taskmanager die höchste Priorität geben und danach am Rechner > nichts mehr machen. Antiviren-Programme natürlich vorher ausschalten. vielen Dank für den Hinweis. Xcopy also aus DOS-Zeiten.
MAD schrieb: > ./. schrieb: >> xcopy ist immer noch am schnellsten. > > 100% ACK! xcopy in der Command-Shell aufrufen und fertig. > Ich brauche für einen Backup von 500 GB auf externes USB2.0 Gerät > im Schnitt 30 Minuten. Unmöglich. Mit USB 2.0 schaffst du mit etwas Glück 34-35 MiB/s. Sind also in 30 Minuten maximal: 30*60s*35MiB/s = 63000MB = 61,5 GiB.
Timmo H. schrieb: > Unmöglich. Mit USB 2.0 schaffst du mit etwas Glück 34-35 MiB/s. Sind > also in 30 Minuten maximal: 30*60s*35MiB/s = 63000MB = 61,5 GiB. Teilweise - bei großen Dateien - sehe ich Kopiergeschwindigkeiten bis 85 MB/s. Das scheint also schon USB3 zu sein. Nur bremsen die sehr vielen kleinen Dateien das stark aus.
Viele kleine Dateien dauern generell länger als Große (Overhead, IOs, Zugriffszeiten...) Aktiviere mal den Schreibcache des Datenträgers (sofern noch nicht geschehen), das hilft schon etwas.
Timmo H. schrieb: > Aktiviere mal den Schreibcache des Datenträgers (sofern noch nicht > geschehen), das hilft schon etwas. das mache ich. Danke Timmo ! Fast Copy will ich auch mal testen. Oder Rich Copy.
Schnelle Programme sind schön und gut, aber die Performance wird beim Schreiben einer grossen Anzahl eher kleiner Files von den Operationen auf den Metadaten des Filesystems bestimmt. Und da hilft nur Caching.
1.Viele kleine Dateien dauern meist länger als eine große, weil öfter was im Directory geschrieben werden muß (außer komplettes Image kopieren). 2.Ein krankes Dateisystem könnte besonders lange brauchen, weil es an der kranken Stelle kaum weiterkommt. Schlimmstenfalls Ordnerweise in anderer Reihenfolge kopieren um den kranken wegzulassen? 3.Auch eine neue HD kann Fehler haben. Deshalb ist ein gründliches Formatieren zur Diagnose VOR dem Ersteinsatz nicht schädlich.
oszi40 schrieb:
Danke für Deine Hinweise. Es sind leider sehr viele kleine Dateien in
einem Ordner. Den hätte ich besser weglassen sollen oder nur Teile
daraus kopieren lassen.
Ich hoffe daß das Dateisystem ok ist. Früher ließ man ja gelegentlich
mal chkdsk laufen. Machen die heutigen moderneren Betriebssysteme so was
denn nicht selbsttätig?
Bei neuen Festplatten hofft man daß der Hersteller diese getestet hat
und daß die Smart-Funktionen selbst schauen ob die Platte ok ist. So
dachte ich jedenfalls. Ein gründliches Formatieren dauert bei großen
Platten lange. Viele Rechner stehen ja in Firmen. Treiben die wirklich
so einen Aufwand?
Matthias W. schrieb: > Treiben die wirklich so einen Aufwand? Kaum! Wir leben in einer Wegwerfgesellschaft. Ärgerlich ist nur, wenn eine fast volle HD dann Fehler zeigt, die man schon beim Kauf hätte finden können. Vor einiger Zeit fand mal ein interessanter Test der Paketdienste statt, mit wieviel G die Pakete beim Transport herumflogen. HD-SMART-Werte auslesen bringt auch Erkenntnisse, garantiert aber nicht, daß der Schreibkopf (NACH dem Fall der HD auf die Straße oder vom Schreibtisch) schon überall fehlerfrei geschrieben hat. Das merkt man erst wenn man diesen Bereich benutzt.
oszi40 schrieb: > Matthias W. schrieb: >> Treiben die wirklich so einen Aufwand? > > Kaum! Wir leben in einer Wegwerfgesellschaft. Das stimmt so nicht. Die low Level Formatierung wird heutzutage immer vom Hersteller durchgeführt. Dabei werden auch schon die defekten Sektoren in der P-liste eingetragen. Dies ist gleichzeitig auch der Funktionstest der Festplatte. Wenn Festplatten kaputt gehen (aufgrund von Fertigungsfehlern) dann meist in den ersten paar Stunden/Tagen/Wochen. Ansonsten halten die dinger 5-10 Jahre, je nach beanspruchung und Temperatur. Die Technik ist inzwischen schon recht ausgereift durch die Jahrzehnte lange Erfahrung. Mir sind seit 1995 nur zwei Festplatten kaputt gegangen bei einer durchschnittlichen Benutzung von etwa 2-4 Jahren. Danach wurden sie aufgrund der zu geringen Kapazität und oder Geschwindigkeit ausgetauscht. Aber ich habe hier auch noch Festplatten von 2000 die noch problemlos laufen
Also ich kopiere meist ohne irgendeine Software, das geht auch recht Flott, und meine Kiste ist nicht auf dem neusten Stand.. Ansonsten benutze ich die Software Allsync in der Pro ausführung, die kostet etwas. Dafür kann man unzählige Einstellungen machen, und verhindert somit unnötige Dateien kopieren wie z.b. thumbs..
Hubert Mueller schrieb: > Also ich kopiere meist ohne irgendeine Software, das geht auch recht > Flott, und meine Kiste ist nicht auf dem neusten Stand. mit FastCopy dauert es auch recht lange. Die Laptopsicherung läuft gerade mit 1.23MB/s. 8.5 GB sind bereits kopiert, das sind 25%. Die Restzeit wird auf 5.5 Stunden geschätzt. Das klingt lange.
Wenn man sehr viele kleine Files schnell sichern will, ohne sich mit den Nebeneffekten von Caching befassen zu wollen, dann hilft (1) nach dem ersten Anlauf mit inkrementeller Sicherung arbeiten, also nur geänderte Files zu sichern, z.B. mit Robocopy, oder (2) ein Backup-Format mit Container-File verwenden, bei dem dann aber das Backup-Medium effektiv nur mit einem Restore-Programm genutzt werden kann.
> 1.23MB/s
Ah ja... FASTCOPY...
Klingt ja eher nach USB-1.
> Also ich kopiere meist ohne irgendeine Software, das geht auch recht > Flott Alles ist relativ. Wenn du die tatsächliche Leistungsfähigkeit der Hardware mit dem vergleichst, was nach Windows hinten rauskommt, dann siehst du, daß Windows kein Betriebssystem ist, sondern ein Betrübssystem. Jeder halbe Informatiker hat in der Vorlesung gehört, welche tollen Möglichkeiten ein Betriebssystem hat, um Dateioperationen zu beschleunigen durch effektives Zusammenfassen, da werden Kopfbewegungen optimiert und Daten in lineare Reihenfolge gebracht, damit 100 Dateien eben schneller kopierbar sind als 100 x 1 Datei, bloss was macht Windoof: Es wird langsamer. Gib mal in Windoof (beisielsweise durch Drag&Drop) den Auftrag einen Verzeichnisbaum zu kopieren, und danach einen Zweiten. Nun machst du dasselbe, bloss den Auftrag den Zweiten zu kopieren gibst du kurz nach dem Start des Ersten, so daß beide gleichzeitg laufen können. Die Systemperformance bricht vollkommen zusammen, es dauert nicht so lange wie wenn man beide nacheinander gemacht hätte, sondern 10 mal so lange. Windows ist kaputt. In den USA hat offensichtlich niemand der Entwickler von Windoof jemals eine Informatik-Vorlesung besucht und es komplett versäumt, die Grundlagen der Betriebssysteme zu erlernen. Seiteneinsteiger die eine ganze Wirtschaft ruinieren. Ein ordentliches Betriebssyetem würde sich freuen, daß ein zweiter Auftrage reinkommt, weil es dann die Operationen besser in eine schneller abzuarbeitende Reihenfolge bringen kann.
MaWin schrieb: > Wenn du die tatsächliche Leistungsfähigkeit der > Hardware mit dem vergleichst, was nach Windows hinten rauskommt, dann > siehst du, daß Windows kein Betriebssystem ist, sondern ein > Betrübssystem. da hast Du wohl leider recht. Leider hat sich dieses Windoof durchgesetzt. Die Firmen mögen das offenbar so. Wünsche einmal effizienter arbeiten zu wollen kommen wohl nicht. So scheint es. Alles prima - oder was? Mit der Anwendersoftware ist es ja leider ähnlich. Eher bloatware statt effizient und klein. Eher unperformant statt performant. Eher benutzerunfreundlich statt benutzerfreundlich. So erlebe ich das seit Jahren. Man hat sich daran gewöhnt, daß die PCs langsamer werden im Lauf der Zeit. Dann neu installieren oder Neukauf. Man hat sich an hunderte von Updates gewöhnt die doch kaum was spürbar besser machen. Man hat sich daran gewöhnt daß man nach dem Kauf eines neuen Druckers Dokumente neu formatieren muss weil auf dem PC 1 Punkt eben nicht 1 Punkt ist. Man hat sich daran gewöhnt daß Dokumente nicht problemlos austauschbar sind zwischen MS und OpenOffice. Man hat sich leider daran gewöhnt daß effizientes Arbeiten bisweilen schwer ist auf modernen Rechnern. So scheint es. Es scheint daß das so bleiben muss. Denn wer wird es ändern? Ich habe ein paar alte Disketten mit DOS-Utilities. Das waren um 1988 vergleichsweise schlanke Programme die performant liefen. Heute ist die Rechnerleistung explodiert - nur wer merkt das? Teilweise sind die Programme nicht in der Lage mit der Tastatureingabe mitzukommen. Warten heißt es dann. Schade ! In der Tat wäre da ja Potential in der Hardware.
./. schrieb: >> 1.23MB/s > Ah ja... FASTCOPY... Klingt ja eher nach USB-1. Ja - so "schnell" ist das ! Letztlich merkt man vom Fortschritt nicht so sehr viel. Die Platten haben nun SATA und USB3.0 ist ja auch der letzte Schrei. Das Motherboard ist kein Uralt-Ding, die CPU auch nicht. XP bekam hunderte von Updates! So ist der Stand nun mal. Mein Bruder meint daß mit Linux das wohl performanter liefe.
MaWin schrieb: > Jeder halbe Informatiker hat in der Vorlesung gehört, welche tollen > Möglichkeiten ein Betriebssystem hat, um Dateioperationen zu > beschleunigen durch effektives Zusammenfassen, Wenn man gleichzeitig die Forderung stellt, dass der Anwender zu fast jedem Zeitpunkt mitten beim Bitschubsen die Platte rausziehen oder den Strom abschalten können soll, ohne den Inhalt der Platte allzu sehr zu riskieren, dann bleibt das nicht ohne Folgen. M.a.W: Microsoft hält seine Kunden für DAUs, deren Gewohnheiten man entgegen kommen muss. Zu Unrecht? Meldest du jedesmal deinen USB-Stick brav ab, bevor du ihn rausziehst? ;-) Apple hat früher mal versucht, seine User zu erziehen. Interne Wechselmedien kann man u.U. so einrichten, dass der User die Dinger nur gegen Hinweis ans Betriebssystem raus kriegt. Aber die USB-Buchse mit elektronischer Verriegelung ist noch nicht erfunden. Ausserdem würden die Leute zetern was das Zeug hält.
A. K. schrieb: > Wenn man gleichzeitig die Forderung stellt, dass der Anwender zu fast > jedem Zeitpunkt mitten beim Bitschubsen die Platte rausziehen wenn da eine Lampe wäre - so könnte doch der Nutzer warten bis fertig ist? Ich fahre ja auch nicht an der Tankstelle los wenn der Rüssel noch im Stutzen hängt. Normalerweise stellt man die Zapfpistole ab bevor man sie rauszieht. Ist das denn nicht dem PC-Nutzer zu vermitteln? So schwer kann es nicht sein. Wer zieht den Staubsauger raus solange er läuft. Oder den Mixer? Die Neuinstallation des Betriebssystems kann man dann zumuten? Und die nötige Neuformatierung der Texte nach Druckerwechsel?
Matthias W. schrieb: > wenn da eine Lampe wäre - so könnte doch der Nutzer warten bis fertig > ist? Ich fahre ja auch nicht an der Tankstelle los wenn der Rüssel noch > im Stutzen hängt. Wie der Sprit ins Auto kommt erkennt jeder. Tank - Säule - Schlauch - Stutzen - Auto, Sprit fl,iesst durch. Das kann dir jeder grob skizzieren, der genug Hirnzellen hat um den Lenker in die richtige Richtung zu dehen. Und ordnet sich brav den Notwendigkeiten des Automaten unter. Frag aber mal den Durchschnittsuser, wie seine Bilder auf den USB-Stick kommen. Kann er sich nicht vorstellen. Aus ist's mit dem einfachen Modell, mit der Intuition. Es kommt jene Forderung, die ich deshalb schon gelegentlich hörte: Der Rechner hat sich in seiner Arbeitsweise gefälligst dem Menschen unterzuordnen, nicht der Mensch dem Rechner.
> Wenn man gleichzeitig die Forderung stellt, dass der Anwender zu fast > jedem Zeitpunkt mitten beim Bitschubsen die Platte rausziehen oder den > Strom abschalten können soll, ohne den Inhalt der Platte allzu sehr zu > riskieren, dann bleibt das nicht ohne Folgen. Von welchem Phantasiebetriebssystem redest du ? Das funktioniert doch unter Windoof sowieso nicht, funktionierte noch nie, die hatten nie ein transaktionales Dateisystem. Übrigens geht Massenkopieoptimierung auch in transaktionalen Dateisystemen sehr effektiv, man muss nämlich nur einen einzigen Commit zum Schluss machen.
MaWin schrieb: > Von welchem Phantasiebetriebssystem redest du ? Windows. Ist nicht perfekt, aber die Massnahmen aufgrund genau dieses Problems sorgen dafür, dass Operationen auf Metadaten im Gänsemarsch durchgeschrieben werden. > Übrigens geht Massenkopieoptimierung auch in transaktionalen > Dateisystemen sehr effektiv, man muss nämlich nur einen einzigen Commit > zum Schluss machen. Ja. Ich hätte auch nichts dagegen, dass Microsoft sowas mal bringt. Aber auch in Linux mit seiner sonst weit grösseren Änderungsfreudigkeit ist ein Filesystem, das konsequent auf Überschreiben von Inhalten zugunsten von copy-on-write verzichtet, nicht grad der Standard. Übrigens hat auch das Nachteile. Die Anzahl Schreiboperationen pro Filesystemoperation steigt deutlich und alles was partikular überschrieben wird, wie etwa Datenbanken, fragmentiert teuflisch. Das merkst du dann beim Backup und beim nächsten full table scan.
> Windows. Ist nicht perfekt Die Untertreibung des Jahrhunderts > und alles was partikular überschrieben wird, wie etwa Datenbanken Gerade die sind besonders häufig schon heute (zwangsweise aus Betriebssicherheitsgründen) transaktional, und müssen das auf einem nicht-transaktionalen Dateisystem realisieren und machen dans natürlich durch copy statt overwrite. Die würden also am stärksten profitieren.
das Problem bei WindowsXP ist auch der Explorer. Wenn man größe Dateimengen mit dem Explorer kopiert geht das häufig in die Hose. Dann darf man ALLES nochmal kopieren. Ich hab mit Teracopy http://codesector.com/teracopy gute Erfahrungen gemacht. Das hängt sich in den Explorer und führt ein Protokoll mit. Geht was schief, kann man an der Stelle der unterbrechung weitermachen oder alle nicht kopierten Dateien anzeigen und nochmal versuchen...
MaWin schrieb: > Gerade die sind besonders häufig schon heute (zwangsweise aus > Betriebssicherheitsgründen) transaktional, und müssen das auf einem > nicht-transaktionalen Dateisystem realisieren und machen dans natürlich > durch copy statt overwrite. Die würden also am stärksten profitieren. Als Single-Client Datenbank. Also ideal für DOS. ;-) Filesystem-Transaktion sind global. DB-Transaktionen hingegen Client-bezogen. Ich sehe da wenig Potential für Synergieeffekte, es sei denn man löst sich von gängigen Vorstellung eines Filesystems. Die Transaktions-Mechanismen von DBs und Filesystemen sind auch ziemlich verschieden.
Wo sind die Freaks? Ein eigenes DOS zu schreiben, das die max. HW_Performance für reine Kopierzwecke nutzt, dürfte doch kein allzugrosses Problem darstellen. Oder ist die Architektur und das BIOS heutzutage mit 7 Siegeln verplombt?
> Filesystem-Transaktion sind global.
Erschreckend, daß sich nach 50 Jahren noch immer noch überall
rumgesprochen hat, daß auch Dateisysteme natürlich hierarchische
Transaktionen beherrschen müssen.
Schliesslich müssen auch Programme die Datenkonsistenz erhalten können,
d.h. es wäre blöd, wenn Änderungen einer Datei geschrieben werden
während Änderungen einer dazugehörigen anderen flöten gehen, denn dann
wäre das System inkonsistent.
Daher haben kluge Transaktionssysteme ihre Transaktionen in einer
Hierarchie. Dann klappt es auch mit den Datenbanken.
MaWin schrieb: > Erschreckend, daß sich nach 50 Jahren noch immer noch überall > rumgesprochen hat, daß auch Dateisysteme natürlich hierarchische > Transaktionen beherrschen müssen. Hättest du mir ein Beispiel eines Filesystems, das lokale Transaktionen kennt? Also solche, in denen Filesystem-bezogene Aktivitäten wie Erzeugen oder Umbenennen von Files in jedem Programm/Prozess individuell aber darin en bloc rückgängig gemacht werden können, ohne das andere Programme/Prozesse davon beeinflusst werden. Vorstellen kann ich mir das schon - deshalb ja auch mein Passus zu den "gängigen Vorstellungen" - nur habe ich da nichts parat.
Timmo H. schrieb: > Die low Level Formatierung wird heutzutage immer > vom Hersteller durchgeführt. Dabei werden auch schon die defekten > Sektoren in der P-liste eingetragen. Dies ist gleichzeitig auch der > Funktionstest der Festplatte. Wenn der Test im Werk im Werk ok war, heißt das noch nicht, daß sie z.B. unterwegs nicht schon beim Transport mißhandelt wurde oder das Dateisystem durch plötzliche Spannungsabschaltung gelitten hat ... KLuge Transaktionssysteme können einiges verhindern. Gesünder wird die HD davon auch nicht. Irgendwann ist das Maß voll.
oszi40 schrieb: > das Dateisystem durch plötzliche Spannungsabschaltung gelitten hat ... Das gibts bei modernen Dateisystemen so gut wie gar nicht mehr.
Dosianer schrieb: > Oder ist die Architektur und das BIOS heutzutage mit 7 Siegeln > verplombt? Mit UEFI statt BIOS und Secure Boot könnte es komplizierter werden.
ist es eine Laptopfestplatte, also 2,5"die können oftmal keine 100GB am Stück mit voller Geschwindigkeit, nach 10GB oder werden die langasmer. Mit 3,5" geht das Problemlos
Uhu Uhuhu schrieb: >> das Dateisystem durch plötzliche Spannungsabschaltung gelitten hat ... > > Das gibts bei modernen Dateisystemen so gut wie gar nicht mehr. JA ein besseres DATEISYSTEM (z.B. http://de.wikipedia.org/wiki/Ext3 )merkt was im Log, aber OHNE Strom schreibt es sich ziemlich schlecht auf die HD wodurch nicht jeder physische HD-Sektor hinterher noch gesund sein muß. Wenn zu viele Sektoren ausgelagert wurden, wird man das merken.
Rechne mal aus, wie lange es dauert, einen Sektor zu schreiben. Und dann überleg, was man, bewaffnet mit einem Spannungs-Sensor, aus dieser Erkenntnis machen kann.
Abgesehen von der Systemfrage und wie doof Windows jetzt tatsächlich ist, ist erst einmal entscheidet ob Festplatte optimal bedient vom Rechner wird. Des weiteren passiert es des öfteren, dass bei Internetdownloads Metadaten mit in der Datei gespeichert werden ( http://metadaten.net/). Diese sind, egal ob on- oder offline in Dateipackage vorhanden und nehmen ebenfalls zu viel Speicherplatz ein und verlangsamen daher den Übertragungsprozess. Diese solltest du vielleicht aus dem Quellcode der Dateien herausnehmen (natürlich sind solche nur bei gedownloadeten Dateien vorhanden) um den Kopierprozess zu optimieren.
Klausensen schrieb: > Des weiteren passiert es des öfteren, dass bei Internetdownloads > Metadaten mit in der Datei gespeichert werden. ok. > Diese solltest du vielleicht aus dem Quellcode der > Dateien herausnehmen (natürlich sind solche nur bei gedownloadeten > Dateien vorhanden) um den Kopierprozess zu optimieren. gibts denn eine einfache Möglichkeit das zu tun? Muss ich ein Programm dafür schreiben? Kann das Nebenwirkungen haben?
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.