Hi, ich bin gerade dabei, meine gerade erstandene externe FP einzurichten. Es ist eine der bunten WD Passport mit 4TB und USB3. Intern haben diese Dinger den USB controller schon auf der FP. Ich bin relativ schnell von den vorformatierten NTFS zu ext4 gewechselt, weil NTFS auf meinem PC (Mint 17.3) zu langsam war (Datentransfer <50% gegenüber ext4). Jetzt habe ich das Problem, daß die Platte bei beschreiben mit >50% der Kapazität, sprich 2TB, Fehler beim fsck bringt. ext4 sollte ja eigentlich keine Probleme mit 4TB haben aber kann es sein daß die FW dieser Platte da Probleme macht? Bin jetzt gerade dabei, die Partition auf 2TB zu verkleinern und eine 2. Partition einzurichten. Schön ist das nicht.... FAT32 möchte ich nicht verwenden, da ich doch einige Dateien mit >4GB drauf habe. Hat jemand eine Idee dazu wie man das besser lösen könnte? Ist das ein Problem von USB/ext4 oder von WD generell. Gruß Andreas
Da klemmt was im Dateisystem, das sollte absolut kein Problem damit haben. Poste mal die Fehlermeldung! Zu wenig Inodes angelegt?
Du hast die Disk auch immer brav dismounted, bevor du sie abgezogen hast?
Andreas B. schrieb: > Jetzt habe ich das Problem, daß die Platte bei beschreiben mit >50% der > Kapazität, sprich 2TB, Fehler beim fsck bringt. Welche Fehler!? Andreas B. schrieb: > Hat jemand eine Idee dazu wie man das besser lösen könnte? Ist das ein > Problem von USB/ext4 oder von WD generell. Manche USB-Controller machen bei Platten mit 4k-Sektoren merkwürdige Dinge. Allerdings war das bei mir keine Platte, die direkt USB hatte, sondern so ein USB-Cradle, wo man die Platte direkt oben reinsteckt. An die damit geschriebenen Daten kam ich nachher direkt am SATA-Port nicht mehr ran. Vielleicht hat dein Problem auch was mit 512B/4k-Sektoren zu tun. Bei 512-Byte-Sektoren ist nämlich genau bei 2 TB Schluss.
Vka schrieb: > Da klemmt was im Dateisystem, das sollte absolut kein Problem damit > haben. Poste mal die Fehlermeldung! > Zu wenig Inodes angelegt? Ich habe einfach mit der GUI (gnome-disks) formatiert. Keine Ahnung wie er die inodes da angelegt hat. Fehlermeldungen habe ich hunderte gehabt (falsche inodes). Es trat erst bei einer bestimmten Füllmenge der FP auf. A. K. schrieb: > Du hast die Disk auch immer brav dismounted, bevor du sie abgezogen > hast? Klar. Ich habe es auch mehrmals getestet. Sobald ich wieder mehr als 2TB drauf schrieb bekam ich wieder Fehler. Nahc dem Reparieren waren die Daten die ich zuletzt geschrieben hatte, weg (bzw. die Fragmente namenlos in den lost Order verschoben).
:
Bearbeitet durch User
Rolf M. schrieb: > Vielleicht hat dein Problem auch was mit 512B/4k-Sektoren zu tun. Bei > 512-Byte-Sektoren ist nämlich genau bei 2 TB Schluss. Ich habe gelesen, daß die Sektorengröße, die man bei USB Platten anlegt, nicht unbedingt mit der tatsächlichenn Sektorgröße zu tun hat.
Ja, darauf will ich hinaus. Teilweise haben das auch SATA-Platten gemacht, aber bei USB gibt's das auch. Statt der realen 4k-Sektoren werden dem System fake-Sektoren mit 512 Bytes Größe vorgegaukelt. Wenn das System nun nur auf 2 hoch 32 Sektoren zugreifen kann, landen wir dann bei 2 TB Maximalgröße (4 Milliarden mal ein halbes kByte). Deshalb mein Verdacht, dass es damit zu tun haben könnte.
Rolf M. schrieb: > Ja, darauf will ich hinaus. Teilweise haben das auch SATA-Platten > gemacht, aber bei USB gibt's das auch. Statt der realen 4k-Sektoren > werden dem System fake-Sektoren mit 512 Bytes Größe vorgegaukelt. Wenn > das System nun nur auf 2 hoch 32 Sektoren zugreifen kann, landen wir > dann bei 2 TB Maximalgröße (4 Milliarden mal ein halbes kByte). Deshalb > mein Verdacht, dass es damit zu tun haben könnte. Sieht fast so aus. Logische Blöcke 512 Bytes. Physische Blöcke 4096 Bytes. Siehe Anhang aus dem syslog. Kannm man eine andere Blockgröße irgendwie erzwingen?
1 | Dec 27 16:54:24 andy-H67M-D2-B3 kernel: [ 130.741112] sd 6:0:0:0: [sdh] Very big device. Trying to use READ CAPACITY(16). |
2 | Dec 27 16:54:24 andy-H67M-D2-B3 kernel: [ 130.741295] sd 6:0:0:0: [sdh] 7813969920 512-byte logical blocks: (4.00 TB/3.64 TiB) |
"Very big device"... hm. Was anderes, was mir einfallen würde: Hast du die Platte selber partitioniert? Wenn ja, mit welchem Partitionstabellen-Format? Die klassischen DOS-Partitionstabellen können nämlich auch nicht mehr als 2TB.
Rolf M. schrieb: > Hast du die Platte selber partitioniert? Wenn ja, mit welchem > Partitionstabellen-Format? Die klassischen DOS-Partitionstabellen können > nämlich auch nicht mehr als 2TB. Ja, wie gesagt, einfach mit gnome-disks ("Laufwerke") partitioniert und formatiert, im Glauben daß er das dann schon richtig macht. Fdisk kann ja nur bis 2TB. Ich denke ich mache nochmal alles platt und formatiere nochmal mit gparted. Mal schauen was der mit dieser Platte veranstaltet.
Probier mal das. Nicht dass die HDDs das mittlerweile auch machen: https://www.heise.de/download/product/h2testw-50539
A. K. schrieb: > Probier mal das. Nicht dass die HDDs das mittlerweile auch machen: > https://www.heise.de/download/product/h2testw-50539 Kann ich mir bei WD eigentlich nicht vorstellen. Die Platte wurde in J gekauft. Außerdem scheint sie ja wirklich mit 512 byte Blöcken formatiert zu sein.
HI, jetzt habe ich mal mit gparted händisch wie folgt partitioniert. > sudo parted /dev/sdh dann in Parted: (parted) mklabel gpt Warnung: Die bestehende Partitionstabelle und alle Daten auf /dev/sdh werden gelöscht. Wollen Sie fortfahren? Ja/Yes/Nein/No? yes (parted) unit TB (parted) mkpart primary 0.00TB 4.00TB (parted) print Modell: WD My Passport 25E2 (scsi) Festplatte /dev/sdh: 4,00TB Sektorgröße (logisch/physisch): 512B/4096B Partitionstabelle: gpt Nummer Anfang Ende Größe Dateisystem Name Flags 1 0,00TB 4,00TB 4,00TB ext4 primary (parted) quit Informationen: Möglicherweise müssen Sie /etc/fstab anpassen. dann: > sudo mkfs.ext4 -b 2048 /dev/sdh1 stecke ich die Platte wieder ein nachdem er fertig ist dann zeigt syslog: Dec 27 23:33:12 andy-H67M-D2-B3 kernel: [24058.059326] usb-storage 4-1:1.0: USB Mass Storage device detected Dec 27 23:33:12 andy-H67M-D2-B3 kernel: [24058.059559] scsi host12: usb-storage 4-1:1.0 Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.060304] scsi 12:0:0:0: Direct-Access WD My Passport 25E2 4004 PQ: 0 ANSI: 6 Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.060716] scsi 12:0:0:1: Enclosure WD SES Device 4004 PQ: 0 ANSI: 6 Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.064269] sd 12:0:0:0: Attached scsi generic sg8 type 0 Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.064443] ses 12:0:0:1: Attached Enclosure device Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.064543] ses 12:0:0:1: Attached scsi generic sg9 type 13 Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.067884] sd 12:0:0:0: [sdh] Spinning up disk... Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24060.071094] ....ready Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.083346] sd 12:0:0:0: [sdh] Very big device. Trying to use READ CAPACITY(16). Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.083567] sd 12:0:0:0: [sdh] 7813969920 512-byte logical blocks: (4.00 TB/3.64 TiB) Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.083570] sd 12:0:0:0: [sdh] 4096-byte physical blocks Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.084569] sd 12:0:0:0: [sdh] Write Protect is off Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.084572] sd 12:0:0:0: [sdh] Mode Sense: 47 00 10 08 Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.085580] sd 12:0:0:0: [sdh] No Caching mode page found Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.085584] sd 12:0:0:0: [sdh] Assuming drive cache: write through Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.086059] sd 12:0:0:0: [sdh] Very big device. Trying to use READ CAPACITY(16). Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.172591] sdh: sdh1 Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.173273] sd 12:0:0:0: [sdh] Very big device. Trying to use READ CAPACITY(16). Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.175360] sd 12:0:0:0: [sdh] Attached SCSI disk Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.805805] EXT4-fs (sdh1): recovery complete Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.806149] EXT4-fs (sdh1): mounted filesystem with ordered data mode. Opts: (null) Dec 27 23:33:18 andy-H67M-D2-B3 udisksd[2887]: Mounted /dev/sdh1 at /media/andy/132ea2b1-0d84-41a9-a91a-39413e06bb09 on behalf of uid 1000 Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343951] sd 12:0:0:0: [sdh] tag#0 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343958] sd 12:0:0:0: [sdh] tag#0 Sense Key : Illegal Request [current] Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343962] sd 12:0:0:0: [sdh] tag#0 Add. Sense: Invalid command operation code Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343967] sd 12:0:0:0: [sdh] tag#0 CDB: Write same(16) 93 08 00 00 00 00 16 40 59 00 00 00 10 00 00 00 Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343970] blk_update_request: critical target error, dev sdh, sector 373315840 Der Drecksack hat immer noch 512 byte logische Blöcke. Was nun? Der letzte Fehler ist auch etwas merkwürdig.
Andreas B. schrieb: >> sudo mkfs.ext4 -b 2048 /dev/sdh1 Hat es einen bestimmten Grund, dass du explizit eine Blockgröße vorgibst? > Der Drecksack hat immer noch 512 byte logische Blöcke. Was nun? Natürlich hat er die. Die kannst du höchstens mit irgendwelchen Jumpern verstellen, wenn überhaupt. Es ging ja nur darum, dass deine Partitionstabelle auch damit klar kommt. > Der letzte Fehler ist auch etwas merkwürdig. Ja. Kannst du mal die SMART-Werte auslesen? Sind da irgendwelche Auffälligkeiten zu sehen?
Rolf M. schrieb: > Andreas B. schrieb: >>> sudo mkfs.ext4 -b 2048 /dev/sdh1 > > Hat es einen bestimmten Grund, dass du explizit eine Blockgröße > vorgibst? > Ja, weil man mit 512 byte Blöcken nur 2TB adressieren kann. So hatte ich das zumindest gelesen. >> Der Drecksack hat immer noch 512 byte logische Blöcke. Was nun? > > Natürlich hat er die. Die kannst du höchstens mit irgendwelchen Jumpern > verstellen, wenn überhaupt. Es ging ja nur darum, dass deine > Partitionstabelle auch damit klar kommt. > >> Der letzte Fehler ist auch etwas merkwürdig. > > Ja. Kannst du mal die SMART-Werte auslesen? Sind da irgendwelche > Auffälligkeiten zu sehen? Nein, die sahen gut aus. Ich bin jetzt gerade wieder dabei, die Platte voll zu kopieren. Vielleicht geht es jetzt, da ich jetzt eine GUID partition verwende. Ich hoffe mal daß die mit 512 Byte Blöcken zurecht kommt.
Andreas B. schrieb: > Ja, weil man mit 512 byte Blöcken nur 2TB adressieren kann. So hatte ich > das zumindest gelesen. Nö. Nur die alte Partitionierungstechnik macht dann schlapp und es wird eine GPT Partitionierung fällig.
:
Bearbeitet durch User
Ja, dann hoffe ich mal, daß es mit der GUID Partition funktioniert. Melde mich dann morgen.
Andreas B. schrieb: > Rolf M. schrieb: >> Andreas B. schrieb: >>>> sudo mkfs.ext4 -b 2048 /dev/sdh1 >> >> Hat es einen bestimmten Grund, dass du explizit eine Blockgröße >> vorgibst? >> > Ja, weil man mit 512 byte Blöcken nur 2TB adressieren kann. So hatte ich > das zumindest gelesen. mkfs.ext4 kann laut manpage nur 1k, 2k oder 4k große Blöcke. Wenn man nichts angibt, versucht eine Automatik basierend auf der Größe des Filesystems und auf deinen Angaben zur gewünschten Nutzungsart (sofern du welche gemacht hast) zu erkennen, was davon am besten ist.
Kannst ja das Filesystem mal direkt auf dem Device ohne Partitionstabelle erzeugen. Wenn es dann geht, liegt's daran.
Rolf M. schrieb: >> Ja, weil man mit 512 byte Blöcken nur 2TB adressieren kann. So hatte ich >> das zumindest gelesen. > > mkfs.ext4 kann laut manpage nur 1k, 2k oder 4k große Blöcke. Könnte es sein, dass hier Filesystem-Blöcke und Disk-Sektoren munter durcheinander gehen? Die haben nämlich nichts miteinander zu tun. Ausser dass ein Filesystem-Block garantiert nicht kleiner als ein Disk-Sektor ist.
A. K. schrieb: > Könnte es sein, dass hier Filesystem-Blöcke und Disk-Sektoren munter > durcheinander gehen? Die haben nämlich nichts miteinander zu tun. Ja, deshalb hatte ich mich ja gewundert, dass bei mkfs.ext4 das -b angegeben war. Sollte aber kein Problem sein. > Ausser dass ein Filesystem-Block garantiert nicht kleiner als ein Disk- > Sektor ist. Wobe "Disk-Sektor" in dem Fall wiederum ein logischer Sektor und nicht etwa ein physikalischer ist. Die haben ja leider auch nichts miteinander zu tun.
Hallo Andreas, Andreas B. schrieb: > Hi, > ich bin gerade dabei, meine gerade erstandene externe FP einzurichten. > Es ist eine der bunten WD Passport mit 4TB und USB3. Intern haben diese > Dinger den USB controller schon auf der FP. > Ich bin relativ schnell von den vorformatierten NTFS zu ext4 gewechselt, Hier fehlen die Details zum Wechsel. Eventuell hast Du bei Deiner Verfahrensweise eine GPT-Partition gelöscht und eine MBR-Partition erzeugt. > weil NTFS auf meinem PC (Mint 17.3) zu langsam war (Datentransfer <50% > gegenüber ext4). Das klingt eher wie ein Alignment-Problem. Wenn Platten mit 4k-Sektoren 512 Bytes nach außen emulieren, sollten die Partitionsränder überlappungsfrei auf dem Anfang der 4K-Sektoren liegen, weil ansonsten die Festplatte beim Schreiben der Sektoren den betroffenen Sektor komplett einlesen muss, um sie erst dann wegzuschreiben. > Jetzt habe ich das Problem, daß die Platte bei beschreiben mit >50% der > Kapazität, sprich 2TB, Fehler beim fsck bringt. Klingt nach 4k-Sektoren mit Emulation von Sektoren einer Länge 512 Bytes! > ext4 sollte ja eigentlich keine Probleme mit 4TB haben aber kann es sein > daß die FW dieser Platte da Probleme macht? Nein. Wenn die Platte nach außen Sektoren mit 512 Byte Länge zeigt, kannst Du nur Partitionen mit 2^32*512 Bytes maximal schaffen, weil die Felder in der MBR-Struktur für Startsektor und Länge jeweils nur 4 Bytes (32 Bit) vorsehen. > Bin jetzt gerade dabei, die Partition auf 2TB zu verkleinern und eine 2. > Partition einzurichten. Schön ist das nicht.... Das könnte gehen, ist aber unschön. > FAT32 möchte ich nicht verwenden, da ich doch einige Dateien mit >4GB > drauf habe. FAT32 sollte man vermeiden, wenn es geht. > Hat jemand eine Idee dazu wie man das besser lösen könnte? Ist das ein > Problem von USB/ext4 oder von WD generell. Nein. Du brauchst nur das GPT-Format anstelle des MBR-Formats. Eventuell ist das Alignment-Problem damit gleich mit gelöst. Gruß Peter
Peter M. schrieb: > Hallo Andreas, > > Andreas B. schrieb: >> Hi, >> ich bin gerade dabei, meine gerade erstandene externe FP einzurichten. >> Es ist eine der bunten WD Passport mit 4TB und USB3. Intern haben diese >> Dinger den USB controller schon auf der FP. >> Ich bin relativ schnell von den vorformatierten NTFS zu ext4 gewechselt, > > Hier fehlen die Details zum Wechsel. Eventuell hast Du bei Deiner > Verfahrensweise eine GPT-Partition gelöscht und eine MBR-Partition > erzeugt. Möglicherweise. Wie sie vorher genau partitioniert war, kann ich jetzt nicht mehr nachvollziehen. Meine ext4 danach war jeden Falls keine GUID Partition. > >> weil NTFS auf meinem PC (Mint 17.3) zu langsam war (Datentransfer <50% >> gegenüber ext4). > > Das klingt eher wie ein Alignment-Problem. Wenn Platten mit 4k-Sektoren > 512 Bytes nach außen emulieren, sollten die Partitionsränder > überlappungsfrei auf dem Anfang der 4K-Sektoren liegen, weil ansonsten > die Festplatte beim Schreiben der Sektoren den betroffenen Sektor > komplett einlesen muss, um sie erst dann wegzuschreiben. Das würde heißen, daß die Platte standardmäßig nicht korrekt partitioniert war. Kann ich mir nicht so recht vorstellen. > >> Jetzt habe ich das Problem, daß die Platte bei beschreiben mit >50% der >> Kapazität, sprich 2TB, Fehler beim fsck bringt. > > Klingt nach 4k-Sektoren mit Emulation von Sektoren einer Länge 512 > Bytes! > >> ext4 sollte ja eigentlich keine Probleme mit 4TB haben aber kann es sein >> daß die FW dieser Platte da Probleme macht? > > Nein. Wenn die Platte nach außen Sektoren mit 512 Byte Länge zeigt, > kannst Du nur Partitionen mit 2^32*512 Bytes maximal schaffen, weil die > Felder in der MBR-Struktur für Startsektor und Länge jeweils nur 4 Bytes > (32 Bit) vorsehen. GPT sollte das schaffen. >> Bin jetzt gerade dabei, die Partition auf 2TB zu verkleinern und eine 2. >> Partition einzurichten. Schön ist das nicht.... > > Das könnte gehen, ist aber unschön. stimmt, daher habe ich das wieder abgebrochen und erst mal mit einer GPT versucht. >> FAT32 möchte ich nicht verwenden, da ich doch einige Dateien mit >4GB >> drauf habe. > > FAT32 sollte man vermeiden, wenn es geht. stimmt auch, obwohl: Bei USB Sticks mache ich das noch. >> Hat jemand eine Idee dazu wie man das besser lösen könnte? Ist das ein >> Problem von USB/ext4 oder von WD generell. > > Nein. Du brauchst nur das GPT-Format anstelle des MBR-Formats. > Eventuell ist das Alignment-Problem damit gleich mit gelöst. Hoffentlich. Die Kopiersession hat gerade wieder gestartet.
Hmm, jetzt habe ich die Plattte mal auf ca. 2.7TB gefüllt. Jetzt kommen beim einstecken wieder Fehler im syslog (Anhang) >sudo fsck.ext4 -n /dev/sdc1 > fsck.log (Anhang) liefert mir jede Menge Fehler. Ich habe jetzt mal sudo smartctl -t long -d sat /dev/sdc gestartet. Das dauert jetzt allerdings erst einmal 9h. Der short Test brachte keine Fehler. sudo smartctl -a -d sat /dev/sdc > smartctl.txt (Anhang) sieht auch gut aus. Das Ganze passiert erst, wenn die Platte zu mehr als die Hälfte gefüllt wird. > sudo gdisk /dev/sdc -l GPT fdisk (gdisk) version 0.8.8 Partition table scan: MBR: protective BSD: not present APM: not present GPT: present Found valid GPT with protective MBR; using GPT. Disk /dev/sdc: 7813969920 sectors, 3.6 TiB Logical sector size: 512 bytes Disk identifier (GUID): 73C53753-6290-4AC0-9F4D-05DA7A63B3CD Partition table holds up to 128 entries First usable sector is 34, last usable sector is 7813969886 Partitions will be aligned on 2048-sector boundaries Total free space is 2014 sectors (1007.0 KiB) Number Start (sector) End (sector) Size Code Name 1 2048 7813969886 3.6 TiB 8300 Linux filesystem So scheint das ja ok zu sein. Vielleicht sollte ich den Heise Test doch mal durchlaufen lassen. Da wäre aber schon ein starkes Stück. Noch Ideen?
Über 2 TB werden andere Partitionstabellen verwendet (GPT statt MBR) https://de.wikipedia.org/wiki/GUID_Partition_Table Andreas B. schrieb: > Heise Test Schon mal eine gute Idee. Jedenfalls würde ich dieser Platte nie wertvolle Daten anvertrauen, bevor sie ich sie nicht 1x grüüündlich formatiert oder vollgeschrieben hätte. Geduld! Es wäre nicht der 1.Fall, wo später ein Fehler erst weiter hinten auffällt
Mir fiel noch ein daß der Heise Test ja ein Windows Programm ist. Die Linux Alternative wäre dann F3. Das löscht mir dann allerdings wieder die ganze Platte. Es dauert halt ewig, die Platte wieder vollzumachen. Merkwürdig ist aber schon, daß scheinbar alles gut aussieht, wenn man mit dem Browser das Dateisystem durchforstet. Auch später (nach 2TB) und anfangs angelegte Dateien sehen scheinbar gut aus. Erst wenn ich mit fsck.ext4 "repariere", dann fehlen anschließend Dateien.
Ext4 sollte zwar auch problemlos damit zurechtkommen, aber ich bevorzuge für große Partitionen seit jeher XFS. Früher war es besser geeignet, heute zumindest nicht schlechter. Aber auch da gilt: besser erstmal die Platte prüfen.
OK, dann höre ich mal auf Euch, obwohl das bei einer neuen Platte schon sehr merkwürdig wäre. Ich habe jetzt mal 1.5TB auf der Platte gelassen und f3write gestartet. Er läßt die vorhandenen Daten scheinbar unangetastet und schreibt den Rest mit Dateien x.fff voll. Das dürfte jetzt erstmal wieder 7h dauern bis die Platte voll ist. Falls es Probleme gibt, dann eben früher. Nächster Test wäre dann mit xfs (da dachte ich auch schon dran) und wenn das alles nicht hilft, dann halt 2 Partitionen.
Andreas B. schrieb: > Noch Ideen? Wenn Du Deine Platte an einen Rechner mit Microsoft-Betriebssystem anschließt, brauchst Du ein Betriebssystem, dass das unterstützt. Bei Linux sollte es auch keine Uraltversion sein. Das könntest Du ja noch abprüfen.
MS ist nicht interessant. Habe nur Linux PCs hier. Alles Mint 17.3 mit 4.4.0-13 Kernel.
Etwas OT: Eine interessante Alternative zu den funktional kastrierten WD-Platten sind übrigens die Modelle von Seagate, die auch unter dem Maxtor-Logo verkauft werden. Das sind ganz normale SATA-Platten, und die USB3-SATA-Bridge ist eine kleine aufgesteckte Platine. Das 2.5"-4TB-Modell ist damit für derzeit ca. 110 EUR eine der günstigsten Varianten, an eine recht stromsparende 4-TB-Platte zu kommen.
Ja, das hatte ich auch erst später festgestellt, daß das so ein Teil ist. Ich wußte gar nicht, daß es so etwas gibt (mit USB3 controller direkt auf der Platte). Die nächste Platte wird wohl eine normale NB Platte mit einem extra USB3 Gehäuse werden. Dann weiß man auch was drin ist.
Andreas B. schrieb: > Die nächste Platte wird wohl eine normale NB Platte mit einem extra USB3 > Gehäuse werden. Die Kombination ist bloß oft teurer als wenn das von einem Festplattenhersteller zusammengeschraubt wird. Siehe das Beispiel mit der 4-TB-Platte im "Maxtor"-Gehäuse. Die darin verbaute Platte kostet ohne Gehäuse mindestens 130 EUR: https://www.heise.de/preisvergleich/seagate-barracuda-compute-4tb-st4000lm024-a1521938.html?hloc=at&hloc=de&hloc=uk https://www.heise.de/preisvergleich/seagate-laptop-hdd-4tb-st4000lm016-a1399721.html?hloc=at&hloc=de&hloc=uk Mit Gehäuse (und USB3-SATA-Bridge) wirds dann deutlich günstiger: https://www.heise.de/preisvergleich/maxtor-m3-portable-4tb-hx-m401tcb-gm-a1397754.html Das verhält sich bei anderen, kleineren 2.5"-Platten ebenso. WD mag bei manchen Leuten einen besseren Ruf haben als Seagate, aber dafür baut WD halt gerne kastrierte nur-USB-Festplatten.
Rufus Τ. F. schrieb: > WD mag bei manchen Leuten einen besseren Ruf haben als Seagate, aber > dafür baut WD halt gerne kastrierte nur-USB-Festplatten. Nun muss ich aber auch sagen, dass es nicht soooo unsinnig klingt, eine externe USB-Festplatte so zu bauen, dass das Laufwerk direkt USB spricht, statt dass es nur SATA kann und dann noch extra eine zusätzliche Bridge braucht, um auf USB zu adaptieren. Die meisten Anwender kommen ja auch nicht auf die Idee, die Festplatte aus dem Gehäuse auszubauen und direkt in einen Rechner zu stecken. Da sind Leute wie wir eher die Ausnahme. Würde man einen USB-Stick als "SATA-Stick" mit integrierter USB-SATA-Bridge bauen, fändest du das vermutlich auch irgendwie albern.
:
Bearbeitet durch User
Rolf M. schrieb: > dass es nicht soooo unsinnig klingt, eine externe USB-Festplatte so zu > bauen, dass das Laufwerk direkt USB spricht, Selbst Laien, die schon ein paar Mal mit Micro-USB-Steckern zu tun hatten, können der Möglichkeit etwas abgewinnen, diese leicht zu ersetzen. Betrachtet man übrigens die Elektronik so einer WD-Platte, dann ist die nicht anders aufgebaut, das ist eine SATA-Platte mit einer USB-SATA-Bridge, nur ist die USB-SATA-Bridge auf der Hauptplatine der Festplatte verbaut. Hier übrigens gibt es eine Anleitung, wie man an eine WD-USB-Platte einen SATA-Stecker anschließen kann, um bei defekter USB-SATA-Bridge an die Daten heranzukommen: http://www.datarecoverytools.co.uk/2010/05/05/how-to-connect-and-recover-usb-only-western-digital-drives-with-hd-doctor-suite/
Rufus Τ. F. schrieb: > > Siehe das Beispiel mit der 4-TB-Platte im "Maxtor"-Gehäuse. Die darin > verbaute Platte kostet ohne Gehäuse mindestens 130 EUR: > Woher weißt Du daß gerade diese Platte drin ist? Und wer sagt Dir, daß 4 Wochen später nicht doch etwas anderes drin ist? Ob WD oder Seagate ist mir eigentlich egal. Langzeiterfahrungen mit einer Platte hat man eh erst dann, wenn die Platte schon nicht mehr auf den Markt ist. > Hier übrigens gibt es eine Anleitung, wie man an eine WD-USB-Platte > einen SATA-Stecker anschließen kann, um bei defekter USB-SATA-Bridge an > die Daten heranzukommen: > http://www.datarecoverytools.co.uk/2010/05/05/how-... Nett, habe ich mir mal als Lesezeichen gesetzt. Nun zum Test: Momentan steht f3read auf Datei Nr.1966 von 2245 (Zur Erinnerung: Ich habe vor dem Test ca. 1.7TB Daten auf der Platte gelassen). Vorher hatte ich nochmal den fsck drüber laufen lassen (siehe attachment, ohne Reparatur!). Jede Menge Fehler :-( Beim f3read trat bis jetzt nur ein Fehler bei Datei Nr. 165 auf. Das ist ziemlich genau in der Mitte der Platte (also bei 2 TB!). Zufall? Sehr merkwürdig...
Gerade komplett durchgelaufen: Es blieb bei den einen Fehler in der Plattenmitte: Data OK: 2.19 TB (4707100712 sectors) Data LOST: 3.59 MB (7352 sectors) Corrupted: 3.59 MB (7352 sectors) Slightly changed: 0.00 Byte (0 sectors) Overwritten: 0.00 Byte (0 sectors) Average reading speed: 76.62 MB/s Jetzt meldet smartctl immer noch keine Fehler. Der Long selftest von smartctl läuft noch. Ich denke, ich werde jetzt die Platte mal mit xfs formatieren und schauen was er da tut.
Andreas B. schrieb: > Nun zum Test: > Momentan steht f3read auf Datei Nr.1966 von 2245 (Zur Erinnerung: Ich > habe vor dem Test ca. 1.7TB Daten auf der Platte gelassen). > > Vorher hatte ich nochmal den fsck drüber laufen lassen (siehe > attachment, ohne Reparatur!). Jede Menge Fehler :-( > > Beim f3read trat bis jetzt nur ein Fehler bei Datei Nr. 165 auf. Das ist > ziemlich genau in der Mitte der Platte (also bei 2 TB!). > > Zufall? Sehr merkwürdig... Verstehe ich nicht. Die Mitte liegt bei mir etwa bei Datei 1122 bis 1123 (=2245/2). Wieso entspricht 165 der Mitte?
Die Platte hatte bereits ca. 1,7TB von 4TB an Daten. Dann wurden noch 2245 Dateien a 1GB dazu erstellt. Da kommt 165 so etwa auf die Hälfte (wg. des Alignments fängt die Partition ja auch später an.
Andreas B. schrieb: > Beim f3read trat bis jetzt nur ein Fehler bei Datei Nr. 165 auf. Es gibt gelegentlich Unterschiede zwischen Testprogrammen und dem dümmsten Fall in der realen Welt. Vergleiche deshalb aus Interesse mal die Länge Deiner Dateinamen und Ordner ob diese recht lang sind oder exotische Zeichen enthalten.
Rufus Τ. F. schrieb: > WD mag bei manchen Leuten einen besseren Ruf haben als Seagate nach Jahren WDpassport die mich im Gegensatz zu anderen USB 2.5" Platten an KEINEM USB je im Stich liessen liebe ich diese Teile. Meine Toshiba USB Platte war da zickiger. Allerdings ist die 4TB WDpassport relativ teuer, die Maxtor ist nun auch preislich attraktiv (OK 10-20€ nicht so viel aber auf um 100 betrachtet schon)
Joachim B. schrieb: > 4TB WDpassport relativ teuer WD war eigentlich in der Vergangenheit recht zuverlässig. Man sollte sich aber trotzdem an die alte Bauernweisheit erinnern:"Lege nie ALLE Eier in einen Korb." Je größer die Platten werden, desto größer wird auch das Verlustrisiko durch böse Geister oder Irrtümer. rm -r
oszi40 schrieb: > WD war eigentlich in der Vergangenheit recht zuverlässig. deswegen mag ich die oszi40 schrieb: > Man sollte > sich aber trotzdem an die alte Bauernweisheit erinnern:"Lege nie ALLE > Eier in einen Korb." deswegen habe ich 6 Stück von 1TB bis 3TB und könnte ja mal eine Maxtor probieren wenns gebraucht wird.
:
Bearbeitet durch User
Joachim B. schrieb: >> WD war eigentlich in der Vergangenheit recht zuverlässig. > > deswegen mag ich die Da hab ich aber ganz andere Erfahrungen gemacht. WD passports hatte ich vor mehreren Jahren 3 Stück. Die sind allesamt innerhalb weniger Monate verreckt. WD fasse ich seitdem mit sehr spitzen Fingern an.
und sonst greife ich immer ins Klo, das ausgerechnet ich Glück mit meinen WDpassport hatte, Wahnsinn.
oszi40 schrieb: > Andreas B. schrieb: >> Beim f3read trat bis jetzt nur ein Fehler bei Datei Nr. 165 auf. > > Es gibt gelegentlich Unterschiede zwischen Testprogrammen und dem > dümmsten Fall in der realen Welt. Vergleiche deshalb aus Interesse mal > die Länge Deiner Dateinamen und Ordner ob diese recht lang sind oder > exotische Zeichen enthalten. Ich hatte ja oben schon geschrieben, daß die Platte gut aussah, wenn man sie im Browser angeschaut hat. Das bezog sich natürlich auch auf die Dateinamen. Im Moment läft der f3write noch (jetzt auf leere Platte, xfs formatiert). Merkwürdig ist, daß die Datenrate mittlerweile auf ca. 8MB/s von vormals 90MB/s eingebrochen ist. Echte Resultate dauern also noch.... Smartmon sieht noch gut aus.
wenn du fwrite mit ctrl-z pausierst, sync machst und dann wartest, und dann wieder mit % fwrite startest, hat sie dann wieder volle Geschwindigkeit? Nur mal so, kopier grade 4 TB auf ein Raid, nach 400 GB der Einbruch jeweils, musste ein paar Systemvariablen anpassen, scheint jetzt zu gehen.
Gerade mal getestet an einer anderen Platte und sync gegoogelt. ;-) Also die speed hatte zwischen 8 und 40MB/s geschwankt. Jetzt ist sie wieder bei >70MB/s. Danke für den Tip. Obwohl: Verstehen tu ich das nicht.
Ja ich auch nicht, aber googlen hat mir geholfen, denn das wird wieder langsam werden! Dauerhaft was zu bringen scheint: als root oder mit sudo davor: sysctl -w vm.vfs_cache_pressure=50 sysctl -w vm.swappiness=10 wenn man vm.vfs_cache_pressure=50 googled findet man auch x Seiten über das Thema.
Mark S. schrieb: > Joachim B. schrieb: >>> WD war eigentlich in der Vergangenheit recht zuverlässig. >> >> deswegen mag ich die > > Da hab ich aber ganz andere Erfahrungen gemacht. > WD passports hatte ich vor mehreren Jahren 3 Stück. Die sind allesamt > innerhalb weniger Monate verreckt. WD fasse ich seitdem mit sehr spitzen > Fingern an. Du findest halt zu jedem Festplattenhersteller jemanden, der dir so eine Geschichte erzählt. Da war ggf. auch einfach mal ein Problem mit einem bestimmten Modell, möglicherweise sogar nur eine Charge bzw. eine Firmware-Version. Sowas passiert aber jedem Festplatten-Hersteller, deshalb gibt's eben zu jedem auch so eine Story. Wer bessere Ausfallsicherheit will, sollte sich auf keinen Fall mehrere Festplatten des selben Modells auf einmal kaufen, denn wenn die Charge einen Fehler hat, ist der bei allen Festplatten vorhanden. Wenigstens schauen, dass sie aus verschiedenen Chargen kommen oder besser noch gleich von verschiedenen Herstellern. Dann hat man die besten Chancen, dass sie nicht alle fast gleichzeitig sterben.
Recht hat er.. Bei meinem Raid sind die Platten im Laden gekauft und streuen Gott sei Dank schön im Herstellungsdatum ^^. Ich hatte schon Festplatten mit schwachen Sektoren (werden nach einer Weile unlesbar, erneutes Überschreiben aktiviert sie dann wieder für eine Weile, lässt sich schlecht beweisen bei der Reklamation) oder solche die Bits kippen beim warm werden (sehr sehr böse, ist aber schon lange her). Wegen dem Langsamwerden, ich hab das ext-4 dann für das initiale Füllen mit mount -o defaults,noatime,nobarrier,data=writeback /dev/md127 mountpfad gemounted, das scheint dann mit obigen Einstellungen dafür zu sorgen, dass er sich nicht verhaspelt, 3.5 TB hat er nun mal kopiert ohne Slowdown (obwohl die externe Dockingstation nur 3TB maximal verkraften soll, mal schauen ob die Checksummen noch alle stimmen)
Hast Du auch mal einen fsck über die volle ext4 Partition laufen lassen? Das mit dem sysctl -w vm.vfs_cache_pressure=50 sysctl -w vm.swappiness=10 hat auch nur kurzfristig geholfen. Pausieren und sync machen hilft für eine Weile bevor er wieder runtergeht. Ich bin auch nicht sicher, ob diese Verlangsamung wirklich vom BS kommt. Unter Windows wird ähnliches in Netz berichtet. Ich vermute daher, daß die FP selbst unter bestimmten Bedingungen ausbremst (T oder warum auch immer). Bei mir ist er jetzt übrigens beim Lesen ca. 2/3 der xfs Partition durch und hat noch keine Fehler. Sieht also erstmal gut aus. Edit: der xfs_ckeck ist fehlerfrei (ohne irgendeine Meldung) durchgelaufen, nachdem die Platte voll beschrieben wurde.
:
Bearbeitet durch User
Hi, lief wieder schief. Nachdem die Platte zu 45% voll war (mit reellen Daten), traten wieder Fehler auf. Ich versuche, das Ding jetzt wieder zurückzugeben. Im Moment läuft (zwecks Beweis, smart ist ja ok) sudo badblocks -vsw -b 4096 /dev/sde1 -o badblocks.log Das wird jetzt erst mal eine Weile dauern.
:
Bearbeitet durch User
Andreas B. schrieb: > traten wieder Fehler auf. vielleicht hat sie nur ne Macke, fehlerhafte Teile sollen ja mal vorkommen, ohne Vergleichsobjekt würde ich nichts auf die Ergebnisse geben.
Joachim B. schrieb: > vielleicht hat sie nur ne Macke, davon gehe ich erst mal aus. Ich versuche aber trotzdem eine andere zu bekommen. Da geht schon etwas Vertrauen verloren. Ich möchte nicht wissen wieviel Zeit ich in diese sch..s Palatte schon investiert habe.
Andreas B. schrieb: > Joachim B. schrieb: >> vielleicht hat sie nur ne Macke, > > davon gehe ich erst mal aus. Ich versuche aber trotzdem eine andere zu > bekommen. Da geht schon etwas Vertrauen verloren. Ich möchte nicht > wissen wieviel Zeit ich in diese sch..s Palatte schon investiert habe. Irgendwo hatte ich neulich gelesen, dass man die Platten dieser Geräte auf keinen Fall umformatieren soll. Mir fällt aber der Link nicht mehr ein. Formatiere sie doch mal wieder mit NTFS um zu sehen ob sie dann wieder 4TB hat.
:
Bearbeitet durch User
Andreas B. schrieb: > Joachim B. schrieb: >> vielleicht hat sie nur ne Macke, > > davon gehe ich erst mal aus. Ich wäre da nicht so sicher, dafür hängen die Fehler zu sehr an typischen FS-Grenzen, ~50%/2TB. xfs_ckeck war auch OK, SMART ja wohl auch. Gibts denn keine Möglichkeit, da an einer Windose mal ein NTFS draufzudegeln und mit h2testw zu testen?
Helmut S. schrieb: > Irgendwo hatte ich neulich gelesen, dass man die Platten dieser Geräte > auf keinen Fall umformatieren soll denke ich auch, man sollte auf jeden Fall mit low level Routinen vorsichtig sein.
Habe nur einen Netbook mit WinXP. Zu alt und zu langsam. Erkennt die Platte auch nicht. Bei den reeelen Daten trat das Problem ja schon vor der Hälfte auf. In der Anleitung stand auch drin daß man die Platte für die Verwendung von OSX umformatieren soll. Das sollte also kein Problem sein. NTFS wäre mir auch zu langsam. Der xfs check war später eben nicht mehr ok. D.h. da hängen viele Sektoren scheinbar an der Grenze zu lesbar/nicht lesbar. Mir ist, ehrlich gesagt, mittlerweile auch egal warum das so ist. Ich muß das jetzt irgendwie für den Händler nachweisen und dann weg mit dem Ding.
Helmut S. schrieb: > Irgendwo hatte ich neulich gelesen, dass man die Platten dieser Geräte > auf keinen Fall umformatieren soll. Mir fällt aber der Link nicht mehr > ein. Bei SD- und anderen Karten und ggf. USB-Sticks ist das so, aber bei Festplatten habe ich sowas noch noch nicht gehört.
Andreas, Deine defekten Sektoren treten ja sowohl mit ext4 als auch mit NTFS auf. Es liegt wohl nicht an den Treibern Deines Linux. Deine Platte hat ja einen USB-Anschluss. Es muss auch nicht unbedingt die Festplatte defekt sein. Wie ist die Verbindung rechnerseitig? Alte Hardware? Eingesetzte USB3.0-Karte? Oder direkt am Mainboard? Gibt es noch für Dich die Möglichkeit, die Festplatte an einem anderen Rechner zu testen? Das muss kein Windows-Rechner sein.
Was man auch prüfen sollte, ist die Länge und Stärke des USB-Kabels. Je kürzer und dicker (hier insbesondere die Stromversorgungsleitungen), desto besser, denn beim Pfusch, 2.5"-Festplatten über USB zu versorgen, ist der Spannungsabfall ein kritischer Faktor. Spezifikationskonform ist das ganze sowieso nicht möglich, denn 2.5"-Festplatten benötigen durch die Bank mindestens kurzzeitig mehr als die 900 mA, die ein USB3-Port zur Verfügung stellen kann. Und wenn die Versorgungsspannung einer Festplatte eine "wackelige Angelegenheit" ist, ist es um die Zuverlässigkeit der Festplatte nicht besser gestellt.
Wenn der Fehler immer bei ~2TB auftritt, dann ist entweder am Controller in der Platte was kaputt (wäre das ein Serienfehler hätten schon mehr geschrien) oder der Rechner mag nix über 2 TB... geht es an einem anderen Rechner (Rechner schuld) oder geht nicht (Platte) ist die Sache klar. Hast du keinen zweiten Rechner, dann besorg ein anderes Modell. Macht die den gleichen Ärger, dann ist das Problem der Rechner.
Rufus Τ. F. schrieb: > Was man auch prüfen sollte, ist die Länge und Stärke des USB-Kabels. Je > kürzer und dicker (hier insbesondere die Stromversorgungsleitungen), > desto besser, denn beim Pfusch, 2.5"-Festplatten über USB zu versorgen, > ist der Spannungsabfall ein kritischer Faktor. Das habe ich vergessen zu erwähnen, danke für den Hinweis. > > Spezifikationskonform ist das ganze sowieso nicht möglich, denn > 2.5"-Festplatten benötigen durch die Bank mindestens kurzzeitig mehr als > die 900 mA, die ein USB3-Port zur Verfügung stellen kann. Die Verallgemeinerung "durch die Bank" würde ich bestreiten. Beleg hier: Beitrag "Maximalstrom bei externer Festplatte ohne Netzteil" Leider ist die Messung mit einer geringen Datenrate durchgeführt worden. Trotzdem halte ich die Grafik für aussagekräftig.
Rufus Τ. F. schrieb: > > Und wenn die Versorgungsspannung einer Festplatte eine "wackelige > Angelegenheit" ist, ist es um die Zuverlässigkeit der Festplatte nicht > besser gestellt. Das ist ein guter Tip. Eine externe andere WD mit 2TB macht unter gleichen Bedingungen (USB3, gleicher Anschluß) absolut keine Problemme aber vielleicht zieht diese hier einfach mehr Strom. bastel_ schrieb: > Wenn der Fehler immer bei ~2TB auftritt, dann ist entweder am Controller > in der Platte was kaputt (wäre das ein Serienfehler hätten schon mehr > geschrien) oder der Rechner mag nix über 2 TB... Es war ja nur beim ersten Mal bei ca. 2TB. Später kam es etwas früher. Er schreibt ja nach 2TB auch noch (Lesen kann man das auch). Der F3 Test lief ja komplett mit nur einem Fehler durch. > geht es an einem anderen Rechner (Rechner schuld) oder geht nicht > (Platte) ist die Sache klar. Hast du keinen zweiten Rechner, dann besorg > ein anderes Modell. Macht die den gleichen Ärger, dann ist das Problem > der Rechner. Ich kann es mal an meinem Notebook ausprobieren. Dann wäre zumindest die HW schon mal ausgeschlossen.
Andreas B. schrieb: > an meinem Notebook ausprobieren In solchen Fällen habe ich Ordner angelegt 1,2,3,4 angelegt und mehrfach das Selbe kopiert um sicher zu gehen, daß es nicht an einem ewig langen Dateinamen mit verbotenen Zeichen hängt.
Peter M. schrieb: > Wie ist die Verbindung rechnerseitig? > Alte Hardware? Eingesetzte USB3.0-Karte? > Oder direkt am Mainboard? Geht über eine extra USB3 PCI Karte. Von hier über einen Stecker innen zur Front. Das Board ist ein Gigabyte GA-H67M-D2-B3 mit i5-2500K und 8GB Ram. Zwar nicht mehr das neuste aber als veraltet würde ich es noch nicht sehen. Aber wie gesagt, ich teste es mal mit meinem Notebook (Yoga 2 Pro, auch Mint 17.3). Das hat einen USB3 POrt.
Peter M. schrieb: > Die Verallgemeinerung "durch die Bank" würde ich bestreiten. > Beleg hier: Ich sehe da keinen Beleg. Was hast Du da verlinkt? Hingegen habe ich mir Datenblätter bzw. "product manuals" von diversen 2.5"-Festplatten angesehen und keine einzige kommt mit einem Anlaufstrom von unter 1000 mA aus.
oszi40 schrieb: > In solchen Fällen habe ich Ordner angelegt 1,2,3,4 angelegt und mehrfach > das Selbe kopiert um sicher zu gehen, daß es nicht an einem ewig langen > Dateinamen mit verbotenen Zeichen hängt. F3 erzeugt Datei mit jeweils 1GB Größe (xxx.fff, xxx=Dateinummer) und macht damit die Platte voll.
Rufus Τ. F. schrieb: > Hingegen habe ich mir Datenblätter bzw. "product manuals" von diversen > 2.5"-Festplatten angesehen und keine einzige kommt mit einem > Anlaufstrom von unter 1000 mA aus. Anlaufen tut sie ja. Wenn es da Probleme gäbe, würde sie nicht erst Stunden später Fehler bekommen.
Andreas B. schrieb: > Das ist ein guter Tip. Eine externe andere WD mit 2TB macht unter > gleichen Bedingungen (USB3, gleicher Anschluß) absolut keine Problemme > aber vielleicht zieht diese hier einfach mehr Strom. wie gesagt ich habe mit 3TB WDpassport Platten am PI und am XP Compi (im USB2 und PCcard54 USB3 Slot) keine Probleme, eine 2TB Grenze gibt es nicht mit NTFS. Ich sehe die 4TB Platte als kritisch, entweder defekt oder in der Datendichte überreizt an.
Andreas B. schrieb: > extra USB3 PCI Karte Die Info kommt spät. Ich habe da schon viele Unverträglichkeiten bzw. Seltsamkeiten erleben dürfen, zu (gefühlten) 90% lag es an schlecht gepflegten Treibern. Funtionieren andere Platten entsprechender Größe ohne Probleme an diesem Port?
Jupp schrieb: > Andreas B. schrieb: >> extra USB3 PCI Karte > > Die Info kommt spät. Ich habe da schon viele Unverträglichkeiten bzw. > Seltsamkeiten erleben dürfen, zu (gefühlten) 90% lag es an schlecht > gepflegten Treibern. Es ist kein Windows. Linux hatte noch nie Probleme damit irgendwelche großen Platten anzusprechen, ob ext4 oder xfs. Auch mit dem USB3 Port hatte ich noch nie Probleme. NTFS wird allerdings noch nicht so lange unterstützt. Läuft zwar, aber langsam. Deshalb habe ich die NTFS Partition gleich plattgemacht. > > Funtionieren andere Platten entsprechender Größe ohne Probleme an diesem > Port? 2TB ja, mit 4TB ist es meine erste Platte.
Funktioniert denn überhaupt irgendwo an Deinem System eine Platte mit mehr als 2 TB Kapazität? Egal, wie wie angeschlossen wird.
Rufus Τ. F. schrieb: > Funktioniert denn überhaupt irgendwo an Deinem System eine Platte mit > mehr als 2 TB Kapazität? > > Egal, wie wie angeschlossen wird. Ich habe nur die eine 4TB Platte. Und man kann nicht sagen, daß sie überhaupt nicht funktioniert. Mit den F3 test wurde die ganze Platte mit 3700 Dateien vollgeschrieben und nur eine Datei hatte Lesefehler. Mit reellen Daten gab es dann später Fehler im Dateisytem, die unter Verlust von vielen Daten repariert werden konntn.
Du hast wenigstens 2 USB-Buchsen am Notebook? Dann würde ich mir ein Y-USB-Kabel besorgen, um den Betriebsstrom aus 2 USB-Buchsen zu ziehen.
Hallo Andreas, Andreas B. schrieb: > Geht über eine extra USB3 PCI Karte. Von hier über einen Stecker innen PCI? nicht PCIe? Hast Du denn Stromversorgungsstecker vom Mainboard-Netzteil auch mit Deiner USB3-PCI-Karte verbunden? Rufus Τ. F. schrieb: > Peter M. schrieb: >> Die Verallgemeinerung "durch die Bank" würde ich bestreiten. >> Beleg hier: > > Ich sehe da keinen Beleg. Was hast Du da verlinkt? Eine Messgrafik! :) Insbesondere kann man die Effekte des gesetzten RPS-Jumpers beobachten. Diese Messung zeigt mir, dass zumindest in meinem Fall auch ohne RPS-Jumper der spezifizierte Anlaufstrom, so wie im Datenblatt beschrieben https://www.wdc.com/content/dam/wdc/website/downloadable_assets/deu/spec_data_sheet/2879-771437.pdf nicht erreicht wird. > Hingegen habe ich mir Datenblätter bzw. "product manuals" von diversen > 2.5"-Festplatten angesehen und keine einzige kommt mit einem > Anlaufstrom von unter 1000 mA aus. Auch in dem WD-Datenblatt werden die 1000mA genannt. WD spezifiziert den Anlaufstrom halt konservativ am oberen Rand. Jupp schrieb: > Die Info kommt spät. Ich habe da schon viele Unverträglichkeiten bzw. > Seltsamkeiten erleben dürfen, zu (gefühlten) 90% lag es an schlecht > gepflegten Treibern. Was sind "schlecht gepflegte Treiber"? Machst Du Treiber-Debugging? Respekt!
:
Bearbeitet durch User
Mark S. schrieb: > Y-USB-Kabel Das ist Murks. An standardkonformen Geräten funktioniert es nicht, an nicht-standardkonformen Geräten ist es sowieso egal.
Peter M. schrieb: > Was sind "schlecht gepflegte Treiber"? Zeugs, was nach dem ersten hingerotzten Versuch nicht weiter gepflegt wird. Teils kruder Code führt zu indeterministischen Bugs. Weniger bei Intel/AMD, aber gerne bei kleineren Chipsatzherstellern gesehen, allen voran VIA*. Dergleichen Bugs trifft man auch immer wieder in der Firmware älterer USB-SATA Bridges. Mittlerweile ist es ruhiger geworden, aber zu Beginn der USB 3.0-Zeit wars ein Graus. > Machst Du Treiber-Debugging? Für Linux/BSD regelmäßig. *Na, wer bekommt hier eine Gänsehaut, wenn er den Namen nur liest? ;)
Jupp schrieb: > Mark S. schrieb: >> Y-USB-Kabel > > Das ist Murks. An standardkonformen Geräten funktioniert es nicht, an > nicht-standardkonformen Geräten ist es sowieso egal. An der fehlenden Standardkonformität der USB-Buchsen meines Lenovo-X220 kann ich leider nichts ändern. Aber mithilfe des USB-Y-Kabels bringe ich meine USB-SoundKarte aus dem Dauer-Reset in den Normalbetrieb, also was solls?
:
Bearbeitet durch User
Jupp schrieb: > Peter M. schrieb: >> Was sind "schlecht gepflegte Treiber"? > > Zeugs, was nach dem ersten hingerotzten Versuch nicht weiter gepflegt > wird. Teils kruder Code führt zu indeterministischen Bugs. Weniger bei > Intel/AMD, aber gerne bei kleineren Chipsatzherstellern gesehen, allen > voran VIA*. Dergleichen Bugs trifft man auch immer wieder in der > Firmware älterer USB-SATA Bridges. Mittlerweile ist es ruhiger geworden, > aber zu Beginn der USB 3.0-Zeit wars ein Graus. > >> Machst Du Treiber-Debugging? > > Für Linux/BSD regelmäßig. > > *Na, wer bekommt hier eine Gänsehaut, wenn er den Namen nur liest? ;) Seit den Problemen bei meinen ersten PC-Selbstbauversuchen mit Chipsätzen von Drittanbieter bei Mainboard und Zusatzkomponenten (Ali, Via etc...) kommt mir nur noch Intel ins Haus. Mit einigen Chipsatzherstellern scheint es der ct-Lektüre nach chronisch Probleme zu geben. VIA ist genau so ein Kandidat.
Hi, Zwischenresultat des Laufes von: sudo badblocks -vsw -b 4096 /dev/sde1 -o badblocks.log steht jetzt bei meinem Notebook bei 80% noch ohne Fehler. (macht noch 0xAA). Ich vermute mal, daß er dann mit 0x55 fortsetzt. Wird also noch eine Weile dauern. Jupp schrieb: >> Machst Du Treiber-Debugging? > > Für Linux/BSD regelmäßig. Da bin ich bei Dir ja an der richtigen Adresse (sorry, ich dachte Du bist ein Windows Jünger, da gab es mit USB ja wirklich jede Menge Murks ;-) ) Die Karte hat einen Renesas Chip und meldet sich (lspci) mit: 02:00.0 USB controller: Renesas Technology Corp. uPD720201 USB 3.0 Host Controller (rev 03) dmesg: andy@andy-H67M-D2-B3 ~ $ dmesg | grep xhci [ 0.656414] xhci_hcd 0000:02:00.0: xHCI Host Controller [ 0.656464] xhci_hcd 0000:02:00.0: new USB bus registered, assigned bus number 3 [ 0.661932] xhci_hcd 0000:02:00.0: hcc params 0x014051cf hci version 0x100 quirks 0x00000010 [ 0.662282] usb usb3: Manufacturer: Linux 4.4.0-13-generic xhci-hcd [ 0.662722] xhci_hcd 0000:02:00.0: xHCI Host Controller [ 0.662770] xhci_hcd 0000:02:00.0: new USB bus registered, assigned bus number 4 [ 0.665716] usb usb4: Manufacturer: Linux 4.4.0-13-generic xhci-hcd Hilft Dir das für eine Aussage? Das mit der Kabelpeitsche finde ich auch nicht so sinnvoll. Wenn der USB Port standardgemäß ist, liefert er ja nur auf Anforderung mehr Strom. Das dürfte bei so einem Kabel nicht funktionieren. USB3 liefert 900mA. Wenn also der Anlauf vorbei ist (und da ist das Problem offensichtlich nicht), sollte es keine Probleme mehr geben. Was ich aber noch untersuchen muß: Platte nach hinten an der USB-Port (direkt am Adapter) und Platte ohne weitere Geräte an dem hinteren USB3 Port laufen lassen. Ich habe nämlich parallel manchmal den USB 3 Port für eine andere Platte verwendet. Das wäre auch noch eine potentielle Möglichkeit. Aber schauen wir erst mal was er an dem NB macht.
Andreas B. schrieb: > Das mit der Kabelpeitsche finde ich auch nicht so sinnvoll. Wenn der USB > Port standardgemäß ist, liefert er ja nur auf Anforderung mehr Strom. > Das dürfte bei so einem Kabel nicht funktionieren. USB3 liefert 900mA. Vor allem wird sich der Strom ja auch nicht ordnungsgemäß so aufteilen, dass genau 900 mA aus dem einen und der Rest aus dem anderen Port kommt, sondern irgendwie, abhängig von irgendwelchen Innenwiderständen.
gerade ist ein Freund hier eingetroffen der mit seiner ersten WD elements 4TB 2,5" secound edition auch Schiffbruch erlitten hatte klackern crash bereichsabhängig, sie wurde umgetauscht zu einer Neuen, nun OK. Er formatiert NTFS über veracrypt. Dabei war er bis jetzt bis 3TB mit den Platten wie ich zufrieden.
Joachim B. schrieb: > Allerdings ist die 4TB WDpassport relativ teuer Ich nehme immer das günstigste. Daher sind die meisten meiner externen HDDs Seagate, z.B.: STDR4000200. Bisher keinerlei Probleme, laufen alle wie dumm. Allerdings kaufe ich nur im Laden. Bei Versand liest man ja über die abenteuerlichsten Verpackungen. Kein Wunder, wenn dann die HDDs nach diversen Wurftests schon defekt beim Kunden ankommen. Bei einem USB-Gehäusetyp hatte ich Probleme mit den USB3-Frontanschlüssen, die HDDs klackerten nur. Ich hab dann nen 7-fach Hub mit 4A-Netzteil auf den Monitorfuß geklebt, darüber laufen alle HDDs einwandfrei.
Peter D. schrieb: > Allerdings kaufe ich nur im Laden. > Bei Versand liest man ja über die abenteuerlichsten Verpackungen. "Der Laden" stellt die HDD aber auch nicht in seinen hinteren Räumlichkeiten her. Die werden da auch einfach nur angeliefert wie Netzteile, Router, Kabel...
Michael B. schrieb: > Die werden da auch einfach nur angeliefert Aber hoffentlich nicht einzeln als "Wurfsendung", sondern auf Paletten.
Wieviele HDD vekauft so ein gewöhnlicher Laden so die Woche? Kommen die 100 Stück tatsächlich auf Paletten? Und wie vorsichtig geht der Ver-/Entlader mit seinem Hubwagen damit um?
Peter D. schrieb: > Aber hoffentlich nicht einzeln als "Wurfsendung", sondern auf Paletten. Michael B. schrieb: > Kommen die 100 Stück tatsächlich auf Paletten? wer glaubt denn an palettenweise Lieferung von 4TB 2,5" Platten im Computerladen?
Hi, nun ist der Test mit: sudo badblocks -vsw -b 4096 /dev/sde1 -o badblocks.log nach ca. 100h komplett fehlerfrei an meinem Notebook durchgelaufen. D.h. ich gehe jetzt mal davon aus, daß die FP tatächlinch i.O. ist und das Problem am Desktop liegt. Erster Verdacht: Das Kabel von der USB3 Karte zur Front. Die andere WD mit 2TB (WD-Elements) hat dort zwar noch nie Probleme gemacht, aber in irgendeinem Punkt scheint die 4TB WD (MyPassport) anspruchsvoller zu sein. Ich habe die 4TB jetzt wieder mit ext4 formatiert und hänge sie jetzt mal hinten an den Desktop zum vollkopieren. Ergebnis folgt.
Der Verdacht hat sich erhärtet. Die FP ist absolut ok. Habe sie jetzt komplett voll kopiert und der fsck war anschließend fehlerfrei. Es besteht offensichtlich ein Problem mit dem Kabel das vom USB3 Controller zur Front verläuft. Warum das bei der kleineren WD mit 2TB zu keinen Problemen geführt hat, ist unklar. Der Stromverbrauch kann es nicht sein, weil die 4TB WD auch an einem USB2 Port problemlos läuft. D.h. das Kabel innen zählt wohl auch als Verlängerungskabel und ist lt. USB Spec. (wie ich gerade in Wikipedia nachgelesen habe und das gilt auch für USB 2!) nicht zulässig. Darauf muß man erst mal kommen wenn man sich die Anzahl der angebotenen Verlängerungskabeln auf den Markt anschaut.
Andreas B. schrieb: > Es besteht offensichtlich ein Problem mit dem Kabel das vom USB3 > Controller zur Front verläuft. Warum das bei der kleineren WD mit 2TB zu > keinen Problemen geführt hat, ist unklar. Der Stromverbrauch kann es > nicht sein, weil die 4TB WD auch an einem USB2 Port problemlos läuft. Doch, genau der Stromverbrauch ist die Ursache. Dein USB2-Port liefert wie 95% aller anderen USB2-Ports erheblich mehr Strom, als die Spezifikation vorschreibt, und auch ohne das zu überprüfen. Sonst würde an dem überhaupt keine 2.5"-USB-Platte funktionieren. Die Stromaufnahme der 4-TB-Platte ist höher als die von anderen 2.5"-Platten, weil die 4-TB-Platte eine 15mm fette Kiste mit entsprechend mehr Magnetscheiben und größerer zu beschleunigender Masse ist. Auch der Kopfträger ist schwerer (da mehr Köpfe daran befestigt sind) und somit benötigt auch das Bewegen der Köpfe mehr Strom als bei kleineren Platten. Dein USB3-Port an der Front Deines PCs ist an einem Verlängerungskabel angeschlossen, was sich bei größeren Belastungen ungünstig auswirkt. Übergangswiderstände der zusätzlichen Steckverbinder, Leitungswiderstand des vermutlich um die 50cm langen Kabels ... kommt alles zusammen.
Rufus Τ. F. schrieb: > > Sonst würde an dem überhaupt keine 2.5"-USB-Platte funktionieren. > So würde ich das jetzt nicht sehen. Eine Hersteller wie WD würde wohl kaum eine Platte auf den Markt bringen, die außerhalb der Spec. läuft. Aber Du hast insofern Recht, daß der USB 2 Port vermutlich mehr liefert. > Die Stromaufnahme der 4-TB-Platte ist höher als die von anderen > 2.5"-Platten, weil die 4-TB-Platte eine 15mm fette Kiste mit > entsprechend mehr Magnetscheiben und größerer zu beschleunigender Masse > ist. Auch der Kopfträger ist schwerer (da mehr Köpfe daran befestigt > sind) und somit benötigt auch das Bewegen der Köpfe mehr Strom als bei > kleineren Platten. > Das ist klar. Wobei ich aber auch vermuten würde daß die Hersteller so schlau sind und einen Sanftanlauf des Spindelmotors da reinbringen. Generell wird eine solche Platte aber mehr Strom brauchen, das stimmt.
Andreas B. schrieb: > Eine Hersteller wie WD würde wohl kaum eine Platte auf den Markt > bringen, die außerhalb der Spec. läuft. Doch, so ist es. Es gibt so gut wie keine 2.5"-USB-Platte, die sich tatsächlich an die Spezifikation hält. Der Anlaufstrom (der beim Hochfahren des Spindelmotors benötigt wird) liegt bei jeder 2.5"-Platte jenseits der für USB2.0 zulässigen 500 mA und sehr oft auch jenseits der bei USB3.0 zulässigen 900 mA. Es gibt wenige ausgesuchte Platten, die den Spindelmotor langsamer beschleunigen, um die Stromaufnahme zu drosseln, die aber sind die Ausnahme, und nicht die Regel. Auch nicht bei WD, und insbesondere nicht beim vorliegenden 4-TB-Brocken. WD veröffentlicht keine brauchbare Dokumentation der Platten (oder versteckt sie so gut, daß ich sie bislang nicht finden konnte), so daß man das auch nicht verifizieren/falsifizieren kann. Brauchbare Dokumentation sieht bei anderen Herstellern so aus: https://www.seagate.com/www-content/product-content/seagate-laptop-fam/barracuda_25/en-us/docs/100804767f.pdf In diesem Dokument ist beispielsweise auf S.11 (12) der maximale Anlaufstrom mit 1.2 A spezifiziert.
Rufus Τ. F. schrieb: > zulässigen 500 mA und sehr oft auch jenseits Es gibt schöne USB-Adabter, womit man den Stromverbrauch messen könnte. Ob die Daten dann noch sauber ankommen steht auf einem anderem Blatt.
oszi40 schrieb: > Es gibt schöne USB-Adabter, womit man den Stromverbrauch messen könnte. Der Anlaufstrom fließt nur wenige Sekunden lang, den müsste man mit anderen Mitteln messen (DSO und Shunt o.ä.). Und ja, so ein Messadapter bereitet sicher mehr Probleme, als er löst.
oszi40 schrieb: > Es gibt schöne USB-Adabter, womit man den Stromverbrauch messen könnte. > Ob die Daten dann noch sauber ankommen steht auf einem anderem Blatt. Habe ich schon versucht, aber ohne Oszi ist da nichts zu machen. Die Daten waren mir dabei wurscht. Mir ging es nur um den Strom. Aber das ist zu dynamisch für diese Dinger.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.