Forum: PC Hard- und Software Hilfe: FreeNAS oder Debian


von Timm R. (Firma: privatfrickler.de) (treinisch)


Lesenswert?

Hallo,

ich wäre für Tips dankbar, die mir die folgende Entscheidung 
erleichtern:

Ich habe hier einen Debian Rechner mit 5 Platten als md Raid 6 und einem 
seit Ur-Zeiten (so knapp 10 Jahre, denke ich) aktualisierten Debian 
(aktuell stretch). Das Motherboard ist auch in etwa so alt, die Platten 
sind neuer.

Ich schraube gerade ein neues System zusammen, das mit 32 GB ECC Ram und 
einem Xeon D Prozessor ausgerüstet ist, also etwas moderner.

Es gibt ein Backup aller wichtigen Daten, das Raid dürfte also bei der 
anstehenden Umrüstung zerstört werden.

Ich liebäugele damit, auf FreeNAS umzustellen, komme aber leider, weil 
ich praktisch keine Erfahrung mit BSD habe, nicht wirklich auf eigenen 
grünen Zweig.

Anforderung:
Zugriff über TimeMachine, AppleShare Fileserver AFP, SMB
Schreiben auf das Volume per rsync
cron rsync reads mit ssh authentication müssen auf dem System ausgeführt 
werden

Nach meinen Recherchen müsste das soweit mit FreeNAS problemlos gehen.

Vorteile Debian:
Ich brauche das raid volume nicht zerstören.
Ich könnte den Rechner auch für andere Aufgaben nutzen, wobei ich 
aktuell als Vision höchstens eine lokale MediaWiki und einen iTunes 
Media Server sehe.
Ich kenne mich mit Debian einigermaßen aus

Nachteile Debian:
Das installierte System ist zwar aktuell, aber echt schon sehr alt und 
es gibt immer wieder überraschende und damit nervige Inkonsistenzen, zum 
Beispiel kaputte Alternatives.
Das Filesystem ist anfälliger für Defekte als ZFS. Das letzt Raid 
rebuilden und fsck hat Tage gedauert, was wirklich nervt, weil während 
dieser Zeit das System nicht für Backups zur Verfügung steht


Vorteile FreeNAS
Wenn ich das richtig sehe, kann FreeNAS alles was ich will von Haus aus.
ZFS scheint, weil es transaktional ist, recht robust zu sein.
Die neue Hardware ist ok für FreeNAS und durch die jungfräuliche 
Installation wäre auch alles aktuell und konsistent.
FreeNAS bootet schnell.

Nachteile FreeNAS
Die Paketverwaltung unter BSD macht mir Sorgen, da entsteht auf jeden 
Fall ein hoher Lernaufwand.
Wenn man schon FreeNAS benutzt, dann auch eher als das, was es eben ist, 
eine Appliance und kein LAMP Server.
Ich kann das Raid später nicht mehr erweitern, habe aber eh alle 6 Sata 
Ports des Mainboards voll.

Eventuell: Ist es eine praktikable Idee, wenn ich dann das System doch 
mal LAMP mäßig benutzen will, einfach ein Debian in einer Virtuellen 
Maschine auf dem FreeNAS laufen zu lassen?

Danke für jeden Hinweis.

Timm

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Wozu braucht ein NAS 32 GB RAM?

von jz23 (Gast)


Lesenswert?

Mal unabhängig von deiner OS-Wahl würde ich BTRFS nutzen, ob Debian das 
unterstützt weiß ich nicht, aber Ubuntu Server kann das und FreeNAS 
ziemlich sicher auch. Von der Lizenz ist das wesentlich netter als ZFS, 
weil es eben frei verfügbar ist. Außerdem kann man "Subvolumes" anlegen, 
also praktisch Unterpartitionen, die aber nicht größenbeschränkt sind. 
Das finde ich persönlich für ein Datengrab, was aber noch andere 
Aufgaben übernehmen soll (Bei mir verwaltet mein Server neben einem 
Backup meiner Daten noch eine Owncloud) äußerst praktisch. Und du 
könntest halt Ubuntu (wahrscheinlich auch Debian, aber so groß ist der 
Unterschied ja nun auch nicht) verwenden, was du halt mehr oder weniger 
schon kennst.

von G. L. (glt)


Lesenswert?

Rufus Τ. F. schrieb:
> Wozu braucht ein NAS 32 GB RAM?
FreeNAS mit ZFS ist ziemlich speicherhungrig wenn man es performant 
betreiben möchte - ansonsten würde wesentlich weniger reichen.

Du kennst dich gut mit Debian aus - warum nicht neu aufsetzen u. deine 
Daten migrieren?

Für den Privatbereich? ein solche Kiste als nur-NAS zu betreiben wäre 
mir zu overdressed u. aufgrund der Strompreise zu teuer - da würd ich 
eher eine VM-Kiste mit Proxmox gestalten, welche mehr Dienste separiert 
zur Verfügung stellen könnte u. somit flexibler im Einsatz wäre. jm2c

von Pete K. (pete77)


Lesenswert?

Vielleicht ist ja hier etwas für Dich dabei:
https://www.wdc.com/de-de/products/wd-recertified.html

Kennst Du OpenMediaVault? Basiert auf debian: 
https://de.wikipedia.org/wiki/OpenMediaVault

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Rufus Τ. F. schrieb:
> Wozu braucht ein NAS 32 GB RAM?

Bei XFS bespielsweise scheint es einen Zusammenhang zwischen der 
Filesystem-Grösse und dem für einen Filesystem-Check erforderlichen RAM 
zu geben.

von Timm R. (Firma: privatfrickler.de) (treinisch)


Lesenswert?

Hallo Rufus,

Rufus Τ. F. schrieb:
> Wozu braucht ein NAS 32 GB RAM?

das hatte ich nur erwähnt, damit klar ist, dass das System grundsätzlich 
für ZFS ausreichend Speicher hat und FreeNAS deswegen nicht schon 
deswegen ausscheidet.

vlg
 Timm

von Jan L. (ranzcopter)


Lesenswert?

Rufus Τ. F. schrieb:
> Wozu braucht ein NAS 32 GB RAM?

Faustregel für FreeNAS jedenfalls lautet: pro 1TB Storage 1GB RAM...

von Jan L. (ranzcopter)


Lesenswert?

Timm R. schrieb:
> Nachteile FreeNAS
> Die Paketverwaltung unter BSD macht mir Sorgen, da entsteht auf jeden
> Fall ein hoher Lernaufwand.

Oder du lässt FreeNAS einfach, wie's ist, und installierst dir mithilfe 
der FreeNAS-Jails einfach zusätzlich ein Debian - oder eine der zig 
fertigen Knopfdruck-VMs. Dann wäre auch dein Xeon nicht so 
unterbeschäftigt... :)

von Timm R. (Firma: privatfrickler.de) (treinisch)


Lesenswert?

Hallo,

jz23 schrieb:
> Mal unabhängig von deiner OS-Wahl würde ich BTRFS nutzen

also ich muss zugeben, dass sich BTRFS extrem interessant liest! 
Allerdings lese ich gerade auf 
https://btrfs.wiki.kernel.org/index.php/RAID56:

>The parity RAID code has multiple serious data-loss bugs in it.
>It should not >be used for anything other than testing purposes.

das klingt eher so, als ob man mit sowas doch lieber noch ein paar Jahre 
warten sollte. FreeNAS ZFS und md raid sind ja beide sehr alt und 
erprobt.

Trotzdem vielen Dank!


vlg
 Timm

von c.m. (Gast)


Lesenswert?

Rufus Τ. F. schrieb:
> Wozu braucht ein NAS 32 GB RAM?

z.b. fs-caches
1
13:39# /home/cam/ time rsync -WHvan -e ssh server://home/ /tmp/ 2>&1 | wc -l
2
29230
3
4
real  0m7.106s
5
user  0m0.148s
6
sys  0m0.088s
7
13:39# /home/cam/ time rsync -WHvan -e ssh server://home/ /tmp/ 2>&1 | wc -l
8
29230
9
10
real  0m0.862s
11
user  0m0.104s
12
sys  0m0.032s

aber 16G reichen, je nach laufender software und nutzungsprofil, 
natürlich auch.

von jz23 (Gast)


Lesenswert?

Timm R. schrieb:
> Allerdings lese ich gerade auf
> https://btrfs.wiki.kernel.org/index.php/RAID56:
>
>>The parity RAID code has multiple serious data-loss bugs in it.
>>It should not >be used for anything other than testing purposes.

Das kannte ich noch nicht. Aber ich nutze bei mir auch nur eine einzelne 
Festplatte.

von Kaj G. (Firma: RUB) (bloody)


Lesenswert?

Timm R. schrieb:
> Nachteile Debian:
> ...
> Das Filesystem ist anfälliger für Defekte als ZFS.
Und welches Dateisystem soll das sein? ext2? ext3? ext4? reiserfs?
Hier mal eine kleine Auswahl an Dateisystemen:
https://wiki.debian.org/FileSystem

Einfach zu sagen "das Dateisystem ist kacke" funktioniert nicht, weil es 
das eine Dateisystem nicht gibt, schon gar nicht unter Linux.
Keiner hier weiss, was du da wie installiert hast. Von daher ist deine 
Aussage, dass das Dateisystem von Debian ein Nachteil waere, schlicht 
mist.

von Timm R. (Firma: privatfrickler.de) (treinisch)


Lesenswert?

Kaj G. schrieb:
> Timm R. schrieb:
>> Nachteile Debian:
>> ...
>> Das Filesystem ist anfälliger für Defekte als ZFS.
> Und welches Dateisystem soll das sein? ext2? ext3? ext4? reiserfs?
> Hier mal eine kleine Auswahl an Dateisystemen:
> https://wiki.debian.org/FileSystem
>
> Einfach zu sagen "das Dateisystem ist kacke" funktioniert nicht, weil es
> das eine Dateisystem nicht gibt, schon gar nicht unter Linux.
> Keiner hier weiss, was du da wie installiert hast. Von daher ist deine
> Aussage, dass das Dateisystem von Debian ein Nachteil waere, schlicht
> mist.

Hinsichtlich des Kriteriums "transactional", gibt es keinen Unterschied 
zwischen ext2, ext3, ext4 und ReiserFS. Ich meinte allerdings ext4.

vlg
 Timm

von c.m. (Gast)


Lesenswert?

Timm R. schrieb:
> vorteile ... nachteile

dein problem ist: du willst es dir einfach machen - es soll einfach 
funktionieren.
das dilemma ist: freenas unter freebsd verspricht das, aber wenn 
irgendwas nicht geht hast du wieder viel arbeit weil du dir freebsd 
reinziehen musst.

> Anforderung:
> Zugriff über TimeMachine, AppleShare Fileserver AFP, SMB
> Schreiben auf das Volume per rsync
> cron rsync reads mit ssh authentication müssen auf dem System ausgeführt
> werden

wenn debian oder ubuntu das kann, würde ich bei dem betriebssystem 
bleiben das ich kenne.

und zum thema RAID5/6 rebuild zeiten… TB-platten brauchen so lange - je 
mehr gemacht werden muss desto länger dauerts, um mal das 
offensichtliche in worte zu packen.
mehr geschwindigkeit bekommst du durch ssd's und hardware-raid 
controller, aber nicht die billigen für 50€ ^^
obwohl… hm… https://www.ebay.de/sch/i.html?_nkw=perc+controller

von Jupp (Gast)


Lesenswert?

Wenn die gewählte Hardware die Ansprüche an das NAS wiederspiegeln, dann 
ganz klar FreeNAS. Wenn die Hardware "gerade über war", dann einfach 
das, womit du am besten klarkommst.

von (prx) A. K. (prx)


Lesenswert?

Timm R. schrieb:
> das klingt eher so, als ob man mit sowas doch lieber noch ein paar Jahre
> warten sollte. FreeNAS ZFS und md raid sind ja beide sehr alt und
> erprobt.

RAID 1 ist ok, aber Finger weg von RAID 5.

von Timm R. (Firma: privatfrickler.de) (treinisch)


Lesenswert?

Jupp schrieb:
> Wenn die gewählte Hardware die Ansprüche an das NAS wiederspiegeln, dann
> ganz klar FreeNAS.

Also es saugt abends so 5 bis 8h Backups von diversen Servern, insgesamt 
so etwas unter 500 GB und tagsüber wird als Höchstlast im Verlauf von 
vielleicht 8 bis 9 Stunden etwa die selbe Menge von maximal 4 Usern 
lokal gelesen und vielleicht 10-20 GB geschrieben.

Viel ist das nicht, aber das aktuelle System ist damit komplett am Limit 
und die Hoffnung wäre, dass das neue System ein klein wenig Luft rein 
bringt. Ein Grund für die Hoffnung ist, dass zB bei rsync Transfers ganz 
klar die CPU bremst.

Und dass eben jetzt das Filesystem beschädigt war, weil der Rechner 
unerwartet neugestartet ist. Das sollte ja bei ZFS verträglicher 
ablaufen.

vlg

 Timm

: Bearbeitet durch User
von Sheeva P. (sheevaplug)


Lesenswert?

Timm R. schrieb:
> Also es saugt abends so 5 bis 8h Backups von diversen Servern, insgesamt
> so etwas unter 500 GB und tagsüber wird als Höchstlast im Verlauf von
> vielleicht 8 bis 9 Stunden etwa die selbe Menge von maximal 4 Usern
> lokal gelesen und vielleicht 10-20 GB geschrieben.
>
> Viel ist das nicht, aber das aktuelle System ist damit komplett am Limit
> und die Hoffnung wäre, dass das neue System ein klein wenig Luft rein
> bringt. Ein Grund für die Hoffnung ist, dass zB bei rsync Transfers ganz
> klar die CPU bremst.

Richtig, diese Anforderungen sind ziemlich überschaubar. Da Du ohnehin 
für dickere Hardware gesorgt hast, ist es IMHO sinnlos, das bekannte 
System und die bekannte Software wegzuwerfen.

FreeNAS und die BSDs sind feine Software, wenn man sich damit auskennt. 
Wenn man sich nicht damit auskennt, ist es totaler Quatsch, sich in ein 
weiteres UNIXoides System einzuarbeiten, das man am Ende nur auf einem 
einzigen System betreibt und mit dem man ansonsten wenig Berührung (und 
damit Training!) hat. Denn das bedeutet, daß man bei jeder 
Konfiguration, und noch mehr bei jedem Fehler, sich wieder in die 
Besonderheiten dieses Systems einarbeiten muß. Das heißt: schon wenn Du 
einzelne Einstellungen umsetzen willst, dauert das im Zweifelsfall 
bedeutend länger als mit dem bekannten System. Und im Disasterfall 
leiden RTO und eventuell RPO. Been there, done that, got no fun but a 
t-shirt.

Ein anderer Punkt ist, daß Du moderne Hardware mit 1 GBE-Netzwerk- plus 
Disk-I/O auf rotierendem Rost ohnehin nicht ausgereizt bekommst. Ob 
Deine CPU sich nun unter Debian, Ubuntu, *BSD oder FreeNAS langweilt, 
und unter welchem System Dein Arbeitsspeicher nicht genutzt wird, spielt 
eigentlich nicht wirklich eine Rolle, oder?

Wenn Du ein paar Euro übrig hast und Deinem Netzwerk einen echten Boost 
spendieren willst, dann rüste mit 10 GBE nach -- einen 8-Port-Switch mit 
RJ45 gibt es schon für unter 800 und NICs für unter 210 EUR pro Stück. 
So Du dann auch noch was für Deinen Disk-I/O tun willst, sind SSDs 
schneller als gedrehter Rost -- gerade im wahlfreien Zugriff -- und für 
besonders performante "Festplatten" mit einer gestackten Speicherlösung 
bieten sich die extrem performanten PCIe-SSDs an, die können bis zu 
knapp 5 GB/s lesen und 4 GB/s schreiben. Aber dafür braucht man dann ein 
nochmals deutlich schnelleres Netzwerk als 10 GBE, und dann wird es 
ziemlich teuer.

In so einem Fall kann man dann vielleicht auch mal über Dateisysteme, 
Logical Volume Management, Hard- versus Software-RAID und ähnliche Dinge 
reden. Bis dahin solltest Du Dein Augenmerk IMHO stärker auf Ease-of-use 
sowie Deine Kenntnisse und Erfahrungen richten. Diese Softskills sind im 
langfristigen Betrieb von Systemen und Software viel wichtiger als die 
vergleichsweise unwichtige Frage nach bestimmten Implementierungen.

Deswegen probiert man neue, unbekannte Software nicht ausgerechnet auf 
Systemen aus, die der Datensicherheit und -Verfügbarkeit dienen. Da 
setzt ein professioneller Admin auf langfristig stabile Systeme, mit 
denen er sich sehr gut auskennt, und die er zur Not morgens um vier 
betrunken im Halbschlaf bedienen kann.

Wenn Du FreeNAS und / oder *BSD ausprobieren willst: nur zu, das ist 
tolle Software, keine Frage. Aber vielleicht solltest Du das erstmal in 
einer VM ausprobieren, ein paar Monate lang benutzen (!), und ein wenig 
Erfahrungen damit sammeln, bevor Du ernsthaft erwägst, es produktiv zu 
nutzen. YMMV.

> Und dass eben jetzt das Filesystem beschädigt war, weil der Rechner
> unerwartet neugestartet ist. Das sollte ja bei ZFS verträglicher
> ablaufen.

Normalerweise startet eine Linux-Maschine nicht "einfach so" unerwartet 
neu. An Deiner Stelle wäre ich da wißbegierig, was der Grund dafür war. 
Und: warum hat so eine wichtige Büchse keine USV?

von Matthias L. (limbachnet)


Lesenswert?

A. K. schrieb:
> Timm R. schrieb:
>> das klingt eher so, als ob man mit sowas doch lieber noch ein paar Jahre
>> warten sollte. FreeNAS ZFS und md raid sind ja beide sehr alt und
>> erprobt.
>
> RAID 1 ist ok, aber Finger weg von RAID 5.

Ich hab' hier ein NAS mit OpenMediaVault und RAID 6 zu laufen, weil ich 
befürchtet habe, dass ausgerechnet beim Rebuild nach einem 
Einzelplattenausfall eine zweite Platte den Geist aufgibt.

Meinst du dieses Szenario mit "Finger weg" oder gibt's da noch weitere 
Probleme, die ich mit mit RAID 6 auch einfange?

Ich hab' davon wenig Ahnung, aber es funktioniert gerade so schön...

von (prx) A. K. (prx)


Lesenswert?

Matthias L. schrieb:
>> RAID 1 ist ok, aber Finger weg von RAID 5.
>
> Ich hab' hier ein NAS mit OpenMediaVault und RAID 6 zu laufen, weil ich
> befürchtet habe, dass ausgerechnet beim Rebuild nach einem
> Einzelplattenausfall eine zweite Platte den Geist aufgibt.

Ich hatte schlecht gequotet. Das bezog sich nur auf btrfs.

von (prx) A. K. (prx)


Lesenswert?

A. K. schrieb:
> RAID 1 ist ok, aber Finger weg von RAID 5.

Mit dieser Aussage bezog ich mich nur auf btrfs:

>The parity RAID code has multiple serious data-loss bugs in it.
>It should not >be used for anything other than testing purposes.

von Matthias L. (limbachnet)


Lesenswert?

Ah, verstehe, danke!

Mein Szenario war/ist nämlich ähnlich wie das des OP: Es soll zwar 
individuell konfigurierbar sein, aber andererseits out of the box schon 
mal ohne großen Aufwand laufen. Und das hab' ich als Linux-Dummie mit 
OMV problemlos hinbekommen.

von Axel S. (a-za-z0-9)


Lesenswert?

A. K. schrieb:
> Matthias L. schrieb:
>>> RAID 1 ist ok, aber Finger weg von RAID 5.
>>
>> Ich hab' hier ein NAS mit OpenMediaVault und RAID 6 zu laufen, weil ich
>> befürchtet habe, dass ausgerechnet beim Rebuild nach einem
>> Einzelplattenausfall eine zweite Platte den Geist aufgibt.
>
> Ich hatte schlecht gequotet. Das bezog sich nur auf btrfs.

Ich würde generell von BTRFS und auch ZFS abraten. Beide Filesysteme 
sind noch relativ neu, zumindest wenn man sie mit direkten Konkurrenten 
wie XFS oder EXT4 vergleicht. Dazu kommt noch, daß beide mehr oder 
weniger am Tropf von Oracle hängen und was deren langfristigen Support 
von Open Source angeht - da traue ich denen nicht weiter, als ich 
spucken kann. So wie es aussieht, brauchst du die zusätzlichen Features 
ohnehin nicht. Insofern schließe ich mich klar Sheeva Plug an: bleib bei 
dem was du kennst und was funktioniert. Sprich: Debian, md RAID und ein 
herkömmliches Filesystem ohne internen RAID-Support. LVM als 
Zwischenschicht ist auch eine gute Sache. Habe ich hauptsächlich wegen 
Crypto.

von (prx) A. K. (prx)


Lesenswert?

Axel S. schrieb:
> Ich würde generell von BTRFS und auch ZFS abraten. Beide Filesysteme
> sind noch relativ neu, zumindest wenn man sie mit direkten Konkurrenten
> wie XFS oder EXT4 vergleicht.

ZFS und ext4 sind etwa gleich alt.

von Timm R. (Firma: privatfrickler.de) (treinisch)


Lesenswert?

Hallo,

Axel S. schrieb:
 So wie es aussieht, brauchst du die zusätzlichen Features
> ohnehin nicht.

naja, dass ZFS transaktional ist finde ich schon sehr sehr heiß.

Und die Snapshots, wenn sie denn so schnell sind, wie alle sagen wären 
auch sehr nett, ich könnte vor einem rsync poll einen Snapshot machen 
und wenn rsync fehlerfrei durchgelaufen ist und die Daten auf logische 
Konsistenz geprüft wurden den Snapshot löschen, oder vielleicht sogar 
erst einen order zwei Tage später. Das wäre schon sehr nett.

Wenn ich das richtig verstanden habe, ist bei ZFS auch kein fsck mehr 
nötig und die Korrektur läuft durchgehend und ohne spürbare 
Performanceverluste.

Dass es kein Write Hole bei ZFS gibt ist egal, weil es bei Raid 6 eh 
unwahrscheinlich genug ist und deduplikation brauche ich nicht und würde 
ich sowieso nicht benutzen.

Vielleicht kann mir ja jemand sagen, wie der letzte Störfall mit ZFS 
ausgesehen hätte?

Auf dem NAS befindet sich ein Image, dass von entfernten Rechnern 
gemounted wird, durch einen Fehler meinerseits ist das Image in der 
Größe explodiert, von etwas über 500 GB auf 1,5 TB, damit kommt der AFP 
Server (netatalk) auf meinem aktuellen System nicht klar (vermutlich RAM 
Problem?) jedenfalls führt jeder Schreibvorgang, Datei löschen, Datei 
neu anlegen oder auch die Volume Indexierung, egal ob auf das Image, 
oder ein anderes AFP Volume wenn das Image gemounted ist nach kurzer 
Zeit dazu, dass der AFP Server sang und klanglos stirbt. Was dazu führt, 
dass der Client versucht das Image wieder zu mounten, etc ...  Ich 
glaube, dass dadurch das Filesystem beschädigt wurde, jedenfalls trat 
der letzte Defekt genau in diesem Rahmen auf.

Dass die Daten selbst defekt sein können ist nur logisch, aber dass das 
Filesystem defekt war, war schon super nervig. Nach einem manuell 
herbeigeführten Neustart fuhr das System dann nicht mehr hoch, weil ja 
fsck nicht durchlief, ich konnte nicht mehr arbeiten und für die Wartung 
musste ich ja vor Ort an den NAS ran, mit den fscks die dann fällig 
waren, Sicherungskopien etc. pp. hat das schon Tage gedauert.

Meine Erwartung wäre jetzt, dass mit ZFS nur die Datei beschädigt werden 
kann, die in dem Moment beschrieben wird, die Datei die neu angelegt 
wird eventuell nicht existiert oder deren Inhalt defekt, aber das 
Filesystem selbst sollte durch sowas eigentlich nicht berührt werden?

Der Wartungsmodus durch ein defektes Filesystem ist eine sehr schlimme 
Sache und da dachte ich, könnte ZFS punkten?

Vlg
 Timm

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Timm R. schrieb:
> Und die Snapshots, wenn sie denn so schnell sind,

Der Trick bei Snapshots in transactional filesystems liegt im CoW 
Verfahren. Snapshots entstehen da quasi als Nebeneffekt. Indem man den 
alten Zustand nicht löscht, wenn der neue committed wird, sondern 
aufhebt. Vereinfacht ausgedrückt. Folglich ist das eine sehr flotte 
Operation. Löschen kann schon etwas länger dauern, aber da wartet man 
nicht drauf.

Es tut folglich auch nicht weh, auf gut genutzten Fileservern stündliche 
Snapshots anzulegen und nach 1-2 Tagen alle bis auf einen pro Tag 
wegzuwerfen (Erfahrung mit NetApp).

Wie immer kommt das aber mit einem Preis, zumindest bei HDDs: 
Überwiegend partiell geschriebene Files fragmentieren. Beispielsweise 
Datenbanken und VM-Images. Mögen die anfangs am Stück gelegen haben, 
geht es nach einer Weile recht wild durcheinander zu. Bei Backups und 
full table scans von DBs auf HDDs kann recht spürbar werden. Bei SSDs 
ist das freilich egal.

Snapshots in anderen Filesystemen arbeiten anders, etwa in NTFS. Da 
können Snapshots den Betrieb etwas ausbremsen, weil Inhalte beim 
Überschreiben von Daten live kopiert werden. CoW FSs schreiben stets an 
eine andere Stelle und ändern die Metadaten, klassische FSs mit 
Snapshots kopieren statt dessen vorher die alten Daten weg.

> Wenn ich das richtig verstanden habe, ist bei ZFS auch kein fsck mehr
> nötig

Yep. Das war aber eigentlich auch schon bei journalling filesystems 
nicht mehr nötig. Oder hätte es nicht sein sollen. Bei JFS/JFS2 (AIX) 
hat das auch gut funktioniert.

> und die Korrektur läuft durchgehend und ohne spürbare
> Performanceverluste.

Es läuft eher drauf raus, dass man keine Korrektur benötigt. Weil 
zumindest vom Prinzip her keine Inkonsistenzen entstehen können.

> Vielleicht kann mir ja jemand sagen, wie der letzte Störfall mit ZFS
> ausgesehen hätte?

Transactional filesystems sichern dir zu, dass die Metadaten konsistent 
bleiben. Nach einem Crash hast du den letzten committed state intakt, 
was danach passierte ist weg. Ein File ist also entweder einmal da, oder 
weg, aber nicht zweimal da. Und Blöcke sind entweder frei oder belegt, 
nicht aber beides.

Was es nicht zusichert: Dass ein DB- oder Disk-Image, in dem du eine 
halbe Stunde lang drin rumgeschrieben hast, nach einem Crash automatisch 
den Inhalt von vor dieser halben Stunde hat. Es hat den von vor ein paar 
Sekunden. Du kannst aber das File aus dem letzten Snapshot ziehen.

> Der Wartungsmodus durch ein defektes Filesystem ist eine sehr schlimme
> Sache und da dachte ich, könnte ZFS punkten?

Das gehört zum Sinn solcher Filesysteme. Allerdings sollten eigentlich 
auch schon journalling filesystems per Grundansatz auch ohne 
stundenlangem fsck/chkdsk konsistent bleiben. Nur wird das da auf andere 
Art erreicht.

: Bearbeitet durch User
von Gerd E. (robberknight)


Lesenswert?

A. K. schrieb:
> Transactional filesystems sichern dir zu, dass die Metadaten konsistent
> bleiben. Nach einem Crash hast du den letzten committed state intakt,
> was danach passierte ist weg. Ein File ist also entweder einmal da, oder
> weg, aber nicht zweimal da. Und Blöcke sind entweder frei oder belegt,
> nicht aber beides.

Für diese Zusicherung verlassen sich die Filesysteme aber auf die 
nächste Ebene darunter, die Controller und die Platten sowie deren 
Caches.

Und gerade die Caches können zum Problem werden wenn sie die Daten in 
einer anderen Reihenfolge schreiben als sie das Filesystem gesendet hat. 
Eigentlich gibt es für dieses Problem Barriers in den Caches. Zum einen 
werden die aber nicht in jeder Kombination von Blockdevice-Stack 
unterstützt und weitergereicht, zum anderen habe ich auch schon Fälle 
von Filesystemfehlern bei Consumerplatten mit aktivierten Write-Cache 
gesehen, die ich darauf zurückführe daß die Barriers bei diesen Platten 
nicht funktionierten wie in der SATA-Spec vorgegeben. Die Barriers von 
SAS sind da außerdem sauberer spezifiziert.

von (prx) A. K. (prx)


Lesenswert?

Gerd E. schrieb:
> Für diese Zusicherung verlassen sich die Filesysteme aber auf die
> nächste Ebene darunter, die Controller und die Platten sowie deren
> Caches.

Yep. Das erklärt auch, weshalb NTFS trotz journalling eine ausgeprägte 
Neigung zu Filesytem-Checks hat. Microsoft kann sich nicht wirklich 
darauf verlassen, dass die I/O-Ebene korrekt arbeitet. AIX(JFS) und 
NetApp beispielsweise schon.

Wobei mit SSDs dank der Metadaten des wear levelling noch eine 
möglicherweise inkonsistente Ebene hinzu kommt.

: Bearbeitet durch User
von Kaj G. (Firma: RUB) (bloody)


Lesenswert?

Axel S. schrieb:
> Ich würde generell von BTRFS und auch ZFS abraten. Beide Filesysteme
> sind noch relativ neu, zumindest wenn man sie mit direkten Konkurrenten
> wie XFS oder EXT4 vergleicht.

Von Wikipedia:
1
ext4:  Erstveröffentlichung - 14.10.2008
2
BTRFS: Erstveröffentlichung - 12.06.2007
3
ZFS:   Erstveröffentlichung -    06.2006
4
XFS:   Erstveröffentlichung -       1994
#JustMy2cent

von Axel S. (a-za-z0-9)


Lesenswert?

A. K. schrieb:
> Axel S. schrieb:
>> Ich würde generell von BTRFS und auch ZFS abraten. Beide Filesysteme
>> sind noch relativ neu, zumindest wenn man sie mit direkten Konkurrenten
>> wie XFS oder EXT4 vergleicht.
>
> ZFS und ext4 sind etwa gleich alt.

Angesichts des Track-Records der extN Filesysteme neige ich dazu, ext4 
einen gewissen Vertrauensvorschuß einzuräumen ;)

Gerd E. schrieb:
> A. K. schrieb:
>> Transactional filesystems sichern dir zu, dass die Metadaten konsistent
>> bleiben.
...

> Für diese Zusicherung verlassen sich die Filesysteme aber auf die
> nächste Ebene darunter, die Controller und die Platten sowie deren
> Caches.

Das ist trivial. Und für journaling Filesysteme genau das gleiche. Oder 
Datenbanken. Allerdings funktionieren write-barriers ausgesprochen 
unauffällig. Zumindest auf unixoiden Systemen hatten wir damit noch nie 
Probleme. Die einzigen (letztendlich nie sauber aufgeklärten) Probleme 
gab es mal mit Windows. Da haben sich MS und der Treiberhersteller so 
lange gegenseitig den Schwarzen Peter zugeschoben, bis es keinen mehr 
interessiert hat.

von Base64 U. (6964fcd710b8d77)


Lesenswert?

Ich hab derzeit eine CentOS 7 box mit einem raid 1 und zwei weiteren 
Platten im Einsatz. In zwischen habe ich mit OpenMediaVault und Rockstor 
sowie FreeNAS angeschaut.


Ich würde FreeNAS wegen ZFS nehmen, unter anderem wegen den Snapshots. 
Großteil lässt sich über eine GUI einrichten. Updates sollte es eh ewig 
gehen. Dazu hat iXsystems die größere kommerzielle Vertretung im 
Vergleich zu OMV und Rockstor.

Weitere Sachen kannst du dann in Jails oder VMs nachinstallieren.

von Timm R. (Firma: privatfrickler.de) (treinisch)


Lesenswert?

Hallo,

die Sache mit den Festplattencaches:

Kann ich an irgendeiner Kennzahl erkennen, ob die verwendeten HDDs da 
ein Problem haben?

Ich habe WD Red, wegen des timeouts beim Lesen defekter Sektoren.

vlg
 Timm

: Bearbeitet durch User
von Gerd E. (robberknight)


Lesenswert?

Timm R. schrieb:
> die Sache mit den Festplattencaches:
>
> Kann ich an irgendeiner Kennzahl erkennen, ob die verwendeten HDDs da
> ein Problem haben?

Mir ist keine zuverlässige bekannt.

Wenn Du sicher gehen willst, schaltest Du die Write-Caches der Platten 
aus. Das kostet aber sehr kräftig Write-Performance. Klassischerweise 
kompensiert man das dann durch einen Hardware-RAID-Controller mit 
integriertem Cache und Batterie-Backup für diesen Cache.

Da ist dann auch die Unterstützung von Barriers egal weil nach einem 
Stromausfall, hartem Reset etc. die Daten alle immer noch im 
batteriegepufferten Cache liegen und von dort bei nächster Gelegenheit 
auf die Platte wandern.

Aber natürlich kann der Controller selbst auch sterben.

von Markus (Gast)


Lesenswert?

Ubuntu Server 16.04 LTS, alternativ CentOS oder Arch Linux.
unRAID erfreut sich zunehmender Beliebtheit; ich fand's etwas komisch, 
daß es nur von USB-Stick läuft und nicht auf SSD installieren läßt.

Finger weg von OpenMediaVault! Wenn irgendetwas unter der Oberfläche von 
OMV nicht funktioniert und man ergänzend 'manuell' in der Shell 
Änderungen vornimmt, fängt OMV erst recht an herumzuzicken.

von (prx) A. K. (prx)


Lesenswert?

Gerd E. schrieb:
> kompensiert man das dann durch einen Hardware-RAID-Controller mit
> integriertem Cache und Batterie-Backup für diesen Cache.

Heutzutage sichert man den Cache besser mit Flash+Caps ab.

von Pete K. (pete77)


Lesenswert?

Matthias L. schrieb:
> Ich hab' hier ein NAS mit OpenMediaVault und RAID 6 zu laufen, weil ich
> befürchtet habe, dass ausgerechnet beim Rebuild nach einem
> Einzelplattenausfall eine zweite Platte den Geist aufgibt.

Ein NAS ersetzt kein Backup!

von Timm R. (Firma: privatfrickler.de) (treinisch)


Lesenswert?

Hallo,

jetzt habe ich noch mal eine Rückfrage, ich hatte ja einen Filesystem 
Defekt, meine Theorie war ja der mehrfach abstürzende AFP Server.

Wenn ich das richtig verstanden habe, kann das aber auch bei einem 
journaling Filesystem (EXT4) nicht die Ursache sein, richtig?

Was kann denn die Ursache sein?

Ein Plattendefekt? 2 Drives haben einen Read-Error:
ID# ATTRIBUTE_NAME     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED 
RAW_VALUE
1 Raw_Read_Error_Rate  200   200   051    Pre-fail  Always       - 
1

Kann das der Grund sein? Was können denn Gründe sein?

Auf welche SMART Parameter würdet ihr achten um ein drive auszutauschen? 
Würdet ihr die mit dem Read Error schon austauschen?

vlg

 Timm

von Markus (Gast)


Lesenswert?


von Markus (Gast)


Lesenswert?

Wie aus dem Wiki der ubuntuusers oder dem normalen Wikipedia-Eintrag 
hervorgeht, existiert keine Kennzahl im eigentlichen Sinne. Selbst eine 
Prüfung durch SMART ist IMHO mehr oder weniger Kaffeesatzleserei. 
Deshalb der ganze Aufwand mit Raid: Wäre eine genaue Vorhersage über 
Ausfälle möglich, würde man zumindest für private Zwecke liebend gerne 
auf ein Raid verzichten und es bei einem einfachen Backup belassen.

von Michi (Gast)


Lesenswert?

Markus schrieb:
> Finger weg von OpenMediaVault! Wenn irgendetwas unter der Oberfläche von
> OMV nicht funktioniert und man ergänzend 'manuell' in der Shell
> Änderungen vornimmt, fängt OMV erst recht an herumzuzicken.

Hast du da ein oder mehrere konkrete Beispiele? Ich stehe/ stand kurz 
davor OMV zu installieren.

von Markus (Gast)


Lesenswert?

Michi schrieb:
> Hast du da ein oder mehrere konkrete Beispiele? Ich stehe/ stand kurz
> davor OMV zu installieren.

Ich hatte zwei neue Festplatten, für die erfolgreich ein Raid1 erzeugt 
wurde. Anschließend baute ich zwei vorher in einer Synology benutzte 
Platten in den Rechner ein, die von OMV sogar erfolgreich als weiterer 
Raid1-Verbund erkannt wurden. Dabei hätte ich es belassen können, dachte 
aber, es sei vielleicht doch besser, die zwei Platten nochmal komplett 
neu zu installieren. Also alles auf den Platten gelöscht und nochmal ein 
Raid1 erzeugt. Nach Stunden der Synchronisierung schien alles 
erfolgreich durchgelaufen zu sein, aber nach einem Neustart war alles 
weg. Das ganze habe ich mehrmals durchprobiert, immer dasselbe Ergebnis. 
Anschließend hatte ich die mdadm-Befehle in der Shell durchgespielt, 
aber irgendwie wollte OMV meine Änderungen in den config-Dateien der 
mdadm und der fstab nicht akzeptieren.
Der blöde Sync dauert bei 2x8 TB und 2x5 TB fast einen ganzen Tag, 
mehrmaliges Ausprobieren kostet also eine Woche, danach hatte ich die 
Faxen dicke und hab' alles plattgemacht...
Vermutlich irgendwelche Probleme mit initramfs (?).

Außerdem basiert OMV 3 auf Debian 8, eine Installation auf einer über 
PCIe angeschlossenen SSD ist nur auf Umwegen möglich (Installation von 
Debian samt Backports, manuelle Installatio von OMV).

Weiterhin störte es mich, daß ich nie genau wußte, was OMV im 
Hintergrund ausheckt oder auch nicht.

Last but not least scheint mir der Support gering auszufallen: Außer dem 
Entwickler sind im OMV-Forum hauptsächlich zwei-drei Leute unterwegs, 
die imstande sind inhaltlich korrekte Antworten zu liefern.

von Matthias L. (limbachnet)


Lesenswert?

Pete K. schrieb:
> Ein NAS ersetzt kein Backup!

Hab' ich das irgendwo behauptet?? Nein, hab' ich nicht.

von Axel S. (a-za-z0-9)


Lesenswert?

Timm R. schrieb:
> jetzt habe ich noch mal eine Rückfrage, ich hatte ja einen Filesystem
> Defekt, meine Theorie war ja der mehrfach abstürzende AFP Server.

Das ergibt keinen Sinn. "AFP Server" ist ein Server-Prozeß auf der 
Büchse, ja? Wenn der abstürzt, kann es natürlich sein, daß er Daten 
nicht oder nur halb auf die Platte geschrieben hat. Das Filesystem geht 
davon aber nicht kaputt.

> Wenn ich das richtig verstanden habe, kann das aber auch bei einem
> journaling Filesystem (EXT4) nicht die Ursache sein, richtig?

Journaling ist ein Schutz gegen einen Absturz des Betriebssystems oder 
einen Stromausfall. Abtürzende Server-Prozesse können höchstens die 
Files beschädigen, die sie beim Absturz zum Schreiben geöffnet hatten.

> Was kann denn die Ursache sein?
>
> Ein Plattendefekt? 2 Drives haben einen Read-Error:
> ID# ATTRIBUTE_NAME     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED
> RAW_VALUE
> 1 Raw_Read_Error_Rate  200   200   051    Pre-fail  Always       -

Ich sehe hier keinen SMART Fehler. Der Parameter beschreibt die 
Lesefehlerrate vor der Fehlerkorrektur. Und die Metrik ist so, daß der 
Wert bei Alterung sinkt. Du kriegst hier 200, was der Maximalwert 
(vulgo: bestmögliche Wert) sein dürfte. Ein Wert kleinergleich 51 wäre 
als Warnung vor einem kurz bevorstehenden Plattentod zu werten.

> Auf welche SMART Parameter würdet ihr achten um ein drive auszutauschen?

5 Reallocated_Sector_Ct
7 Seek_Error_Rate
9 Power_On_Hours (vs. MTBF)
197 Current_Pending_Sector

Das einzige harte Kriterium ist #197. Das ist die Anzahl nichtlesbarer 
Sektoren (nach Fehlerkorrektur). #5 ist theoretisch hilfreich, 
allerdings habe ich noch keine Platte gehabt, die da einen Wert != 0 
gezeigt hätte. Auch definitiv kaputte Platten. #9 habe ich bei keiner 
Platte ausschöpfen können. Meine älteste Platte hat jetzt 77035h runter 
= 3210 Tage = 8 Jahre, 9 Monate, 3 Wochen.

von Gerd E. (robberknight)


Lesenswert?

Axel S. schrieb:
>> Auf welche SMART Parameter würdet ihr achten um ein drive auszutauschen?
>
> 5 Reallocated_Sector_Ct
> 7 Seek_Error_Rate
> 9 Power_On_Hours (vs. MTBF)
> 197 Current_Pending_Sector
>
> Das einzige harte Kriterium ist #197. Das ist die Anzahl nichtlesbarer
> Sektoren (nach Fehlerkorrektur). #5 ist theoretisch hilfreich,
> allerdings habe ich noch keine Platte gehabt, die da einen Wert != 0
> gezeigt hätte.

Ich hab schon so einige Platten mit einigen wenigen Reallocated Sectors 
gesehen die dann kurz drauf Ärger machten. Wenn Reallocated Sectors > 0 
fliegen die Platten bei mir sofort raus. Bei Current Pending > 0 
natürlich auch.

von Johnny B. (johnnyb)


Lesenswert?

Matthias L. schrieb:
> Ich hab' hier ein NAS mit OpenMediaVault und RAID 6 zu laufen, weil ich
> befürchtet habe, dass ausgerechnet beim Rebuild nach einem
> Einzelplattenausfall eine zweite Platte den Geist aufgibt.

Das ist berechtigt, denn bei meinem Webserver mit RAID1 ist genau dieses 
Szenario eingetreten, dass die zweite Disk sich beim Rebuildprozess auch 
noch verabschiedet hatte.
Daher wäre es wohl zu empfehlen, bei RAIDs nicht völlig identische Disks 
einzusetzen.

von (prx) A. K. (prx)


Lesenswert?

Johnny B. schrieb:
> Daher wäre es wohl zu empfehlen, bei RAIDs nicht völlig identische Disks
> einzusetzen.

Was bei HDDs freilich nur in sehr kleinem Umfang möglich ist. Versuch 
mal 5 neue und technisch verschiedene HDDs gleicher Bauform und 
Geschwindigkeitsklasse zu kaufen. ;-)

> dass die zweite Disk sich beim Rebuildprozess auch
> noch verabschiedet hatte.

Mir ist das in zig Jahren Serverbetrieb trotz gleicher Disks erst einmal 
passiert, und das war in den ersten Tagen nach Lieferung. Die 
Ersatzbeschaffung erwies sich als schwierig, weil Serienfehler beim 
Hersteller, weshalb recht viele Kunden das gleiche Problem hatten.

: Bearbeitet durch User
von Axel S. (a-za-z0-9)


Lesenswert?

A. K. schrieb:
> Johnny B. schrieb:
>> Daher wäre es wohl zu empfehlen, bei RAIDs nicht völlig identische Disks
>> einzusetzen.
>
> Was bei HDDs freilich nur in sehr kleinem Umfang möglich ist. Versuch
> mal 5 neue und technisch verschiedene HDDs gleicher Bauform und
> Geschwindigkeitsklasse zu kaufen. ;-)

Ganz so verschieden hat er wohl nicht gemeint. Aber ein paar Wochen 
oder besser Monate Altersdifferenz können ganz hilfreich sein.

>> dass die zweite Disk sich beim Rebuildprozess auch
>> noch verabschiedet hatte.
>
> Mir ist das in zig Jahren Serverbetrieb trotz gleicher Disks erst einmal
> passiert, und das war in den ersten Tagen nach Lieferung.

Das war Glück.

> Ersatzbeschaffung erwies sich als schwierig, weil Serienfehler beim
> Hersteller, weshalb recht viele Kunden das gleiche Problem hatten.

Ich erinnere mich dunkel an Berichte über einen Firmwarefehler, der 
Platten nach einer gewissen Betriebsdauer aussteigen ließ. Wenn nun alle 
Platten im RAID gleich alt sind ...

Mein letztes RAID war ein RAID-5 über 7 Platten (+ 1 spare) WD Green 
2TB. Wegen des schwächlichen Rechners dauerte ein Rebuild um die 8 
Stunden. Da habe ich auch immer gezittert, ob die restlichen Platten 
durchhalten. Jetzt bin ich seit gut einem Jahr auf RAID-6. Rebuild war 
bislang nicht nötig. Alles in allem habe ich ein besseres Gefühl.

Apropos: braucht jemand einen Highpoint RocketRAID 2320 controller? 8x 
SATA-II, PCIe x4. Eigene CPU (Hardware RAID möglich - von mir nur als 
JBOD genutzt).

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.