Forum: PC Hard- und Software HDDs und SSDs werden immer langsamer!


von Rolf F. (Firma: G.) (benutzername0)


Lesenswert?

Beim Testen von HDDs und SSDs ist mir aufgefallen, das sie immer 
langsamer werden, zumindest bei Schreib-Lesetests wie

badblocks -wsv /dev/sdb

Bei einer Quantum LP52S 950509405, 52,3 MB, SCSI, von circa 1990 und mit 
einem Aufkleber zu 1988, zeigte sich eine Testdauer von 8 m 37 s, also 
517 s. Für die insgesamt 8 Durchgänge (Testmuster 0xaa, 55, ff, 00) 
ergibt das eine mittlere Transferrate von 52,3 MB * 8 / 517 s = 0,81 
MB/s.

Bei 25 Jahre später aktuellen, relativ großen und relativ schnellen HDDs 
zeigt sich eine mittlere Transferrate um 150 MB/s bei einer Größe von 8 
TB.
Das macht rund 150fache Transferrate bei rund 150.000facher Größe, 
folglich die rund 1000fache Schreib-Lesetest-Dauer!
Das Bedeutet in der Praxis für einen Schreib-Lesetest mit den üblchen 4 
Durchgängen, die auch zur Auffrischung der Magnetisierung empfehlenswert 
sind, das der Test nicht mehr eine kurze Kaffepause oder Rauchpause 
dauert sondern 5 Tage, eine ganze Arbeitswoche!

Tests mit SSDs von vor 25 Jahren konnte ich nicht machen, aber der Trend 
ist dort gleich: Schreib-Lesetests dauern immer länger, im Mittel plus 
32 % pro Jahr.
Und auch bei SSDs zeigten sich hier einige Exemplare mit Lesefehlern, 
die durch einen Schreib-Lesetest beseitigt werden, so das auch bei SSDs 
aufgefrischt werden sollte, wobei es bei SSDs elektrische Ladungen statt 
Magnetisierungen sind.

von Peter II (Gast)


Lesenswert?

Rolf F. schrieb:
> Tests mit SSDs von vor 25 Jahren konnte ich nicht machen, aber der Trend
> ist dort gleich: Schreib-Lesetests dauern immer länger, im Mittel plus
> 32 % pro Jahr.

glaube ich nicht. Du hast vermutlich nur an einer SATA-Schnittstelle 
gemessen - das ist schon nicht mehr aktuell.

SSDs können weiter mehr als 1GB/s liefern - wenn es die Schnittstelle 
hergibt.

von Won K. (Firma: Outside the Asylum) (the_sane)


Lesenswert?

Rolf F. schrieb:
alt
> ergibt das eine mittlere Transferrate von 0,81 MB/s.
neu
> zeigt sich eine mittlere Transferrate um 150 MB/s

Das passt aber absolut nicht zu Deinem reisserischen Titel.
Du vergleichst ungleiche Datenmengen, einen Swimmingpool mit dem 
Feuerwehrschlauch füllen dauert auch länger als ein Glas aus dem 
Wasserhahn, ist ein Pool jetzt schlechter als ein Glas?

von Rainer S. (rsonline)


Lesenswert?

Bei SSD's kannst du heute aber nicht mehr sicher sein, dass die 
logischen Blocks den Physikalischen Blocks entsprechen. Da kommt ein 
spezieller Algorithmus zum Einsatz, der das intelligent verteilt, so 
dass die Blocks gleichmäßig beschrieben werden. Und ob damit die Zellen 
'aufgefrischt' werden steht auf einem anderen Blatt.

von Konrad (Gast)


Lesenswert?

So wie ich das verstanden habe benutzt du das Verhältnis von 
Schnittstellen-Transferrate zu Kapazität als Maßeinheit. Da die 
Kapazität schneller wächst als die Transferrate werden Speichermedien 
tatsächlich "langsamer". Aber "Transferrate/Kapazität" ist IMHO keine 
praxisrelevante Größe. Es gibt halt an, wie schnell man eine Platte 
komplett voll schreiben oder komplett auslesen kann (als Kehrwert).

Deswegen sind Schreib- und Lesetests der kompletten Platte auch nicht 
mehr relevant. Bei der Seagate Archive V2 8TB hast du laut Datenblatt 
etwa einen Lesefehler pro 10E14 Bits. Die Platte hat 8*8*10E12 = 6.4E13 
Bits. Da ist es mittlerweile also wahrscheinlicher, bei einer gesunden 
Platte einen Fehler zu finden, als keinen Fehler zu finden*. Da hilft 
dann nur zusätzliche Redundanz auf Dateisystemebene oder mit einem RAID 
oder, wie bei ZFS, mit einer Mischung daraus.

*Nochmal, weil es so wichtig ist: Bei einer gesunden 8TB-Platte sind 
Lesefehler beim Kompletttest statistisch die Regel, nicht die Ausnahme!

Gruß
Konrad

von Noch einer (Gast)


Lesenswert?

> 150fache Transferrate bei rund 150.000facher Größe

Also ich finde 150 fach und 50.000 fach bei 1/10 des Preises Klasse!

Das Problem ist doch nicht die Zeit für badblocks.

Das Problem ist: die Platten sind zu billig geworden. Wenn voll kaufe 
ich 2TB dazu. Und nach ein paar Jahren finde ich nichts mehr.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Rolf F. schrieb:
> Das macht rund 150fache Transferrate bei rund 150.000facher Größe,
> folglich die rund 1000fache Schreib-Lesetest-Dauer!

Abgesehen davon, dass der Titel des Threads eine komplett andere Aussage 
beinhaltet, stimmt Deine Feststellung zumindest größenordnungsmäßig.

Und was willst Du damit aussagen? Dass früher alles besser war? Oder 
dass alle doof sind außer Mutti?

Wir müssen uns doch nur anschauen, welche Einfluss die wichtigsten 
Parameter auf die die Kapazität und Übertragungsrate *zwischen dem 
nackten Datenträger und der angeschlossenen Elektronik" haben:

1. Datendichte der einzelnen Magnetscheibe

Eine Erhöhung der Datendichte bewirkt, dass zum einen mehr Daten pro 
Spur und zum anderen mehr Spuren pro Plattenstapel untergebracht werden 
können. Mehr Daten pro Spur führen zu einer proportionalen Erhöhung der 
Datenrate, sollten also keine Verschlechterung der relativen 
Übertragungsraten bewirken.

Die Spuren pro Plattenstapel (z.B. Zylinder) können aber nur 
nacheinander ausgelesen werden. Bei der gleichen Zahl von Köpfen pro 
Spur skaliert also die Übertragungsraten umgekehrt proportional zur 
Spurdichte.

2. Köpfe pro Scheibe

Früher gab es einige Hersteller, die Festplatten mit mehreren unabhängig 
voneinander beweglichen Kopfträgern herstellten. Das hat sich jedoch als 
äußerst fehleranfällig und teuer erwiesen. Solche Festplatten konnten 
natürlich theoretisch ihre Übertragungsraten vervielfachen. Auf Grund 
des hohen Aufwandes kamen sie aber nur im Großrechnerbereich zum 
Einsatz.

3. Anzahl der Scheiben

Da die Scheiben (genauer: Oberflächen) eines Stapel simultan 
gelesen/geschrieben werden können, erhöht sich die Übertragungsraten mit 
der Zahl der Oberflächen. Heutzutage müssen Festplatten aber möglichst 
dünn sein, um sie z.B. in Notebook einsetzen zu können, was die Zahl der 
Schreiben/Oberflächen reduziert. In der "Hochphase" gab es aber dicke 
Briketts mit locker zwanzig Scheiben.

Neben der Dicke gibt es aber auch noch einen anderen wichtigen Grund, 
die Zahl der Scheiben zu begrenzen: die thermische Ausdehnung. Auf Grund 
der deutlich geringeren Spurdichten konnte man früher davon ausgehen, 
dass die Köpfe aller Oberflächen gleich gegenüber den Spuren 
ausgerichtet waren und deswegen nur eine Oberflächen die 
Servoinformationen tragen musste. Bei noch älteren Platten entsprach der 
Spurabstand sogar der festen Schrittweite des Schrittmotors, der zur 
Kopfträgerpositionierung eingesetzt wurde. Da heutzutage aber die 
Spurdichten so hoch sind, dass die Positionsregelung für die jeweils 
aktive Oberfläche separat erfolgen muss, kann man nicht mehr über 
möglichst viele Oberflächen die Übertragungsrate erhöhen. Ganz im 
Gegenteil würde die Übertragungsrate heute mit zunehmender 
Oberflächenzahl sogar sinken.

Neben der o.a. thermischen Ausdehnung müssen heutzutage auch akustische 
Störungen ausgeregelt werden.

4. Drehzahl

Die Übertragungsraten skalieren natürlich linear mit der Drehzahl des 
Plattenstapels. Aus rein mechanischen Gründen ist man aber schon recht 
lange am technisch sinnvollen Maximum von ca. 10.000 Upm, bei weniger 
sehr teuren Serverplatten 15.000 Upm angelangt, also etwa einer 
Verdreifachung gegenüber früher. Da ist also nichts mehr an 
Geschwindigkeit herauszuholen.

5. Positioniergeschwindigkeit

Früher lag die typischen Spurwechselzeit bei 40ms bis 65ms, heutzutage 
bei 4ms. Da jedoch die Anzahl der Spuren weit überproportional 
angestiegen ist,
benötigt das Durchklackern aller Spuren ein Vielfaches des damals 
üblichen Zeit.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Konrad schrieb:
> Aber "Transferrate/Kapazität" ist IMHO keine praxisrelevante Größe.

Doch, diese Größe bestimmt ganz entscheidend den Zeitbedarf für die 
Durchführung einer Datensicherung! Früher konnte man noch problemlos 
eine tägliche Vollsicherung von Platte A nach B (oder Band C) schaufeln. 
Heutzutage wäre das ziemlich illusorisch, so dass man schon eine 
deutliche Unterstützung durch das Dateisystem und intelligentere 
Datensicherungsalgorithmen benötigt, um die Daten auf eine Art und Weise 
zu sichern, die einem im Falls eines Ausfalls die Wiederherstellunng der 
relevanten Daten ermöglicht. Ich schreibe ganz bewusst nicht "aller 
Daten".
Gerade neulich musste ich versuchen, einem Kunden seine Illusion einer 
täglichen Vollsicherung auf Magnetband zu rauben.

von Rolf F. (Firma: G.) (benutzername0)


Lesenswert?

Andreas S. schrieb:
> Konrad schrieb:
>> Aber "Transferrate/Kapazität" ist IMHO keine praxisrelevante Größe.
>
> Doch, diese Größe bestimmt ganz entscheidend den Zeitbedarf für die
> Durchführung einer Datensicherung! Früher konnte man noch problemlos
> eine tägliche Vollsicherung von Platte A nach B (oder Band C) schaufeln.
> Heutzutage wäre das ziemlich illusorisch, so dass man schon eine
> deutliche Unterstützung durch das Dateisystem und intelligentere
> Datensicherungsalgorithmen benötigt, um die Daten auf eine Art und Weise
> zu sichern, die einem im Falls eines Ausfalls die Wiederherstellunng der
> relevanten Daten ermöglicht. Ich schreibe ganz bewusst nicht "aller
> Daten".
> Gerade neulich musste ich versuchen, einem Kunden seine Illusion einer
> täglichen Vollsicherung auf Magnetband zu rauben.

Genau das meine ich.
Aber es beginnt schon beim Testen vor dem ersten Verwenden, denn nach 
schlechten Erfahrungen starte ich bei Datenträgern immer, auch beim 
USB-Speicherstick, mit mindestens einem Badblocks-Lauf (badblocks -wsv 
-c 65536 -t random -o log.txt /dev/<device> 2>&1 | tee logg.txt). Dieses 
erste Testen, das übrigends auch Fakes erkennt, die mehr anzeigen als 
physikalisch vorhanden ist, dauert immer länger.

Deshalb verwende ich für ein Backup immer rsync, damit nur Änderungen 
übertragen werden, und ich plane zumindest einen Lauf über Nacht ein.
Ebenso beim Speichertest, den ich auch über Nacht laufen lasse.

Neues RAM teste ich mit Memtest86+ vom Knoppix und auch das Testen vom 
Arbeitsspeicher dauert immer länger; 1 MB von 1990 zu Testen dauert 
weniger lange als 64 GiB DDR4 von 2015.

: Bearbeitet durch User
von Noch einer (Gast)


Lesenswert?

Wer zwingt dich, die 150.000facher Größe auch auszunutzen?

Benutzt du nur eine 2GB Partion, bekommst du für 1/10 des Preises die 
150 fache Kapazität bei 150 facher Transferrate. Der Test braucht genau 
so lange wie früher.

Dein Problem erinnert an Dagobert Duck: "Es ist schon ein Kreuz, wenn 
man 3 Kubikhektar Gold besitzt. Alleine die Lagerung kostet schon ein 
Vermögen."

von Der Andere (Gast)


Lesenswert?

Noch einer schrieb:
> Dein Problem erinnert an Dagobert Duck: "Es ist schon ein Kreuz, wenn
> man 3 Kubikhektar Gold besitzt. Alleine die Lagerung kostet schon ein
> Vermögen."

:-)
Sehr treffender Vergleich.

von Sebastian V. (sebi_s)


Lesenswert?

Konrad schrieb:
> *Nochmal, weil es so wichtig ist: Bei einer gesunden 8TB-Platte sind
> Lesefehler beim Kompletttest statistisch die Regel, nicht die Ausnahme!

Halte ich für ein Gerücht. Wenn dem wirklich so wäre, dann müssten ja 
alle Wahnsinnig sein, die auf so großen Platten Daten speichern. Nur 
weil der Hersteller nicht mehr garantieren möchte muss die Platte nicht 
tatsächlich so schlecht sein. Wie dieser Wert zustande kommt ist ohnehin 
völlig undurchsichtig.

von Peter II (Gast)


Lesenswert?

Sebastian V. schrieb:
> Halte ich für ein Gerücht. Wenn dem wirklich so wäre, dann müssten ja
> alle Wahnsinnig sein, die auf so großen Platten Daten speichern. Nur
> weil der Hersteller nicht mehr garantieren möchte muss die Platte nicht
> tatsächlich so schlecht sein. Wie dieser Wert zustande kommt ist ohnehin
> völlig undurchsichtig.

in 99,99% der Fälle wo solchen Datenmengen privat gespeichert werden 
spielt es aber keine Rolle ob ein Byte mal falsch ist.

von (prx) A. K. (prx)


Lesenswert?

Fragt sich nur, wie man sich das mit den 10^14 Bits vorstellen soll. 
Immerhin arbeiten die Disks mit 4KB Sektoren, und wenn der futsch ist, 
dann kommt wahrscheinlich nicht nur 1 Bit falsch raus. Gibts also alle 
1,5 Scans statistisch ein falsches Bit, oder alle tausend Scans einen 
ziemlich falschen Block?

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Konrad schrieb:
> *Nochmal, weil es so wichtig ist: Bei einer gesunden 8TB-Platte sind
> Lesefehler beim Kompletttest statistisch die Regel, nicht die Ausnahme!

Da man bei RAID Systemen klugerweise automatisch Scans laufen lässt, um 
deren Konsistenz zu prüfen, kann man daraus eine Vorstellung entwickeln, 
wie sich diese Theorie in die Praxis umsetzt. Denn die System vermelden, 
wenn sie was zu reparieren haben. Und da ist es keineswegs so, dass beim 
Scan eines 30TB Systems aus 08/15 SATAs jedesmal Fehler auftreten.

: Bearbeitet durch User
von Peter II (Gast)


Lesenswert?

A. K. schrieb:
> Und da ist es keineswegs so, dass beim
> Scan eines 30TB Systems jedesmal Fehler auftreten.

vermutlich sind es dann aber nicht die billigsten Consumer Festplatten.

von (prx) A. K. (prx)


Lesenswert?

Peter II schrieb:
> vermutlich sind es dann aber nicht die billigsten Consumer Festplatten.

In diesem Fall schon, weil reine Archivsysteme für anspruchslose Fälle. 
Da stecken gewöhnliche Hitachi Deskstar 7K3000 3TB drin (HDS72303), mit 
den üblichen 10^14.

Kann sein, dass bei den wöchentlichen Checks mal was gefunden wurde, 
aber wenn, dann extrem selten.

: Bearbeitet durch User
von Soul E. (Gast)


Lesenswert?

A. K. schrieb:

> Fragt sich nur, wie man sich das mit den 10^14 Bits vorstellen soll.
> Immerhin arbeiten die Disks mit 4KB Sektoren, und wenn der futsch ist,
> dann kommt wahrscheinlich nicht nur 1 Bit falsch raus. Gibts also alle
> 1,5 Scans statistisch ein falsches Bit, oder alle tausend Scans einen
> ziemlich falschen Block?

Im Datenblatt 
http://www.seagate.com/www-content/product-content/hdd-fam/seagate-archive-hdd/en-us/docs/archive-hdd-dS1834-3-1411us.pdf 
ist von "Nonrecoverable Read Errors per Bits Read" die Rede. D.h. ECC 
uncorrectable, in den SMART-Daten angezeigt als "Current Pending Sector 
Count". Diese Blöcke werden wieder "gut" wenn man was neues 
draufschreibt.

Das (S)ATA-Inferface liefert dann command aborted (ABRT), d.h. es werden 
keine Daten an den Host übergeben.

von Konrad (Gast)


Lesenswert?

Andreas S. schrieb:
> Konrad schrieb:
>> Aber "Transferrate/Kapazität" ist IMHO keine praxisrelevante Größe.
>
> Doch, diese Größe bestimmt ganz entscheidend den Zeitbedarf für die
> Durchführung einer Datensicherung! Früher konnte man noch problemlos
> eine tägliche Vollsicherung von Platte A nach B (oder Band C) schaufeln.

Ne, der Zeitbedarf einer Sicherung wird nur durch die Transferrate und 
die Datenmenge bestimmt, die Größe des Speichermediums hat da nichts mit 
zu tun. Ausser die HDD ist komplett voll und nicht über LVM und co 
abstrahiert, dann hast du recht. Aber auch in diesem Fall ist 
"Transferrate/Kapazität" im Alltag völlig egal, weil, wie du sagst, 
niemand regelmäßig ein neues Voll-Backup anlegt. Ausser beim ersten 
beschreiben (und das ist nicht "Alltag").

Sebastian V. schrieb:
> Konrad schrieb:
>> *Nochmal, weil es so wichtig ist: Bei einer gesunden 8TB-Platte sind
>> Lesefehler beim Kompletttest statistisch die Regel, nicht die Ausnahme!
>
> Halte ich für ein Gerücht. Wenn dem wirklich so wäre, dann müssten ja
> alle Wahnsinnig sein, die auf so großen Platten Daten speichern. Nur
> weil der Hersteller nicht mehr garantieren möchte muss die Platte nicht
> tatsächlich so schlecht sein. Wie dieser Wert zustande kommt ist ohnehin
> völlig undurchsichtig.
Du hast, im Durchschnitt, alle 10TB einen Bitfehler. Ob du die Daten auf 
kleinen oder großen Platten speicherst ist egal. Es gibt afaik von 
Google eine Studie zu Ausfallraten zu HDDs, ich weiß nicht ob da auch 
Bitfehlerraten untersucht wurden. Wenn ja kannst du gerne mal schauen, 
ob die auf mehr oder weniger als 1/10E14 kommen, so lange bleibe ich 
erstmal bei meiner Behauptung.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Konrad schrieb:
> Ne, der Zeitbedarf einer Sicherung wird nur durch die Transferrate und
> die Datenmenge bestimmt, die Größe des Speichermediums hat da nichts mit
> zu tun.

Kannst Du nicht lesen, bist Du dumm oder willst Du mir einfach nur 
falsche Äußerungen unterstellen? Ich habe in der von Dir zitierten 
Textpassage überhaupt keine Aussage über die Speicherkapazität 
getroffen, sondern nur über das Verhältnis. Durch das Fortlassen meiner 
Äußerung "[...], die einem im Falls eines Ausfalls die 
Wiederherstellunng der
relevanten Daten ermöglicht. Ich schreibe ganz bewusst nicht "aller
Daten"." unterstellst Du mir ferner, dass ich bei meinen Betrachtungen 
keine Rücksicht auf die tatsächliche Belegung der Datenträger bzw. 
Dateisysteme nähme.

Die vollständige Datensicherung eines Datenträgers bestünde ja 
schließlich in einer bitweise identischen Kopie seiner Blockstruktur. 
Diese Sicherung kann z.B. bei Boot-Dateisystemen durchaus angebracht 
sein, um die Wiederherstellungszeit zu minimieren. Die erste deutliche 
Einsparung von Datensicherungvolumen bestünde natürlich in der 
dateiweisen Sicherung, die nächste durch Beschränkung auf Teile der 
Verzeichnisbäume. Darüber hinausgehende Techniken widmen sich der 
Erkennung und Vermeidung unnötiger mehrfacher Sicherung gleicher Inhalte 
(Deduplizierung).

> Ausser die HDD ist komplett voll und nicht über LVM und co
> abstrahiert, dann hast du recht.

Was hierbei Volume Manager zu suchen haben, ist mir rätselhaft.

> Aber auch in diesem Fall ist
> "Transferrate/Kapazität" im Alltag völlig egal, weil, wie du sagst,
> niemand regelmäßig ein neues Voll-Backup anlegt. Ausser beim ersten
> beschreiben (und das ist nicht "Alltag").

Selbst beim ersten Beschreiben wird man meist keine volle bitidentische 
Datensicherung auf Blockebene machen, sondern auf Dateiebene bleiben.

> Du hast, im Durchschnitt, alle 10TB einen Bitfehler. Ob du die Daten auf
> kleinen oder großen Platten speicherst ist egal.

Nein, die Erkennung von Bitfehlern hängt auch sehr stark von den 
zugrundeliegenden Aufzeichnungsverfahren und Speicherzellgrößen ab. 
Deine Betrachtung gilt nur bei Datenträgern gleicher Technologie.

von Lukey S. (lukey3332)


Lesenswert?

Einfach inkrementelles Backup auf Dateiebene geht innerhalb von Minuten. 
Bitweise Kopieren ist sowas von gestern.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Lukas S. schrieb:
> Einfach inkrementelles Backup auf Dateiebene geht innerhalb von Minuten.

Bei einigermaßen großen Verzeichnisbäumen ist häufig die Suchzeit für 
die geänderten Dateien der begrenzende Faktor und nicht die Transferrate 
für die Dateiinhalte, insbesondere wenn die Dateilisten in der Datenbank 
der Backup-Server eingetragen werden müssen.

> Bitweise Kopieren ist sowas von gestern.

Bitweises Kopieren ist z.B. bei Failover-Szenarien in Clustern sowas von 
heute, ebenso für überschaubare Boot-Dateisysteme. Für die allgemeine 
Sicherung von Dateisystemen hat es jedoch kaum mehr Relevanz.

von ich_eben (Gast)


Lesenswert?

Bitweises Kopieren ist auch bei einer Desaster Recovery nicht von 
gestern.
Und da kommt es auch auf die Zeit an

von (prx) A. K. (prx)


Lesenswert?

ich_eben schrieb:
> Bitweises Kopieren ist auch bei einer Desaster Recovery nicht von
> gestern. Und da kommt es auch auf die Zeit an

Wenn man mal erlebt hat, wie lange es dauern kann, eine riesige Menge 
kleiner Files im Gänsemarsch auf Platte zu schieben.

von Konrad (Gast)


Lesenswert?

Andreas S. schrieb:
> Kannst Du nicht lesen, bist Du dumm oder willst Du mir einfach nur
> falsche Äußerungen unterstellen?
Ja.

Andreas S. schrieb:
> Die vollständige Datensicherung eines Datenträgers bestünde ja
> schließlich in einer bitweise identischen Kopie seiner Blockstruktur.

Andreas S. schrieb:
> Selbst beim ersten Beschreiben wird man meist keine volle bitidentische
> Datensicherung auf Blockebene machen, sondern auf Dateiebene bleiben.

Reden wir nun bei "Sicherung" über bitgenaue Kopien oder über 
Dateisicherungen? Ich bin, weil es um große HDDs ging, von letzterem 
ausgegangen. Ich erwidere gerne deine Argumente (ausser die ad hominem), 
aber zuerst musst du dich entscheiden worüber wir reden.

Besten Gruß
Konrad

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Konrad schrieb:
> Reden wir nun bei "Sicherung" über bitgenaue Kopien oder über
> Dateisicherungen? Ich bin, weil es um große HDDs ging, von letzterem
> ausgegangen.

Aha? Du hast irgendwelche Leistungswerte auf Geräteebene aufgeführt.

> Ich erwidere gerne deine Argumente (ausser die ad hominem),
> aber zuerst musst du dich entscheiden worüber wir reden.

Ich muss da gar nichts entscheiden. Wichtig ist lediglich, im Zuge der 
Argumentation die richtigen Begrifflichkeiten zu verwenden, und das habe 
ich getan. Datensicherung ist ein hinreichend abstrakter Begriff, der 
sowohl dateiweise als auch dateisystemweise oder geräteweise Vorgänge 
umfasst.

von Konrad (Gast)


Lesenswert?

Ich versuche nochmal, meine Position auf den Punkt zu bringen, wir 
trollen irgendwie an einander vorbei...
Also kurz und knapp:
Wenn man Daten als Dateien sichert, ist die Metrik des OP unbedeutend, 
weil man die Gesamtmenge seiner Daten sichert, nicht die Menge, die auf 
das Medium passt.
Wenn man Daten auf Blockebene sichert macht die Metrik Sinn. Nur finde 
ich das Praxisfern, eben weil man heute eigentlich (wenn überhaupt) nur 
Systemdaten auf Blockebene sichert, und das sind meist <100GB auf einer 
SSD, also genauso in wenigen Minuten erledigt wie 1980.

Andreas S. schrieb:
> Ich muss da gar nichts entscheiden. Wichtig ist lediglich, im Zuge der
> Argumentation die richtigen Begrifflichkeiten zu verwenden, und das habe
> ich getan. Datensicherung ist ein hinreichend abstrakter Begriff, der
> sowohl dateiweise als auch dateisystemweise oder geräteweise Vorgänge
> umfasst.
Klar musst du nicht. Das sagt man nur so. Aber wenn du dich nicht 
festlegst, weiß ich nicht was du meinst. Aber ich habe oben beide 
Deutungen erwähnt, also Feuer frei :D
Vielleicht erkläre ich dir dann auch die Sache mit dem LVM ;)

Konrad

von oszi40 (Gast)


Lesenswert?

Insgesamt muß man natürlich sagen, wer ein dickes Buch gekauft hat, 
braucht immer mehr Zeit zum lesen gegenüber einem Zettel.

Konrad schrieb:
> das Praxisfern

Es ist ein großer Unterschied ob man einzelne Dateien oder komplette 
Platten 1:1 kopiert. Bei einzelnen Dateien muß immer das Directory 
gepflegt werden sobald diese Datei fertig ist. Das verbraucht auch viel 
Zeit für Kopfpositionierungen.

von Rolf F. (Firma: G.) (benutzername0)


Lesenswert?

Andreas S. schrieb:
> Lukas S. schrieb:
>> Einfach inkrementelles Backup auf Dateiebene geht innerhalb von Minuten.
>
> Bei einigermaßen großen Verzeichnisbäumen ist häufig die Suchzeit für
> die geänderten Dateien der begrenzende Faktor und nicht die Transferrate
> für die Dateiinhalte, insbesondere wenn die Dateilisten in der Datenbank
> der Backup-Server eingetragen werden müssen.

Ja, ich sehe das bei jedem Backup mit Rsync mit einem Monitor wie 
Gkrellm, denn Rsync beginnt erstmal mit der Suche nach geänderten 
Dateien, wobei sich auch bei mittelschnellen SSHDs nur 1 % der 
Transferrate zeigt, meist zwischen 1 und 2 MB/s.
Und bei über einer Million Dateien dauert das nicht nur ein paar 
Sekunden.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Rolf F. schrieb:
> Und bei über einer Million Dateien dauert das nicht nur ein paar
> Sekunden.

Bei Bandlaufwerken führen diese Datenbank- und Suchoperationen vor allem 
dazu, dass der kontinuierlich ans Bandlaufwerk lieferbare Datenstrom 
zeitweise ins Stocken gerät, so dass das Bandlaufwerk dann im 
Start-Stopp-Betrieb arbeitet und unglaublich langsam wird, vorzeitig 
verschleißt und durch das erforderliche Schreiben von 
Synchronisationsmuster nur einen Bruchteil der Bandkapazität ausnutzen 
kann. Je nach Backup-Programm kann man auch noch Puffer aktivieren, was 
diesen Effekt etwa mildern kann.

Bei plattenbasierte Datensicherungen spielt das aber keine nennenswerte 
Rolle, d.h. weder Geschwindigkeits- und Platzverlust noch vorzeitiger 
Verschleiß.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Lukas S. schrieb:
> Einfach inkrementelles Backup auf Dateiebene geht innerhalb von Minuten.

Diese pauschale Aussage ist falsch.

Man nehme einen (virtuellen) David-Server, ein Storage-System mit 
250MB/sec, und sichere 250 GB Mails inkrementell, wobei die Mails von 
David alle in Kleinst-Dateien (i.d.R. 3 Stück pro Mail - ohne Anhänge) 
gespeichert werden.

Allein die Zeit, um festzustellen, dass sich gegenüber dem letzten 
Backup nichts geändert hat, dauert mehr als 12 Stunden.

> Bitweise Kopieren ist sowas von gestern.

Obiges beschriebenes System direkt blockweise auf Sicherungsplatte - 
inkl. Betriebssystem und Netphone Telefonanlage für 100 User: unter 1 
Stunde.

: Bearbeitet durch Moderator
von Rolf F. (Firma: G.) (benutzername0)


Lesenswert?

Frank M. schrieb:
> Lukas S. schrieb:
>> Einfach inkrementelles Backup auf Dateiebene geht innerhalb von Minuten.
>
> Diese pauschale Aussage ist falsch.
>
> Man nehme einen (virtuellen) David-Server, ein Storage-System mit
> 250MB/sec, und sichere 250 GB Mails inkrementell, wobei die Mails von
> David alle in Kleinst-Dateien (i.d.R. 3 Stück pro Mail - ohne Anhänge)
> gespeichert werden.
>
> Allein die Zeit, um festzustellen, dass sich gegenüber dem letzten
> Backup nichts geändert hat, dauert mehr als 12 Stunden.

Ok, das ist der Ist-Zustand, aber das müsste man optimieren können, 
indem man ein Dateisystem verwendet, bei dem die letzte 
Modifikationszeit auch in den übergeordneten Verzeichnissen verzeichnet 
wird.
Dann sieht man schon beim Vergleich der Metadaten der Top-Verzeichnisse 
das keine Änderung vorliegt und ist in einer Millisekunde fertig.
Wenn sich aber viel geändert hat, bringt diese Optimierung praktisch 
nichts.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Rolf F. schrieb:
> Ok, das ist der Ist-Zustand,

Nö, der Ist-Zustand ist, dass ein blockweises Image der Maschine in 
unter 1h erstellt wird - Host ist ein Xen-Server, also Linux. Restore 
der kompletten Maschine, welche danach sofort wieder startbereit ist, 
dauert genauso lange.

> aber das müsste man optimieren können, indem man ein Dateisystem verwendet,

Filesystem: NTFS, da (virtueller) Windows-Server. Sorry, habe ich 
vergessen zu schreiben. Und bitte nicht damit kommen, dass der schwache 
Durchsatz von der virtuellen Maschine herrührt. Auch diese bekommt die 
250MB/sec vom Storage-System.

Wahrscheinlich würde es etwas bringen, die Platten im Storage, auf denen 
der David-Server liegt, durch SSDs zu ersetzen, da wohl die meiste Zeit 
beim Datei-Durchnudeln bei einem inkrementellen Backup durch 
Postionierung der Köpfe vergeudet wird.

Das neue Storage (16 TB netto, 32TB brutto), welches für diesen Sommer 
geplant ist, wird daher komplett SSDs verwenden. Aber trotzdem werde ich 
nicht davon abrücken, die Maschine als Komplett-Image in der Nacht 
sichern zu lassen.

Es gibt für mich nur ein Argument gegen blockweises Sichern: Der Verlust 
einer einzelnen Datei wegen eines Benutzer-/Software-Fehlers. Das ist 
aber dank der "Schattenkopien" unter Windows überhaupt kein Problem 
mehr. Da zaubert man die versehentlich gelöschte Datei innerhalb von 
Sekunden wieder hervor und der User wundert sich....

: Bearbeitet durch Moderator
von (prx) A. K. (prx)


Lesenswert?

Frank M. schrieb:
> Das neue Storage (16 TB netto, 32TB brutto), welches für diesen Sommer
> geplant ist, wird daher komplett SSDs verwenden. Aber trotzdem werde ich
> nicht davon abrücken, die Maschine als Komplett-Image in der Nacht
> sichern zu lassen.

Wobei man blockweise Replikate öfters auch inkrementell fahren kann. Sei 
es im Speichersystem, sei es auf Basis des Virtualisierungs-Systems. Man 
hat auch nicht in jedem Unternehmen die Nacht zur freien Verfügung.

> Es gibt für mich nur ein Argument gegen blockweises Sichern: Der Verlust
> einer einzelnen Datei wegen eines Benutzer-/Software-Fehlers.

Yep. Disaster-Recovery und Wiederherstellung einzelner Files/Directories 
sind zunächst völlig verschiedene Anwendungsfälle, für die ggf. auch 
verschiedene Backup-Mechanismen verwendet werden.

> Das ist
> aber dank der "Schattenkopien" unter Windows überhaupt kein Problem
> mehr. Da zaubert man die versehentlich gelöschte Datei innerhalb von
> Sekunden wieder hervor und der User wundert sich....

Wobei man da etwas auf die Rechte achten sollte, da manche Ransomware 
vorsorglich die Schattenkopien wegzuräumen versucht.

von (prx) A. K. (prx)


Lesenswert?

Rolf F. schrieb:
> indem man ein Dateisystem verwendet, bei dem die letzte
> Modifikationszeit auch in den übergeordneten Verzeichnissen verzeichnet
> wird.

Welches wäre das beispielsweise?

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

A. K. schrieb:
> Wobei man blockweise Replikate öfters auch inkrementell fahren kann.

Jepp, darüber habe ich in letzter Zeit auch schon öfters nachgedacht. So 
kann man die Vorteile von beiden Verfahren nutzen.

: Bearbeitet durch Moderator
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.