Wie ein aktueller Test zeigt, leben SSDs viiiieeel länger als es ihnen ihre Hersteller zutrauen: http://www.golem.de/news/ssd-langzeittest-diagnose-nach-18-monaten-tod-durch-2-4-petabyte-1503-112950.html Weil hier immer mal wieder Bedenken geäußert werden, die sind wohl inzwischen unbegründet.
Icke ®. schrieb: > Wie ein aktueller Test zeigt, leben SSDs viiiieeel länger als es ihnen > ihre Hersteller zutrauen: Jedenfalls sofern sie nicht vorher sterben.
Icke ®. schrieb: > Wie ein aktueller Test zeigt, leben SSDs viiiieeel länger als es ihnen > ihre Hersteller zutrauen: Obacht Sprache: zutrauen != garantieren. Solche Erkenntnisse sind nicht neu, habs wohl auch schon mal in einem Paper von Samsung gesehen. Ist beim Flash von µCs auch nicht anders. Der zählt auch nicht alle Flash-Zyklen einzeln durch um beim 10001-ten pünktlich schlapp zu machen. Sondern kann eher das 10-fache unter Normalbedingungen, verliert dann aber vielleicht den Inhalt nach deutlich kürzerer Zeit. Ein Problem solcher Tests ist, dass deren Arbeitsweise zwar die Anzahl Zyklen mächtig strapaziert, aber eben gerade deshalb langsam vor sich hin gammelnde Bits in Frieden gelassener Zellen nicht auf der Rechnung hat. Genau damit aber hat Samsung grad etwas Probleme. Es ist eben nicht das gleiche, ob man den Inhalt einer Zelle nach wenigen Sekunden oder Minuten kontrolliert, oder erst nach 3 Monaten. Insbesondere nicht bei allmählich ausgelutschten Zellen.
:
Bearbeitet durch User
A. K. schrieb: > Obacht Sprache: zutrauen != garantieren. Im Kontext mit der Threadüberschrift müßte sich dem erbsenmengentoleranten Leser erschließen, was gemeint ist. ;-)
Reinhard S. schrieb: > Gegenrede: > http://heise.de/-2560979 Ich sehe da keine Widersprüche zum o.g. Test. Ja, die Datenrettung ist komplizierter. Das betrifft aber nur notorische Backup-Muffel.
Reinhard S. schrieb: > Gegenrede: > http://heise.de/-2560979 Äpfel <> Birnen. Der Thread bezieht sich auf Sorgen aufgrund endlicher Anzahl Schreibzyklen. Der Heise Artikel auf die Gesamtsituation. Davon, dass SSDs auch nicht das ewige Leben beschieden sein muss, konnten vor wenigen Jahren beispielsweise Kunden von OCZ ein Lied singen. Hab selber auch schon eine Kingston S100 verloren. War einfach tot. Die Schreibzyklen waren es definitiv nicht.
:
Bearbeitet durch User
Icke ®. schrieb: > Wie ein aktueller Test zeigt, leben SSDs viiiieeel länger als es ihnen > ihre Hersteller zutrauen: > > http://www.golem.de/news/ssd-langzeittest-diagnose-nach-18-monaten-tod-durch-2-4-petabyte-1503-112950.html > > Weil hier immer mal wieder Bedenken geäußert werden, die sind wohl > inzwischen unbegründet. naja nach 1.5 Jahren alle Test-platten tot ist nach allgemeinen Verständniss nicht gerade langlebig. Das wäre eine MTBF von kleiner 13000 Stunden, bei klassischen Festplatten wird deutlich über 100000 spezifiziert. Der test zeigt gut auf wie spezifisch inzwischen Zuverlässigkeitsangaben bei überzüchteten Computer sind. Die sind dann ausgelegte auf Nutzerverhalten von Little John PC-Gamer der pro tag ein paar megabyte an daten erzeugt und nicht auf Anwendungen wie Echtzeitdatenaufzeichnung bei Transientenrekordern mit Gig's pro Stunde. Little Johns's Platte möchte man nicht im Hochverfügbarkeitsserver haben. Und schon RasPi Nutzer haben von Defekten an Speicherkarten durch regelmäßiges Schreiben einer Logdatei berichtet. Speicherkarten sind halt für Kameras etc ausgelegt, also geschätzt maximal hundert Schreibzugriffe/Tag und nicht tausende. Und bei Test die angeblich das 22fache der spezifizierten Schreibzyklen messen sollte man sich fragen ob man von der Menge der über die Schnittstelle transferierten Daten 1:1 auf die abgespeicherten Daten schließen kann. Controller fassen etliche Schreibzugriffe zu einem zusammen, oder buffern erstmal im cache (Flash mit deutlich mehr Schreibzyklen) bevor es in die empfindlichen multilevelcells geht. MfG,
Fpga Kuechle schrieb: > naja nach 1.5 Jahren alle Test-platten tot ist nach allgemeinen > Verständniss nicht gerade langlebig. Lies den Artikel nochmal richtig: Zitat: "In über 18 Monaten *mit kontinuierlichen Schreibvorgängen*"
ggf. auch interessant: http://extreme.pcgameshardware.de/user-news/370898-aktueller-bericht-ausfallquote-ruecklaufquote-fuer-hardware-2014-a.html (Dort sind auch HDDs und SSDs aufgelistet)
Icke ®. schrieb: > Fpga Kuechle schrieb: >> naja nach 1.5 Jahren alle Test-platten tot ist nach allgemeinen >> Verständniss nicht gerade langlebig. > > Lies den Artikel nochmal richtig: > > Zitat: > "In über 18 Monaten *mit kontinuierlichen Schreibvorgängen*" Ja hab ich: Nach 18 Monaten (bei typischen Betrieb in einem Aufzeichnungsserver) kaputt. Lies mal meinen Beitrag nochmal, genau darauf gehe ich ein. Klassische Platten garantierten eine MTBF unabhängig vom Schreibvolumen, SSD nicht. Siehe auch: http://business.chip.de/artikel/Ratgeber-Server-Festplatten_63319909.html MfG,
Fpga Kuechle schrieb: > Das wäre eine MTBF von kleiner 13000 Stunden, Die MTBF bezieht sich auf normale Verwendung, nicht auf exzessive Nutzung in solchen Tests. Bei HDDs übrigens auch. Deren offizieller MTBF Wert setzt bei Desktop-SATAs ein Betriebsverhalten von Office-Desktops voraus. Beispielsweise (Seagate Barracuda 7200.11): - 2400 power-on-hours per year. - Normal I/O duty cycle for desktop personal computers. Operation at excessive I/O duty cycle may degrade product reliability.
:
Bearbeitet durch User
Fpga Kuechle schrieb: > Klassische Platten garantierten eine MTBF > unabhängig vom Schreibvolumen, Das gilt beispielsweise für die gängigen 2,5er SAS Server-Disks. Desktop- oder Laptop-Disks sind vom Hersteller oft nur für eingeschränkten Betrieb vorgesehen, auch 24x7-Betrieb ist nicht durchweg vorgesehen. Permanentes Schreiben mit maximaler Datenrate gehört nicht zur vorgesehenen Betriebsart normaler Desktop-Disks. Allerdings dürfte stimmen, dass HDDs diese spezielle Betriebsart bauartbedingt länger durchhalten. Letztlich heisst das aber nur, dass man seine Disks nach Art der Anwendung aussuchen sollte, statt blind in die Kiste zu greifen. Auch bei HDDs kann es sinnvoll sein, für Streaming genauer hinzusehen. Teilweise gibt es verschiedene Varianten von HDDs, die für verschiedenen Einsatzzweck optimiert sind. Sei es hinsichtlich der Timeouts bei RAID Nutzung, sei es um den Stream nicht durch kleinere Kaffeepausen zu unterbrechen.
:
Bearbeitet durch User
Fpga Kuechle schrieb: > Lies mal meinen Beitrag nochmal, genau darauf gehe ich ein. Die genaue Datenmenge geht nicht daraus hervor, muß aber zwingend berücksichtigt werden. Es macht einen Unterschied, ob die Platte permanent mit maximaler Schreibrate zugeballert wird oder ob ein paar Logdaten reintröpfeln. Speicherkarten sind ohnehin ein ganz anderes Ding, weil, wie richtig erkannt, für ein gänzlich anderes Nutzungsverhalten bestimmt.
:
Bearbeitet durch User
Bei diesem Test sollte man auch auf der Rechnung haben, dass eine HDD schon sequentiell nur einen Buchteil der Schreibrate der heute üblichen grösseren SSDs hat und nichtsequentiell sogar um Grössenordnungen schlechter liegt. Für einen realistischen Vergleich müsste man also ein für alle Medien gleiches und mit ihnen realisierbares Datenzugriffsmuster erzeugen und dann vergleichen. Also für SSD und HDD gleichermassen. Nicht aber jedes Medium mit seiner maximalen Datenrate beschicken.
A. K. schrieb: > Fpga Kuechle schrieb: >> Das wäre eine MTBF von kleiner 13000 Stunden, > > Die MTBF bezieht sich auf normale Verwendung, nicht auf exzessive > Nutzung in solchen Tests. Bei HDDs übrigens auch. Deren offizieller MTBF > Wert setzt bei Desktop-SATAs ein Betriebsverhalten von Office-Desktops > voraus. Beispielsweise (Seagate Barracuda 7200.11): > > - 2400 power-on-hours per year. Ja betreibt man die SSD nach diesem Kriterium wäre sie nach spätestens 6 Jahren defekt - auch das ist nicht besonders lang. Ich überspitze mit der Umrechnung Testdauer = MTBF bewußt, mir ist schon klar das das Testszenario keinen Home-desktop user entspricht. Und das ist gerade das problem die Zuverlässigkeitsangaben etc, beziehen sich auf Szenarion die zwar beim Grossteil der Kundschaft gegeben sind aber nicht auf alle. Und die Unterteilung in verschiedene Anwendungsfälle wird immer feiner. Bei HDD für Server ist das Schreibvolumenen nicht lebensdauerbestimmt, bei SSD dagegen schon. Eine Server-SSD passt gut auf einen (gespiegelten) Datenbankabfrage-Server, aber weniger gut auf einen Aufzeichnungs-Server (bspw. Überwachungsvideos die kontinuirlich überschrieben werden. Ähnlich bei den SDRAM's wie Row-Hammer zeigt. Die mit den kleinen Strukturgrößen funktionieren nicht zuverlässig wenn man den Cache ausschaltet und Brute-Force-liest. Das meine ich mit überzüchtet, der Anteil an völlig unbedenklichen Betriebsszenarion sinkt. Was aber den Little John PC-Nutzer nicht beunruhigen sollten, den Profi-Bereich (7-24,medizintechnik, Avionik) dagegen schon. MfG,
A. K. schrieb: > Bei diesem Test sollte man auch auf der Rechnung haben, dass eine HDD > schon sequentiell nur einen Buchteil der Schreibrate der heute üblichen > grösseren SSDs hat und nichtsequentiell sogar um Grössenordnungen > schlechter liegt. Hm, da sollt man aber genau hinschauen, auch bei SSD is Schreiben nicht der schnellste Prozess. Hinzukommt das vor dem Schreiben der Block gelöscht werden muß (oder hat sich da was in Sachen block-erase bei SSD getan?). Allerdings ist bei HDD#s weniger die Schreibgeschwindigkeit das Problem als die Positioniergeschwindigkeit, bei der SSD muß kein Kopf über die Platte huschen. > Für einen realistischen Vergleich müsste man also ein für alle Medien > gleiches und mit ihnen realisierbares Datenzugriffsmuster erzeugen und > dann vergleichen. Also für SSD und HDD gleichermassen. Nicht aber jedes > Medium mit seiner maximalen Datenrate beschicken. Eigentlich geht es bei dem Problem nicht um die Schreibrate sondern um die maximale Anzahl von Schreibzyklen. Der Magnetschicht ist das größtenteils Schnurz wie oft sie ummagnetisiert wird, dem Tunnel-Gate-Oxide nicht. Da geben Halbleiterhesteller schon mal für multilevel cells weniger als 100 Schreibzyklen an. deshalb ist ja das wear-out-levelling by SSD-controllern kritisch. MfG,
Fpga Kuechle schrieb: > Ja betreibt man die SSD nach diesem Kriterium wäre sie nach spätestens 6 > Jahren defekt - auch das ist nicht besonders lang. Ich hatte letzthin in der Spezifikation einer ~10 Jahre alten Server-Disk die Angabe einer vorgesehene Einsatzlebensdauer von 5 Jahren gefunden. Das scheint mir auch typisch. Die leben schon oft länger, aber das ist dann jenseits der Betrachtung des Herstellers. Für Desktops dürfte das ähnlich gelten, auch wenn das da selten drinsteht.
bluppdidupp schrieb: > ggf. auch interessant: Sehr nützliche Seite. Das Original liefert das ca. 2x jährlich und für die Marken und Zahlen braucht man kein Französisch. Wobei dort aber nur die relativ kurzfristigen Rückläufer auftauchen. Daraus kann man also keine Aussage über die Zuverlässigkeit innerhalb 3-5 Jahren ablesen. Würde beim Kauf ohnehin nichts nützen.
:
Bearbeitet durch User
Fpga Kuechle schrieb: > Eine Server-SSD passt gut auf einen > (gespiegelten) Datenbankabfrage-Server, aber weniger gut auf einen > Aufzeichnungs-Server (bspw. Überwachungsvideos die kontinuirlich > überschrieben werden. Hat ja auch keiner gesagt, daß man jetzt alle HDDs durch SSDs ersetzen soll. Bei den für Videoaufzeichnung nötigen Kapazitäten scheitert das schon am Preis.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.