Moin,
vermtl die 100ste Frage dazu - aber wieso zeigt ChystalDiskInfo zwar
Werte einer internen (!) SSD an, aber diese sind offensichtlich fake?
Bei einem externen 2,5" IDE sieht es genau so aus, ein externes 2,5"
SATA zeigt was plausibles an.
Klaus.
PS: Falls du wenig Übung in solchen Werten hast: Deren Interpretation
ist gewöhnungsbedürftig.
Zum Vergleich eine 10 Jahre alte Sysdisk, eine Samsung 830:
1
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
Klaus R. schrieb:> Fake da 3 IDs = 99, was unplausibel ist? Oder wie sollte man das> "interpretieren"?
So ungefähr wie 100% Restlebensdauer, 99% , 98%, ... und wenn der Wert
runter auf dem Grenzwert 10 ist, solltest du dir langsam Gedanken
machen.
(prx) A. K. schrieb:> Airflow_Temperature_Cel 0x0032 081 061 000 Old_age Always> - 19> Airflow_Temperature_Cel 0x0032 069 044 000 Old_age Always> - 31
Auch hier gehts mit den linken Werten rückwärts. Meine dürfte gerade
19°C gehabt haben, war maximal auf 39°C. Jörgs Server hat gerade 31°C,
hatte maximal 56°C.
Klaus R. schrieb:> Fake da 3 IDs = 99, was unplausibel ist?
Du hast diesen S.M.A.R.T.-Kram einfach nicht verstanden.
Da wird alles auf einen Wertebereich von 100 … 0 (manchmal wohl auch 200
… 0) abgebildet, wobei 100 = bestmöglich bis 0 = kaputt reicht.
Die ebenfalls auslesbaren Rohdaten (raw values) sind
herstellerspezifisch, nicht genormt und daher in ihrer Interpretation
völlig offen.
Die umgerechneten Daten bei A.K. und mir zeigen für den bei SSDs wohl
wichtigsten Faktor Wear_Leveling_Count also 6 % (= 94) bzw. 3 % (= 97)
Abnutzung. Das finde ich gemessen an der jeweiligen Betriebsdauer so
schlecht nicht, allerdings garantiert einem natürlich niemand, dass die
Abnutzung linear gleichmäßig so weiterhin verläuft.
Verschiedene Hersteller liefert da sehr verschiedene Werte. Hier eine
Kingston SKC400, die ihr erstens Leben in einem Büro-PC verbrachte, um
dann als Sysdisk in einem Server zu landen.
1
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
(prx) A. K. schrieb:> Da bist du in der Zeile verrutscht, der 177er hat bei mir 81.
Ah ja. Das ist schon ein Stück, für die kurze Zeit, die sie in Betrieb
ist. :-)
Habe hier noch eine 3 Jahre alte SSD in einem Server im Angebot:
1
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
Jörg W. schrieb:> Das finde ich gemessen an der jeweiligen Betriebsdauer so> schlecht nicht
Woran man gut erkennt, wie unbegründet die "Reichweitenangst" vieler
Anwender bei normaler Nutzung ist.
Etwas heftiger geht es bei zentralen SAN Speichersystemen des
Unternehmens zu, die 24x7 viel Arbeit haben. Da passt dann eine
Abnutzung von um die 70% relativ gut zur geplanten Einsatzdauer des
Systems.
Zum Vergleich die 2 Jahre alte NVMe Disk vom Laptop, eine Samsung 970
EVO Plus. Deren Log ist netterweise nicht so verwirrend wie SMART:
1
> sudo nvme smart-log /dev/nvme0
2
Smart Log for NVME device:nvme0 namespace-id:ffffffff
Jörg W. schrieb:> Du hast diesen S.M.A.R.T.-Kram einfach nicht verstanden.> Da wird alles auf einen Wertebereich von 100 … 0 (manchmal wohl auch 200> … 0) abgebildet, wobei 100 = bestmöglich bis 0 = kaputt reicht.
Ahhh, jetzt hats klick gemacht. Find ich aber nicht naheliegend... 😋
Danke!
Ja, habe ich auch eben bei einer gerade erst in Betrieb genommenen NVMe
SSD so gesehen. Etwas, naja, seltsam finde ich diese "Unsafe shutdowns"
– sollte ja eher eine Sache des Betriebssystems sein.
1
SMART/Health Information (NVMe Log 0x02)
2
Critical Warning: 0x00
3
Temperature: 50 Celsius
4
Available Spare: 100%
5
Available Spare Threshold: 5%
6
Percentage Used: 1%
7
Data Units Read: 434,137 [222 GB]
8
Data Units Written: 1,110,519 [568 GB]
9
Host Read Commands: 9,965,643
10
Host Write Commands: 12,048,447
11
Controller Busy Time: 27
12
Power Cycles: 906
13
Power On Hours: 300
14
Unsafe Shutdowns: 71
15
Media and Data Integrity Errors: 0
16
Error Information Log Entries: 39
17
Warning Comp. Temperature Time: 0
18
Critical Comp. Temperature Time: 0
19
Thermal Temp. 1 Transition Count: 6
20
Thermal Temp. 1 Total Time: 976
(Die war mir letztens beim Compilieren bissel warm geworden.)
Muss man halt dran denken, dass S.M.A.R.T. ja aus dem Zeitalter
rotierender Scheiben stammt. Viele dieser Parameter haben eigentlich nur
in dem Kontext Sinn, und die SSDs hat man danach versucht, da hinein
abzubilden.
Jörg W. schrieb:> Etwas, naja, seltsam finde ich diese "Unsafe shutdowns"> – sollte ja eher eine Sache des Betriebssystems sein.
Wo die herkommen habe ich mich auch schon gefragt. Denn den Laptop hatte
ich ganz sicher keine 51 mal hart abgeschaltet. Andererseits wird die
Disk offenbar in irgendwelchen Ruhezuständen ebenfalls voll
abgeschaltet, und wenn da das Timing zwischen Betriebssystem und Disk
nicht perfekt stimmt, schaltet das System möglicherweise gelegentlich
schon ab, bevor die Disk das für ihre Statistik gerne hätte.
Dieses Phänomen durchzieht alle Betriebssysteme, von Windows über Linux
zu BSD. Fragen dazu gibts haufenweise, Erklärungen weniger. Aber dann
doch eine, die genau zu meiner vorigen These passt:
https://bugs.freebsd.org/bugzilla/show_bug.cgi?id=211852#c2
Klaus R. schrieb:> Jörg W. schrieb:>> Du hast diesen S.M.A.R.T.-Kram einfach nicht verstanden.>> Da wird alles auf einen Wertebereich von 100 … 0 (manchmal wohl auch 200>> … 0) abgebildet, wobei 100 = bestmöglich bis 0 = kaputt reicht.>> Ahhh, jetzt hats klick gemacht. Find ich aber nicht naheliegend... 😋
Warte einfach mal eine paar Jahre ab, dann hast du auch Werte unterhalb
von 99:-)