Forum: PC Hard- und Software SSD Benchmark mit dd unter Ubuntu, Überraschung? Brachialer Horror für Speedfreaks aufgedeckt!


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Habe getestet:
WD blue, Kingston, Samsung EVO hier bekommt man was man von SSD erwartet 
um die 400-500MB lesen + schreiben

Crucial BX500, hier fällt die Schreibrate auf 90-140MB/s !!

Intenso Top 500GB, hier fällt die Schreibrate bei einer auf 54MB, bei 
der andren auf 63MB/s !!

Der Befehl zum Benchmark
for i in {001..200}; do dd if=/dev/zero of=file_$i bs=1M count=5000; 
done
schreibt in den Ordner auf der SSD der mit dem Terminal geöffnet wurde 
5GB große Dateien mit Nullen. Das misst sozusagen die Schreibrate wenn 
auf die Platte große Dateien geschrieben werden. Wenn man z.B. 50 MB 
nimmt, dann variiert der Speed, dann sind die langsamen Platten 
schneller, es wechselt dann von 300-50MB/s für Intenso. Auch schreiben 
die langsamen Platten erst mal so 5-25GB in nem ordentlichen Speed den 
man von SSD erwartet, sinkt dann aber ab, bzw. pendelt bei kleineren 
Dateien.

Intenso zeigt bei GSmartcontrol ATA VERsion: ACS-2 T13/2015-D revision 3
Kingston: ACS-3 T13/2161-D revision 4
Samsung: ACS-4 T13/BSR INCITS 529 revision 5
ob das etwas bedeutet?

Mich würde interessieren was eure Platten so machen? Mit 5GB und sagen 
wir 100MB:
for i in {001..200}; do dd if=/dev/zero of=file_$i bs=1M count=100; done

(Vorsicht bei der Systemplatte, auf der das Betriebssystem läuft, die 
darf man nicht ganz vollschreiben sonst stürzt der PC ab.) (Und Vorsicht 
bei dem dd Befehl, der kann bei unsachgemäßem Einsatz Datenverlust 
verursachen.)

Zur Verteidigung der günstigen Platten: Im normalen Büro oder 
Gamingbetrieb sollte sich das Ganze kaum auswirken. Aber jemand der mit 
großen Dateien arbeitet bzw. kopiert, für den schon.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Keine Überraschung.

Die SSDs der TLC/QLC Generationen haben einigen als SLC genutzten 
Write-Cache im Flash, der mit hoher Geschwindigkeit speichert. Schmeisst 
man mehr hinein, ohne dass dieser zwischendurch von der SSD 
weiterverarbeitet wurde, wirds langsam. Und dann gilt über'n Daumen: 
billig=langsam.

Wer also eine SSD sucht, auf die viele Daten ab Stück geschrieben werden 
sollen, sollte sich vorher bei Sites umsehen, die zum Test die SSD auch 
vollschreiben.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Danke für den Beitrag, könntest du solche Seiten empfehlen, bzw. auf 
welche Marken/Modelle man setzen kann wenn man durchgehende 
Schnelligkeit benötigt?

: Bearbeitet durch User
von Max M. (Gast)


Lesenswert?

Gemessen mit Crystal Disk Auf meinem alten Laptop 2TB aktuelle Samsung 
SSD 870 EVO SSD
Bei 128MiB Größe
Seq.Read:558
Seq.Write:523

Bei 512MiB
Seq.Read:559
Seq.Write:525

Bei 2GiB
Seq.Read:559
Seq.Write:523

Den Rechner mit der superschnellen M.2 wollte ich jetzt nicht 
anschmeißen

von Εrnst B. (ernst)


Angehängte Dateien:

Lesenswert?

Der G. schrieb:
> Brachialer Horror für Speedfreaks aufgedeckt!

Hinterm Mond gelebt, noch nie einen SSD-Benchmark angesehen?

Genau dieses Verhalten ist bekannt und gut dokumentiert, und jeder 
(halbwegs seriöse) SSD-Vergleichstest vermisst es.

(prx) A. K. schrieb:
> Und dann gilt über'n Daumen: billig=langsam.

Sieht man im Screenshot auch. Die teurere MX500 schreibt deutlich länger 
schnell als die billigere BX500.

von (prx) A. K. (prx)


Lesenswert?

Ich meine, Heise hätte letzthin einige SSDs getestet und dabei auch 
dieses Szenario berücksichtigt.

von Max M. (Gast)


Lesenswert?

Ergänzung bei 16Gbit
Seq.Read:556
Seq.Write:498
Ich denke bei meiner M.2 sähen die Werte krass schneller aber der 
Einburch dann auch heftig aus


Max M. schrieb:
> Gemessen mit Crystal Disk Auf meinem alten Laptop 2TB aktuelle Samsung
> SSD 870 EVO SSD
> Bei 128MiB Größe
> Seq.Read:558
> Seq.Write:523
>
> Bei 512MiB
> Seq.Read:559
> Seq.Write:525
>
> Bei 2GiB
> Seq.Read:559
> Seq.Write:523
>
> Den Rechner mit der superschnellen M.2 wollte ich jetzt nicht
> anschmeißen

von (prx) A. K. (prx)


Lesenswert?

Weiterer Effekt: Bei manchen Typen ist die Grösse dieses SLC-Cache davon 
abhängig, wieviel von der Disk ungenutzt ist. Technisch naheliegend, 
bedeutet das aber, dass solche Performance vom vorherigen Füllungsgrad 
abhängen kann. Lies: Das Dings wird mit der Zeit langsamer.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Beim Thema Lesen haben übrigens keine der Platten ein Problem, Befehl:
sudo dd if=/dev/sdX of=/dev/null bs=64M status=progress
(Vorsicht!)

450 MB/s durchgehend für Kingston sata6g und Intenso usb3, Samsung 
sata6g 566 MB/s

von Εrnst B. (ernst)


Lesenswert?

Der G. schrieb:
> Beim Thema Lesen haben übrigens keine der Platten ein Problem

Kann bei schnellen m.2 - SSDs auch vorkommen, wenn die schlecht gekühlt 
sind und wegen Übertemperatur "runtertakten".

von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Beim Thema Lesen haben übrigens keine der Platten ein Problem

Das wird massgeblich vom Interface begrenzt. SATA II gibt nur um die 550 
MB/s her.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

>Das Dings wird mit der Zeit langsamer.
Also ich hab die Dinger komplett vollgeschrieben, und da war der 
Schreibwert durchgehend konstant.

von (prx) A. K. (prx)


Lesenswert?

(prx) A. K. schrieb:
> SATA II

SATA III aka 6 Gb/s

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

>schlecht gekühlt
Kingston und Samsung voll Alugehäuse, WD blue und Crucial BX500 
Kunststoffdeckel, Intenso Vollplastik. Aber ich hab mal mit der Hand 
gefühlt, die werden alle nicht sonderlich warm, also es ist eine leichte 
Wärme spürbar am Gehäuse. Man müsste die Dinger aber mal aufmachen und 
schauen ob der Controllerchip heiß wird.

von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Also ich hab die Dinger komplett vollgeschrieben, und da war der
> Schreibwert durchgehend konstant.

Das bezog sich auf jene Fälle, bei denen man nicht vollschreibt, sondern 
praxisnäher nur sowas wie 50 GB am Stück schreibt und danach Pause 
lässt. Da kann es dann passieren, dass es bei leerer Disk in den dann 
grossen SLC-Cache reinpasst, bei Jahre später gefüllter Disk aber nicht.

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

(prx) A. K. schrieb:
> praxisnäher nur sowas wie 50 GB am Stück schreibt

Wer regelmäßig ›praxisnah‹ 50GB am Stück schreibt,
der holt sich keine Billich-Willich Quadlevel-cell-SSD.

Wer nur mal gelegentlich 50GB am Stück schreibt,
den interessiert die in diesem Falls erzielte Transferrate nur extrem 
peripher.

Des Weiteren wurde mit dem ›dd‹ (in der Art wie vorgeschlagen) 
zusätzlich auch noch implizit die Performance des darunter liegenden 
Dateisystems getestet.

von Εrnst B. (ernst)


Lesenswert?

Für den Preis einer Server-SSD, die die geforderte Schreibrate 
kontinuierlich liefert, kriegt man auch 3-5 Consumer-SSDs.
Die in ein Raid zusammengefasst, und schon hast du deine >500Mb/sec 
Dauerschreibrate auch wenn der SLC-Cache erschöpft ist.
Bei dm-raid unter Linux darauf achten, dass "discard" funktioniert, 
siehe:
https://www.kernel.org/doc/html/latest/admin-guide/device-mapper/dm-raid.html#discard-support

Und Obacht: Raid ersetzt kein Backup.

von (prx) A. K. (prx)


Lesenswert?

Norbert schrieb:
>> praxisnäher nur sowas wie 50 GB am Stück schreibt
>
> Wer regelmäßig ›praxisnah‹ 50GB am Stück schreibt,

Ich schrieb nicht ohne Grund "näher", nicht "nah". ;-)

> Des Weiteren wurde mit dem ›dd‹ (in der Art wie vorgeschlagen)
> zusätzlich auch noch implizit die Performance des darunter liegenden
> Dateisystems getestet.

Auf heutigen Rechnern im Rahmen der Leistung von SATA ist das als 
mögliche Bremse irrelevant, zumal die Problematik von Fragmentierung bei 
SSDs ausfällt. Da gilt es eher, den Einfluss von Caching auszuschliessen 
(iflag/oflag=...).

von Norbert (der_norbert)


Lesenswert?

Εrnst B. schrieb:
> Für den Preis einer Server-SSD, die die geforderte Schreibrate
> kontinuierlich liefert, kriegt man auch 3-5 Consumer-SSDs.
> Die in ein Raid zusammengefasst, und schon hast du deine >500Mb/sec
> Dauerschreibrate auch wenn der SLC-Cache erschöpft ist.

Eine QVO fällt auf ca. 80…90MB/s
Da bräuchte man schon 6+ dieser SSDs um SATAIII zu sättigen.

Edit:
Gerade noch gelesen
>500Mb/sec

Ja, 500 Megabit pro Sekunde, das geht natürlich. ;-)

von Stephan S. (uxdx)


Lesenswert?

Εrnst B. schrieb:
> Bei dm-raid unter Linux darauf achten, dass "discard" funktioniert,

Obacht mit dm-raid!

dm-raid nutzt die RAID-Funktionen des Motherboards, das hat den 
Nachteil, dass es häufig nicht mehr funktioniert, wenn das Motherboard 
gewechselt wird (bzw gewechselt werden muss, z.B. bei Defekt.).

Besser ist es, mdadm zu nutzen, das macht ein RAID ohne Hardware-Support 
und ist bei den heutigen Prozessoren genauso schnell wie dm-raid.

von Norbert (der_norbert)


Lesenswert?

(prx) A. K. schrieb:
> Auf heutigen Rechnern im Rahmen der Leistung von SATA ist das als
> mögliche Bremse irrelevant, zumal die Problematik von Fragmentierung bei
> SSDs ausfällt. Da gilt es eher, den Einfluss von Caching auszuschliessen

Ich habe ja nur 24GiB RAM zur Verfügung, aber wenn ›dd‹ ferig meldet und 
trotzdem noch 23GiB geschrieben werden müssen, das ist dann wohl eher 
eine Schätzung als eine Messung.
Zumal man es ohne Aufwand ordentlich machen könnte.

von Εrnst B. (ernst)


Lesenswert?

Stephan S. schrieb:
> dm-raid nutzt die RAID-Funktionen des Motherboards

Stephan S. schrieb:
> Besser ist es, mdadm zu nutzen,

dm-raid greift im Hintergrund auf die Software-Raid-Module zu, d.H. da 
läuft auch das komplett mainboard-unabhängige Software-Raid drüber.

von Andreas H. (ahz)


Lesenswert?

Εrnst B. schrieb:
>
> Und Obacht: Raid ersetzt kein Backup.

**n1**

Kann man garnicht oft genug wiederholen.

/regards

von Norbert (der_norbert)


Lesenswert?

Andreas H. schrieb:
> Kann man garnicht oft genug wiederholen.

Doch! Kann man! Sogar überreichlich.
Passiert hier täglich.

von Rolf M. (rmagnus)


Lesenswert?

Norbert schrieb:
> Andreas H. schrieb:
>> Kann man garnicht oft genug wiederholen.
>
> Doch! Kann man! Sogar überreichlich.
> Passiert hier täglich.

Und doch gibt es erstaunlich viele, die es dann immer noch nicht kapiert 
haben.

von Norbert (der_norbert)


Lesenswert?

Rolf M. schrieb:
> Und doch gibt es erstaunlich viele, die es dann immer noch nicht kapiert
> haben.

Das stimmt. Vielleicht hören sie beim zehn-tausendsten Mal besser zu. 
Die Hoffnung stirbt zuletzt.

Aber sie stirbt!

von (prx) A. K. (prx)


Lesenswert?

Norbert schrieb:
> Die Hoffnung stirbt zuletzt.

Yep. Erst stirbt der Inhalt, dann die Hoffnung.

von Ein T. (ein_typ)


Lesenswert?

Rolf M. schrieb:
> Norbert schrieb:
>> Andreas H. schrieb:
>>> Kann man garnicht oft genug wiederholen.
>>
>> Doch! Kann man! Sogar überreichlich.
>> Passiert hier täglich.
>
> Und doch gibt es erstaunlich viele, die es dann immer noch nicht kapiert
> haben.

Klarer Fall von "selbst schuld". Für die muß man das daher nicht 
wiederholen, die lernen es sowieso allenfalls durch Schmerz.

von Andreas H. (ahz)


Lesenswert?

Ein T. schrieb:
> Klarer Fall von "selbst schuld".

Eben nicht.

Viele Leute die heutzutage PCs benutzen haben 0,00 Erfahrung damit.
Auch früher haben sich da typischerweise die Admins um BA gekümmert.

Und ehrlich: Wann hast Du Dein letztes BA gemacht?

/regards

von Norbert (der_norbert)


Lesenswert?

Andreas H. schrieb:
> Viele Leute die heutzutage PCs benutzen haben 0,00 Erfahrung damit.

Die bauen sich dann zunächst einmal ein RAID System.
Also natürlich nur um die ersten Gehversuche zu machen.

von Andreas H. (ahz)


Lesenswert?

Norbert schrieb:
> Die bauen sich dann zunächst einmal ein RAID System.
> Also natürlich nur um die ersten Gehversuche zu machen.

Nein. Aber sie lassen es sich aufschwatzen.

/regards

von (prx) A. K. (prx)


Lesenswert?

Andreas H. schrieb:
> Aber sie lassen es sich aufschwatzen

Was bei Anwendern von Business-Workstations nicht einmal falsch sein 
muss. Wenn ein Tag Arbeit futsch ist, kann das teurer sein, als die 
zweite Disk. Natürlich ist das unabhängig vom Backup zu sehen.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Backups sind wichtig keine Frage, am besten macht man jeden Tag eins, 
ist ja innerhalb von Sekunden gemacht und kann verhindern dass Wochen an 
Daten verloren gehen, oder die die man investieren muss um den Schaden 
zu begrenzen.

von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> Backups sind wichtig keine Frage, am besten macht man jeden Tag eins,

Man macht kein Backup, man richtet seine Systeme derart ein das sie 
Backups machen. Automagisch.

von Alexander (alecxs)


Lesenswert?

warum /dev/null? wiederhole den Test mal mit /dev/urandom

von Jack V. (jackv)


Lesenswert?

Alexander schrieb:
> warum /dev/null? wiederhole den Test mal mit /dev/urandom

Dann könnte unter Umständen urandom der Flaschenhals sein. Zufallsdaten 
sind recht teuer, auch mit Pseudo davor. /dev/null ist hingegen auch ein 
denkbar schlechter Kandidat: die Controller der SSDs sind heute auch 
nicht mehr blöde – wenn da ein Stapel Null kommt, dann wird gesammelt 
und effizienter hinterlegt, als wenn echte Daten kämen. Ich nutze da 
eine Datei in einem tmpfs, die im Vorfeld mit Daten aus urandom 
gefüttert wurde. Da ist natürlich RAM der limitierende Faktor – aber mal 
ehrlich: dieser Faktor ist auch im realen Betrieb relevant. Interessiert 
mich nicht, wenn das Laufwerk  nach 50GB sequenziell geschriebenen Daten 
eine Pause zum Wegschreiben einlegt, wenn ich Programmiererkram mit 
vielen kleinen Files von insgesamt deutlich unter einem GB mache.

Und wenn man schon ›dd‹ für den Zweck hernimmt, dann gibt man ihm a) 
eine Blockgröße passend zum jeweiligen SSD mit (und zwar nicht die, die 
es via ›smartctl‹ meldet, sondern die aus dem Datenblatt) und b) 
schaltet man die Caches ab. Ansonsten nimmt man lieber ein dediziertes 
Benchmark-Tool her – die sind darauf ausgelegt, diese 
Anfänger-Fettnäpfchen nicht zu triggern.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Jack V. schrieb:
> Dann könnte unter Umständen urandom der Flaschenhals sein. Zufallsdaten
> sind recht teuer.

400 MB/s von /dev/urandom nach /dev/null mit i7-1165G7.
Denkbar ungeeignet.

: Bearbeitet durch User
von Stephan S. (uxdx)


Lesenswert?

Norbert schrieb:
> Der G. schrieb:
>> Backups sind wichtig keine Frage, am besten macht man jeden Tag eins,
>
> Man macht kein Backup, man richtet seine Systeme derart ein das sie
> Backups machen. Automagisch.

Und man richtet sie so ein, dass das Backup durch Ransomware nicht 
beeinträchtigt werden kann.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Man kann auch ne große ISO Datei von der selben Platte oder der 
schnellsten Platte kopieren falls der SSD Controller die Nullen 
überlistet. Random ist wesentlich langsamer.

Also ich würde einfach auf ne externe SSD ein rsync Backup schreiben. 
Kann man auch inkrementell machen, dann hat man alle Änderungen an den 
Dateien bei minimalem Platzverbrauch. Hab da ein paar Scripte dazu 
geschrieben. Was könnte man machen um das Backup vor Ramsomware zu 
schützen? Ich denke abgesteckt offline, und noch irgendwie nen 
Schreibschutz reinmachen, also dann die Platte schreibgeschützt 
einhängen wenn man davon betroffen war.

: Bearbeitet durch User
von Ein T. (ein_typ)


Lesenswert?

Andreas H. schrieb:
> Ein T. schrieb:
>> Klarer Fall von "selbst schuld".
>
> Eben nicht.

Doch, natürlich. Die Spatzen pfeifen es von allen Dächern, an jedem Büro 
und Arbeitsplatz von Admins hängt der "Kein Backup, kein 
Mitleid"-Aufkleber von Heise, und die meisten Leute haben ihren Computer 
nicht erst seit gestern.

> Und ehrlich: Wann hast Du Dein letztes BA gemacht?

Vor 48 Minuten, und in 12 Minuten wird das nächste erfolgen. 
rsnapshot(1) und systemd.timer(5) machen's möglich.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

> Man macht kein Backup, man richtet seine Systeme derart ein das sie
Backups machen. Automatisch.

Wenn man ganz sicher gehen will nimmt man ne interne und ne externe, die 
interne wird jedes mal automatisch mit cronjob abgeglichen und die 
externe macht man zur Sicherheit ab und zu mal falls Ransomware die 
interne backup Platte zerstört.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Mit der iso datei Schreibtechnik komm ich auf die gleichen Werte wie mit 
dd Null. Schon blöd wenn SSD Speicher dann mit der Zeit auf 50MB/s 
abfällt, ist ja langsamer als HDDs die schaffen so 60 120 180
Wenn man Daten schaufeln will muss man Zeit haben.

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

Norbert schrieb:
> Der G. schrieb:
>> Backups sind wichtig keine Frage, am besten macht man jeden Tag eins,
>
> Man macht kein Backup, man richtet seine Systeme derart ein das sie
> Backups machen. Automagisch.

Das setzt aber voraus, dass sie permanent mit dem Backup-Medium 
verbunden sind. Ein Blitzschlag kann dann das Backup auch gleich mit 
zerstören. Es sei denn, das Backup-System steht an einem anderen 
Standort.

Jack V. schrieb:
> die Controller der SSDs sind heute auch
> nicht mehr blöde – wenn da ein Stapel Null kommt, dann wird gesammelt
> und effizienter hinterlegt, als wenn echte Daten kämen.

Das tun auch schon die Filesysteme. Siehe "sparse files".

von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Wenn man Daten schaufeln will muss man Zeit haben.

Oder die richtige SSD. Ich hatte als Backup-Medium für meine 
VMware-Images deshalb eine entsprechende USB-SSD ausgesucht. Die bei den 
Backups an die 400 MB/s abliefert.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Genau richtig, aber das muss man vorher wissen, die Rezessionen nehmen 
ja ihr Diskmark und denken die Werte sehen ja ähnlich aus wie bei den 
guten. Ne Hitachi 1TB HDD 3,5" 7200rmp an esata macht 150MB/s 
Durchschnitt.

von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> die Rezessionen nehmen
> ja ihr Diskmark und denken die Werte sehen ja ähnlich aus wie bei den
> guten.

Man muss sich die Rezensionen entsprechend aussuchen.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Sind aber sehr selten bis nicht vorhanden. Ne 2,5Zoll 5400rpm Scorpio 
Blue HDD 320GB schafft 90MB/s. Trotzdem sind auch die langsamen SSDs 
wesentlich besser als die HDDs, zumindest was den Alltagsgebrauch 
angeht.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

https://www.youtube.com/results?search_query=Fanxiang+S101

Find ich ja echt geil. Der Erste stellt fest dass die 2TB Platte nur 
400GB hat und der Rest lässt nur Diskmark kurz laufen und spricht dann 
ne Kaufempfehlung aus...

von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

Hier sieht man das das Diskmark die Intenso genauso wie die Samsung 
bewertet. Fazit, kein geeignetes Benchmarktool für Datenschaufler. Mein 
Benchmark aber sehr wohl. Unterschied Faktor 9, bzw. 900%. Kann man sich 
fragen ob da der günstige Preis gerechtfertigt ist. Wobei sich die 
CrucialBX schützend vor die Intenso stellt, sonst hätte ich gedacht die 
sind Schrott. Btw ist es mir aber lieber ich hab langsame Platten die 
zuverlässig sind als andersrum.

: Bearbeitet durch User
von Re D. (Gast)


Lesenswert?

Der G. schrieb:
> Wenn man ganz sicher gehen will nimmt man ne interne und ne externe, die
> interne wird jedes mal automatisch mit cronjob abgeglichen und die
> externe macht man zur Sicherheit ab und zu mal falls Ransomware die
> interne backup Platte zerstört.

Techniker aus dem 20. Jahrhundert? Schon das 1. Backup liegt da, wo der 
Benutzer keine Schreib- und Leserechte hat und natürlich auf einem 
anderen Server/PC. Das 2. Backup liegt physisch an einem anderen Ort.

von (prx) A. K. (prx)


Lesenswert?

Ein paar MLC Oldies, mit oflag=nocache.
Alle noch als Sysdisks im Einsatz.

Crucial m4 128GB (2011): stabil bei 200 MB/s
Crucial MX200 500GB (2015): stabil bei 300 MB/s
Kingston SKC400 250GB (2016): stabil bei 200 GB/s

Samsung 830 64 GB (2011): stabil 53 MB/s
vmtl ohne TRIM, eine Linux-Installation von 2011.

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

(prx) A. K. schrieb:
> Samsung 830 64 GB (2011): stabil 53 MB/s

Das ist aber auch ein altes Schätzchen.
Hatte damals™ selbst 'ne 830 128GB (oder waren's 120?), die hatte aber 
deutlich mehr als 300MB/s geschrieben. Gut, hatte auch die doppelte 
Anzahl Kanäle.

von (prx) A. K. (prx)


Lesenswert?

Ich habe bei der Samsung nicht näher nach Zusammenhängen geforscht. Die 
Installation ist steinalt, Basis Ubuntu 11, und der Wert derart 
unwichtig, das es mir egal ist. Ist ein Videorekorder, viel mehr als die 
üblichen Logfiles landen da nicht.

Lesen tut sie mit gut 200 MB/s, das reicht dafür auch. Viel mehr wirds 
bei SATA II (3 Gb/s) sowieso nicht.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)



Lesenswert?

Der Test zeigt hier ne Schreibrate von 200MB, dann müsste das in über 
ner Minute fertig sein, hat aber 5Min gebraucht, und dann hat man die 
Schreibrate von 66MB/s die ich auch mit dd rausbekomme. Wenn man den 
Test länger laufen lässt, dann gleicht sich der Wert an.

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> Der Test zeigt hier ne Schreibrate von 200MB, dann müsste das in
> über
> ner Minute fertig sein, hat aber 5Min gebraucht, und dann hat man die
> Schreibrate von 66MB/s die ich auch mit dd rausbekomme. Wenn man den
> Test länger laufen lässt, dann gleicht sich der Wert an.

Ernsthaft?

LUKS?

Du testest die Komprimier-Geschwindigkeit deiner Verschlüsselung gegen 
die Geschwindigkeit der darunter liegenden Hardware?

von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

Hier noch mal n Diskmark mit Intenso und die Platine. Das Gehäuse ist 
Vollplastik und evtl. 2013 prozudiert, die Platine evtl. 2015. Der 
Controller strengt sich an 40 Grad zu bekommen, ich denke das Gehäuse 
dafür ist in Ordnung.

Kingston und Samsung haben Vollalu. Crucial und WD zur Hälfte Alu andre 
Plastik.

>LUKS?
Das macht tatsächlich keinen Unterschied ob Luks oder nicht. Das war bei 
nem Intel Atom schon nicht merkbar und bei nem i3-4170 mit Crypt 
Befehlssätzen erst recht nicht.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Was ist denn jetzt das Problem, jenseits der Erkenntnis, dass die nur 
teilbestückte Intenso intensiv langsam schreibt?

von (prx) A. K. (prx)


Lesenswert?

LUKS und TRIM vertragen sich nicht, jedenfalls nicht per Voreinstellung. 
Fehlendes TRIM kann Schreibvorgänge bremsen.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

Für ultra sensitive Daten könnte trim bei luks ein security Problem 
darstellen. Bei mir ist es automatisch aktiviert, crypttab discard.

Das Problem ist dass der Leistungstest von Ubuntu scheinbar nicht so 
ganz akkurate Resultate liefert, z.B. hier 12MBx1000. sollte ja nach 
Resultaten 1Min 10sec dauern, hat aber 3Min gedauert. Deshalb ist der dd 
Bench bisher das beste was ich gefunden hab. Oder man kopiert ne riesen 
Datei und stoppt die Zeit. Außerdem kann dd die Platte ganz voll machen. 
Mit "f3 - Fight Flash Fraud" oder (!! badblocks -wvsb 4096 /dev/sdx 
!Zerstört die Daten) kann man kucken ob er Speicher intakt und 
vollständig ist.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Ich nehme üblicherweise auch "dd", so auch hier im Thread. Allein schon 
deshalb, weil es dort, wo ich so etwas teste, oft keine GUI gibt.

von Jack V. (jackv)


Lesenswert?

(prx) A. K. schrieb:
> Allein schon
> deshalb, weil es dort, wo ich so etwas teste, oft keine GUI gibt.

Beispielsweise bonnie++ braucht auch kein GUI, ist aber im Gegensatz zu 
dd tatsächlich für Benchmarks entwickelt worden und dafür auch geeignet.

Wie oben schon geschrieben: man kann nicht voraussetzen, dass dd in der 
Defaultkonfiguration die tatsächlich erreichbare Geschwindigkeit des 
Datenträgers auch nutzt (z.B. wenn die genutzte Blockgröße nicht zum SSD 
passt, oder so), oder auch nur realistische Werte ausgibt (z.B. wird 
ohne explizites Syncen der Cache unterschlagen; oder I/O kann von was 
Anderem in Anspruch genommen werden, oder so). Es ist nunmal kein 
Benchmarktool.

von (prx) A. K. (prx)


Lesenswert?

Jack V. schrieb:
> (z.B. wenn die genutzte Blockgröße nicht zum SSD passt, oder so)

Dabei hilft auch iozone + Excel.

> ohne explizites Syncen der Cache unterschlagen

oflag=nocache, oder oflag=sync wenn steinalt.

> Es ist nunmal kein Benchmarktool.

Aber überall drauf.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Das ist der Controller von der Intenso: 
https://ssd-tester.de/downloads/controller/Silicon%20Motion%20SM2259XT2.pdf

bonnie++ ist für mich zu hart, ich kann mit den Zahlen (evtl. noch) nix 
anfangen, ich brauch MB/s beim Datenschaufeln und fertig.
Ich versteh auch nicht warum man so dämliche Angaben macht wie MiB 
Pippibytes per second, oder Papabuts per sonstnochwas. Z.B. Wlan oder 
Bluetooth. Wir haben auf unseren Geräten MB und nicht irgend was andres 
und unsere Uhr zeigt Sekunden. Wenn man den ganzen Firlefanz dann 
umrechnet und mit dem vergleicht was man gemessen hat, dann kann man die 
ganzen Angaben getrost in die Tonne kloppen. Vermutlich Marketing 
Verwirrungs Strategie damit der Kunde sich von irrelevanten Angaben zum 
Kauf von Blödsinn verleiten lässt. Man müsste einfach alle Produkte 
kaufen, dann alle testen und dann das beste behalten und den Rest 
zurückschicken, das wäre irgendwie die Antwort auf solch "transparentes" 
vermarkten.

Samsung hat nen ganzen ARM Prozessor oder Soc auf seiner SSD, also 
umfangreich, könnte Grund sein dass sich evtl. Bugs einschleichen, wie 
hier:
https://www.youtube.com/shorts/cy_BgJM7R58
Die Intenso benutzt halt nen einfachen spezialisierten Chip für die 
Aufgabe. Und Crucial nutzt für MX und BX sogar den gleichen. Und die 
andren Nutzen auch solche Art von Chip. Zu dem Samsung ARM find ich 
sonst gar nix.

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

Der G. schrieb:
> Wir haben auf unseren Geräten MB und nicht irgend was andres

Und nun die Preisfrage: das MB auf deinen Geräten – ist das eins von 
früher™, mit 1024kB zu je 1024 Bytes? Oder ist das eins von heute®, mit 
einer Million Bytes pro Megabyte? Denn das ist der Grund für MiB und MB 
heute.

von (prx) A. K. (prx)


Lesenswert?

Jack V. schrieb:
> Und nun die Preisfrage

Ob bei der Thematik des Threads 200 MB/s oder 200 MiB/s rauskommen, ist 
herzlich unwichtig. Es geht um 50 gegenüber 200.

von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> Ich versteh auch nicht warum man so dämliche Angaben macht wie MiB
> Pippibytes per second, oder Papabuts per sonstnochwas.

Also gar ehrlich … damit hast du dich vollends disqualifiziert.

Aber noch einmal langsam.
Weil man gerne präzise sein möchte.
Weil man sonst:
im k/ki Bereich 2.40% Fehler hat,
im M/Mi Bereich 4.86% Fehler hat,
im G/Gi Bereich 7.37% Fehler hat,
im T/Ti Bereich 9.95% Fehler hat.
Und damit - völlig ohne Not - schlimmste Verwirrung und Fehler schafft.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Oder Megabit für Internetleitungen, der Browser gibt auch MB/s an. Eben 
man sollte sich auf eine Einheit einigen und die verwenden, anstatt 
alles mögliche. Meine Qualitfikation steht gar nicht zur Debatte, ich 
bin immer mein bestes selbst und das muss reichen ;-D

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> man sollte sich auf eine Einheit einigen und die verwenden, anstatt
> alles mögliche.

Man schreibt das korrekte Präfix einfach dazu.
Dann wissen Viele was genau (im Sinne von exakt) gemeint ist.
Und die binäre Präfixe sind mittlerweile so alt und etabliert, das man 
ihr Alter mit der Radiokarbondatierung messen kann.

von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Oder Megabit für Internetleitungen

Die traditionell auf eine eigenständige Begriffswelt bestehende 
TK-Branche verwendet keine Bytes, sondern Octets, weshalb in diesem 
Kontext MB/s eigentlich eindeutig ist.

Vorausgesetzt, man weiss, ob man sich mit einem TKler oder einem ITler 
unterhält. ;-)

: Bearbeitet durch User
von Εrnst B. (ernst)


Angehängte Dateien:

Lesenswert?

Ist doch ganz einfach...

https://xkcd.com/394/

von Jack V. (jackv)


Lesenswert?

(prx) A. K. schrieb:
> Ob bei der Thematik des Threads 200 MB/s oder 200 MiB/s rauskommen, ist
> herzlich unwichtig.

Hm. Nein. Entweder man misst etwas, dann misst man es richtig und gibt 
auch die richtige Einheit an, oder man lässt es bleiben.

(prx) A. K. schrieb:
> Es geht um 50 gegenüber 200.

Dass SSDs ’nen Cache haben, ist kein zu großes Geheimnis. Tatsächlich 
steht’s gar in deren Doku – zusammen mit Zahlen und Einheiten. 
Vielleicht war das der Grund, warum dem TE das bislang nicht klar war? 
Zahlen und Einheiten?

Wer ständig Files >50GB umherschiebt, muss halt etwas tiefer in die 
Tasche greifen und sich ein entsprechendes Gerät holen. Für alle Anderen 
sind sowieso eher IOPS und so von Interesse.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Der Controller der Intenso hat keinen Cache, steht im Datenblatt und auf
der PCB ist nur noch der Nand Klotz, also kein Cache. Und wenn, nach 8GB
oder 25GB oder so ist der auch nicht mehr in der Lage was zu reissen.
Außerdem ist es völlig egal ob da ein Cache ist oder nicht, man testet
das Teil ja nicht mit dem Cache, weil es dann im Alltag ohne den Cache
arbeiten würde, macht also keinen Sinn überhaupt den Cache dafür
verantwortlich zu machen dass die Messergebnisse nix taugen sollten.

von Jack V. (jackv)


Lesenswert?

Der G. schrieb:
> Außerdem ist es völlig egal ob da ein Cache ist oder nicht, man testet
> das Teil ja nicht mit dem Cache, weil es dann im Alltag ohne den Cache
> arbeiten würde, macht also keinen Sinn überhaupt den Cache dafür
> verantwortlich zu machen dass die Messergebnisse nix taugen sollten.

Ja gut – dass du nicht wirklich Ahnung von dem hast, das du (nicht nur) 
hier die ganze Zeit vor dich hinschreibst, ist auch vorher schon bekannt 
gewesen.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Also es ist so, dass die Intenso deswegen so langsam ist weil nur ein 
Chip arbeitet. Wenn eine DRam less schneller arbeiten soll, dann braucht 
sie mehr Chips. Weil die können dann parallel beschrieben werden und 
jeder Chip hat eine begrenzte Bandbreite die sein Interface zum 
Controller benutzen kann. Scheinbar hat der 3D Nand ca. ne Bandbreite 
von 30MB/s, wenn es zwei Chips wären wären es 60MB/s. Das Teil schreibt 
ja erst mal mit so 400MB/s fällt dann auf 50 und erreicht auch schon mal 
unter 10. Scheint irgendwie ganz schön vielfältig aufgebaut zu sein der 
eine Nand Chip. Jetzt hat Intenso noch andre Dram less SSDs, die da 
heißen: High - Top - Performace. Ich schätze mal da werden dann 
schnellere Chips und mehrere eingebaut. Wäre mal interessant was in der 
Performance steckt, die ist ja preislich gleich mit den Marken SSDs. Ob 
jetzt die Intenso schlechter ist als die Marken SSDs kann ich nicht 
beurteilen. Die "technischen" Angaben im Produkt Flyer sagen nichts aus, 
oder dass kein Unterschied zwischen den Versionen besteht.

Bei den unbekannten Herstellern aus China, handelt es sich wohl um die 
gleiche Qualität, oder irgendwas zusammengebasteltes aus der Reisekiste 
mit Testboards. Oder gleich um Fakes mit eingebautem SD Kartenleser mit 
fake SD Karte. Damit wird der Markt gerade überschwemmt, weil die Dinger 
sind n paar Cent wert und werden aber für gutes Geld verkauft. Ist 
Betrug. Und sollte man wirklich so ein Ding als Backup verwenden sind 
alle Daten futsch, weil der Controller die Kapazität nur vortäuscht und 
den Inhalt der SD Karte immer wieder neu überschreibt.

: Bearbeitet durch User
von Klaus (feelfree)


Lesenswert?

Der G. schrieb:
> Also es ist so

dass dein Schreibmenge-zu-Ahnungs-Verhältnis gigantisch ist.

von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Wenn eine DRam less schneller arbeiten soll,

Die Rolle des DRAM bei SATA SSDs liegt nicht darin, Nutzdaten zu 
speichern, sondern Metadaten. Daten, die beschreiben, was an welcher 
Stelle im Flash liegt.

: Bearbeitet durch User
von Rene K. (xdraconix)


Lesenswert?

Andreas H. schrieb:
> Und ehrlich: Wann hast Du Dein letztes BA gemacht?

Bei mir schiebt es ein Script mit rsync auf einen lokalen Server und auf 
einen entfernten den ich in meinem Sommerhaus stehen haben, täglich, 
fünf Uhr - mit  einer 7/4/12 Strategie:
1
---------------------------------------
2
Start-Zeit: Sun Oct 15 05:00:01 2023
3
Number of files: 646,953 (reg: 535,406, dir: 65,957, link: 45,228, dev: 6, special: 356)
4
Number of created files: 45 (reg: 45)
5
Number of deleted files: 45 (reg: 45)
6
Number of regular files transferred: 45
7
End-Zeit: Sun Oct 15 05:09:58 2023
8
---------------------------------------

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

> dass dein Schreibmenge-zu-Ahnungs-Verhältnis gigantisch ist.

Schön gesagt großer Meister. Aber lebst du denn hinterm Mond? Ist dir 
noch nicht aufgefallen dass es heutzutage völlig normal ist dass man mit 
Unwissen genauso weit kommt? Nehmen wir die Werbung, da wird der 
allergrößte Unfug versprochen. Oder die Rechtsparteien. Viele neue 
Möglichkeiten, muss man nur die richtige Perspektive wählen um nicht zu 
verzweifeln sondern sich daran zu erfreuen.

> sondern Metadaten
Genau, deswegen wäre eine SSD mit Dram und langsamen Chip auch sehr 
langsam, aber eine SSD ohne Dram und schnellen Chips schnell. Ich 
schätze mal den Dram merkt man gar nicht, der bringt evtl. ein paar 
Millisekunden wenn viele Zugriffe gleichzeitig erfolgen, durch z.B. ein 
umfangreiches Programm.

von Klaus (feelfree)


Lesenswert?

Der G. schrieb:
> Ist dir
> noch nicht aufgefallen dass es heutzutage völlig normal ist dass man mit
> Unwissen genauso weit kommt?

Es Ist zwar lobenswert dass Du offen zugibst, hier ohne viel Ahnung umso 
mehr zu schwadronieren, es macht dich aber kein bisschen sympathischer.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Ich würde mittlerweile sagen dass Dram zusätzliche Bauteile bedeutet, 
was die Ausfallwahrscheinlichkeit erhöhen könnte und vermutlich auch 
tut. Vielleicht machen die Hersteller nur deshalb Dram in ihre Geräte 
weil die Konsumenten glauben das sei das A und O. Ich als schlauer User 
setze nicht auf Dram und wenn man langsamen Nand hat dann kann man viel 
bewusster Daten übertagen und hat mehr ein Blick ins Geschehen, man muss 
die Dinge nur perspektivisch richtig beurteilen.
Für 5MB/s könnte man auch "rsync -av --bwlimit=5000" benutzen. Oder aber 
mit FreeFileSync oder Robocopy

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

Der G. schrieb:
> Ich würde mittlerweile sagen dass Dram zusätzliche Bauteile bedeutet,
> was die Ausfallwahrscheinlichkeit erhöhen könnte und vermutlich auch
> tut.

Andere hingegen würden in der Zwischenzeit mal lesen, worum es überhaupt 
geht, damit sie nicht mehr gar solchen Unsinn schreiben. So what?

von Klaus (feelfree)


Lesenswert?

Der G. schrieb:
> Ich würde mittlerweile sagen

dass du eine amoklaufende Instanz von ChatGPT bist.

von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

Hier sieht man dass bei intenso top 500gb die smart werte nicht alle 
funktionieren. Sind 2x selbes Modell.

von Jack V. (jackv)


Lesenswert?

Was genau denkst du da zu sehen?

von Rolf M. (rmagnus)


Lesenswert?

Was mir auffällt ist, dass sowohl "SATA Physical Error Count", als auch 
"Bad Block Count" (der sogar zweimal vorkommt) bei beiden exakt gleich 
ist - und auch sehr hoch für die kurze Laufzeit. Daher sind es 
vermutlich nicht die tatsächlichen Werte.
Das Problem ist bei SMART generell, dass die genaue Bedeutung der Werte 
nicht standardisiert ist. Da kann sich jeder Hersteller austoben.

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

Rolf M. schrieb:
> Was mir auffällt ist, dass sowohl "SATA Physical Error Count", als auch
> "Bad Block Count" (der sogar zweimal vorkommt) bei beiden exakt gleich
> ist - und auch sehr hoch für die kurze Laufzeit.
> Das Problem ist bei SMART generell, dass die genaue Bedeutung der Werte
> nicht standardisiert ist.

Die RAW-Werte sind ohne Aussage, die interpretierten Werte sind von 
Bedeutung.

Wenn man smartctl direkt nutzt, gibt es eine Information aus, ob das 
betreffende Gerät in der Datenbank ist, oder nicht. Wenn ja, kann man 
davon ausgehen, dass die interpretierten Werte passen. Wenn nein, kann’s 
gar vorkommen, dass Felder völlig falsch zugeordnet werden.

Gut möglich, dass das beim TE der Fall ist – aber ich wage nicht zu 
bitten, dass er da mal nachschaut. So, wie er hier schreibt, ist zu 
befürchten, dass er das auswürfelt und dann als unumstößliche Tatsache 
hier hinstellt …

von (prx) A. K. (prx)


Lesenswert?

Wenn du auf
  Attribute 161 - Valid Spare Block Count
raus willst: sieht gut aus. SMART Werte sind gewöhnungsbedürftig.

"Contains the remaining spare block percentage available on a solid 
state device. The percentage starts at 100% and will typically decrease 
to 0% during use. If this attribute reaches 0%, the solid state device 
becomes read-only. The raw value of thisattribute may contain the actual 
number of spare blocks."

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

Intenso Top ist nicht in der Smartctl Database. Evtl. weil es kein 
Hersteller Tool gibt. Ist die Frage ob die Labels von der Platte oder 
von smartctl kommen. Wenn die falsch zugeordnet werden können dann wäre 
das sehr schlecht, eigentlich sollten die labels von der platte selbst 
kommen, das würde Sinn machen. Crystal Disk Info liest die Werte fast 
gar nicht aus. Der Short Test und Extendet Test funktionieren beide.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Ist die Frage ob die Labels von der Platte oder
> von smartctl kommen.

Die Hardware liefert die Nummern, A1=161. Die Interpretation kommt von 
der Auslesesoftware.

Auch hier ist alles in bester Ordnung.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Das ist sehr ungünstig. Dann machen die Smart Werte bei der Intenso ja 
gar keinen Sinn, weil es keine Herstellersoftware gibt wo die Zuordnung 
stimmt. Bei den andren Disks gibt Crystal Disk Mark auch gleiches oder 
kompletten Unfug raus, wie bei der crucial alles auf 100, nur temp auf 
74 bei kalter Platte.

von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Das ist sehr ungünstig. Dann machen die Smart Werte bei der Intenso ja
> gar keinen Sinn

Geh einfach davon aus, dass der Wert von 100% runterzählt und bei 50% 
vorsorglich Rabatz macht. Den "Raw" Wert solltest du meiden.

Viel Aufwand (=Geld) hat INTENSO da jedoch nicht reingesteckt.

: Bearbeitet durch User
von Εrnst B. (ernst)


Lesenswert?

Der G. schrieb:
> Das ist sehr ungünstig.

Deswegen kauft man keine "Intenso", "A-Data", "SimSung", 
"EasternDigital", usw. Da hast du auch keine Garantie, dass zwei 
äußerlich gleiche SSDs das gleiche Innenleben (und damit vergleichbare 
SMART-Werte) haben.
Die 2,50€ Aufpreis für eine Marken-SSD, wo ein Datenblatt existiert, in 
dem auch festgehalten ist welcher Controller darauf werkelt, sollten es 
einem Wert sein.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Aha, jetzt verstehe das was bei smartctl unter Worst steht, gibt Crystal 
Disk Info an. Und die Labels können vertauscht sein weil die Software 
das irgendwie interpretieren muss. Das heißt Threoshold und Worst kommen 
von der Platte, die Labels werden interpretiert und wenn die ssd nicht 
in der Datenbank ist können die auch falsch interpretiert sein. Den 
Gesamtzustand kommt auch vom Controller bzw. die Firmware darauf und 
entspricht in etwa dem Worst Wert und auf die Werte kann man sich 
verlassen. Normalerweise wenn smartactl kein Label zuordnen kann, steht 
da Unknown Attribute.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Und die Labels können vertauscht sein weil die Software
> das irgendwie interpretieren muss.

Die IDs (Hex/dez) sind ziemlich klar, sofern ein Label dabei steht, das 
nicht auf "Vendor" oder "keine Ahnung" lautet. Aber nicht jede Disk hat 
den gleichen Satz an unterstützten IDs.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Aha, jetzt verstehe das was bei smartctl unter Worst steht, gibt Crystal
> Disk Info an.

Worst/current/threshold/type sind definierte Felder in SMART, ggf 
übersetzt zu Deutsch. Bei Raw wirds komplizierter.

: Bearbeitet durch User
von Harald K. (kirnbichler)


Lesenswert?

Εrnst B. schrieb:
> Deswegen kauft man keine "Intenso", "A-Data", "SimSung",
> "EasternDigital", usw.

Dem kann ich mich nur anschließen. SSDs von richtigen Herstellern sind 
so günstig geworden, daß es wirklich nicht nötig ist, auf "RAMsch"* 
zurückzugreifen


*) hatte die c't mal für Arbeitsspeicher aus vergleichbaren Quellen 
verwendet. 3rd-Party-Assemblierer heißt so etwas neudeutsch. Firmen, die 
auf dem Spotmarkt gerade verfügbare Speicherchips kaufen, diese mit 
Phantasiebeschriftungen versehen und auf eigene Platinen löten. Weder 
ist damit sichergestellt, daß zwei Speichermodule die gleichen 
Speicherbausteine verwenden, noch, daß sie irgendeine Spezifikation 
zuverlässig einhalten können.

Bei SSDs sieht das nicht sehr anders aus.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

> "SimSung",
Meinst du Samsung? Ich frag mich auch ob die nicht gehyped werden. Gut 
sie sind schnell und die Technik scheint frisch entwickelt, aber es gibt 
so Sachen dass in den Amazon Rezessionen steht dass der Support von 
Samsung die Garantie abschmettert . Z.B. wenn die ssd in einem externen 
Gehäuse stirbt dann ist das die Schuld vom User, da die Platte angeblich 
dort nix zu suchen hat.

https://www.amazon.de/product-reviews/B089RD13TX/ref=cm_cr_arp_d_viewopt_fmt?ie=UTF8&filterByStar=one_star&reviewerType=all_reviews&formatType=current_format&pageNumber=1#reviews-filter-bar

Möchtest du Modelle empfehlen die deinen Vorstellungen entsprechen?

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

Der G. schrieb:
> aber es gibt so Sachen dass in den Amazon Rezessionen steht dass der
> Support von Samsung die Garantie abschmettert . Z.B. wenn die ssd in
> einem externen Gehäuse stirbt dann ist das die Schuld vom User, da die
> Platte angeblich dort nix zu suchen hat.

Ich lese da nur, dass sie eine externe Nutzung nicht empfehlen (warum 
auch immer), aber nix davon, dass sie die Garantie "abgeschmettert" 
hätten.

von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Ich frag mich auch ob die nicht gehyped werden.

Ein wenig schon. Samsung hat den wohl teuersten Namen. Bei internen SATA 
SSDs nehme ich deshalb gerne Crucial.

Wenn ein leidlich renommierter Name dran steht, erhöht es die Chancen, 
dass man das kriegt, was durch die Reviews gezogen wurde. Manchmal 
nicht, wie das z.B. bei WD schon vorkam - dann gibts hässliche 
Publicity, was dem Ruf des Herstellers schadet. Sowas ist eine Art 
Regulativ.

Die QVO war indes schon in den Reviews eine üble und kritisierte 
Schnecke. Dass die billigste Samsung SSD auch die schlechtete ist, was 
die Performance angeht, sollte nicht überraschen. QLC hat Nachteile und 
ist für Aufgaben vorgesehen, bei denen das nicht wichtig ist.

: Bearbeitet durch User
von Εrnst B. (ernst)


Angehängte Dateien:

Lesenswert?

Der G. schrieb:
>> "SimSung",
> Meinst du Samsung?

Nein, ich meine die Chinesischen Fake-Marken, die mit identischer 
Aufmachung, aber manchmal leicht abgewandelten Markennamen Ramsch 
verkaufen. Gibt da auch welche in WD, Kingston, ...-Aufmachung.

Original Samsung ist schon OK, wenn auch Preis/Leistungsmäßig nicht top.

von Norbert (der_norbert)


Lesenswert?

(prx) A. K. schrieb:
> Die QVO war indes schon in den Reviews eine üble und kritisierte
> Schnecke.

Was es halt für Tester gibt.
Wie Realitätsnah halt die Tester sind.

Im echten Leben:
Beim Lesen und normalen Nutzen:
* durchgängig maximale SATA III Geschwindigkeit.
Beim Schreiben mehrerer DVD-ISOS direkt nacheinander:
* durchgängig maximale SATA III Geschwindigkeit.
Beim Schreiben mehrerer großer HD-Pr0ns direkt nacheinander:
* durchgängig maximale SATA III Geschwindigkeit.

Also für normale PC-Benutzer zu 99.99% kein Unterschied zu TLC,MLC,SLC.

Der Vollständigkeit halber:
Beim Klonen einer alten Festplatte oder SSD auf eine QVO:
Nach den ersten 90GB sinkt Schreibgeschwindigkeit temporär auf 
Festplattenniveau herab.

Danach:
* siehe Punkt 1…3

von (prx) A. K. (prx)


Lesenswert?

Norbert schrieb:
> Was es halt für Tester gibt.

Tests haben die Aufgabe, verschiedene Parameter zu testen, darunter 
selbstverständlich auch Schreibvorgänge in grossem Umfang. Dem Anwender 
das Denken völlig abnehmen sollte sie nicht.

Platz 1 bei der Suche nach einem Review war:
"Samsung SSD 870 QVO im Test
QLC überzeugt immer noch nicht"
https://www.hardwareluxx.de/index.php/artikel/hardware/storage/53839-samsung-ssd-870-qvo-im-test-qlc-ueberzeugt-immer-noch-nicht.html

> Also für normale PC-Benutzer zu 99.99% kein Unterschied zu TLC,MLC,SLC.

Etwa so? 99.99% der PC-Benutzer machen sowieso keine Backups. ;-)

Auf die Idee, eine grosse externe QVO als Backup-Medium zu nutzen, kann 
man schon kommen. Wenn man diese Daten nicht anschliessend ein halbes 
Jahr im Schrank vergammeln lässt.

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

(prx) A. K. schrieb:
>> Also für normale PC-Benutzer zu 99.99% kein Unterschied zu TLC,MLC,SLC.
>
> Etwa so? 99.99% der PC-Benutzer machen keine Backups. ;-)

Eher: 99,99% der PC-Nutzer machen nicht jeden Tag ein Komplettbackup.

Ich mache meine täglichen Backups auf ein externes SSD. Das sind im 
Schnitt einige hundert MB; wenn mal neues Filmmaterial oder ein neues 
Projekt dazugekommen ist, sind’s auch mal eine Handvoll GB. Da ist‘s in 
der Tat einigermaßen egal, dass das SSD nach einigen ’zig GB einbrechen 
würde.

von Norbert (der_norbert)


Lesenswert?

Jack V. schrieb:
> Ich mache meine täglichen Backups auf ein externes SSD. Das sind im
> Schnitt einige hundert MB; wenn mal neues Filmmaterial oder ein neues
> Projekt dazugekommen ist, sind’s auch mal eine Handvoll GB. Da ist‘s in
> der Tat einigermaßen egal, dass das SSD nach einigen ’zig GB einbrechen
> würde.

Genau so isses!


(prx) A. K. schrieb:
> Etwa so? 99.99% der PC-Benutzer machen sowieso keine Backups. ;-)

Die immer schlimmer grassierende Seuche nach immer höheren, völlig 
unnötigen und in den meisten Fällen gar nicht genutzten Maximalwerten zu 
urteilen, ist auch hier schmerzlich bemerkbar.

Nochmal, für das Gros der normalen Anwenderinnen:innen:innen ist 
keinerlei Unterschied spürbar. Noch nicht einmal messbar, wenn sie es 
denn überhaupt täten.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

> Chinesischen Fake-Marken
Ach ja richtig, die Teile, die hat garantiert keine 8TB, die schickt die 
Daten die man drauf speichert in die Hölle. Dafür gibt es Testprogramme 
z.B. f3 Fight Flash Fraud
Was Samsung betrifft, die geben ihre TBW Werte von der 4TB Variante für 
die ganze 870Evo Reihe an was irreführend ist, siehe screehshot. Dass 
das im Kleingedruckten dann revidiert wird interessiert mich nicht. 
Transcent hingegen gibt sogar an ob in der SSD Dram drin ist oder nicht, 
das ist löblich.

>aber nix davon, dass sie die Garantie "abgeschmettert"
Stimmt, aber warum sonst würde Samsung so etwas sagen? Es ist doch 
gleich an welchem Board der Sata Anschluss hängt, Sata Anschluss ist 
Sata Anschluss. Deshalb kann ich mir das nur so erklären, dass das ein 
Vorwand ist um die Garantie abzuschmettern.

Die Frage ist natürlich ob der Stromanschluss ausreicht, bei den HDDs 
war das ja so dass die 2,5 Zoll Modelle einen Headcrash haben konnten 
wenn der Strom nicht gereicht hat. Wenn ich zuviele 2,5 Zoll HDDs (zwei 
Stück) an nen passiven USB Hub häng dann hör ich wie die Platte die 
Initialisierung unterbricht und vielleicht gar nicht anläuft. 2,5 Zoll 
HDDs und SSDs brauchen 2Watt, ssd eher weniger, während 3,5 Zoll HDDs 7 
Watt brauchen und die externen Laufwerke eine extra Stromversorgung 
haben. Vielleicht sind energiehungrige SSDs mit Dram da auch anfällig?

von Εrnst B. (ernst)


Lesenswert?

Der G. schrieb:
> Es ist doch
> gleich an welchem Board der Sata Anschluss hängt, Sata Anschluss ist
> Sata Anschluss.

Nicht ganz. Im PC wird die SSD sauber "heruntergefahren", während sie 
noch Strom hat. Im USB-Gehäuse ist beim Ausstöpseln sofort der Strom 
weg, auch wenn der SSD-Controller gerade noch beschäftigt war.

Hat einen Grund warum in den Smart-Werten die "sauberen" und 
"unsauberen" Shutdowns getrennt mitgezählt werden.
1
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       78
2
...
3
174 Unexpect_Power_Loss_Ct  0x0032   100   100   000    Old_age   Always       -       27

Eigentlich sollte es der SSD nichts ausmachen, den Strom zu verlieren. 
Entweder macht der Controller seine Verwaltungstasks mit "Journaling", 
oder die SSD hat intern Supercaps zum puffern, das war aber eher zur 
SSD-Anfangszeit üblich.

von Rolf M. (rmagnus)


Lesenswert?

Der G. schrieb:
>>aber nix davon, dass sie die Garantie "abgeschmettert"
> Stimmt, aber warum sonst würde Samsung so etwas sagen?

Damit es das nächste mal nicht wieder passiert?
Wir wissen schlicht nicht, was im Bezug auf die Garantie passiert ist. 
Ich halte mich da an das, was dort geschrieben steht und nicht an eigene 
Mutmaßungen.

> Es ist doch gleich an welchem Board der Sata Anschluss hängt, Sata
> Anschluss ist Sata Anschluss. Deshalb kann ich mir das nur so erklären,
> dass das ein Vorwand ist um die Garantie abzuschmettern.

> Vielleicht sind energiehungrige SSDs mit Dram da auch anfällig?

Das wäre jetzt auch das einzige, was ich mir vorstellen könnte. 
Vielleicht reichen die 500 mA eines USB2-Ports nicht immer aus, oder 
durch die dünnen Käbelchen geht zu viel Spannung verloren, und die SSD 
bekommt Probleme, weil die Spannung gerade mitten im Schreibvorgang, 
wenn vermutlich am meisten Strom benötigt wird, immer wieder einbricht.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

> eigene Mutmaßungen
stimmt

> sauber "heruntergefahren"
Ubuntu hat hierfür die Unmount Knöpfe, die aber nicht funktionieren, man 
muss im Terminal sync eingeben und warten bis die letzte Große Datei 
fertig geschrieben hat und darf erst dann abziehen. Sonst gibts 
Datenverlust.
Das statische Wear Leveling hat kein Problem damit wenn der Strom weg 
ist, weil erst wenn die Daten fertig geschrieben wurden werden sie erst 
Bestandteil des Dateisystems.

>Spannung gerade mitten im Schreibvorgang

Das könnte sein, externe HDDs haben ja beim Start akustisch reagiert, 
aber SSD sollte erst im Einsatz Probleme bekommen. Leider gibts dazu 
auch kaum Infos, hab bisher nix dazu gefunden.

: Bearbeitet durch User
von Harald K. (kirnbichler)


Lesenswert?

Εrnst B. schrieb:
> Nicht ganz. Im PC wird die SSD sauber "heruntergefahren", während sie
> noch Strom hat.

Wie kommst Du auf diese lustige Idee? Macht das das 
Festplattenparkprogramm?


> Im USB-Gehäuse ist beim Ausstöpseln sofort der Strom
> weg, auch wenn der SSD-Controller gerade noch beschäftigt war.

Das ist bei PCs bei Abschalten auch der Fall. Nur vergeht i.d.R. 
zwischen dem Einstellen sämtlicher Schreibzugriffe durchs OS und 
Abschalten der Versorgungsspannung einfach immer eine gewisse Zeit, die 
dem SSD-Controller genügt.

Im USB-Gehäuse ist das auch kein Problem, sofern man das USB-Kabel nicht 
sofort rausreißt, sobald der "datei kopieren"-Dialog von Windows 
behauptet, fertig zu sein.

Wenn man da ein, zwei Sekunden lang innehält, oder gar sich bequemt, auf 
etwaige Aktivitäts-LEDs zu blicken, gibt es keine Probleme.

Der G. schrieb:
> aber es gibt so Sachen dass in den Amazon Rezessionen steht
> dass der Support von Samsung die Garantie abschmettert .

Wer "Rezessionen" verfasst, dem ist sowieso nicht zu helfen.

"Der G." - Du plenkst.

von Εrnst B. (ernst)


Lesenswert?

Anderer Grund könnte sein, dass bei (Nicht-UAS) USB-Gehäusen kein TRIM 
funktioniert, und das Wear-Leveling deswegen wesentlich schlechter 
arbeitet => TBW werden nicht erreicht.

von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> Ubuntu hat hierfür die Unmount Knöpfe, die aber nicht funktionieren, man
> muss im Terminal sync eingeben und warten bis die letzte Große Datei
> fertig geschrieben hat und darf erst dann abziehen. Sonst gibts
> Datenverlust.

Ein ›umount‹ führt IMMER ein ›sync‹ zuvor durch.

Wenn Ubuntu das Ende desselben nicht sauber abwartet, dann werden sie 
letztendlich nur ihrer Jahrzehnte alten Tradition der gnadenlosen 
Verschlimmbesserung gerecht.

von Rolf M. (rmagnus)


Lesenswert?

Harald K. schrieb:
> Εrnst B. schrieb:
>> Nicht ganz. Im PC wird die SSD sauber "heruntergefahren", während sie
>> noch Strom hat.
>
> Wie kommst Du auf diese lustige Idee? Macht das das
> Festplattenparkprogramm?

Das macht der Treiber. Über die SMART-Daten kann man bei Festplatten 
abfragen, wie oft sie einen Not-Parkvorgang durchführen mussten, weil 
die Versorgung ohne vorheriges Parken getrennt wurde. Bei den SSDs gibt 
es auch was vergleichbares. smartctl zeigt es mir dort als "Unsafe 
Shutdowns" an.

Εrnst B. schrieb:
> m PC wird die SSD sauber "heruntergefahren", während sie
> noch Strom hat. Im USB-Gehäuse ist beim Ausstöpseln sofort der Strom
> weg, auch wenn der SSD-Controller gerade noch beschäftigt war.

Deshalb sollte man vor dem Ausstecken das Laufwerk möglichst immer 
unmounten oder "sicher entfernen", oder wie auch immer es beim 
jeweiligen System heißt. Dann bekommt es nämlich auch vorher das 
entsprechende Kommando gesendet.

>> Im USB-Gehäuse ist beim Ausstöpseln sofort der Strom
>> weg, auch wenn der SSD-Controller gerade noch beschäftigt war.
>
> Das ist bei PCs bei Abschalten auch der Fall. Nur vergeht i.d.R.
> zwischen dem Einstellen sämtlicher Schreibzugriffe durchs OS und
> Abschalten der Versorgungsspannung einfach immer eine gewisse Zeit, die
> dem SSD-Controller genügt.

Nein, der Strom ist nicht einfach weg, sondern bei Runterfahren bekommt 
das Laufwerk ein Park-Kommando gesendet. Es weiß also vorher, dass 
gleich der Strom weg sein wird.

von (prx) A. K. (prx)


Lesenswert?

Harald K. schrieb:
> Εrnst B. schrieb:
>> Nicht ganz. Im PC wird die SSD sauber "heruntergefahren", während sie
>> noch Strom hat.
>
> Wie kommst Du auf diese lustige Idee? Macht das das
> Festplattenparkprogramm?

Ist es undenkbar, dass ein System die für das Power Management 
vorgesehenen SATA Kommandos beim Shutdown auch wirklich verwendet?

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?


von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

>Wenn Ubuntu das Ende desselben nicht sauber abwartet
Hatte damit mal Probleme, weiß nicht ob das heute immer noch so ist, ich 
benutze immer vorsichtshalber den terminal sync command.

Was den Stromverbrauch angeht, hab mal nachgemessen:

Maximaler Strom für externe USB Laufwerke an USB 2.0 Anschluss gemessen 
mit USB Power Meter (50MB/s):
Intenso SSD (ohne Dram) Schreiben 220mA = 1Watt
HGST 2,5"HDD 0.7A  Start und Schreiben
WD BLUE SSD (mit Dram) 0,45A  Start und Schreiben

Maximaler Strom für BX500 (ohne Dram) und WD BLUE (mit Dram) intern 
(Stromzange an 2 schwarze Kabel 170MB/s):
270mA Schreiben und 400mA Schreiben

Könnte sein dass ne Samsung Evo 870 mit voller USB 3 Geschwindigkeit 
evtl. 1A zieht, kann ich aber nur vermuten, evtl, könnte mal jemand 
nachmessen. Interessant wäre auch was passiert wenn man auf ssd oder 
stick schreibt und der strom wird immer weniger bis das Gerät aussetzt.

Wikipedia verrät:
Bei USB 2.0 ist die maximale Stromstärke auf 500 mA begrenzt, weswegen 
einige Hersteller externer Festplatten Y-Kabel mitliefern, mit dem der 
Strom eines zweiten USB-Ports genutzt werden kann. Mit USB 3.0 wurde die 
Stromstärke auf 900 mA erhöht, mit der praktisch jede 
2,5-Zoll-Festplatte betrieben werden kann.

: Bearbeitet durch User
von Markus W. (dl8mby)


Lesenswert?

@ Der. G

Mein Senf zu Deiner Messung:

Ich würde es so machen, sofern Du genug Speicher "/dev/shm/"
zur Verfügung hast.
1
#! /usr/bin/env bash
2
3
dd if=/dev/urandom of=/dev/shm/BIG_FILE_1.BIN bs=1M count=5000 status=progress;
4
dd if=/dev/urandom of=/dev/shm/BIG_FILE_2.BIN bs=1M count=5000 status=progress;
5
6
for k in {001..100}
7
do 
8
  for i in {1..2}
9
  do 
10
    echo time $(dd if=/dev/shm/BIG_FILE_${i}.BIN of=/mnt/ssd_under_test/file_${i}_${k} bs=1M count=5000; sync)
11
    # time $(dd if=/dev/shm/BIG_FILE_${i}.BIN of=/mnt/ssd_under_test/file_${i}_${k} bs=1M count=5000; sync)
12
  done
13
done

Weil:

1) Nicht NULL-Daten schreiben, weil manche Controller das Erkennen
und es optimieren.
Erzeuge Dir Files via /dev/urandom mit zufälligen Daten!

2) Lesen aus dem RAM und nicht von einer anderen Disk/SSD, damit Du
nicht die Performance dieser Quell-Disk/SSD in Spiel bringst.
Schneller als aus dem RAM kannst Du nicht Lesen!

Den auskommentierten dd Befehl musst Du noch aktivieren.
Ist nur zur Sicherheit, damit jemand nicht gleich loslegt,
ohne zu wissen was er tut.
Das echo Kommando zeigt aber wie der Ablauf des Skripts ist.

LG
Markus

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Danke Markus.

Möchte man auf ein externes Netzteil verzichten, sollte man beachten, 
dass das USB-Kabel nicht zu lang gewählt ist, da sonst der Widerstand 
des Kabels dazu führen kann, dass die Festplatte nicht ausreichend Strom 
erhält.
https://www.hardwareschotte.de/externe-festplatten

Aber was passiert wenn die Platte abhechelt? Hab nur das gefunden: 
https://www.reddit.com/r/hardware/comments/tsvuvi/can_an_ssd_die_if_supplied_with_too_little_power/?rdt=37596

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Der G. schrieb:
> Aber was passiert wenn die Platte abhechelt?

Und zu viel Strom zieht? Gute Systeme haben ein Stromüberwachung auf den 
USB-Ports und schalten dann den Port ab. Hatte ich zumindest vor 
längerer Zeit auch konkret erlebt. Im Zeitalter häufiger mindestens 
zeitweiliger Überlastung durch externe DVD/HDD sind die heute aber wohl 
recht tolerant.

Umgekehrt müssen SSDs eine Stromüberwachung und -Anpassung enthalten, 
weil sie meist an verschiedenen Arten von Stöpseln hängen dürfen. Ob 
USB-A 2.0, USB-A 3.x, USB-C ohne und mit Leistungs-Signalisierung...

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> Könnte sein dass ne Samsung Evo 870 mit voller USB 3 Geschwindigkeit
> evtl. 1A zieht,

Idle: 30mW
Durchschnitt: 2,2 W
Maximum: 3,5 W (Burst-Modus)

Da USB3 jedoch 900mA liefern kann (und muss),
sollten die 700mA im Burst kein Problem sein.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Wie hast du das gemessen? Datenblatt?

Und man kann ja mehrere Laufwerke an einen USB Port hängen, dann reicht 
der Strom nicht mehr und was würde dann passieren?

Falls Trim nicht funktioniert gibts noch die garbage collection.

https://www.ontrack.com/de-de/blog/worin-besteht-der-unterschied-zwischen-garbage-collection-und-trim

https://arstechnica.com/gadgets/2015/04/ask-ars-my-ssd-does-garbage-collection-so-i-dont-need-trim-right/

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> Wie hast du das gemessen? Datenblatt?

Samsung hat so viele davon, die müssen die mittlerweile verschenken.

von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> Und man kann ja mehrere Laufwerke an einen USB Port hängen,

Ohne Hub? Das wäre ja ein toller Trick.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Mit passivem Hub. Ja laut Datenblatt braucht die samsung in etwa so viel 
wie die WD, die braucht 3.35W

: Bearbeitet durch User
von Norbert (der_norbert)


Lesenswert?

Der G. schrieb:
> Mit passivem Hub.

Das kommt aus dem Indianischen und man muss es übersetzen.
Es bedeutet soviel wie: Mutiger Krieger muss selber denken.

von Rolf M. (rmagnus)


Lesenswert?

Der G. schrieb:
> Wikipedia verrät:
> Bei USB 2.0 ist die maximale Stromstärke auf 500 mA begrenzt, weswegen
> einige Hersteller externer Festplatten Y-Kabel mitliefern, mit dem der
> Strom eines zweiten USB-Ports genutzt werden kann.

Was in der Regel aber auch nicht konform ist, weil die 500 mA nur dann 
gelten, wenn das Gerät das vorher vom Port angefordert hat. Das machen 
sie aber auf dem zweiten Port in der Regel nicht. Damit dürfen aus 
diesem aber nur maximal 100 mA gezogen werden. Die Ports sind aber im 
Kabel gerne einfach parallel geschaltet, und man kümmert sich nicht 
darum, wie viel Strom aus welchem Port kommt.

Norbert schrieb:
> Idle: 30mW
> Durchschnitt: 2,2 W
> Maximum: 3,5 W (Burst-Modus)

Die Frage wäre jetzt, ob es nicht auch noch kurze Stromspitzen geben 
kann, bei denen sie kurzzeitig noch deutlich mehr braucht.

von Norbert (der_norbert)


Lesenswert?

Rolf M. schrieb:
> Die Frage wäre jetzt, ob es nicht auch noch kurze Stromspitzen geben
> kann, bei denen sie kurzzeitig noch deutlich mehr braucht.

> Norbert schrieb:
>> Maximum: 3,5 W (Burst-Modus)

Wie viele Maxima soll es denn geben? ;-)

von Michael D. (nospam2000)


Lesenswert?

Der G. schrieb:
> Hatte damit mal Probleme, weiß nicht ob das heute immer noch so ist, ich
> benutze immer vorsichtshalber den terminal sync command.

sync ist nicht ausreichend. Direkt nach sync sind die Puffer geflusht, 
aber 1ms später kann bereits wieder ein Schreibvorgang stattfinden. 
Wichtig ist ein zusätzliches umount.

  Michael

von Norbert (der_norbert)


Lesenswert?

Michael D. schrieb:
> Wichtig ist ein zusätzliches umount.

umount und sync. Das ist wie mit den Frikadellen.

»Ich hätte gerne eine Frikadelle. Mit Brötchen.«

»Ist schon drin!«

»Ein ZUSÄTZLICHES Brötchen!«

»Ist auch schon drin!«

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

Auf der crucial bx500 1tb dl steht hinten 1,7A, auf der Kingston A400 
240gb dl steht 1A, auf der WD 500GB 3dnand dr steht 1,6A drauf. (dr dl 
dram)

Dann scheinen die deutlich teureren externen SSDs evtl. extra 
ausgestattet zu sein 
https://www.computerbase.de/forum/threads/diy-externe-ssd.1861291/
oder aber das ist ein Mythos.

Hab mir so nen USB Kabeltester gebaut, mit 3 Ohm, R=U/I = 1,66A Strom, 
wenn das ein USB Kabel liefert dann ist es gut zum Laden, aber manche 
schaffen nur 0,3A wegen schlechter Qualität. Aber hiermit hab ich mal 
meine USB Ports durchgetestet, ist ein H81Plus mit USB3.1gen1
https://usbstelle.de/wie-viel-ampere-hat-ein-usb-port/
Passiver USB 3 Hub liefert 1,4A, USB2.0 an Verlängerung 1,5A, ein 2.0 
Hub den ich direkt ans Pc Netzteil angeschlossen hab bringt 1,6A. USB 
Ladegerät mit 2A liefert 1,6A.

Also alles gut der Strom scheint bereitwillig zu fließen. Scheinbar gibt 
es bei dem Thema keine Probleme, sonst würden die externen Gehäuse nicht 
so gut gehen, oder aber die Leute haben keine Ahnung und können bei 
Fehlern nicht darauf schließen.

Jetzt müsste man mal in eine USB Verlängerung den Widerstand erhöhen und 
schauen wie ein Testgerät SSD reagiert.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

Also wenn die Platte nicht in der database ist können Werte scheinbar 
falsch zugeordnet werden, wie bei pny hier im Bild. Temperature wird 
wohl SSD life left sein. Im Bild oben Smartctl unten Windows Software 
von pny.

Bei den beiden Intenso SSD dürfte Bad Block count auch SSD life left 
sein. Frag mich was der 5.050 Wert sein könnte der bei allen 4 Intensos 
gleich ist. Die 240er haben übrigens 4 Nands aufm Board.
Schreibt längere Zeit mit 400MB/s fällt dann sehr lange Zeit auf 80MB/s 
bis nur noch mit 30MB/s geschrieben wird. Konnte die Platte mit 80 MB 
vollschreiben die letzten wurden mit 30MB geschrieben, dann gelöscht und 
dann neu Beschreiben gings mit 30MB weiter.


Kingston hat die unaussagekräftigste Smart Seite die man sich vorstellen 
kann in der Windows Software. Bei allen Platten ist aber immer die 
SmartCTL Software am ausführlichsten.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Nach nem Format ist die SSD wieder so schnell wie am Anfang, 400MB/s bis 
80GB, den ganzen rest so 80MB/s bis zu den letzten 10GB oder so mit 
30MB/s. Aber ohne Format bleibt sie nach dem Löschen aller Dateien bei 
30MB/s. Intenso high 240 an USB. Dann funktioniert wohl Trim über den 
USB Controller nicht.

Bei verschlüsselten Festplatten soll der auch nicht funktionieren, wohl 
aber Garbage Collection

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

ABER man kann Trim manuell ausführen, einfach sudo fstrim /folder/disk, 
dauert n paar Sekunden und die SSD surrt wieder fröhlich mit 400MB/s. 
Schon komisch, andererseits könnte man so auch den Cache Nand schonen 
und auf Speed verzichten. Ein Sabrent Gehäuse unterstützt den Befehl 
nicht, ein Inateck schon.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

https://www.kingston.com/en/blog/pc-performance/ssd-garbage-collection-trim-explained

Trim schützt den Nand.

inateck jms578

sabrent asm255cm

Windows macht TRIM mit "Laufwerk optimieren" und da gets auch mit dem 
Sabrent. Linux unterstützt wohl den Chip noch nicht dafür.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Sabrent kann man Trim aktivieren 
https://www.jeffgeerling.com/blog/2020/enabling-trim-on-external-ssd-on-raspberry-pi

/etc/udev/rules.d/10-trim.rules

ACTION=="add|change", ATTRS{idVendor}=="174c", ATTRS{idProduct}=="55aa", 
SUBSYSTEM=="scsi_disk", ATTR{provisioning_mode}="unmap"

für sabrent mit jms576 ist es die Zeile dazu:
ACTION=="add|change", ATTRS{idVendor}=="152d", ATTRS{idProduct}=="0583", 
SUBSYSTEM=="scsi_disk", ATTR{provisioning_mode}="unmap"

USB Luks Trim aktivieren:
sudo cryptsetup --allow-discards --persistent refresh luks-mapper-volume
sudo fstrim -av /media/user/volume

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Nach Trim kann Laufwerk in idle auch Cache freiräumen.

von Der G. (Firma: schlechthin) (gastgeber)


Angehängte Dateien:

Lesenswert?

Diese Sounds macht meine 500GB WD Blue einmal im disks test und dann im 
dd random. Das können eigentlich nur Spulen sein. 
https://www.techpowerup.com/ssd-specs/western-digital-blue-3d-500-gb.d477

Drauf steht BJ 19 mdCN 3dnand, bei der bricht die Schreibrate nie ein.

: Bearbeitet durch User
von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?


Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.