Für eine Serveranwendung benötige ich eine SATA-Festplatte. Kapazität und Geschwindigkeit sind - gemessen an dem was heute Standard ist - eher unwichtig. Mir geht es hauptsächlich um eine lange Lebenszeit im Dauerbetrieb ... welche Hersteller bzw. Typen sind da besonders zu empfehelen? Diese Hybridplatten? Danke für Tips.
Wenn jemand ne SSD kauputbekommt, dann will ich das sehen. Das sollte die Mechanischrobusteste möglichkeit sein. Ist schnell, stromsparend und langlebig, wenn nicht rammelvoll.
Wie ist das mit den Überschreibzyklen? Eine SSD besteht doch aus Flash-Zellen, oder? Meine Anwendung ist eine Art Verteiler bzw. Zwischenpuffer für viele Clients zu einer großen DB. Es wird zwar nicht viel geschrieben und es muss auch nicht wahnsinnig schnell sein, dafür aber mehr oder weniger ständig. Und auch gelöscht bzw. geändert ...
Ich würde sagen: Hitachi HTE725050A9A364 http://www.hitachigst.com/internal-drives/mobile/travelstar/travelstar-7k500
DerAlbi schrieb: > Wenn jemand ne SSD kauputbekommt, dann will ich das sehen. Die ersten im Umfeld sind schon am sterben, sie wurden dummerweise von den Leuten benutzt... Frank Esselbach schrieb: > Mir geht es hauptsächlich um eine lange Lebenszeit im > Dauerbetrieb ... welche Hersteller bzw. Typen sind da besonders zu > empfehelen? Deine Wahl ist egal. Entweder hast Du Glück oder Pech. Das ist leider so geworden.
Ein RAID Verbund mit einem Controller, der die Fehlerrate der Platte überwacht und rechtzeitig eine Warnung ausgibt. Dann neue Platte rein, alte raus: Betrieb und Verfügbarkeit 100%. Wenn mehr gelesen als geschrieben wird, kann mehr Cache sinnvoll sein.
Jörg Hermann schrieb: > kann mehr Cache sinnvoll sein Cache ist immer gut, solange NOCH Strom da ist und die Stützbatterie des Controllers noch gesund ist, da durch ausreichend Cache sinnloser Aktionismus auf der HD reduziert werden kann. 1.HD spiegeln UND regelmäßiges Backup (was an einem sicheren Ort gelagert wird) könnte nützlich sein. Denn auch die beste HD ist nicht gegen Feuer, Wasser, Fall oder Verlust zu 100% geschützt. 2.Auch Controller und Netzteile haben ein endliches Leben! Nimm 2 HDs gleichen Typs, unterschiedlicher Charge und spiegle sie. Nicht jede HD ist für jeden Controller optimal. Softfehler kommen ungünstigerweise durchaus vor, werden aber oft erst (zu) spät (wenn es viele sind) bemerkt. Siehe S.M.A.R.T.
Frank Esselbach schrieb: > Für eine Serveranwendung benötige ich eine SATA-Festplatte. Kapazität > und Geschwindigkeit sind - gemessen an dem was heute Standard ist - eher > unwichtig. Mir geht es hauptsächlich um eine lange Lebenszeit im > Dauerbetrieb ... welche Hersteller bzw. Typen sind da besonders zu > empfehelen? Diese Hybridplatten? Danke für Tips. Komische Frage... Du wendest Dich an die Hersteller Deines Vertrauens und schaust Dir deren Angebote in der Rubrik "Serverplatte" an. Nein, das ist nicht unbedingt SATA, aber heutzutage koennte das schon auch möglich sein. Und ja, die Teile kosten im Vergleich ein Vermögen. Features wie 5 Jahre Garantie und Dauerbetriebsfestigkeit wollen bezahlt werden. 20 Jahre halten die trotzdem nicht.
tausch die platte einfach jedes jahr aus, ist sicher billiger. gute kühlung verlängert die lebensdauer auch!
Böser Fehler. Google hat mal was zur Optimaltemperatur von handelsüblichen Festplatten gesagt. Die wissen das definitiv, mit deren Datenbeständen. War irgendwas um die 35 °C.
Er es nachlesen möchte: ComputerBase hat das mal nett zusammengefasst. http://www.computerbase.de/news/allgemein/studien/2007/februar/studie-zur-lebensdauer-von-festplatten/ Wichtig ist die Temperatur tatsächlich erst bei Langzeitanwendungen. Die ersten drei Jahre scheinen unkritisch zu sein, weil da einfach alle anderen Faktoren wie Produktionsmängel etc. überwiegen.
Die HD-Ausfälle sind entweder in den ersten Tagen schon beim Formatieren oder öfter nach Jahren wenn die Garantie abläuft oder wenn die HD herunterfällt. VOR dem Kauf schadet es nicht, zur Kontrolle mal genau nach Problemen oder Firmwareupdates des jeweiligen Typs zu suchen. Montag ist überall auf dieser Welt.
Testfall schrieb: > War irgendwas um die 35 °C. Das ist schon relativ kühl. Im PC erreicht man solche niedrigen HDD-Temperaturen nur, wenn die Platte im Luftstrom liegt oder aktiv gekühlt wird. In vielen Rechnern, auch von großen PC-Herstellern, ist dies aber nicht der Fall. Ich habe schon oft welche in den Fingern gehabt, bei denen man die Platten nach einiger Laufzeit nicht mehr anfassen konnte, ohne sich die Finger zu verbrennen. Am besten kauft man Platten mit geringer Leistungsaufnahme, die werden erst gar nicht so warm. Im Rechner möglichst weit unten einbauen. Geräuschdämpfer verringern zwar die Schallemission, isolieren aber auch thermisch. Besser direkt mit dem Blechgehäuse verschrauben, das dient dann als Kühlkörper. Zur Not mit einem langsamdrehenden Lüfter (1000-1500 Rpm) aktiv kühlen. Ich habe in den letzten zwei Jahren gute Erfahrungen mit WD gemacht. In Servern verbaue ich nur noch die Raptors. Die kommen mit ihrer Performance sogar in die Nähe von schneller drehenden SAS-Platten, begnügen sich aber mit der halben Leistungsaufnahme (ca. 6 Watt).
Die Platte(n) soll(en) in ein Supermicro-Barbone (19"-Gehäuse, 1 HE, passiv gekühltes Intel-Atom-Board). Die Platten befinden sich also neben dem Mainboard und nicht darüber, so dass sie nicht zusätzlich geheizt werden. Ich neige inzwischen zu der Idee, eine "normale" Platte als aktives Arbeitslaufwerk zu benutzen und eine kleine 32 oder 64 GB SSD für periodische Backups ...
Frank schrieb: > und eine kleine 32 oder 64 GB SSD für periodische Backups ... Der Sinn erschließt sich mir nicht. Warum Backups (bei deren Erstellung es nicht primär auf Geschwindigkeit ankommt) auf einem sehr teuren und platzmäßig beschränkten Medium anlegen? Backups sind nur dann sinnvoll, wenn sie mit Redundanz erfolgen, also auf mehreren Medien, und da bieten sich extern angeschlossene Festplatten an.
Rufus Τ. Firefly schrieb: > bieten sich extern angeschlossene Festplatten an. Ack. Für Backups sind externe Medien das einzig Sinnvolle. Zur Sicherstellung der Verfügbarkeit zwei normale Platten als RAID1-Verbund und gut is. Bei aureichendem Budget meinetwegen auch zwei SSDs.
Vielleicht sollte man zwei Platten gleichen Typs für den möglichen Ausfall des Plattencontrollers kaufen? Geht vielleicht nicht mit jedem Typ. Ausfälle durch Fehlbehandlung oder Sterben externer Komponenten wie Netzteil, sind nicht ungewöhnlich.
SSDs sind leider nicht wirklich langlebig - auch flashspeicher haben maximale zugriffsanzahlen - für sowas doch lieber alte Magnetische HDDs mit möglichst breitem Schreib-lesekopf.
Man sollte ohne die genaue "Belastung" der "Server-Festplatte" zu kennen nicht grundsätzlich zu einer klassischen HDD raten. Beide haben Vor- und Nachteile. Für schreibintensive Anwendungen sind sicherlich noch HDDs vorne. Aber HDDs geben aus mechanischen Gründen (auch 24/7 HDDs für industrial Anwendungen) nach einigen Jahren den Geist auf. Wenn man genau weiß wie viel Daten pro Zeiteinheit auf die Festplatte geschrieben werden kann man mit den technischen Daten der SSDs schon ganz ordentliche Überschlagsrechnungen Anstellen um etwa die Lebensdauer zu ermitteln. Für schreibintensive Anwendungen sind auf jeden Fall SLC SSDs vorzuziehen, da diese etwa 100k Schreib/Löschzyklen pro Zelle aushalten. MLC-SSD (also die günstigeren) für ~1,6€/GB schaffen ~5-10k Zyklen. Das hört sich erstmal wenig an, aber für "normale" Anwendungen dürfte die durchschnittliche Lebenserwartung höher sein, als die einer HDD. Die kommt vor allem durch das Wear-Leveling (also die gleichmäßige Verteilung der Schreib/Löschzugriffe auf Flash-Zellen). Ein weiterer entscheidener Faktor ist der "amplification-factor". Dieser Faktor beschreibt die "durchschnittliche Schreibeffizienz". Wenn z.B. eine kleine Datei mit 4KB geschrieben wird, so wird im normalen Fall ein gesamter Flash-Block für jeden 4 KB Schreibzugriff gelöscht. Wenn also viele kleine Schreibzugriffe Stattfinden kann dieser Faktor auf 32 ansteigen, was also bedeutet, dass von den spezifizierten 10k Schreib/Löschzyklen nur noch 1/32 übrig bleibt. ABER, die aktuellen "intelligenten" SSDs sammeln diese kleinen Datenhäpchen und fassen diese in einen "großen" Schreibzugriff zusammen. Durch diesen Mechanismus sinkt bei den Intel SSDs der amplification-factor auf 1.1 (also fast Ideal). Wenn man also z.B. 20GB pro Tag an Daten schreibt (was für den Desktop-Betrieb praktisch unmöglich ist), dann werden lediglich ~550 Schreib/Löschzyklen IN 5 JAHREN der gesamten SSD "verbraucht". Und es ist auch nicht so, dass nach den 10k Schreibzyklen die Festplatten einfach kaputt gehen... der Flash-Speicher kann immer gelesen werden. Wenn mal ein Block kaputt geht, dann merkt die SSD das und ersetzt automatisch diesen defekten Block durch einen heilen, ohne dass Daten verloren gehen. Die SSDs haben dafür 10-20% an Spare vorgesehen. Eine Intel 320 Serie mit 300 GB hat z.B. 20 GB an Spare-Speicher. Und wieviel davon schon verwendet werden, kann man sich jederzeit über die SMART-Daten anzeigen lassen. Alles in allem schon eine recht feine Sache. Ich habe auch schon seit etwa einem Jahr eine SSD (OCZ Vertex 2) mit Win7 drauf. Täglich in Betrieb und "Drive Fitness" ist noch bei 99% (war von Anfang an so). Ich hatte zur "Anfangszeit" von SSDs mal eine 32 GB OCZ SSD gut 3 Wochen, 24/7 mit voller Geschwindigkeit beschrieben, und es waren keinerlei Probleme erkennbar. Heutzutage sind die SSDs natürlich gut 4-5x schneller, aber dennoch würde ich mir da keine Gedanken machen. Hinzu kommt eben noch, dass die SSD wesentlich resistenter gegen höhere und niedrigere Umgebungstemperaturen und Schock/Vibrationen sind. Wo aktuelle 2,5" industrial Festplatten auch schon eine "0g-Erkennung" haben (also einen Sturz oder zu starke Beschleunigung detektieren und den Lese/Schreibkopf in Ruheposition fahren), schreiben SSD munter mit voller Geschwindigkeit ohne Datenverlust weiter.
Teile deiner Beschreibung gelten allerdings auch für mechanische Festplatten.
Welche meinst du genau? Achso du meinst das Austauschen defekter Sektoren, richtig das machen HDDs auch. Es steckt aber weniger Intelligenz dahinter. Und man hat eben den Nachteil, dass bei HDDs ein defekter Sektor bereits vorhandene Daten zerstört während bei SSD bei "ausgelutschten" Blöcken die Daten weiterhin lesbar bleiben, und somit ohne Datenverlust auf einen Spare-Block umkopiert werden können.
Timmo H. schrieb: > Ich habe auch schon seit etwa einem Jahr eine SSD (OCZ Vertex 2) mit > Win7 drauf. Täglich in Betrieb und "Drive Fitness" ist noch bei 99% (war > von Anfang an so). Aha. Und du meinst, das macht deine Erfahrungen jetzt allgemeingültig und repräsentativ? Theoretisch ist immer alles hübsch, die Praxis sieht meist ganz anders aus. Im Web findet man so gut wie keine Berichte über echte Langzeiterfahrungen unter realen Bedingungen. Bei Serveranwendungen stehen Verfügbarkeit und Datensicherheit noch immer weit vor Geschwindigkeit. Schnell sind die SSDs, aber solange ihre Zuverlässigkeit über lange Zeiträume im praktischen Einsatz nicht bewiesen ist, würde ich sie in produktiven Servern nicht einsetzen. > Aber HDDs geben aus mechanischen Gründen (auch 24/7 HDDs für industrial > Anwendungen) nach einigen Jahren den Geist auf. Meine praktischen Erfahrung nach ist das nicht grundsätzlich so. Ausfälle kommen gelegentlich vor, stehen aber selten im Zusammenhang mit der Laufzeit. Fast immer werden die Server aufgrund des technischen Fortschritts ausgetauscht, weit bevor die Festplatten altersbedingt sterben. Fünf Jahre 24/7-Betrieb sind bei hochwertigen Platten überhaupt kein Ding.
Icke ®. schrieb: > > Aha. Und du meinst, das macht deine Erfahrungen jetzt allgemeingültig > und repräsentativ? Habe ich nie behauptet. Ist bei HDDs aber auch so. Der eine hat nie Probleme, beim anderen fallen der reihe nach die HDDs aus. IBM hatte auch mal so eine 40GB Serie (davon habe ich hier noch 5 liegen) welche oftmals nur wenige Wochen gehalten haben > Meine praktischen Erfahrung nach ist das nicht grundsätzlich so. > Ausfälle kommen gelegentlich vor, stehen aber selten im Zusammenhang mit > der Laufzeit. Fast immer werden die Server aufgrund des technischen > Fortschritts ausgetauscht, weit bevor die Festplatten altersbedingt > sterben. Fünf Jahre 24/7-Betrieb sind bei hochwertigen Platten überhaupt > kein Ding. Ist nicht zwangläufig so. In meiner Firma müssen die Festplatten bis zu 10 Jahre durchhalten ohne ausgetauscht zu werden. Dies sind auch hochwertige 24/7 Platten (teilweise auch automotive), aber auch hier verrecken einige nach 3-5 Jahren. Google hat ja in der Langzeitstudie gezeigt, dass die meisten Festplatten entweder in den ersten 3 Monaten oder zwischen 3-5 Jahren ausfallen: http://labs.google.com/papers/disk_failures.pdf
Timmo H. schrieb: > Ist nicht zwangläufig so. In meiner Firma müssen die Festplatten bis zu > 10 Jahre durchhalten ohne ausgetauscht zu werden. Bist Du Dir da sicher? HDDs sind i.A. für 5 Jahre Nutzungsdauer konzipiert. Da sind 10 Jahre recht träumerisch. Also sparen am falschen Ende, wenn man da bis zum Ausfall wartet.
Klar bin ich sicher. Wir müssen unsere Geräte sogar 20 Jahre supporten, da einfach mal eine größere Festplatte zu nehmen geht nicht immer. Bei uns werden Notfalls sogar tausende von Festplatten auf Lager gelegt und diese dann in regelmäßigen Abständen kurzzeitig betrieben, damit die Lager und andere Komponenten nicht kaputt gehen. Wenn ein Kunde vor 10 Jahren eine System mit viel Speicher haben wollte, mussten halt HDDs genommen werden, da gabs halt keine andere Alternative. Darum kommen uns in unserer Branche die SSD gerade gelegen. Und wir setzen schon einige Flashspeicher (z.B. Compact-Flash) seit weit über 10 Jahren ein, welcher zu derzeit noch gar kein Wear-Leveling hatten... bisher ohne großartige Ausfälle.
Timmo H. schrieb: > Welche meinst du genau? > Achso du meinst das Austauschen defekter Sektoren, richtig das machen > HDDs auch. Es steckt aber weniger Intelligenz dahinter. Und man hat eben > den Nachteil, dass bei HDDs ein defekter Sektor bereits vorhandene Daten > zerstört während bei SSD bei "ausgelutschten" Blöcken die Daten > weiterhin lesbar bleiben, und somit ohne Datenverlust auf einen > Spare-Block umkopiert werden können. Ich finde es erstaunlich, das du auf der einen Seite so viel über SSD weißt, andererseits aber wenig über herkömmliche Festplatten. Du kommst auch nicht auf die Idee, das die Hersteller natürlich möglichst für beide Systeme die gleiche Technologie verwenden wollen - denn Entwicklung kostet. Mechanische Festplatten tauschen die Sektoren bereits dann aus, wenn diese anfangen müde zu werden. Die Fehlerwahrscheinlichkeit kann in der Fehlerkorrekturschaltung gemessen werden. Erst treten Softfehler auf, die noch korrigiert werden, später erst harte Fehler. Für den Austausch befinden sich in jeder Spur extra noch einige ungenutzte Sektoren, damit der Kopf nicht unnötig bewegt werden muß. Außerdem wenn es ganz krass kommt, werden Sektoren aus Reservespuren benutzt. Der Kopf macht also dann einen kurzen Schwenker. Das ist der Stand vor ca. 15 Jahren. Vielleicht ist man mittlerweile noch weiter. Könnte mir vorstellen, das die Platte im Hintergrund dann auch unbemerkt ganze Sektoren verschiebt, um die Performance wieder herzustellen. Außerdem gibts es seit Jahren noch Flash in den Platten, der u.a. die Kopfdaten der Sektoren beeinhaltet. usw. Deinen Masterfx wirst du in fx ändern müssen.
Abdul K. schrieb: > > Mechanische Festplatten tauschen die Sektoren bereits dann aus, wenn > diese anfangen müde zu werden. Das ist ein Fall, der aber nicht immer Eintritt. Klar ist mir das mit den Sektorenaustausch, Erkennung bekannt, aber das ist eben nicht alles was zählt. Oftmals gehen Sektoren auch durch einen leichten Head-Crash kaputt, da bringt dir die Erkennung einer vorzeitigen Ermüdung rein gar nichts. Des weiteren gehen die Lager auch mit der Zeit kaputt. In der Anfangszeit der "Flüssigkeits-Lager" gab es z.B. Probleme, dass diese "Flüssigkeit" ausgast (bei längerer Lagerung) oder verharzt (bei Dauerbetrieb). Das hatte ich selbst zu Hause schon einige Male. Eine Festplatte die gut 3 Jahre in einem Server eingebaut war (der nie abgeschaltet wurde) sprang nicht mehr an, weil diese nicht mehr auf die Nenndrehzahl gekommen ist. Andersrum läuft eine Festplatte (gleiches Modell), die 6 Stunden im Nachtbetrieb abgeschaltet war seit nunmehr 6 Jahren weiterhin Problemlos. Die Ausfälle von Festplatten sind ja nicht nur den defekten Sektoren zuzuschreiben sondern meist einfach durch die allgemeine mechanische Belastung, der Lager, Lesekopf etc. Die meisten Ausfälle die wir bisher beobachten konnten, sind auf Lagerschäden zurückzuführen. Gefolgt von defekten Sektoren, die eben nicht automatisch durch die Festplattenlogik ersetzt wurden (obwohl laut Smart-Daten) alles OK war. Vielleicht solltest du dein Abdul auch ändern, oder wessen Diener bist du?
Das Problem sind die entsprechenden Patente, die die Weitergabe guter Ideen verhindern. Da muß ich MaWin leider voll Recht geben. Auch wenn ich auch ein Patent habe. Daher wird es wohl bessere und schlechtere Plattenhersteller geben. Was man von außen aber schlicht nicht sehen kann, höchstens durch aufwändige Tests und Statistiken. Bei IBM wurde z.B. mal die ganze Fertigung von Fachkräften auf 1 Euro-Jobber umgestellt. Das waren Leute, die kaum deutsch konnten. 1 Euro-Leute hießen die damals aber noch nicht, das Arbeitsamt hing aber schon voll drin... Gerne wurden deutschstämmige aus der Sowjetunion eingestellt. Nun ja. Damit ihr Kunden mal einen Eindruck bekommt, wie euer Geld ver<sch>wendet wird. lol Klar dürfte sein, das die Qualität ordentlich schwanken kann <grinsend vorm PC> Das Verharzen gab es nur in der Zeit der klassischen Lager. Die Flüssigkeitsgelagerten haben das Problem nicht mehr. Die Magnetschicht ist übrigens auch irgendwann tot, genauso wie bei den SSD gibt es einen Ermüdungseffekt im Magnetismus. Was sehr wichtig ist, ist die Oberflächenqualität der Platte. IBM hatte dafür Glasplatten entwickelt. Ja, man merkt, ich war da irgendwie beteiligt. Momentan ist eigentlich nur noch der Kopf samt Antrieb und externe Einwirkung z.B. Schlag ein Problem. Ein Diener bin ich nicht mehr, denn ich habe keinen Arbeitgeber mehr. Ich diene höchstens meiner Frau oder dem Nachwuchs als Papasklave. Mich stören eigentlich nur noch Behörden oder dümmliche Ansagen.
Abdul K. schrieb: > Mechanische Festplatten tauschen die Sektoren bereits dann aus, wenn > diese anfangen müde zu werden. Die Fehlerwahrscheinlichkeit kann in der > Fehlerkorrekturschaltung gemessen werden. Theoretisch ja, aber praktisch hatte ich auch schon Fehler, wo minütlich neue Softfehler hinzukamen bis bei 128 Softfehlern das System dann keine Lust mehr hatte. Erinnern möchte ich auch noch an Controllerfehler alter 20GB-Platten, die wie wir Palettenweise tauschen mußten... Montage gibt es überall.
Das erinnert mich an die IDE-Steckfassungen, die zur Einfachheit bei der Bestückung schlicht auf JEDER Längsseite einen Schlitz für die Nasung hatten. Toll.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.