Halli ich habe mal eine frage ist es möglich ein raid controller selber zubauen also gibt es ein ic dafür oder was ähnliches und was brauche ich dafür noch ?
Naja. Du benoetigst ein Interface du den Drives. Bei SATA wird das wahrscheinlich mit einem FPGA und einem Treiber passen. Dann benoetigst du einen Controller, der die Daten durchschaufelt und die Programmlogik abspult. Und dann ? Was soll mit den Daten geschehen ? Also nochmals ein Interface, diesmal zum PC. Der Controller der diese drei interfaces managed sollte schon etwas Dampf haben. Die Daten wuerd ich mit dem FPGA bearbeiten, und nur die Kontrollfunktionen dem Controller geben.
Wozu? Anständige OS können RAID in Software. Und für Spielzeug dürftest Du schon an der nötigen Treiber Entwicklung scheiten - vom HF Platinenlayout für PCIe und Co. ganz zu schweigen. Leute die sowas entwerfen können sind auch in der Lage die Suchfunktion eines Distributors zu bedienen. Und wieso nimmt man nich einfach einen aus dem Regal (Off-the-shelf) bei Fachhandel?
Niklas L. schrieb: > Ist es möglich einen RAID-Controller selber zu bauen? Als Holzmodell sicher kein Problem. RAID ersetzt kein Backup! https://de.wikipedia.org/wiki/RAID
Niklas L. schrieb: > Halli ich habe mal eine frage ist es möglich ein raid controller selber > zubauen Es ist möglich. Aber angesichts der Tatsache, daß du eine solche Frage in einem Forum wie dem hiesigen stellst und angesichts deiner Recht- schreibung: du kannst so etwas ganz sicher nicht selber bauen. Andererseits stammen Hardware RAID-Controller aus der Kreidezeit der Computertechnik. Ähnlich wie die Dinosaurier sind sie ausgestorben (bzw. die Überlebenden haben kaum noch Ähnlichkeit mit ihren Vorfahren). RAID läßt man heute besser die Host-CPU machen. Die hat im Zweifel mehr RAM für den Stripe-Cache und weiß vor allem besser, was in Kürze noch gelesen bzw. geschrieben wird. Dank SIMD-Erweiterungen in den Befehlssätzen moderner CPU sind auch die low-level Operationen für das RAID in Software schneller als sie in dezidierter Hardware je waren.
Wer bloß einen speziellen HW-Contoller hat, ist im Störfall arm dran. Er muß den GLEICHEN HW-Typ wieder einsetzen. Single Point of Failure:https://de.wikipedia.org/wiki/Single_Point_of_Failure
Damals™ auf einem AthonXP war ein RAID5 in Software irre lahm. Dann auf einem Core2 wurde es etwas besser, war aber immer noch lahm. Jetzt habe ich hier ein Celeron g1610t er sogar ECC kann mit ZFS in einem HP Microserver und das Ding ist irre schnell. Hätte nicht gedacht dass Gigabit Ethernet zum Flaschenhals wird.
Gustl B. schrieb: > Damals™ auf einem AthonXP war ein RAID5 in Software irre lahm. NetApps NAS Systeme verwenden schon sehr lange Software-RAID auf ganz gewöhnlicher Intel-Hardware. Und auch schon seit langem als RAID-DP (vgl RAID-6).
Ja, aber mittlerweile geht das eben auch in schnell, früher so vor 15 Jahren lag der Durchsatz schreibend bei unter 10MB/s. Also bei meinem AthlonXP mit 4 IDE Platten. Da hat sich krass viel getan. Selbst im Smartphone diese Flash Steine schreiben und lesen mit mehreren hundert MB/s. Das die Zukunft so schnell vorangeht hätte ich nie gedacht. Aber dazu ein schickes Bildchen https://media4.s-nbcnews.com/j/newscms/2016_15/1052066/today-ai-chart-3-160416_ae9fb07386a27f1573887d781d8ff03c.today-inline-large.jpg von http://waitbutwhy.com
Eher nicht. Selbst wenn es solche Chips gibt, wirst du sie nicht bekommen. Der Grund ist, dass PC-Elektronik Consumerkram ist. Den gibts in irren Stückzahlen zu kaufen, aber nicht einfach so auf dem freien Markt zu bekommen. Man müsste ers mal einen Hersteller finden. Und der wird dir dann erzählen, was mir Broadcomm erzählt hat: Ich "wir bräuchten 10k WLAN-Chips pro Jahr, welchen können Sie anbieten?" Die "So wenig machen wir generell nicht" Ich "kann ich ein Datenblatt bekommen?" Die "Nein" Ein Distrie hat mir dann gesagt, das ist so üblich. Also: Selbst wenn du einen handlötbaren Chip findest, wirst du wahrscheinlich weder Datenblätter noch Chip bekommen. Glück hast du nur dann, wenn TI oder ein anderer eine Industrielösung anbietet. Deine beste Chance für einen Eigenbau wäre ein schneller Applikationsprozessor mit vielen SATA-Schnittstellen und GBIT-Ethernet, und daraus eine Art NAS bauen. Aber das wird hart, selbst ein i.MX6 hat zu wenige.
Gustl B. schrieb: > Ja, aber mittlerweile geht das eben auch in schnell, früher so vor 15 > Jahren lag der Durchsatz schreibend bei unter 10MB/s. Also bei meinem > AthlonXP mit 4 IDE Platten. Da war dann aber IDE der Flaschenhals, und vermutlich nicht korrekt auf UDMA konfiguriert oder mit 2 Platten pro Bus. Die CPU selber würde RAID5 mit Interface Geschwindigkeit selbst bei SATA noch mitmachen, jedenfalls unter Linux. IIRC war die default Konfig von IDE sehr auf Betriebssicherheit aus und erlaubte u.a. keine gleichzeitigen Zugriffe. Ohne Einsatz von hdprarm war das dann arschlahm...
Niklas L. schrieb: > Halli ich habe mal eine frage ist es möglich ein raid controller selber > zubauen also gibt es ein ic dafür oder was ähnliches und IC: Such dir hier eins aus: http://www.jmicron.com/product0207.html > was brauche ich > dafür noch ? Viel viel viel Wissen & Erfahrung. Vorschlag: Kauf dir ein fertiges RAID-Platinchen mit einem der oben verlinkten Chips (Ganze Platine MIT CHIP und allem Drum und Dran ist billiger als ein einzelner blanker Chip alleine, außer du kannst Samples abstauben) Diese Platine kannst du dann in ein schickes Laubsäge-Handarbeits-Selbst-MAKER-Gehäuse kleben. Fertig.
Axel S. schrieb: > Andererseits stammen Hardware RAID-Controller aus der Kreidezeit der > Computertechnik. Ähnlich wie die Dinosaurier sind sie ausgestorben Schon merkwürdig, dass Fujitsu das als Option ihrerr Server aktuell noch anbietet und es Kunden gibt, die das haben wollen. Vielleicht gibt es ja in der IT Dinge, die Du im Detail nicht verstehst?
Manfred schrieb: > Schon merkwürdig, dass Fujitsu das als Option ihrerr Server aktuell > noch anbietet und es Kunden gibt, die das haben wollen. Dell und HP haben auch noch Controller, aber der Kunde ist halt König, auch wenn er ein Depp ist. > Vielleicht gibt es ja in der IT Dinge, die Du im Detail nicht verstehst? Andersrum: Die Leute, die für ihren kleinen Serverchen (sagen wir mal so bis 10-15 Platten) noch einen HW-Raid-Controller kaufen wollen, verstehen nichts ;)
Georg A. schrieb: > Andersrum: Die Leute, die für ihren kleinen Serverchen (sagen wir mal so > bis 10-15 Platten) noch einen HW-Raid-Controller kaufen wollen, > verstehen nichts ;) Wie sieht bei dir die Konfiguration eines normalen und leidlich belasteten Windows-Servers für eine Oracle Datenbank aus, der deine darin eingebauten 10-15 Platten mit sinnvoller Disk-Redundanz ohne Hardware-RAID implementiert? Und zwar so, dass ein Plattentausch ohne Systemkonfiguration auskommt, nur raus/rein. Apropos: Das ist keine Scherzfrage, die ist völlig ernst gemeint.
A. K. schrieb: > Und zwar so, dass ein Plattentausch ohne Systemkonfiguration > auskommt, nur raus/rein. Das ist halt die Frage, ob man entweder viel Geld in die HW steckt und dafür billige Pantoffeltierchen als Wartungskräfte nutzen kann/will oder weniger Geld für die HW und für die vereinzelten Turnschuhadministrationseinsätze *) tatsächlich auch mal ein/der kompetente Admin zwei Kommandos oder Klicks absetzt... *) Wenn man nicht gerade völlig ins Disk-Klo gegriffen hat, passiert so ein Wechsel doch höchstens 1-2mal im Jahr. Beim kompetenten Admin ist auch die Gefahr etwas geringer, dass er "aus Versehen" zB. die falsche Platte rauszieht, sondern vorher nochmal kurz nachdenkt. Ja, schon erlebt, ist passiert trotz Indicator-Led. War ein (HW)-Raid5, das danach eben logisch keins mehr war. Das Pantoffeltierchen war sich keiner Schuld bewusst. Das Linux-SW-Raid6 schafft jedenfalls problemlos Werte >1GByte/s. Wir betreiben bei unseren Kunden nur solche Serverchen mit SW-Raids (insg. so ~400TB, alles Raid6), allerdings mangels 10GB-Ethernet immer nur mit 4*1GB-Trunks angebunden. Da laufen dann dutzende VMs, DBs, Webserver und ganz normale Fileserver (tw. 100 Arbeitsplätze) drüber, u.a. auch zwei kleinere 24/7-Radiosender direkt und indirekt auch eine sehr grosse Radio/Fernsehanstalt. Wenn man da etwas sinnvoll plant, ist das ein völlig entspannter Job. Meine Beobachtung bei "fremden" Installationen ist da oft, dass die Leute, die für sowas (ich rede nicht von RZ-Einsatz...) planen, ohne weitere Gedanken über ein Gesamtkonzept bzgl. Performance und Redundanz (die hört nicht bei der HW auf...) einfach nur das Teuerste im Dell/HP&Co-Konfigurator anklicken. Und dann meinen sie, dass ja nichts mehr passieren kann. Und auch die dabei en-passant mitbekommenen Havarien zeigen: Wenn bei denen was brennt, dann ist die K*cke wirklich am Dampfen. Und das lange... tldr: Ich bestreite nicht, dass es sinnvolle Einsätze von HW-Raids gibt. Nur sind die IMO inzwischen in einem Bereich angesiedelt, die mit solchen Serverchen aus dem Alltagsgeschäft nichts mehr zu tun haben.
Georg A. schrieb: > Das Linux-SW-Raid6 schafft jedenfalls problemlos Werte >1GByte/s. Weshalb ich wohlweislich um die Konfiguration eines Windows-Servers gebeten hatte. ;-) Ich hatte oben schon NetApp angeführt. Im NAS/SAN-System ist HW-RAID unnötig. Direkt in Servern eingebaut kann es schlicht den Job erleichtern. Die recht überschaubaren Zusatzkosten spielen dabei nicht unbedingt eine Rolle.
Georg A. schrieb: > Meine Beobachtung bei "fremden" Installationen ist da oft, dass die > Leute, die für sowas (ich rede nicht von RZ-Einsatz...) planen, Das kann auch so aussehen: Firma liefert eine Software-Lösung mitsamt Hardware-Vorschlag. Du stellst sie in Frage, definierst eine eigene, besser und billiger. Ergebnis: Für jeden Softwarefehler ist nun deine abweichende Hardware verantwortlich und natürlich ganz besonders für jedes Performance-Problem, egal welches.
A. K. schrieb: > Weshalb ich wohlweislich um die Konfiguration eines Windows-Servers > gebeten hatte. ;-) Oracle auf Windows, das ist ja kurz vor 6 mit Tieren... > Das kann auch so aussehen: Firma liefert eine Software-Lösung mitsamt > Hardware-Vorschlag. Du stellst sie in Frage, definierst eine eigene, > besser und billiger. Ergebnis: Für jeden Softwarefehler ist nun deine > abweichende Hardware verantwortlich und natürlich ganz besonders für > jedes Performance-Problem, egal welches. Das ist aber kein technischer Grund ;) Wenn das Management sich wg. Feng-Shui rosa gestreifte Server aufschwatzen hat lassen, kann man da nichts tun. Das sind dann aber auch Kunden, die wir dankend ablehnen. Es mag den normalen Admin freuen, dass er maximal viel Verantwortung an externe Firmen abgeben kann. Das ist aber nicht unbedingt ein Garant für Verfügbarkeit.
Georg A. schrieb: [...] > tldr: Ich bestreite nicht, dass es sinnvolle Einsätze von HW-Raids gibt. > Nur sind die IMO inzwischen in einem Bereich angesiedelt, die mit > solchen Serverchen aus dem Alltagsgeschäft nichts mehr zu tun haben. Wenn man für eine DB einen 16-Kanal-SAS-Controller haben will, dann ist das Angebot schon hinreichend dünn. Und der Preisunterschied zwischen mit/ohne RAID beim Gesamtpreis auch egal (15kRPM SAS-Platten sind auch nicht billig). Und auch wenn die Linux-Kiste das selbst machen könnte - eigentlich will ich die CPU für das DBMS haben (dafür wirft man ja so viel RAM rein) und nicht für Low-Level-I/O. Für alles was kleiner ist gilt aber tatsächlich: das kann ein modernes Motherboard, evtl. mit zusätzlicher einfacher SATA-Karte, im Zusammenspiel mit einem ordentliche Kernel auch so. Und was SPF betrifft: entweder man hat einen Ersatzcontroller liegen, nimmt ein hot standby System - oder es ist eigentlich egal. RAID soll nur die Schmerzen etwas lindern, wenn mal was kaputt geht. Sicherheit erreicht man durch Backup und Redundanz auf höheren Ebenen.
Ralf D. schrieb: > Und was SPF betrifft: entweder man hat einen Ersatzcontroller liegen, > nimmt ein hot standby System - oder es ist eigentlich egal. RAID soll > nur die Schmerzen etwas lindern, wenn mal was kaputt geht. Ich dachte immer, RAID soll die Verfügbarkeit erhöhen. Die ist aber ziemlich dahin, wenn du erstmal alles neu aufsetzten musst, weil du keinen Controller mehr hast, der auf die bestehenden Daten zugreifen kann.
Rolf M. schrieb: > Ich dachte immer, RAID soll die Verfügbarkeit erhöhen Das muss man halt getrennt sehen: erhöht wird die Verfügbarkeit bezüglich des Ausfalls einer Festplatte, dafür handelt man sich den Failure Punkt Raid Controller ein. Das könnte man mit den Ausfallwahrscheinlichkeiten gegeneinander aufrechnen - wenn man sie wüsste. Natürlich kann auch jede andere Platten-Schnittstelle kaputtgehen, aber die ist gegen eine fast beliebige andere austauschbar ohne Datenverlust. Georg
Rolf M. schrieb: > Ralf D. schrieb: >> Und was SPF betrifft: entweder man hat einen Ersatzcontroller liegen, >> nimmt ein hot standby System - oder es ist eigentlich egal. RAID soll >> nur die Schmerzen etwas lindern, wenn mal was kaputt geht. > > Ich dachte immer, RAID soll die Verfügbarkeit erhöhen. Die ist aber > ziemlich dahin, wenn du erstmal alles neu aufsetzten musst, weil du > keinen Controller mehr hast, der auf die bestehenden Daten zugreifen > kann. Höhere Verfügbarkeit = geringere Schmerzen :-) Du mußt eh auf einen Totalverlust des Systems vorbereitet sein, deshalb nimmt man ja auch noch Redundanz auf höherer Ebene hinzu, wenn es wirklich wichtig ist (d.h. wenn der Ausfall teurer wäre als die zusätzliche Hardware). BTDT, redundante Datenbankmaschinen, die selbst natürlich RAID und mehrfache Stromversorgung hatten. Aber RAID und redundante PSU helfen nicht, wenn dir das Motherboard verreckt (oder eine versterbende SSD daran zu einem Lockup des internen SATA-Controllers führt und damit ein Power-Cycling erzwingt). Wenn du ein paarmal so etwas erlebt hast, dann siehst du das alles nur noch als schmerzreduzierende Maßnahmen an ... ;-)
Georg A. schrieb: > Das ist aber nicht unbedingt ein Garant für Verfügbarkeit. Nö, eindeutig nicht. Aber die Software wird für gewöhnlich von den Anwendern ausgesucht. Die IT darf das dann umsetzen. ;-)
Rolf M. schrieb: > Ich dachte immer, RAID soll die Verfügbarkeit erhöhen. Tut es auch, aber es gibt nicht nur eine Stufe von höherer Verfügbarkeit. > Die ist aber ziemlich dahin, wenn du erstmal alles neu aufsetzten > musst, Ein Archiv-Server ist aufgrund der damit oft verbundenen Kapazität ohne RAID schwer vorstellbar. Die meisten Ausfälle werden dadurch und durch einen Hardware-Servicevertrag abgedeckt. Wenn so ein Server mal 1-2 Tage weg ist überlebt man das recht gut. Nervt etwas, wenn es mehr wird, weil kein HW- sondern SW-Defekt, aber immer noch nicht produktionsgefährdend. Für produktionskritische Services ist das freilich oft nicht ausreichend. Aber da gibts dann auch Lösungen. Bis hin zu Replikation über mehrere Gebäude oder gar Standorte. Ist eine reine Kostenfrage, Aber eben deshalb legt man den Archivserver nicht auf dieses HA-System. Dessen TB ist zu teuer. Und damit ergeben sich eben Systeme abgestufter Verfügbarkeit.
nach Experimenten mit RAID 0 -> fast Totalverlust und Raid5 Totalverlust tendiere ich nun zu RAID6 aber in einem freeNAS System, auf Herstellerlösungen mit kaputten Controllern Adaptec und inkompatiblen SW Stand innerhalb einer Baureihe Qnap habe ich keine Lust mehr. Ich weiss RAID ersetzt kein Backup, aber unter 4 Wochen alt darf ein Controllerausfall nicht passieren.
Joachim B. schrieb: > tendiere ich nun zu RAID6 Ist Stand der Technik. Zumal bei grösserer Anzahl Disks.
Ralf D. schrieb: >>> Und was SPF betrifft: entweder man hat einen Ersatzcontroller liegen, >>> nimmt ein hot standby System - oder es ist eigentlich egal. Oder man verwendet gleich ein dediziertes System welches über zwei redundante Controller verfügt. Das sollte dann aber auch redundant an den Host angebunden sein. Ja, RAID6 sollte Standard sein, und auch mind. eine Hot-Spare Platte konfigurieren. Back-to-Topic: Einen RAID-Controller selber bauen würde ich nicht. Da steckt viel Erfahrung und Know How der Hersteller drin; mal einen CHIP auf eine Platine löten und die Platten anklemmen funktioniert nicht. -> Fertig kaufen. Gruss NormalZeit
Zumal ausgemusterte Areca Controller für kleines Geld zu haben sind und Areca Controller im Gegensatz zu Adaptec und anderem Schrott einfach funktionieren, defekte Raids gut reparieren können im Betrieb nicht kaputt gehen und über alle Generationen die alten Raid lesen können. Wer Verantwortung für Server übernimmt und am Controller spart ist imho mit dem Klammerbeutel gepudert. Ist wie mit Streamern es gibt wirklich viele Kunden die glauben Festplattenbackup reicht bis...... mfG Michael
Michael O. schrieb: > Areca Controller im Gegensatz zu Adaptec und anderem Schrott Die haben schon einen guten Ruf, aber persönlich hat mich Areca jetzt auch nicht so umgehauen. Der, den wir mal übernommen haben (188x), hat nach jedem Boot (nicht nur Powerup, da könnte ich es noch verstehen) ~40s gebraucht, bis seine FW initialisiert war. Und da war die Plattenerkennung noch nicht mal dabei. Ja klar, einen Reset sollte man selten machen, aber gerade bei der Einrichtung und Failover-Tests ist so ein Verhalten schon echt lästig. Nach einem FW-Update hat er nochmal 5s länger gebraucht... An die Performance bei Raid6 kann ich mich nicht mehr genau erinnern, nur dass er als dummer JBOD-Controller mit SW-Raid6 eine Ecke schneller war, daher blieb er dann JBOD. Wenn eine Intel-CPU was schnell kann, dann ist es XOR ;) Und sollte der Areca mal sterben, gibts einen günstigen HBA mit LSI-Chip und das Leben geht ohne Beschaffungspanik einfach weiter.
A. K. schrieb: > Georg A. schrieb: >> Andersrum: Die Leute, die für ihren kleinen Serverchen (sagen wir mal so >> bis 10-15 Platten) noch einen HW-Raid-Controller kaufen wollen, >> verstehen nichts ;) > > Wie sieht bei dir die Konfiguration eines normalen und leidlich > belasteten Windows-Servers für eine Oracle Datenbank aus, der deine > darin eingebauten 10-15 Platten mit sinnvoller Disk-Redundanz ohne > Hardware-RAID implementiert? Wer einen Datenbank-Server mit Windoze als Betriebssystem aufsetzt, der will doch von vornherein keine Performance. > Und zwar so, dass ein Plattentausch ohne > Systemkonfiguration auskommt, nur raus/rein. Mit Windows geht das wohl nicht. Nimm halt ein richtiges Betriebssystem. Und nein, das muß beileibe nicht Linux sein. ich glaube, jedes andere Betriebssystem kann das besser als Windows. > Apropos: Das ist keine Scherzfrage, die ist völlig ernst gemeint. Klar doch. Du warst bloß 32 Minuten zu spät ;) In einem früheren Leben als Admin einer mittelgroßen Webklitsche habe ich auch noch mit Begeisterung RAID-Controller verbaut. Das wurde exakt mit dem Wechsel von Lilo zu Grub unnötig, denn Grub konnte dann auch von einem degradeten RAID-1 booten. Abgesehen davon geht die ganze Hardware-Magie rund um RAIDs und Platten (rotierender Rost) gerade den Bach runter. In 10 Jahren ist alles außer dem Archiv Flash. Mit ganz eigenen, neuen Problemen (und den dazugehörigen Lösungen).
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.