Forum: PC Hard- und Software 19 Zoll Server Eigenbau


von hardwarebastler (Gast)


Lesenswert?

Ich wollte einen Server im 19 Zoll - Gehäuse selber zusammenstellen. Das 
Angebot an leeren 19-Zoll Gehäusen für den Eigenbau ist bei den üblichen 
Versendern sehr überschaubar, und auch E-Bay sieht es nicht viel besser 
aus.

Mir ist aufgefallen, dass sämtliche 19-Zoll Leergehäuse dem Aufbau eines 
klassischen Desktop folgen (Platten, DVD etc. vorne, Platine hinten mit 
Anschlüssen zur Rückseite. Im 19 Zoll Schrank hätte ich aber lieber die 
Netzwerk- und sonstigen Buchsen vorne, da auch Switch und Patchpanel auf 
dieser Seite enden.

Gibt es denn technische Gründe, welche gegen einen solchen Aufbau 
sprechen? Fertige Server z.B. bei Krenn bekommt man ja auch mit 
Netzwerkbuchsen vorne.

Kann mir jemand vielleicht einen Hinweis auf irgendwelche 
Spezialversender geben, bei denen die Auswahl an Rack-Gehäusen größer 
ist?

LG hardwarebastler

von SR (Gast)


Lesenswert?

Die Anschlüsse sind für gewöhnlich hinten, weil vorne die Platten zum 
Hot-Swappen sitzen. Denn da muss man öfter ran, als an das Netzwerkkabel 
(nie). Die werden einfach von hinten nach vorne durchgeführt.

Bei Thomas Krenn ist mir auf Anhieb auch kein Server bekannt der die 
Buchsen vorne hat.

Allerdings kenn ich das von diversen Routern (oder auch "Servern" die 
als Router herhalten sollen: da sind dann 4..X Netzwerkbuchsen vorne).

Was ist denn dein angepeilter Verwendungszweck?

von Peter II (Gast)


Lesenswert?

hardwarebastler schrieb:
> Gibt es denn technische Gründe, welche gegen einen solchen Aufbau
> sprechen? Fertige Server z.B. bei Krenn bekommt man ja auch mit
> Netzwerkbuchsen vorne.

würde ich umständlich finden, man muss der Server ja nach vorne 
rausziehen können, wenn dort alles Kabel rumhängen wird das schwerer.

Oft hat man sogar Teleskopschienen, wo die Kabel an einem Schwenkarm 
geführt werden, damit den Server rausziehen und Hot-Plug von Komponenten 
machen könnte. USB und Monitor machen vorne sinn, falls man wirklich mal 
auf die Konsole schauen muss.

von SR (Gast)


Lesenswert?

Im Übrigens sind seeeeeehr viele Gehäuse auf ein spezielles Mainboard 
(oder eine Reihe) zugeschnitten, da gibt es relativ wenige Standards...

von (prx) A. K. (prx)


Lesenswert?

SR schrieb:
> Die Anschlüsse sind für gewöhnlich hinten, weil vorne die Platten zum
> Hot-Swappen sitzen. Denn da muss man öfter ran, als an das Netzwerkkabel
> (nie). Die werden einfach von hinten nach vorne durchgeführt.

Man kann die Patchpanel in den Serverracks auch hinten montieren.

> Bei Thomas Krenn ist mir auf Anhieb auch kein Server bekannt der die
> Buchsen vorne hat.

Gibts bei VGA+USB mittlerweile öfter, für Konsole auf Rolltisch.

: Bearbeitet durch User
von Georg (Gast)


Lesenswert?

hardwarebastler schrieb:
> Im 19 Zoll Schrank hätte ich aber lieber die
> Netzwerk- und sonstigen Buchsen vorne

Ich habe einen recht alten, teuren 19-Zoll-Schrank von Schroff, wenn ich 
den genau betrachte, gibt es überhaupt keinen Unterschied zwischen 
hinten und vorne, der ist in X und Y Richtung völlig symmetrisch 
aufgebaut. Daher kann man einen Switch oder einen Server einbauen wie 
man will. Vorne ist in der Praxis da wo Anzeige-LEDs sind, aber in 
Zeiten von Remote-Desktops ist das auch nicht mehr so wichtig.

Peter II hat recht, es sollten alle Kabel auf einer Seite sein, sonst 
ist der Ausbau zu umständlich. Das gilt eigentlich immer, ich habe da so 
einen Mini-PC, wo Kabel vorne und hinten eingesteckt werden müssen, das 
ist ausgesprochen blöd und sieht hässlich aus.

Georg

von Stephan (Gast)


Lesenswert?

bei den 19" Gehäusen ist Chenbro als Hersteller ganz groß dabei. Wenn 
nicht sogar der größte....

von hardwarebastler (Gast)


Lesenswert?

SR schrieb:
> Die Anschlüsse sind für gewöhnlich hinten, weil vorne die Platten zum
> Hot-Swappen sitzen.

Platten mit Hot-Swap hatte ich eigentlich nicht vorgesehen.

> Bei Thomas Krenn ist mir auf Anhieb auch kein Server bekannt der die
> Buchsen vorne hat.

Ich habe gerade auch keinen mehr im Angebot gefunden. Früher war da 
sogar die Möglichkeit, die Suche nur auf solche Server zu beschränken.

> Was ist denn dein angepeilter Verwendungszweck?
Es soll ein vorhandener Tower in das Rack umziehen. Der Tower dient 
derzeit als Fileserver und MySQL-Server, daneben stellt er die 
virtuellen Maschinen für verschiedene Test- und Entwicklungszwecke zur 
Verfügung.
Derzeit hat er zwei Ethernet-Ports (einmal für den Hauptserver, einmal 
mit den ganzen VLANs für die virtuellen Maschinen). An die Platten 
musste ich bisher noch nie außerplanmäßig ran, wohl aber an Ethernet 
sowie USB (zum Anschluss der externen Backup-Platte).

von Dr. Google (Gast)


Lesenswert?

Man kann gebrauchte SUNs und IBM Blades gebraucht kaufen. So ab um die 
100 Euro. Leistungsfähig und stromhungrig. Klimaanlage einplanen...

von (prx) A. K. (prx)


Lesenswert?

Was in den letzten Jahren an Servern rauskam ist recht sparsam.

Dell-Server von ~2013, CPU e5-1410, 4 SAS Disks, 2x 750W Netzteile:
Normalzustand 84W, Peaks bis 110W, gemessen durch Management-Modul.

: Bearbeitet durch User
von Jörg (Gast)


Lesenswert?


von Ich (Gast)


Lesenswert?


von hardwarebastler (Gast)


Lesenswert?

Danke, danach habe ich gesucht.

von Sheeva P. (sheevaplug)


Lesenswert?

SR schrieb:
> Die Anschlüsse sind für gewöhnlich hinten, weil vorne die Platten zum
> Hot-Swappen sitzen. Denn da muss man öfter ran, als an das Netzwerkkabel
> (nie). Die werden einfach von hinten nach vorne durchgeführt.

Wenn man die Netzwerkkabel nicht nach vorne durchführt, sondern 
stattdessen die Switchports nach hinten verlegt (also den Switch quasi 
"umgekehrt" ins Rack schraubt), kann man sich eine Menge Gefummel, 
Kabelsalat, und -- nicht zu vergessen -- die Gefahr sparen, daß bei der 
Montage oder Demontage von Maschinen die Kabel gequetscht, beschädigt 
oder gar abgeschoren werden. Man kann auch beide Link-LEDs eines 
Netzwerkkabels sehen, ohne erst um das Rack herumlaufen und das Kabel 
aufwändig verfolgen zu müssen... und Netzwerkkabel spart's auch. Wenn 
man dann noch ein Gehäuse finden würde, bei dem Diskbays, USB- und 
Display- oder HDMI-Ports nach vorne herausgeführt sind und hinten nur 
noch Power und Netz-Zwerg... ein Träumchen. ;-)

von Jörg (Gast)


Lesenswert?

Sheeva P. schrieb:
> Wenn man dann noch ein Gehäuse finden würde...

Da musst Du wohl erst Dein CAD und dann den Schneidbrenner anwerfen... 
;-)

von Sheeva P. (sheevaplug)


Lesenswert?

Jörg schrieb:
> Sheeva P. schrieb:
>> Wenn man dann noch ein Gehäuse finden würde...
>
> Da musst Du wohl erst Dein CAD und dann den Schneidbrenner anwerfen...
> ;-)

Ja, leider. Wenn ich handelsübliche 19"-Gehäuse sehe, frage ich mich, ob 
deren Planer noch nie ein Rack von nahem gesehen haben. Dabei kann es 
doch nicht so schwer sein, irgendeine Art von Display-Anschluß und USB 
nach vorne zu schleifen... aber die wollen wohl lieber ihre verka**ten 
KVM-Switches verkaufen, die 99,9% der Zeit sowieso nicht gebraucht 
werden, wertvolle HEs belegen und -- der blanke Hohn -- im Jahre 2017 
immer noch regelmäßig große Probleme haben, wenn man übers Netzwerk 
darauf zugreifen und Sonderzeichen wie "|" oä. eingeben will --- wozu 
braucht man das schon...!!1!

(Nach Wutanfall verreist.)

von Reinhard S. (rezz)


Lesenswert?

Sheeva P. schrieb:
> Ja, leider. Wenn ich handelsübliche 19"-Gehäuse sehe, frage ich mich, ob
> deren Planer noch nie ein Rack von nahem gesehen haben. Dabei kann es
> doch nicht so schwer sein, irgendeine Art von Display-Anschluß und USB
> nach vorne zu schleifen...

Ist das nicht Standard? Zumindest kenne ich es aus den raren Servertests 
der iX so.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Reinhard S. schrieb:
> Ist das nicht Standard? Zumindest kenne ich es aus den raren Servertests
> der iX so.

Bei Servern ist das längst üblich. Aber hier geht es nicht um fertige 
Server der üblichen Marken, mit vollständig proprietärem Aufbau. Sondern 
um Leergehäuse, die Mainboards mit einem der üblichen Standardmasse 
aufnehmen können.

Dabei entsteht das Problem, dass Platinen mit Standardmassen keine 
passenden Monitor-Anschlüsse innen bieten, und nur manche immerhin 
USB-Anschlüsse. Solche Gehäuse müssten also ein Kabel mitbringen, dass 
mindestens den Monitor-Anschluss von der hinteren Anschlussblende nach 
vorne legt.

: Bearbeitet durch User
von Sheeva P. (sheevaplug)


Lesenswert?

Reinhard S. schrieb:
> Sheeva P. schrieb:
>> Ja, leider. Wenn ich handelsübliche 19"-Gehäuse sehe, frage ich mich, ob
>> deren Planer noch nie ein Rack von nahem gesehen haben. Dabei kann es
>> doch nicht so schwer sein, irgendeine Art von Display-Anschluß und USB
>> nach vorne zu schleifen...
>
> Ist das nicht Standard? Zumindest kenne ich es aus den raren Servertests
> der iX so.

Bei Dell jedenfalls nicht. ;-(

von (prx) A. K. (prx)


Lesenswert?


: Bearbeitet durch User
von Michael O. (michael_o)


Lesenswert?

Nur hat ein Konsumermainboard in einem Server einfach gar nichts zu 
suchen deshalb gibt es so einen Bullshit wohl nicht.
Server sind die Dinger, die nur alle paar Jahre mal neu gestartet 
werden. Da gehört ECC Ram rein, Xeon Prozessoren und Sever grade SSDs 
oder SAS Festplatten. Raid 10 oder Raid 6 Kontroller natürlich ebenso 
statt fakeraid in Intelspielweise.



mfg
Michael

von (prx) A. K. (prx)


Lesenswert?

Michael O. schrieb:
> Nur hat ein Konsumermainboard in einem Server einfach gar nichts zu
> suchen deshalb gibt es so einen Bullshit wohl nicht.

Von Supermicro gibt es Server-Mainboards mit Standardmassen.

von Peter II (Gast)


Lesenswert?

Michael O. schrieb:
> Nur hat ein Konsumermainboard in einem Server einfach gar nichts zu
> suchen deshalb gibt es so einen Bullshit wohl nicht.
> Server sind die Dinger, die nur alle paar Jahre mal neu gestartet
> werden. Da gehört ECC Ram rein, Xeon Prozessoren und Sever grade SSDs
> oder SAS Festplatten. Raid 10 oder Raid 6 Kontroller natürlich ebenso
> statt fakeraid in Intelspielweise.

ja das war früher mal so.

OK - ECC ist sinnvoll.

Aber Raid Controller schon nicht mehr, sie halten einfach mit der 
Entwicklung nicht mehr stand. Viel zu langsam und unflexibel. CPUs 
können das heute nebenbei erledigen. Teilweise verlagert man die Raid 
Funktionalität schon ins Dateisystem.

Google betreibt alles nur "billig" Server, nichts mit Xeon.

von (prx) A. K. (prx)


Lesenswert?

Peter II schrieb:
> Google betreibt alles nur "billig" Server, nichts mit Xeon.

Ich fürchte nur, dass es hier im Forum nicht viele Leute gibt, deren 
Hardware-Park sich mit Google messen kann. ;-)

Google betreibt extrem viele Server, bei denen aufgrund Aufgabenstellung 
und Einsatzweise oft keine besondere Verfügbarkeit oder Fehlerrate 
verlangt wird. Da kann es sich lohnen, eine eigene Truppe für 
Hardware-Beschaffung und Service zu betreiben.

Hast du aber beispielsweise ein Dutzend über die Jahre beschaffte und 
damit recht unterschiedliche Server, von denen eine höhere Verfügbarkeit 
erwartet wird, dann lohnt sich das nicht. Es kommt zu selten vor, um 
ausreichende Ersatzbevorratung und auch Verfügbarkeit von eigenem 
Wartungspersonal zu rechtfertigen.

Folglich kann es sich für normale Unternehmen schon lohnen, hochwertige 
Server mit passendem Servicevertrag zu kaufen.

: Bearbeitet durch User
von Peter II (Gast)


Lesenswert?

A. K. schrieb:
> Hast du aber beispielsweise ein Dutzend über die Jahre beschaffte und
> damit recht unterschiedliche Server, von denen eine höhere Verfügbarkeit
> erwartet wird, dann lohnt sich das nicht. Es kommt zu selten vor, um
> ausreichende Ersatzbevorratung und auch Verfügbarkeit von eigenem
> Wartungspersonal zu rechtfertigen.

Ich betreue auch für ein paar kleine firmen ein paar Server, die doch 
sehr aufs Geld achten. Meine Erfahrung zeigt das man mit guter "home" 
Technik auch sehr weit kommt. Wenn dort man 24 Stunden nicht geht, 
stellt das aber auch kein Problem hat. Dann lieber nach 2-3 Jahren alles 
Raus und neu - ist besser als ein guten Server 5 Jahre lang zu 
betreiben.

Ein defekte Dell-Netzteil eines Server kostet nach 3 Jahren fast so viel 
wie ein neuer PC.

Wenn aber 100 Mitarbeiter ohne einen Server nicht arbeiten können und 
das System 24/7 verfügbar sein muss sieht es natürlich anders aus.

Unter Server versteht jeder halt etwas anders.

von (prx) A. K. (prx)


Lesenswert?

Peter II schrieb:
> Teilweise verlagert man die Raid
> Funktionalität schon ins Dateisystem.

Yep. Allerdings ist das Thema noch zu frisch, um im Servereinsatz weite 
Kreise zu ziehen. Ausser vielleicht wenn man einen Bezug zu Sun/Oracle 
hat.

Problem hier, soweit ich das überblicke, liegt im Service-Szenario. (1) 
Eine rot blinkende Platte durch eine Ersatzplatte auswechseln, auf dass 
das System den Rest selber erledige. (2) Im Betriebs/Filesystem die 
defekte Platte rauskonfigurieren und die neue hinzu definieren. Gibts 
seit Urzeiten (z.B. Anfang der 90er mit AIX).

Variante (1) ist fast narrensicher. In Variante (2) gibts einige 
Möglichkeiten sich durch Verwechselung oder Tippfehler ins Aus zu 
manövrieren, sofort oder mit Zeitzünder. Ziel hier muss sein, die 
Systeme mit im Betriebs- oder Filesystem integrierten RAID so zu 
pefektionieren, dass (1) draus wird. Ist man da schon so weit?

von (prx) A. K. (prx)


Lesenswert?

Peter II schrieb:
> Wenn dort man 24 Stunden nicht geht,
> stellt das aber auch kein Problem hat.

Bei uns schon. Ein paar Stunden zur falschen Zeit und die Kacke ist 
mörderisch am dampfen. Da nimmt man dann schon etwas Rücksicht drauf.

> ist besser als ein guten Server 5 Jahre lang zu betreiben.

Hab grad erst zwei Server stillgelegt, von anno 2000. Einmal war 
Mainboard-Tausch fällig, das wars. Mit den Originalplatten von 2000. Die 
hatten in dem Fall nicht mal Plattenspiegelung, eben weil es zwei 
Systeme waren und jemand Geld sparen wollte. Einer davon war seit über 
zwei Jahren nicht mehr gebootet worden.

Es kann schon Gründe geben, Systeme lang zu betreiben: Wenn Funktion und 
Inhalt 17 Jahre lang der gleiche ist, dann ist jeder nicht zwingende 
Wechsel mit einiger Arbeitszeit verbunden. Die Funktion schiebt sich ja 
nicht von alleine auf den Ersatz (im Zeitalter von Virtualisierung ggf. 
schon, aber dafür waren die zu alt).

> Ein defekte Dell-Netzteil eines Server kostet nach 3 Jahren fast so viel
> wie ein neuer PC.

Aber auch in Fällen mit nicht ganz so hoher Verfügbarkeitsanforderung 
stellt sich u.U. die Frage, was billiger ist: teureres Equipment oder 
teureres Personal. Kleinere effizientere IT mit etwas höheren Invest- 
und Wartungskosten, oder mehr Personal mit billigerem Gerät. Von oben 
gesehen ist die erste Variante empfehlenswert.

Wobei guten Equipment nicht selten 10 Jahre im Einsatz ist, hab da 
überwiegend gute Erfahrungen. Die letzten Jahre läuft das dann manchmal 
in anderer Funktion ohne Wartung, denn wenn man die nicht einzeln 
beschafft, dann sortiert man 1-2 der gleichen Kisten als Ersatz aus und 
besorgt sich Ersatzteile auch mal bei ebay. Aber die werden dann nur 
dort eingesetzt, wo es nicht auf die erwähnten paar Stunden ankommt.

Anno Intel P4 gab es mal ein paar Anwendungen, die auf AMD super liefen, 
auf den P4 aber hundsmiserabel. AMD gab es aber damals nur beim PC 
Händler um die Ecke. Qualitätsunterschied und Haltbarkeit waren extrem 
verschieden.

> Unter Server versteht jeder halt etwas anders.

Yep.

: Bearbeitet durch User
von Johannes S. (Gast)


Lesenswert?

hardwarebastler schrieb:
> Mir ist aufgefallen, dass sämtliche 19-Zoll Leergehäuse dem Aufbau eines
> klassischen Desktop folgen

Es gibt schon 19" Gehäuse mit Front IO, als Industrie PCs z.B. bei 
Abeco: 
http://www.abeco.de/produktkatalog?page=shop.browse&category_id=70
Oder auch Advantech hat solche Kisten.

Die liefern allerdings nicht an Privatleute.

von Sheeva P. (sheevaplug)


Lesenswert?


von Sheeva P. (sheevaplug)


Lesenswert?

A. K. schrieb:
> Aber auch in Fällen mit nicht ganz so hoher Verfügbarkeitsanforderung
> stellt sich u.U. die Frage, was billiger ist: teureres Equipment oder
> teureres Personal. Kleinere effizientere IT mit etwas höheren Invest-
> und Wartungskosten, oder mehr Personal mit billigerem Gerät. Von oben
> gesehen ist die erste Variante empfehlenswert.

Naja, der Trend, der sich im HA- und HP-Umfeld in den letzten paar 
Jahren abzeichnet, geht jedenfalls von den wenigen fetten, teuren 
Büchsen hin zu Clustern von vielen kleinen Maschinchen. Verteilte 
Dateisysteme wie Ceph und GlusterFS, verteilte Anwendungen wie Apache 
Storm, Apache Gearpump oder Twitter Heron fürs Streamprocessing in 
Realtime, Microbatching-Systeme wie Apache Spark oder ausgewachsene 
Batchapplikationen wie jene aus dem Apache Hadoop-Umfeld, das geht alles 
schon deutlich in eine Richtung, ebenso die Datenbankwelt mit 
Oracle-Cluster und Postgres-XL. Und dazu kommen noch die verteilten 
Datastores aus dem NoSQL-Bereich, wie Elasticsearch, MongoDB oder Redis, 
die die traditionellen SQL-Datenbanken in einigen Bereichen ergänzen und 
teilweise sogar ablösen.

In unserem Umfeld (HP-Computing zur Betrugsprävention bei 
Versicherungen, Banken und Zahlungsprozessoren) werden dicke Maschinen 
heute zwar immer noch genutzt, aber meistens nur als 
Virtualisierungsträger. Unterdessen sehe ich in den letzten Jahren immer 
mehr Cluster aus kleinen Maschinchen, die einfach mehr "Bang per Buck" 
liefern, einfach und preiswert von der Stange zu beschaffen sind, und 
bei wichtigen Themen wie Ausfallsicherheit und Skalierbarkeit 
erhebliche, häufig entscheidende Vorteile bieten. Und sobald eine 
gewisse Größenordnung überschritten wird, ist das häufig auch ökonomisch 
die effizientere Lösung.

von (prx) A. K. (prx)


Lesenswert?

Sheeva P. schrieb:
>> Kleinere effizientere IT mit etwas höheren Invest-
>> und Wartungskosten, oder mehr Personal mit billigerem Gerät.
>
> Naja, der Trend, der sich im HA- und HP-Umfeld in den letzten paar
> Jahren abzeichnet, geht jedenfalls von den wenigen fetten, teuren
> Büchsen hin zu Clustern von vielen kleinen Maschinchen.

Eindeutig, so läufts auch. Nur meinte ich mit besseren Maschinen keine 
dicken fetten Maschinen, sondern bezog das auf die Qualität. Ausfälle 
kosten auch dann Arbeit, wenn die Verfügbarkeit trotzdem gewährleistet 
ist. Die dicksten haben 2 CPU-Sockel - das war mal anders. Muss 
allerdings als VM-Host genug RAM reinpassen.

HP ist wiederum eine andere Baustelle. Für einen Schrank mit zig 
gleichen Rechnern für Lastaufteilung besteht bei uns kein Bedarf. Dafür 
aber Unmengen von verschiedensten überwiegend harmlosen 
Anwendungen/Webpräsenzen, die sich in der Virtualisierung tummeln.

: Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.