Welchen Sinn hat es eigentlich, den home-Baum auf eine eigene Partition zu legen? Wenn ich mir das so recht überlege, hat es bei den heute üblichen Plattengrößen keinen Sinn mehr - es sei denn, man will lvm eine Daseinsberechtigung auf unverschlüsselten Platten verschaffen. Oder hat jemand ein gutes Gegenargument? (Daß boot und swap in eigenen Partitionen liegen, ist schon wegen der vergleichsweise winzigen Größe dieser Partitionen und der besseren Performance einer swap-Partition gegenüber einem swap-File unproblematisch.)
Uhu Uhuhu schrieb: > Oder hat jemand ein gutes Gegenargument? es könnte ja sonst ein user die festplatte voll machen und das system damit lamlegen.
Uhu Uhuhu schrieb: > Welchen Sinn hat es eigentlich, den home-Baum auf eine eigene Partition > zu legen? Zu verhindern, dass jeder Hinz und Kunz die System-Filesysteme verstopfen kann und nur noch ein Reboot und möglicherweise Single-User Mode die Kiste wieder in Gang kriegt. Bei einem Home-System ist das freilich weniger relevant, aber bei einem Server kann es das schon sein.
Wenn man das System erlegt hat, kann man die Software-Partitionen formatieren und es neu installieren, ohne alle /home Daten zu verlieren bzw. zeitaufwändig hin und her kopieren zu müssen.
Wobei im Zeitalter von LVM und on-the-fly resizing getrennte Filesysteme auch kein wesentliches Problem mehr darstellen.
A. K. schrieb: > ... aber bei einem Server kann es das schon sein. OK, das ist was anderes. Trotzdem wird der alte Zopf z.B. bei Ubuntu "fortgeschrittenen" Usern vorgeschlagen und Arch scheint von vorn herein nichts anderes zu kennen.
Uhu Uhuhu schrieb: > Trotzdem wird der alte Zopf z.B. bei Ubuntu "fortgeschrittenen" Usern > vorgeschlagen und Arch scheint von vorn herein nichts anderes zu kennen. Wenn der Home-Anwender genug Ahnung hat, dann ist es egal. Hat er keine, dann ist es vorteilhaft, wenn er nur /home vollstopft, nicht aber das System. Insofern ist das auch bei DAU-Installationen sinnvoll. Der Experte kann ja sowieso machen was er will. Ist die vorgeschlagene Partitionierung bei "fortgeschrittenen" Usern denn überhaupt anders, oder kann er da nur selber dran drehen?
A. K. schrieb: > Wobei im Zeitalter von LVM und on-the-fly resizing getrennte Filesysteme > auch kein wesentliches Problem mehr darstellen. Die zusätzlich, künstliche Grenze zwischen den Partitionen bringt doch nicht wirklich was und zum Einwand von Strickwettbewerbgewinner kann ich nur sagen, daß mir das noch nie passiert ist. > Wenn der Home-Anwender genug Ahnung hat, dann ist es egal. Na ja, wenn man davon ausgeht, daß diese Ahnung immer genau dann gebraucht wird, wenn es am wenigsten ins Zeitbudget paßt, ist es nicht egal...
Uhu Uhuhu schrieb: > Na ja, wenn man davon ausgeht, daß diese Ahnung immer genau dann > gebraucht wird, wenn es am wenigsten ins Zeitbudget paßt, ist es nicht > egal... Diese Phänomen ist völlig unabhängig von der Partitionierung. ;-)
Da fallen mir mehrere ein... 1. Use-Case user müllt sein home-dir voll => login ggf. nicht möglich (X11-Login tut nicht richtig wenn keine x-session-files angelegt werden können) root kann noch immer, weil /root eben nicht unter /home liegt 2. Use-Case Du zerschiesst auf deiner Entwicklermaschine dein /lib so sehr, dass irgendwie nix mehr geht (z.b cross-toolchain compilieren und in falsches dir installieren,...) und dann ist es ganz angenehm wenn mann ein neues system auf der / platte installieren und dann einfach nach getaner arbeit in /etc/fstab die alte /home partition einbinden kann 3. Use-Case man will einfach den performancegewinn von einem geeigneteren filesystem auf /home ausnutzen... (xfs/jfs als /home; ext2 für /boot und /lib/modules, ...)
Sinn macht es insofern, wenn man mehrere Linux Installationen hat, die dann auf das gleiche /home zugreifen können. Wobei ich dann allerdings ab der zweiten Installation eher auf z.B. /home/Documents mounte und ggf. Links auf erwünschte gleiche Konfigurationsdateien/Verzeichnisse setze. Gruß Andreas
hmm zulang geippt... Vollstopfen von /home passiert mir regelmäßig auf meiner workstation... man generiert sich nebenbei ein paar gig simulationsdaten und bummmm-platte voll ;) 73
Uhu Uhuhu schrieb: > Die zusätzlich, künstliche Grenze zwischen den Partitionen bringt doch > nicht wirklich was und zum Einwand von Strickwettbewerbgewinner kann ich > nur sagen, daß mir das noch nie passiert ist. Mir auch nicht, aber gewisse DAU's schaffen das des öfteren. Wo die Trennung wirklich sinnvoll wäre, wäre Windows, weil da oft nur eine Neuinstallation hilft, vor der man aber 500 GB "urlaubsfotos" aus den "Eigenen Dateien" auf eine ext. HDD kopieren muss (weil backups gibts ja natürlich nie). Aber da ist es natürlich nicht vorgesehen und nicht so einfach, das "/home" (d.h. C:\Users) auf eine andere Partition zu legen.
Warum sollte man die Festplatte bei einer neuinstallation formatieren? Man löscht einfach alles außer /home (oder verschiebt es, damit man sich noch ein paar einstellungen retten kann) und installiert neu. Selbst windows lässt eigene Dateien auf der Festplatte wenn man neu installiert.
Hans schrieb: > root kann noch immer, weil /root eben nicht unter /home liegt Na den Vorteil hat Debian aus Sicherheitsgründen eliminiert... Einloggen als root geht standardmäßig nicht. > Du zerschiesst auf deiner Entwicklermaschine dein /lib so sehr, dass > irgendwie nix mehr geht Da ist doch eine aktuelle Datensicherung viel sinnvoller, als komplett neu aufzusetzen. Anderenfalls kann man u.U. massenweise Pakete nachinstallieren und neu konfigurieren. Andreas B. schrieb: > Sinn macht es insofern, wenn man mehrere Linux Installationen hat, die > dann auf das gleiche /home zugreifen können. OK, aber das ist dann eher der Fall, daß man home auf einer eigenen Platte hat und die Systeme nach Bedarf austauscht.
faulheit... alles bis auf /home löschen macht man auf shell... /-partition quick-formatieren und reinstall mit /home in fstab macht der slackware-installer ;)
Hans schrieb: > faulheit... alles bis auf /home löschen macht man auf shell... > /-partition quick-formatieren und reinstall mit /home in fstab macht der > slackware-installer ;) ich hätte Dabei angst um mein etc verzeichniss oder irgendwelche libs die man sich irgendwoher besorgen musste weil sonst ein älteres Programm nicht geht.
> Bei einem Home-System ist das > freilich weniger relevant, aber bei einem Server kann es das schon sein. Bei einem Server wird man wohl die System- und die Userdaten auf getrennten physikalischen Platten halten.
ich schrieb: > Bei einem Server wird man wohl die System- und die Userdaten auf > getrennten physikalischen Platten halten. warum eine 500gb platte verschwenden wegen 10GB system? Echte Server haben ein Storage oder Raid da sind die platten eh am ende Virtual.
ich schrieb: > Bei einem Server wird man wohl die System- und die Userdaten auf > getrennten physikalischen Platten halten. Natürlich gibt es Fälle, für die eine Trennung sinnvoll ist - nur die meisten Linux-Systeme sind Workstations und darum geht es mir hier - das hatte ich aber im Eingangsposting nicht erwähnt. Server sind ein völlig anderes Thema.
ich schrieb: > Bei einem Server wird man wohl die System- und die Userdaten auf > getrennten physikalischen Platten halten. Das kommt aus der Mode. Klar, manche Software-Anbieter kommen mit klaren Vorstellungen von diversen Filesystemen auf fein säuberlich getrennten Platten. Und wenn sie stur sind, dann kriegen sie die auch. Nur dass die dann unterhalb des heute verbreiteten Virtualisierungslayers alle wieder auf dem gleichen Datastore landen.
Von drauß' von Windows kam ich her, und merkte, Linux partitioniert nicht sehr, ...? ;-) Ich hab schon alleine deshalb mehrere Partitionen, weil alle Systeme hier dualboot mit Windows sind.... und alles schön logisch getrennt ist und nur gemountet wird wenns auch benötigt wird. Alle wichtigen und größeren Daten landen sowieso auf anderen Partitionen und nicht in ~ damit man von beiden Systemen einfach Zugriff drauf hat (und aus Jahrelanger Gewohnheit). Deshalb brauch ich gar keine separate Partition für ~ weil das zur Zeit z.B. eh nur 5GB insgesamt sind. Und im Desktop stecken zwei Platten, alleine deswegen gibts schon mind. 2 "Partitionen" - dazu noch die drei externen Backup Platten. Also kann ichs auch direkt weiter unterteilen. :-)
A. K. schrieb: > Das kommt aus der Mode. Ja, das ist schon lustig, wie sich die verschiedenen, höchst trickreichen Techniken gegenseitig ad absurdum führen können...
Zorg schrieb: > Und im Desktop stecken zwei Platten, alleine deswegen gibts schon mind. > 2 "Partitionen" nö, dafür gibt es ja Raid 1
Uhu Uhuhu schrieb: > Andreas B. schrieb: >> Sinn macht es insofern, wenn man mehrere Linux Installationen hat, die >> dann auf das gleiche /home zugreifen können. > > OK, aber das ist dann eher der Fall, daß man home auf einer eigenen > Platte hat und die Systeme nach Bedarf austauscht. Ich meinte eher für ein Multibootsystem. (Jedenfalls mache ich das so). D.h. erste Installation wird normal mit /home als eigene Partition installiert. Das zweite und weitere Systeme werden ohne extra /home installiert. Die "alte" /home wird dann hier als /home/documents gemountet. Ggf. dann Links von /home/documents/.blabla auf home.blabla. Wenn die Systeme bezüglich aller Konfigurationsdateien kompatibel sind, mounte ich direkt die home Partition als /home. Die home Partition hat sich bei mir schon viele Jahre (und Installationen) gehalten. Ich habe sie nur vor einem Jahr mal umkopiert, als ich mir wieder mal eine größere Festplatte geleistet habe. Die alte fliegt noch als Backup herum. Gruß Andreas
Uhu Uhuhu schrieb: > Ja, das ist schon lustig, wie sich die verschiedenen, höchst > trickreichen Techniken gegenseitig ad absurdum führen können... Yep. Schön ist auch die Aufgabe, in einem System mit den Storage-Layern Filesystem, mit 4K Blöcken LVM Virtual Disk VMware Datastore FC-LUN auf NAS-System Filesystem vom NAS, mit 4K Blöcken Physical Disk, mit 0,5K oder 4K Blöcken durchgängig sicherzustellen, dass ein 4K Block ganz oben auch einem sauber alignten 4K-Block ganz unten entspricht.
Neben den schon genannten Gründen, ist für mich der Hauptgrund: Immer wenn eine neue Version meines Lieblings-Linux raus kommt (also X.0) formatiere ich / neu und /home kann ich einfach so lassen wie es ist. Hat den Grund das nach einigen Zyklen (X.1 X.2 X.3) soviel Müll (Libs und Programme) den ich nur einmal benutzt habe aber nicht wieder deinstalliert, dass es Sinn macht alles zu plätten und neu zu installieren (die Zwischenschritte update ich einfach (also X.1 update X.2) Und weil ich mir so sicher sein kann, dass das neue System läuft (kein Rest der alten Version macht Problem). Des weitere: Wenn ich (wie gestern) komischerweise / zerschieße, habe ich noch /home (also Daten sind noch da :D) MfG
Peter II schrieb: > Zorg schrieb: >> Und im Desktop stecken zwei Platten, alleine deswegen gibts schon mind. >> 2 "Partitionen" > > nö, dafür gibt es ja Raid 1 Raid 1? Na super dann fällt die Hälfte der Kapazität weg - für einen fragwürdigen Sicherheitsgewinn. Bei Raid0 wärs noch schlimmer, denn wenn eine kaputt ist dann sind gleich alle Daten hinüber. Und da ich eh regelmäßig auf externe Platten backuppe brauch ich kein Raid 1.
Noch ein paar Kommentare zu dem ganzen Thread: - ein amoklaufender Benutzer wird nicht das ganze System lahmlegen können, indem er zuviel Daten produziert. Linux hat üblicherweise ein paar Prozent reserviert, die nur von root belegt werden können. Notfalls kann sich also immer noch root anmelden und in Ruhe aufräumen. - /home auf eine eigene Partition zu legen, würde eh ncht dagegen hefen, weil der DAU dann halt /tmp zumüllt. - Inzwischen macht Partitionieren nur noch selten Sinn (zumindest auf einem PC zuhause). Interessant ist es noch am ehesten, wenn man bestimmte Sachen auf schnellere Laufwerke legen will (/tmp z.B.).
Zorg schrieb: > Und da ich eh regelmäßig auf externe Platten backuppe brauch ich kein > Raid 1. ja meinte auch Raid 0 - und wenn du Backup hast, dann macht das sogar sinn. Dann dann hat man nicht auf beiden festplatte freien platz und kann ihn nicht für etwas großes nicht nutzen. Dazu kommt nocht die bessere Transferrate.
Nagut OK aber ich brauche die beiden 1TB Platten eh nur zu je 50 - 60% also nicht so kritisch da ist noch genug Platz über ;-)
Uhu Uhuhu schrieb: > A. K. schrieb: >> ... aber bei einem Server kann es das schon sein. > > OK, das ist was anderes. > > Trotzdem wird der alte Zopf z.B. bei Ubuntu "fortgeschrittenen" Usern > vorgeschlagen und Arch scheint von vorn herein nichts anderes zu kennen. Nur, weil Arch dich nach einem Mountpoint für /home fragt, heißt dies nicht, dass du auch einen angeben musst.
Uhu Uhuhu schrieb: > Na den Vorteil hat Debian aus Sicherheitsgründen eliminiert... > Einloggen als root geht standardmäßig nicht. Aber nur an der Grafischen Benutzeroberfläche, auf der Konsole geht das sehr wohl, ein paar bytes frei machen geht auch von dort.
>> Bei einem Server wird man wohl die System- und die Userdaten auf >> getrennten physikalischen Platten halten. > >warum eine 500gb platte verschwenden wegen 10GB system? Wer sagt denn, dass jeder 500GB oder mehr hat? Es gibt auch noch alte Rechner in Betrieb und manche Leute haben auch SSDs, da sind 500GB unbezahlbar.
s.h. schrieb: > Wer sagt denn, dass jeder 500GB oder mehr hat? Es gibt auch noch alte > Rechner in Betrieb und manche Leute haben auch SSDs, da sind 500GB > unbezahlbar. server werden nach ca 3 Jahren getauscht, ab dann steigt auch das aussfallrisiko und sie sind dann auch veraltet. Und eine SSD nur für das System ist ja erst verschwendung. Etweder ist es ein web/datenbank server dann braucht er kein Home oder ist es ein Server wo sich viel "homes" befinden dann braucht das system keine SSD.
> server werden nach ca 3 Jahren getauscht, ab dann steigt auch das > aussfallrisiko und sie sind dann auch veraltet. In vielen Abteilungen großer Firmen interessiert das kein Mensch. Da zählt nur "never touch a running system" und das veraltet dann auch nicht, weil sich die Anwendungen darauf nicht ändern. Und es läuft solange, bis es ausfällt.
Läubi .. schrieb: > Aber nur an der Grafischen Benutzeroberfläche, auf der Konsole geht das > sehr wohl, ein paar bytes frei machen geht auch von dort. Mag ja sein, daß es da irgenwelche Tricks gibt... Ärgerlich an 6.0.4 finde ich nach wie vor, daß sich die Debianer offenbar ihrem Extrawurst-Fimmel treu geblieben sind: Ein verschlüsseltes LVM-Volume zu mounten, das mit Ubuntu 10.04 formatiert wurde, scheint unmöglich zu sein, obwohl D 6.0.4 eine neuere LVM-Version mitbringt. Andersrum hat Ubuntu 10.04 keinerlei Hemmungen, ein mit Debian 6.0.4 angelegtes, verschlüsseltes Volume zu mounten. Das verstehe, wer will...
Peter II schrieb: > server werden nach ca 3 Jahren getauscht, Ach nee. Das Durchschnittsalter der von mir betreuten produktiven Server dürfte ungefähr doppelt so hoch sein, das Maximum ist 12 Jahre. > ab dann steigt auch das aussfallrisiko Kann sein, muss aber nicht. Einer Baureihe (Dell) verreckten nach ca. 5 Jahren reihum die RAMs. Bei einer anderen Baureihe von ca. 2004 (IBM) mussten unlängst reihum die Netzteile ausgewechselt werden. Ansonsten sind altersbedingte Ausfälle nirgends auffällig. > und sie sind dann auch veraltet. Na und? Wenn die Aufgabe, die er zu erledigen hat, in der Zwischenzeit nicht wesentlich komplexer wurde, dann ist das völlig egal.
Uhu Uhuhu schrieb: > Mag ja sein, daß es da irgenwelche Tricks gibt... Konsole laeuft bei Dir unter "irgenwelche Tricks"? Jetzt sind mir die seltsamen Postings von Dir zu Linux in der letzten Zeit klar! citb
citb schrieb: > Konsole laeuft bei Dir unter "irgenwelche Tricks"? Nö, aber wenn du dir die home-Partition randvoll genagelt hast, ist nicht sicher, daß du dich als normaler User überhaupt noch einloggen kannst. Als root würde das noch gehen, wenn, ja wenn...
Uhu Uhuhu schrieb: > Nö, aber wenn du dir die home-Partition randvoll genagelt hast, ist > nicht sicher, daß du dich als normaler User überhaupt noch einloggen > kannst. > > Als root würde das noch gehen, wenn, ja wenn... Du sollst Dich nicht als normaler User einloggen, sondern als "root". Dessen "/home/root" heisst root und liegt ueblicherweise auf der Partition. citb
citb schrieb: > Du sollst Dich nicht als normaler User einloggen, sondern als "root". > Dessen "/home/root" heisst root und liegt ueblicherweise auf der > Partition. > > citb Verdammte Formatierung: Es muss heissen: > Dessen "/home/root" heisst "/root" und liegt ueblicherweise auf der citb
citb schrieb: > Du sollst Dich nicht als normaler User einloggen, sondern als "root". Oh Mann, hast du schonal versucht, dich auf einem Debian-System als root einzuloggen?
Strg-Alt-F1 für die Konsole, dann hinter login: root eingeben, dann Return, dann das PW... Zumindest geht das bei meinen Debian-Rechnern so. (Oder -weil bei mir eh ssh läuft- von jedem Rechner im Netz aus mit ssh)
A. K. schrieb: >> server werden nach ca 3 Jahren getauscht, > > Ach nee. Das Durchschnittsalter der von mir betreuten produktiven Server > dürfte ungefähr doppelt so hoch sein, das Maximum ist 12 Jahre. Dann legt ihr keinen Wert auf Ausfallsicherheit und effizenz. >> ab dann steigt auch das aussfallrisiko > > Kann sein, muss aber nicht. Einer Baureihe (Dell) verreckten nach ca. 5 > Jahren reihum die RAMs. Bei einer anderen Baureihe von ca. 2004 (IBM) > mussten unlängst reihum die Netzteile ausgewechselt werden. Ansonsten > sind altersbedingte Ausfälle nirgends auffällig. ab 3 Jahren wird es aber immer teuer für die Server einen Service/Support Vertrag zu verlängern. Und ohne Vertag kann ein Ersatzteil auch mal ein paar Tage länger dauern bis es da ist, wenn ihr darauf verzichten könnt ist ja gut. >> und sie sind dann auch veraltet. > > Na und? Wenn die Aufgabe, die er zu erledigen hat, in der Zwischenzeit > nicht wesentlich komplexer wurde, dann ist das völlig egal. man kann aber mehre Server zusammenfassen und spart damit Energie und Wartungsaufwand.
Klaus Wachtler schrieb: > Strg-Alt-F1 für die Konsole, dann hinter login: root eingeben, dann > Return, dann das PW... Alternativ bei Grub den recovery-mode nutzen... einen "Trick" benötigt man da jedenfalls nicht wie schon gesagt wurde. Uhu Uhuhu schrieb: > Ein verschlüsseltes LVM-Volume zu mounten, das mit Ubuntu 10.04 > formatiert wurde, scheint unmöglich zu sein Naja du schriebst das es unter Ubuntu auch schon zu Fehler kommt, das es da zufällig dann gerade noch so klappt ist eventuell auch Glückssache und benötigt ggf. genau diese Version. im allergrößtem Notfall könnte man auch eine neues LVM erstellen und die Daten umkopieren.
Wartungsaufwand? Ölwechsel? Viele Server stehen einfach, brauchen Strom und tun ihren Dienst. Wenn du mit Wartungsaufwand meinst, dreimal in der Woche Patches einzuspielen und Löcher zu stopfen: - es gibt neben Windows auch noch andere Systeme - bei einem neuen Rechner würde das nach einer Woche auch schon genauso losgehen Bei einem Kunden steht noch ein Fileserver rum, der unter NT läuft. Der kennt kein Internet und ist nur lokal erreichbar. Ich hatte schon mal ein paar Anläufe gemacht, den zu ersetzen. Aber genau genommen kostet der nix. Das einzige Problem seit er da steht, war daß das Bandlaufwerk den Staubtod gestorben ist - jetzt ist er einmal leergesaugt und hat einen neuen Streamer drin. Den alle drei Jahre zu ersetzen, könnte ich dem Kunden nicht guten Gewissens als effizient verkaufen.
Klaus Wachtler schrieb: > Wartungsaufwand? Ölwechsel? Lüfter Reinigen? > Viele Server stehen einfach, brauchen Strom und tun ihren Dienst. genau das ist schon ein Probleml für sich, neue Server brauchen weniger strom und sparen damit Kosten > Wenn du mit Wartungsaufwand meinst, dreimal in der Woche Patches > einzuspielen und Löcher zu stopfen: > - es gibt neben Windows auch noch andere Systeme als ob es für Linux/BSD/HPux keine Patchs gibt. > Bei einem Kunden steht noch ein Fileserver rum, der unter NT läuft. > Der kennt kein Internet und ist nur lokal erreichbar. viele Ankriffe kommen auch aus dem Intranet Je nach Firma muss man sich auch and das BSI halten, dort steht irgendwo drin das nur aktuelle mit sicherheitsupdates versorge Systeme einzusetzen sind. Damit ist NT raus. > Den alle drei Jahre zu ersetzen, könnte ich dem Kunden nicht guten > Gewissens als effizient verkaufen. in welcher Zeit sicherst du den Kunden zu das du das system wieder reparierst wenn es auffäll? Und hast du alle Ersatzteile da?
Peter II schrieb: > Dann legt ihr keinen Wert auf Ausfallsicherheit ;-) > ab 3 Jahren wird es aber immer teuer für die Server einen > Service/Support Vertrag zu verlängern. Der Eindruck hat sich mir insgesamt bisher nicht aufgedrängt. Es gibt aber schon Systeme, bei denen nach den üblicherweise 5 Jahren mitgekauften Supports ein Wartungsvertrag nicht sinnvoll ist oder zumindest vom Hersteller nicht angeboten wird (es gibt aber darauf spezialisierte Firmen). Andererseits haben wir dann oft selbst Reserve im Lager. Manche Systeme werden auch so beschafft, dass vorneweg ein Reservesystem vorhanden ist. Eben wegen Verfügbarkeit. Die vorhin erwähnten Netzteile für den Ersatz bei einer Baureihe von 2004 kamen übrigens kostensparend von ebay. Bin gespannt wie lange die halten, aber diese Baureihe muss auch nicht mehr ewig durchhalten. 8 Jahre ist auch ein schönes Alter.
Peter II schrieb: > Je nach Firma... Genau darauf wollte ich raus - es gibt sicher Fälle, wo regelmäßiges Austauschen sinnvoll ist (wobei ich mich jetzt nicht auf pauschale 3 Jahre festlegen mag), und es gibt andere Fälle. Aber die Aussage "alle drei Jahre tauschen" ist so pauschal einfach Quark. So etwas sagt man höchstens, wenn man dran verdient (aber selbst dann mache ich es nicht).
Beim oben skizzierten Alter der Server wird freilich eine statistische Verzerrung wirksam. Eben aufgrund von Konsolidierung in Form von Virtualisierung wird seit vielen Jahren nur noch wenig Blech beschafft. Die alten Systeme auf ihrem alten Blech laufen fröhlich und verlässlich weiter und die meisten neuen Serverfunktionen landen auf wenigen dicken VM-Hosts. Folglich altert das vorhandene Blech und das mittlere Alter mit ihnen. Wie Klaus schon schreibt sind es Komponenten wie Bandlaufwerke, die mit den Jahren klapprig werden. Freilich braucht man die heute nicht im gleichen Umfang wie früher, d.h. die Server leben weiter, deren alte Laufwerke nicht. Interessanterweise insgesamt gesehen wenig Probleme machen jene Komponenten, die man gemeinhin als Hauptkandidaten für Ausfälle sieht: Lüfter und Netzteile. Abgesehen von der erwähnten Baureihe mit dem Serienausfall haben die ein bemerkenswert wenig gestörtes Leben. Es ergibt schon einen Unterschied ob man teure Server bei den Big Names kauft, oder billige Desktops beim Mediamarkt.
A. K. schrieb: > Die alten Systeme auf ihrem alten Blech laufen fröhlich und verlässlich > weiter und die meisten neuen Serverfunktionen landen auf wenigen dicken > VM-Hosts. Folglich altert das vorhandene Blech und das mittlere Alter > mit ihnen. 1.Ein alte Bauernregel sagt: Lege nie alle Eier in einen Korb! Zuuu viele VMs auf einem Haufen könnten im Störfall der Tod der Firma sein! Besonders ärgerlich sind Fälle, wenn verschiedene Leute/Abteilungen erst gebettelt werden müssen, bevor man die eine physikalische Maschine herunterfahren kann. Plug ans Play funktioniert nicht in jeder Lebenslage auch wenn die Werbung das gerne möchte. 2.Zur Plattenpartitionierung wäre zu ergänzen, daß auch das BACKUP entsprechend angepasst/funktionieren sollte. :-) 3.Jahrelang gelagerte Ersatz-Netzteile haben auch Elkos, die mit der Zeit nicht gesünder werden. Daher gab es früher den Hinweis: Netzteile innerhalb eines halben Jahres in Betrieb nehmen.
Peter II schrieb: > server werden nach ca 3 Jahren getauscht, ab dann steigt auch das > aussfallrisiko und sie sind dann auch veraltet.
1 | # uptime |
2 | 10:05:20 up 1339 days, 14:00, 1 user, load average: 2.10, 1.26, 1.04 |
Nach drei Jahren werden "echte" Server noch nichtmal neu gebootet ;)
Εrnst B✶ schrieb: > Nach drei Jahren werden "echte" Server noch nichtmal neu gebootet ;) Dein Stolz in allen Ehren, beim nächsten Stromausfall (warum auch immer) könnten Dich viele kranke Systeme auf einen Schlag begrüßen. Ein sinnvoll geplanter Boot hat manchmal den Vorteil, daß nicht alle Fehler auf einen Tag fallen und somit genug Hände und ausreichend Ersatzmaterial verfügbar ist.
Εrnst B✶ schrieb: > Nach drei Jahren werden "echte" Server noch nichtmal neu gebootet ;) in der Zeit kann die Hardware schon viele male gewechselt worde sein, VMware cluster machen das möglich.
oszi40 schrieb: > Dein Stolz in allen Ehren, beim nächsten Stromausfall (warum auch immer) > könnten Dich viele kranke Systeme auf einen Schlag begrüßen. Ein > sinnvoll geplanter Boot hat manchmal den Vorteil, daß nicht alle Fehler > auf einen Tag fallen und somit genug Hände und ausreichend > Ersatzmaterial verfügbar ist. Das ist klar. Deswegen läuft der eigentliche Server-Dienst auf der Maschine in einer VM: Wenn die Hardware ausfällt, kann die recht einfach umziehen. Bis es soweit ist: "Never touch a running System"
oszi40 schrieb: > 1.Ein alte Bauernregel sagt: Lege nie alle Eier in einen Korb! Zuuu > viele VMs auf einem Haufen könnten im Störfall der Tod der Firma sein! Dazu gibt es längst automatische Failover-Techniken. Wenn einer der VM Hosts den Löffel abgibt, dann werden die VMs vollautomatisch auf einem anderen neu gestartet. Auch ein mitlaufender Spiegel einer VM auf einem anderen Host ist möglich, wenn ein Neustart der VM nicht akzeptabel ist. > Besonders ärgerlich sind Fälle, wenn verschiedene Leute/Abteilungen erst > gebettelt werden müssen, bevor man die eine physikalische Maschine > herunterfahren kann. VMware kann VMs im Betrieb auf einen anderen Host verschieben, ohne dass man in der VM davon etwas bemerkt. Weshalb die Uptime der VMs höher als die der Hosts sein kann, denn letztere werden ein paarmal im Jahr ohne Betriebsunterbrechung aktualisiert. VMware führt auf die gleiche Art auch Load-Balancing durch, d.h. durch automatisches Verschieben von VMs wird die Last der Hosts ausgeglichen.
A. K. schrieb: > d.h. durch automatisches Verschieben von VMs > wird die Last der Hosts ausgeglichen. Plug and Play, Clustering usw. funktioniert nicht in jeder Lebenslage auch wenn die Werbung das gerne möchte. Interessant wird auch die spätere Verwaltung Deiner 1000 "vagabundierenden" VMs?
oszi40 schrieb: > Plug and Play, Clustering usw. funktioniert nicht in jeder > Lebenslage auch wenn die Werbung das gerne möchte. Falls du das noch nicht gemerkt haben solltest: Ich arbeite damit. Das gehört zu meinen Job, ist tägliche Praxis. Mit ESX seit V1.5. Einzig die Variante mit einem laufenden Spiegel einer VM wurde mangels Bedarf bisher nicht verwendet. Plug and Play ist im Zusammenhang mit VMs kein Thema. Entscheidend ist, dass der Server mit seinen Devices vom Hypervisor unterstützt wird und die CPU zum Cluster passt. Dann entsteht ein Pool aus Hosts, zwischen denen die VMs beliebig verschoben werden können, da die VM nichts von der realen Hardware mitbekommt. Die virtuelle Hardware ist immer gleich. > Interessant wird auch die spätere Verwaltung Deiner 1000 > "vagabundierenden" VMs? Worin siehst du da das Problem? Das wird von einem zentralen Management-Server verwaltet (auch eine VM). Auf welchem Host eine VM grad liegt ist sekundär, das sortiert der selber.
PS: Wirklich problematisch sind USB-Dongles. Zwar dürfte jeder Admin diese Mistviecher sowieso schon hassen, bei solcher Virtualisierung hat er einen soliden Grund mehr dafür. Hochverfügbarkeit von unten bis oben - aber wenn der Dongle verreckt oder dessen Anbindung spinnt, dann steht die Produktion.
Oh man, Peter II spricht hier auf wie der krösus. Nehm dir doch mal ein Beispiel an den Leuten hier, die bei ihrer Argumentation etwas mehr differenzieren.
Peter II schrieb: >> Viele Server stehen einfach, brauchen Strom und tun ihren Dienst. > genau das ist schon ein Probleml für sich, neue Server brauchen weniger > strom und sparen damit Kosten Kann aber einige Zeit ins Land gehen bis sich das rechnet, so viel spart man nicht notwendigerweise. >> Wenn du mit Wartungsaufwand meinst, dreimal in der Woche Patches >> einzuspielen und Löcher zu stopfen: >> - es gibt neben Windows auch noch andere Systeme > als ob es für Linux/BSD/HPux keine Patchs gibt. Ist schon nen Unterschied in Aufwand/Anstrengung, und hat man auf neuerer Hardware genauso... >> Bei einem Kunden steht noch ein Fileserver rum, der unter NT läuft. >> Der kennt kein Internet und ist nur lokal erreichbar. > viele Ankriffe kommen auch aus dem Intranet Stimmt, hängt aber auch wieder von der Firma ab... Beim Handwerksbetrieb wo eh jeder physikalisch an den Server kommt würde ich mir da jetzt nicht die Sorgen drum machen (ja, ich weiß, ein Server gehört in einen abgeschlossenen Raum, aber Theorie und Praxis...)
Halodri schrieb: > Oh man, Peter II spricht hier auf wie der krösus. Nehm dir doch mal ein > Beispiel an den Leuten hier, die bei ihrer Argumentation etwas mehr > differenzieren. wo ist dein Problem, ich Arbeite ebend in Firmen die auch die Rechenleistung brauchen. Unsere Server können NIE schnell genug sein. Und nach 3 Jahren sind die wirklich zu langsam weil unsere Datenbanken täglich größer werden. Und ab 1 Tag aufall bekommen wir richtige Probleme. Aus dem Grund haben wir Serviceverträge. Diese werden aber nach nach 3 Jahren (oder meinetwegen 5Jahre) immer teuerer. Dann werden nach spätestens 5 Jahren die aktuellen server zuTest-Server die Prodution läuft auf neuen. Klar kenn ich ich auch drei-man-Firmen wo in der ecke ein Server seit 10Jahren steht. Aber diese firmen bieten auch keine Service auf dem Server für Kunden an. Eventuell sollte man unterscheiden was man unter Server versteht, für viele hier scheint es nur ein Besserer Desktop PC zu sein. Aber es gibt ebend auch server mit 200GB RAM und 4 Sockel mit jeweils 6 Kernen.
Peter II schrieb: > wo ist dein Problem, ich Arbeite ebend in Firmen die auch die > Rechenleistung brauchen. Unsere Server können NIE schnell genug sein. Ja, das ist ein mögliches Szenario und in diesem Szenario ist eine solche 3-Jahre Regel sinnvoll. In einem anderen Szenario lasten die meisten Serverfunktionen keine Maschine aus, und so ist das bei uns. Mit der Grösse der Firma hat das wenig zu tun, eher mit der Branche.
Peter II schrieb: > Eventuell sollte man unterscheiden was man unter Server versteht, für > viele hier scheint es nur ein Besserer Desktop PC zu sein. Nur für dich scheint es nur eine Variante zu geben. Alle anderen haben schon lange verstanden, daß es nicht nur schwarz und weiß gibt.
Peter II schrieb: > Eventuell sollte man unterscheiden was man unter Server versteht, für > viele hier scheint es nur ein Besserer Desktop PC zu sein. Aber es gibt > ebend auch server mit 200GB RAM und 4 Sockel mit jeweils 6 Kernen. Ein Server ist ein Rechner, der einen mehr oder weniger zentralen Dienst erbringt. Der kann hinsichtlich Rechen- oder I/O-Leistung anspruchsvoll sein, oder auch nicht. Das kann beispielsweise ein zentraler Faxserver sein. Der leistet durch neue leistungsfähigere Hardware nicht mehr als vorher, bräuchte aber dafür eine neue teure I/O-Karte, weil die alte einen PCI-Bus hat. Es reicht wenn er schnell genug ist. Und deshalb kommt diese Funktion auch heute noch mit einem über 10 Jahre alten Pentium III aus und wird erst dann abgelöst, wenn die ganze Telefonie abgelöst wird. Und von dieser Art Server kann es viele geben. Und dann gibt es die schon erwähnten VM Hosts. Die leben natürlich nicht so lang. Aber das sind eben aufgrund der Konsolidierung wesentlich weniger, dafür aber weit dickere Maschinen.
A. K. schrieb: > Das kann beispielsweise ein zentraler Faxserver sein. Der leistet durch > neue leistungsfähigere Hardware nicht mehr als vorher, bräuchte aber > dafür eine neue teure I/O-Karte, weil die alte einen PCI-Bus hat. oder ein ISDN-LAN-Gateway wie von LANCOM oder eine FritzBox. schon kann das ding in die VM und man spart 150€ stomkosten im Jahr. damit hat man die Kosten für das Gerät nach 1-2 Jahren rein und hat einen Server weniger.
Peter II schrieb: > oder ein ISDN-LAN-Gateway wie von LANCOM oder eine FritzBox. schon kann > das ding in die VM und man spart 150€ stomkosten im Jahr. Ja, das wäre möglich. Aber der Gateway bräuchte eine S2M-Schnittstelle, womit Billigdinger wie Fritzboxen ausfallen. Und die Software bräuchte eine Renovierung, deren Kosten schon alleine locker ausreichen, um den alten Server für Jahrzehnte mit Strom zu versorgen.
A. K. schrieb: > Und die Software bräuchte > eine Renovierung, deren Kosten schon alleine locker ausreicht, um den > alten Server für Jahrzehnte mit Strom zu versorgen. warum die Software erneuern wenn die vorhanden ausreicht? > Ja, das wäre möglich. Aber der Gateway bräuchte eine S2M-Schnittstelle, > womit Billigdinger wie Fritzboxen ausfallen. da kenn ich auch leider kein Produkt für uns waren 4x2 B-Kanäle aureichend und da gab es etwas passendes von LanCom.
Peter II schrieb: > warum die Software erneuern wenn die vorhanden ausreicht? Eben, sag ich doch ;-). Die alte Software hat sehr konkrete Vorstellungen von einer S2M-Anbindung. So ein LAN-ISDN Gateway gehört nicht dazu. Und so behalten wir eben die alte Software. Und damit die läuft, auch die alte Hardware. Irgendwann wird die Telefonie abgelöst und dann ist Ende.
A. K. schrieb: > Eben, sag ich doch ;-). Die alte Software hat sehr konkrete > Vorstellungen von einer S2M-Anbindung. So ein LAN-ISDN Gateway gehört > nicht dazu. ich hätte jetzt auf CAPI2.0 getippt und damit sollte doch wohl eine FaxSoftware zurechkommen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.