hi zusammen, ich hab arge probleme auf der vmware seite informationen zusammenzusuchen bezüglich der software die eine vmware installation auf servern ausmacht. das gibts esx, esxi als hypervisor, aber der unterschied wird nicht erklärt - sind beides bare-metal installationen, respektive wie viel nutzbares betriebssystem liegt darunter? esxi scheint, glaube ich gelesen zu haben, ohne os (z.b. gnu tools, glibc, perl…) installiert zu werden, höchstens mit busybox. eine installation von weiterer software wäre da ausgeschlossen, richtig? dann die verwaltungssoftware: vsphere und vcenter… was ist wofür zuständig? meinem verständnis nach dient vcenter der verwaltung von vm's auf einem server, richtig? vsphere, z.b. selbst installiert in einer vm, dient dazu mehrere vcenter instanzen zu steuern, also mehrere server zusammen zu fassen und zu koordinieren (HA-features, vm-move, load-balancing), richtig? im bild 1 habe ich mal die auswahlliste gepostet… was zur hölle brauch ich davon (bei einer 2 prozessor/16 kern maschine)? laut bild 2 brauche ich, wenn ich 2 server betreiben will noch eine extra vsphere lizenz, richtig? der mist regt mich furchtbar auf… können die sich ihr bullshit-bingo nicht sparen und kurz und prägnant erklären was man wofür braucht?
Seit V5.0 gibt es ESX nicht mehr, nur noch ESXi. In ESX war das Konsolsystem ein ziemlich komplettes Redhat. ESXi ist eine Minimalinstallation, die oft direkt von einem (ggf. internen) USB-Stick läuft. Auf ESX kommte man eigenen Kram installieren. Bei ESXi sollte man nicht damit rechnen. Wär freilich die Frage, was du da drauf packen willst. > meinem verständnis nach dient vcenter der verwaltung von vm's auf > einem server, richtig? Richtig. Der VCenter-Server ist nicht zwingend, ESXi ist mit stark eingeschränkter Funktion auch ohne einsetzbar, dann kostenlos. > kurz und prägnant erklären was man wofür braucht? Fass dich an die eigene Nase. Du hast nämlich auch nicht kurz und prägnant beschrieben, wofür du VMware eigentlich brauchst. Da wirds schwierig, Tipps zu geben.
ESXi verwendet auch einen eigenen Kernel, nicht direkt ein Linux.
Zur Lizenzierung gibts ein Dokument von VMware. Dieses Thema kann etwas verwirrend sein, weil Dell(?) mit der CPU den Sockel meint, VMware mindestens stellenweise aber den Core. Die 2-CPU Lizenz dürfte passen. Welche Version du benötigst wär eine andere Frage, Enterprise Plus ist eher was für grosse Umgebungen mit einigen VMware-Hosts, SAN-Storage und Hochverfügbarkeit.
A. K. schrieb: > Fass dich an die eigene Nase. Du hast nämlich auch nicht kurz und > prägnant beschrieben, wofür du VMware eigentlich brauchst. Da wirds > schwierig, Tipps zu geben. hast recht. ich brauche zwecks ausfallsicherheit 2 server. darin installiert mehrere vm's von denen aber höchstwahrscheinlich nur eine, ein tomcat server, ausfallsicher sein muss. die weiteren vm's sind gelegentlich heftig benutzte report generatoren, eine kaum genutzte mssql datenbank, ein spss-server, zwei oracle application server/produktion, ein oder zwei oracle portal-server, zum testen ein oder 2 weblogic server, und zu guter letzt, das würde ich gerne nativ auf dem server und nicht in vm's laufen lassen: ein samba-public laufwerk (2+tb), platz für arbeitsrechner backups (10tb), ein cvs, dhcp und spezielle iptables routings.
c. m. schrieb: > meinem verständnis nach dient vcenter der verwaltung von vm's auf > einem server, richtig? Hab erst jetzt die Betonung gesehen. Ein einzelner VCenter-Server kann beliebig viele ESXi Hosts verwalten. In Verbindung mit HA ist auch diese Funktion hochverfügbar, da die ESXi Hosts auch ohne VCenter Server weiter laufen und diesen auch ggf. automatisch neu starten können. In dem Fall sind zwar übergangsweise Management und virtuelle Konsolen weg, die VMs selbst sind aber nicht davon betroffen.
Es kann einfacher sein, das vom Serverhersteller evtl. angebotene Hypervisor-Medium, letztlich ein interner USB_Stick, gleich mit zu beschaffen (2stellige €/$). Da sind dann hardware-spezifische Treiber schon drin. Das generische ESXi von VMware kann unvollständig sein, beispielsweise was die Integration von Hardware-Management Information in die VSphere-Oberfläche angeht. Ggf. gibts dazu auch ESXi-ISOs vom Serverhersteller.
HP z.B. bietet solche ISOs für ihre Server an. Vor ein paar Wochen erst einen DL360 Gen8 oder so da gehabt, da brauchte ich die, da sonst die Platten am Raid Controller nicht erkannt wurden.
c. m. schrieb: > hast recht. ich brauche zwecks ausfallsicherheit 2 server. > darin installiert mehrere vm's von denen aber höchstwahrscheinlich nur > eine, ein tomcat server, ausfallsicher sein muss. Klingt nach "Standard" oder "Essentials Plus".
A. K. schrieb: > Der VCenter-Server ist nicht zwingend, ESXi ist mit stark > eingeschränkter Funktion auch ohne einsetzbar, dann kostenlos. Das ist aber auch nicht so ganz richtig. Die kostenlose Version ist (unabhängig von vCenter) bis kurz vor der Unbrauchbarkeit abgespeckt. Davon ab kann man die diversen ESXi vSphere Editionen jedoch auch ohne vCenter lizenzieren, dann fehlen halt Funktionen der zentralen Verwaltung mehrerer ESXi-Hosts. Sprich, will man nur einen (oder wenige) ESXi-Host aufstellen, kann man auch ohne vCenter lizenzieren. Für die Verwaltung nimmt man dann vSphere Client. Selbst HA braucht für den Betrieb nicht zwangsweise einen vCenter-Server, bei der Konfiguration scheint er jedoch Pflicht zu sein.
c. m. schrieb: > gerne nativ auf dem server und nicht in vm's laufen lassen: ein > samba-public laufwerk (2+tb), platz für arbeitsrechner backups (10tb), > ein cvs, dhcp und spezielle iptables routings. Auf dem ESXi Konsolsystem, wie dir wohl vorschwebt, geht das definitiv nicht. Der cvs, DHCP etc. geht auch als VM. Routing je nach Interfaces und Sicherheitsfrage - direkt ins Internet würde ich mit keinem Bein gehen wollen. Ein Bein in eine DMZ wär aber schon denkbar. Die 10TB sind auf einem separates NAS sicher besser untergebracht, ggf. auch die Homes gleich mit. Und ggf. der Store der VMs wg. HA, per iSCSI oder NFS. Als Store für VMs nur welchen verwenden, der bei VMware aufgeführt wird, sonst kein Support. HA setzt separaten Store voraus (es sei denn es läuft jeweils eine Standby-VM parallel). Interne Platten in den ESXi Host sind dann völlig unnötig, folglich brauchts da auch keinen RAID-Controller. Genug Ethernets vorsehen. Min 4 pro ESXi Hosts.
Lizenzfragen in den VMs beachten! Da gibts ein paar Fallstricke. Bei manchen Firmen muss pro Host bezahlt werden, auf dem ein System laufen könnte, was insbesondere bei DRM (dynamische Lastverteilung) relevant wird. Microsoft macht das beispielsweise gerne, mit DRM zählt bei 2 Hosts jedes Windows-System doppelt, wenns nicht für Datacenter gereicht hat. Wieder andere lizenzieren die Hardware darunter, nicht die VM. Was dann auf eine 2-CPU 16-Core Lizenz rausliefe, selbst wenn die VM nur 1 Core hat.
A. K. schrieb: > c. m. schrieb: >> gerne nativ auf dem server und nicht in vm's laufen lassen: ein >> samba-public laufwerk (2+tb), platz für arbeitsrechner backups (10tb), >> ein cvs, dhcp und spezielle iptables routings. > > Die 10TB sind auf einem separates NAS sicher besser untergebracht, ggf. > auch die Homes gleich mit. Und ggf. der Store der VMs wg. HA, per iSCSI > oder NFS. Als Store für VMs nur welchen verwenden, der bei VMware > aufgeführt wird, sonst kein Support. > > HA setzt separaten Store voraus (es sei denn es läuft jeweils eine > Standby-VM parallel). Interne Platten in den ESXi Host sind dann völlig > unnötig, folglich brauchts da auch keinen RAID-Controller. mal zusammenfassend und bewertend: vmware gibts in neueren versionen nicht mehr mit betriebssystem drunter, d.h. die installation weiterer programme fällt weg. das bedeutet z.b. das wir einen weiteren server brauchen der das backup der vm's übernimmt, respektive den zweiten backupserver um lizenzen zur ansteuerung einer weiteren tape library und einer lizenz zum zugriff auf vmware erweitern. kosten geschätzt 5-7k€ je nach HA-art brauchen wir entweder 2 "plattenlose" vmware-server und eine dual-port storage (SPOF, möglicherweise abfangbar mit 2 quad-port storages und FCAL-switches falls vmware das unterstützt), oder 2 server mit platten. auf jeden fall aber können wir die ablage von massendaten (backups, public laufwerk) auf diesen systemen vergessen weil nicht machbar/praktikabel. also muss ein (zwei!) weiterer server her der diese aufgabe übernimmt, und auch dort brauchen wir zumindest eine client lizenz fürs backup. kosten: 2*(15k€ hardware, 14k€ vmware lizenz) grob geschätzt (vor allem HW) + backup-lizenzen. imho ziemlich fett und "teuer". demgegenüber als alternative: wir kaufen 2 server (z.b. PowerEdge R515, 2cpu-16cores, 128gb RAM, 12+2 platten), installieren SLES11, richten routing so ein wie wir es brauchen, installieren samba fürs public laufwerk, rsync server, cvs und virtualbox zur virtualisierung. dann übertragen wir die netbackup lizenzen des alten servers (oder kaufen neue) und machen via lvm snapshots file basierte backups auf band. für die HA-wünsche des virtuellen tomcat servers benutzen wir heartbeat. kosten: 2*(15k€ hardware, 2k$ vbox lizenz, 3k$ 3jahre support) + möglicherweise eine neue netbackup lizenz. vorteile: gute kontrolle über das system, KISS eingehalten :) nachteil: virtualbox klingt nicht so professionell wie vmware, kann wahrscheinlich auch nicht die dinge die vmware anbietet - die wir aber auch nicht wirklich brauchen. ich hätte jetzt gerne hoch ein bildchen angehängt um z.b. die prägnanz des routings deutlich zu machen das nativ implementiert sehr viel besser ist als virtualisiert, aber ich habe momentan nicht die möglichkeit was einzuscannen und mit gimp will ich mir das nicht antun. auf jeden fall danke für eure mühe. ich werde das noch ausarbeiten und zusammenfassen um es meinem chef dann unter die nase zu halten - soll der enscheiden :)
c. m. schrieb: > je nach HA-art brauchen wir entweder 2 "plattenlose" vmware-server und > eine dual-port storage (SPOF, möglicherweise abfangbar mit 2 quad-port > storages und FCAL-switches falls vmware das unterstützt), Store-Mirroring beherrscht VMware selbst leider nicht, d.h. wenn man beim HA kein Standby-System jeder relevanten VM über VMware shadowed, dann muss entweder das SAN/NAS frei von SPOFs sein (so ist es bei uns), oder man clustered die betreffenden VMs innerhalb der VMs. Unklar ist mir aber, weshalb in dieser Hinsicht nichts kommt. Eine Storage-Virtualisierung mit Redundanz als Storage-Basis von VMware wär schon eine ziemlich nützliche Sache. Die Kompetenz sollte da sein, als Tochter von EMC. Aber vielleicht ist auch grad das der Grund und EMC will sich deren angestammtes Geschäft mit dem Storage nicht vermasseln (und so landet das halt bei der Konkurrenz ;-). > für die HA-wünsche des virtuellen tomcat servers benutzen wir heartbeat. > kosten: 2*(15k€ hardware, 2k$ vbox lizenz, 3k$ 3jahre support) + > möglicherweise eine neue netbackup lizenz. Das kann man auch innerhalb von VMs machen, wenn kein Hardware-STONITH verlangt wird. Ist das was ich oben mit clustering innerhalb der VMs meinte. Für wenige VMs ist das ok, für viele VMs aber zu aufwendig.
Ich betreibe ein ESXI System auf einem Intel Quadcore Rechner. Läuft super gut und ist einfach zu installieren. Ich habe zwei Ubuntu, ein Fedora und ein OracleLinux laufen. Sehr gut als Entwicklungsrechner zu gebrauchen. Wenn man verschiedene Versionsstände testen will, dann fährt an einfach die betreffende VM hoch. Leider läuft das vcenter für die Administration nur aus Windows und nicht auf Mac. Aber man kann nicht alles haben :-) Nach dem kostenlosen Registrieren bei vmware kannst Du das alles kostenlos herunterladen. Lizenzbestimmungen sind natürlich beim Einsatz zu beachten. Es gibt auch Backup-Skripte, die die VMs automatisiert sichern (z.B. auf eine lokale Festplatte oder ein Netzlaufwerk. Das läuft auf dem ESXI Host nebenbei mit. Kann man alles mit Bordmitteln einrichten. Un ja, ich finde die vmware Homepage und ihre Produkte nicht wirklich einfach zu durchschauen :-) P.S.: 2x 15k Harware? P.P.S.: Bezüglich Tomcat und HA wäre vielleicht ein Loadbalancer hilfreich.
Pete K. schrieb: > Sehr gut als Entwicklungsrechner zu gebrauchen. Wenn man verschiedene > Versionsstände testen will, dann fährt an einfach die betreffende VM > hoch. Yep, aber HA ohne SPOF stellt gänzlich andere Anforderungen ans Gesamtdesign als deine simple Umgebung. Bis hin zu den Netzwerken.
Pete K. schrieb: > P.S.: 2x 15k Harware? Yo, das kriegt man hin. Zwar liegt man mit 2 Top-CPUs und 256GB RAM noch darunter, aber wenn man dann noch die Kiste mit Disks vollstopft, dann geht das. ;-)
A. K. schrieb: > Das kann man auch innerhalb von VMs machen, wenn kein Hardware-STONITH > verlangt wird. Ist das was ich oben als clusteing innerhalb der VMs > meinte. Für wenige VMs ist das ok, für viele VMs aber zu aufwendig. wir haben momentan nur die anforderung eine vm HA zu machen, da wird auch nicht viel mehr kommen. die "high availability" ist btw auch eher relativ - wir sind hier im öffentlichen dienst und 5 minuten offline/tag(nacht) sind definitv möglich.
c. m. schrieb: > wir haben momentan nur die anforderung eine vm HA zu machen, da wird > auch nicht viel mehr kommen. Dann ist das innerhalb zweier geclusterter VM oder per Standby-VM sinnvoller und der ganze übrige HA-Kram kann entfallen. Getrennte Hosts mit jeweils lokalem Store sind dann kein Problem. > wir sind hier im öffentlichen dienst und 5 minuten offline/tag(nacht) > sind definitv möglich. Hör ich da eine leichte Ironie raus? ;-)
Pete K. schrieb: > P.S.: 2x 15k Harware? da bezahlst du auch "support" mit. die preise sind natürlich z.t. mondpreise, z.b. 40€ für ein 3m cat6 kabel oder 400€ für eine 7.2k 1t SATA platte. aber du bekommst dafür auch bei plattenausfall innerhalb von 4 stunden eine neue passende platte geliefert und wirst regelmäßig mit firmwareupdates versorgt. besonders dell hat sich bei uns da in der vergangenheit positiv bemerkbar gemacht, sun, respektive jetzt oracle haben sich im gegenzug dafür schon ordentliche schnitzer erlaubt.
A. K. schrieb: >> wir sind hier im öffentlichen dienst und 5 minuten offline/tag(nacht) >> sind definitv möglich. > > Hör ich da eine leichte Ironie raus? ;-) hier läuft alles sehr gut, sophiticated und ordentlich.
c. m. schrieb: > da bezahlst du auch "support" mit. die preise sind natürlich z.t. > mondpreise, z.b. 40€ für ein 3m cat6 kabel Wobei sich kein Server-Hersteller quer legt, wenn man an sein heiliges Gerät ein anderswo bezogenes Ethernet-Kabel steckt. ;-) War auch schon mal schlimmer. Die RAM-Preise z.B. von IBM sind heute nicht mehr annähnernd so weit von den Marktpreisen weg, wie sie früher mal waren. > aber du bekommst dafür auch bei plattenausfall innerhalb von 4 stunden > eine neue passende platte geliefert und wirst regelmäßig mit > firmwareupdates versorgt. Wobei es billiger sein kann, die Platte selber auf Lager zu haben, statt einen Service mit garantierter Wiederherstellungszeit in 4h zu bezahlen. Ohnehin: Service mit 4h Reaktionszeit ist nicht identisch mit 4h Wiederherstellungszeit.
c. m. schrieb: > hier läuft alles sehr gut, sophiticated und ordentlich. Naja .. Ö.D. und "brennt nix an" in einem Atemzug zu bringen provoziert schon so manche Stereotypen à la Tom. ;-)
A. K. schrieb: > c. m. schrieb: >> da bezahlst du auch "support" mit. die preise sind natürlich z.t. >> mondpreise, z.b. 40€ für ein 3m cat6 kabel > > Wobei sich kein Server-Hersteller quer legt, wenn man an sein heiliges > Gerät ein anderswo bezogenes Ethernet-Kabel steckt. ;-) nicht falsch verstehen, ich habe das nur als beispiel gebracht weils mir in der preisliste aufgefallen ist. bestellen würde ich das zu dem preis nie, auch wenn ich es nicht bezahlen muss. da würde ich tatsächlich ein schlechtes gewissen bekommen - das muss nicht sein. >> aber du bekommst dafür auch bei plattenausfall innerhalb von 4 stunden >> eine neue passende platte geliefert und wirst regelmäßig mit >> firmwareupdates versorgt. > > Wobei es billiger sein kann, die Platte selber auf Lager zu haben, statt > einen Service mit garantierter Wiederherstellungszeit in 4h zu bezahlen. > Ohnehin: Service mit 4h Reaktionszeit ist nicht identisch mit 4h > Wiederherstellungszeit. ja ich weiß, 4h reaktionszeit kann auch bedeuten das der techniker mit "gibtsn problem?" erst nach vier stunden zurückruft (nachdem man das problem in epischer breite der osteuropäischen call-center trulla diktiert hat - wink an oracle). aber wie schon geschrieben haben wir da bei dell sehr gute erfahrungen gemacht.
c.m. schrieb: > aber wie schon geschrieben haben wir da bei dell sehr gute erfahrungen > gemacht. Dell ist ok. Meistens. Manchmal dauerts etwas, bis man dem Serviceheini am Rohr verklickert hat, dass er sich seine Standardprozedur mit Firmware-Update, Testprogramm usw sonstwo hin stecken kann und das defekte Laufwerk einfach nur auswechseln soll.
A. K. schrieb: > Wobei es billiger sein kann, die Platte selber auf Lager zu haben, statt > einen Service mit garantierter Wiederherstellungszeit in 4h zu bezahlen. Nicht nur billiger, sondern in jeder Hinsicht sinnvoll. Wenn man mehrere 10k€ für die Geräte hinlegen kann, werden wohl auch ein paar 100 für kritische Ersatzteile übrig sein. Und man muß nicht auf die Servicekasper warten, denn 4h sind auch schon ein halber Tag. Bis alles wieder läuft, vergeht nochmal so viel Zeit und der ganze Arbeitstag gestaltet sich nullproduktiv. Das ist auch der Hauptgrund, weshalb ich nach wie vor die Server selbst baue. Im Ernstfall habe ich die Funktionsfähigkeit bereits wiederhergestellt, noch bevor der 3rdParty-Techniker angereist wäre. Natürlich geht das nur in relativ kleinen Umgebungen, ab einer gewissen Unternehmensgröße muß man wohl oder übel auf Fertigprodukte zurückgreifen.
A. K. schrieb: > Dell ist ok. Meistens. Mein erster und bisher einziger Kontakt im Serverbereich mit denen war ein Debakel. Die Netzwerkschnittstelle des Gerätes funktionierte schon im Auslieferungszustand nicht bzw. tauchte als Hardware gar nicht auf. Da ich ohne OS geordert hatte, wollte die Hotline das zunächst nicht so recht glauben und unterstellte mir durch die Blume Unfähigkeit bei der Installation. Nun ja, der Dell-Techniker tauschte am nächsten Tag das Board und auf Anhieb lief dann auch das Netzwerk. Schade um die verlorene Zeit und unnötige Kosten für den Kunden.
Icke ®. schrieb: > Da ich ohne OS geordert hatte, wollte die Hotline das zunächst nicht so > recht glauben und unterstellte mir durch die Blume Unfähigkeit bei der > Installation. Ja, man muss da manchmal etwas hartnäckig sein. Dell scheint die Prozeduren für die DAU-Hotline auch ab und zu an Profis auszuprobieren. Haben wohl manchmal Probleme, die Hüte passend zu wechseln. Ist mir bei IBM noch nicht passiert.
Für ne Hand voll Server im Bürogebäude, wo man auch selbst ist, mag das Platten lagern ja vollkommen OK sein, aber was machste, wenn deine Kisten X km weiter in irgend einem RZ stehen, bei einem Kunden, ... Genauso auch, wenn es mehr als nur ein paar sind. Dafür kann man den Service vom Hersteller ganz gut gebrauchen.
Nils S. schrieb: > aber was machste, wenn deine > Kisten X km weiter in irgend einem RZ stehen, bei einem Kunden, Hinfahren natürlich, meine Kundschaft ist im Umkreis <100km angesiedelt. Nils S. schrieb: > Genauso auch, wenn es mehr als nur ein paar sind. Icke ®. schrieb: > Natürlich geht das nur in relativ kleinen Umgebungen, ab einer gewissen > Unternehmensgröße muß man wohl oder übel auf Fertigprodukte > zurückgreifen.
Muss denn die HA auf Hardware-Ebene gemacht werden? Wenn es Web-Applikationen sind und keine monolithischen Applikationen ist ein Load-Balancing, natürlich mit redundanten Anbindung sinnvoller/einfacher. Wenn da ein Rechner ausfällt übernimmt hat der nächste. Datenbanken vielleicht als Oracle RAC. Außerdem benötigts Du sowieso wahrscheinlich zwei Brandabschnitte, wenn es nur 5min/tag sein dürfen. Ist denn überhaupt mal ein Desaster Recovery Konzept oder Business Continuity Konzept erstellt worden? Wie sieht es aus mit typischen SPOFs wie Strom, Netzwerkanbindung ins Haus, Kühlung, etc.? Machmal hilft auch ein Cold-Standby-Rechner, der in kurzer Zeit wieder online ist.
Pete K. schrieb: > Ist denn überhaupt mal ein Desaster Recovery Konzept oder Business > Continuity Konzept erstellt worden? Er sagte doch schon, dass er im öffentlichen Dienst ist. Und du schreckst ihn jetzt mit Kosten auf, die locker Faktor 10 ausmachen können. Was meinst du was los ist, wenn diese Kosten jetzt die Hierarchie nach oben spazieren.
Pete K. schrieb: > Muss denn die HA auf Hardware-Ebene gemacht werden? Wenn es > Web-Applikationen sind und keine monolithischen Applikationen ist ein > Load-Balancing, natürlich mit redundanten Anbindung > sinnvoller/einfacher. Wenn da ein Rechner ausfällt übernimmt hat der > nächste. Datenbanken vielleicht als Oracle RAC. > > Außerdem benötigts Du sowieso wahrscheinlich zwei Brandabschnitte, wenn > es nur 5min/tag sein dürfen. > > Ist denn überhaupt mal ein Desaster Recovery Konzept oder Business > Continuity Konzept erstellt worden? > > Wie sieht es aus mit typischen SPOFs wie Strom, Netzwerkanbindung ins > Haus, Kühlung, etc.? gaaaanz ruhig bleiben. ich habe weiter oben schon ausgeführt was virtualisiert werden soll, und da ist nichts dabei was "mission critical" ist. natürlich streben wir 100% uptime an, aber wie schon geschrieben sind wir im öffentlichen dienst und es geht kein geld verloren weil wir irgendwelche aufträge nicht annehmen können so wie in der freien wirtschaft. es gilt die balance zu finden zwischen kosten/aufwand und wirklich benötigter funktionalität - immer daran denken: es könnte dein geld sein das wir für eventuell völlig überzüchtete hard-/software "aus dem fenster werfen". und da hab ich keinen bock drauf, imho wäre das verschwendung und fast schon betrug. > Machmal hilft auch ein Cold-Standby-Rechner, der in kurzer Zeit wieder > online ist. exakt :)
c. m. schrieb: > von denen aber höchstwahrscheinlich nur > eine, ein tomcat server, ausfallsicher sein muss. Dann nimm doch zwei Rechner für die VMs plus Samba etc. Sowie einen Rechner als Cold-Standby und ein separates NAS für Backup. Falls der Tomcat-Rechner die Grätsche macht, kann der zweite Rechner eine VM mit dem Backup vom NAS hochgefahren werden. Als Sicherheit dann noch der Dritte Rechner als Cold-Standby. Zum Thema NAS kann ich die QNAP-Teile empfehlen. Gut administrierbar und (zuindest bei uns bisher) zuverlässig. Der kann dann auch Samba hosten. Das kostenlose ESXI mit vcenter (Windows Management) könnte für Deine Anwendungen ausreichen. Spart Lizenzkosten. Die öffentliche Hand sollte doch einen einigermaßen zentralen Einkauf mit entsprechenden Rabatten für so etwas haben, oder etwa nicht? Da würde ich mal Kontakt mit dem Einkäufer aufnehmen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.