hallo ich suche nach einer möglichkeit, etwa 20 desktop pcs im büro und notebooks so einzurichten, dass eine person sich irgend einen arbeitsplatz oder irgendein notebook schnappen kann, sich dort einloggt und alles so vorfindet wie er/sie ihn verlassen hat. also nicht nur zugriff auf seine/ihre daten auf dem nas, sondern auch auf alle von ihm/ihr installierten programme zum beispiel. gibt es hierfür lösungen?
Windows-Domäne mit server-basierten Benutzerprofilen. Eigentlich ein alter Hut. In der grundsätzlichen Einrichtugn nicht ganz trivial, aber wenn es denn einmal funktioniert, dann tut es, was es soll ...
Robert Dachser schrieb: > hallo > ich suche nach einer möglichkeit, etwa 20 desktop pcs im büro und > notebooks so einzurichten, dass eine person sich irgend einen > arbeitsplatz oder irgendein notebook schnappen kann, sich dort einloggt > und alles so vorfindet wie er/sie ihn verlassen hat. also nicht nur > zugriff auf seine/ihre daten auf dem nas, sondern auch auf alle von > ihm/ihr installierten programme zum beispiel. > > gibt es hierfür lösungen? Ja, man nennt das Thin Clients. Im Prinzip laufen alle Anwendungen auf einem großen starken Server, was auch wieder ein normaler PC ist, nur halt bevorzugt aus der Serverklasse mit üppig viel RAM und die Thin Clients sind mit diesem Server verbunden und dienen nur als Eingabe- und Ausgabegerät. Prinzipiell kann man aber jeden PC zum Thin Client umfunktionieren. Alternativ dazu sollte es auch möglich sein, alle home und Programmverzeichnisse als Netzlaufwerk von einem zentralen Server einzubinden, so dass auch hier jeder Nutzer seine Umgebung wieder wie in der Fragestellung beschrieben, vorfindet.
Nano schrieb: > Alternativ dazu sollte es auch möglich sein, alle home und > Programmverzeichnisse als Netzlaufwerk von einem zentralen Server > einzubinden, so dass auch hier jeder Nutzer seine Umgebung wieder wie in > der Fragestellung beschrieben, vorfindet. Ergänzung: In diesem Fall laufen die Anwendungen dann nicht auf dem Server, sondern auf dem Client, was den Server etwas entlastet. Der Nachteil ist, dass man alle Clients den Anforderungen entsprechend leistungsstark halten muss. Bei der ersten Lösung muss man nur den Server aufrüsten, während die Thin Clients oder zum Thin Client umfunktionierte PCs recht leistungsschwach sein dürfen. Der Nachteil ist allerdings die Ausfallgefahr, wenn der Server oder das Netz ausfällt, dann drehen alle Mitarbeiter Däumchen. Das Problem hat man nicht, wenn jeder seinen Rechner vor sich hat. In jedem Fall sollte man also einen Backupserver vorsehen, der einspringt, wenn der andere nicht mehr kann. Gleiches gilt für die Netzlaufwerkverteilung. Schau dir dazu auch mal PXE an. https://de.wikipedia.org/wiki/Preboot_Execution_Environment
Nano schrieb: > Alternativ dazu sollte es auch möglich sein, alle home und > Programmverzeichnisse als Netzlaufwerk von einem zentralen Server > einzubinden, so dass auch hier jeder Nutzer seine Umgebung wieder wie in > der Fragestellung beschrieben, vorfindet. Noch etwas. Das einbinden als Netzlaufwerk hat allerdings den Nachteil, dass die Ladezeiten sehr lang sein können, wenn die Datenmengen besonders groß sind. Da ist es besser, man lässt das Programm auf dem Server werkeln und stellt nur die grafische Ausgabe auf dem Thin Client oder den zum Thin Client umfunktionierten PC dar. Bei der Thin Client Lösung laufen grundsätzlich die Anwendungen auf dem Server, entsprechend schnell sind dann auch große Datenmengen geladen, denn die müssen nicht übers Netzwerk geschickt werden. Übers Netzwerk wird nur die Darstellung und die Eingabe von Tastatur und Maus geschickt.
Ich denke, es kommt vor allem darauf an, was man bearbeitet. Konstruieren viele Leute zusammen eine Industrieanlage mit abhängigen Einheiten, oder geht es um eine Lagerverwaltung? Oder ist es eine große Kanzlei, wo nur ab und zu mal einer das Dokument von anderen einsehen will?
Robert Dachser schrieb: > sondern auch auf alle von > ihm/ihr installierten programme zum beispiel. Jay W. schrieb: > Terminalserver Terminalserver passt nicht wirklich gut zur Installation von Programmen durch den Anwender.
Robert Dachser schrieb: > eine person sich irgend einen > arbeitsplatz oder irgendein notebook schnappen kann, sich dort einloggt > und alles so vorfindet wie er/sie ihn verlassen hat. Frank E. schrieb: > Windows-Domäne mit server-basierten Benutzerprofilen. Geht nur, wenn jeder PC die gleichen Programme drauf hat. Nicht aber, wenn jeder Anwender seine Programme selbst installiert.
Nano schrieb: > Alternativ dazu sollte es auch möglich sein, alle home und > Programmverzeichnisse als Netzlaufwerk von einem zentralen Server > einzubinden, so dass auch hier jeder Nutzer seine Umgebung wieder wie in > der Fragestellung beschrieben, vorfindet. Klappt das wirklich zuverlässig? Home/Daten - klar. Aber sämtliche vom Anwender selbst installierten Programme per individuellem Netzlaufwerk? In der Theorie kann ich mir das vorstellen, in der Praxis weniger.
In einem Büro sollen die Anwender in der Regel keine eigenen Programme installieren. Ich hab das mal mit einem Suse Linux Server gelöst, der per NFS das home Verzeichnis des Users zur Verfügung gestellt hat.
Floh schrieb: > VMware mit 20 virtualisierten Rechnern Citrix hat auch was dazu. Also nicht die Terminalserver Variante, für die Citrix früher bekannt war, sondern mit Virtualisierung und individueller Zuordnung der Anwender-VMs. Lässt sich mit VMware kombinieren, aber mit Xen haben die auch eine Virtualisierungstechnik dazu. Die spielt nicht in der gleichen Liga wie vSphere, aber für diesen Zweck sollte sie reichen. Citrix hat eine recht effiziente Desktop-Übertragung zwischen Client und VM, was in Zeiten von Homeoffice nützlich sein kann.
Andreas R. schrieb: > In einem Büro sollen die Anwender in der Regel keine eigenen Programme > installieren. Ja. Das vereinfacht die Sache ganz erheblich.
Andreas R. schrieb: > Ich hab das mal mit einem Suse Linux Server gelöst, der per NFS das home > Verzeichnis des Users zur Verfügung gestellt hat. Linux vereinfacht die Sache nicht zuletzt finanziell. Denn bei Windows sollte man die Lizenzfragen und deren Kosten auf dem Radar behalten. Microsoft hält da ziemlich die Hand auf, und rauszukriegen, wo man überall Geld reinschiessen muss, und wieviel, kann eine spannende Aufgabe sein, die sich nur für (vorher) geistig kerngesunde Leute mit guten Nerven eignet.
:
Bearbeitet durch User
Eine Variante kann Auslagerung nach draussen sein, aka Cloud. Geht schlecht bei Individual- und Nischenanwendungen, aber bei Standardanwendungen bieten sich da durchaus Möglichkeiten. Spart Aufwand und Kosten für Administration. Nun bin ich aus mancherlei Gründen nicht so recht der Fan davon, aber nennen sollte man das schon.
VMWare Horizon. Und blos nichts von Citrix. Die koennen nicht mal zuegig ihre Bugs fixen.
Robert Dachser schrieb: > gibt es hierfür lösungen? Das war doch an der Uni so. Könnte man zum nächsten Rechenzentrum pilgern, um sich da mal genauer zu informieren. Wir hatten (Multi-OS) Konten mit üppig Speicherplatz drauf, der Speicherplatz wurde ständig erweitert. Die Performance war meist hervorragend - es wurde auch ständig upgedatet. Die Zugänge waren aber unterschiedlich, es gab auch Rechner ohne Internet und da waren dann eben standardisierte Programme drauf und man konnte seine Daten/Prgs auf Diskette mitnehmen. Die Grenzen wurden gesprengt, als das mit der Filmsaugerei losging.. Auf dem lokalen Rechner speichern ging auch, aber dann muss man den Rechner halt wiederfinden, und sicher war dass auch nicht.. Spannend war auch immer die Frage, ob bei den 5-7 Disketten, die man z.B. für ein MP3 brauchte, alle OK sind. Ein Teil meiner Daten wurde mir noch vom Rechenzentrum (stark komprimiert) auf eine CD gebrannt. U.a. interessant war natürlich ein Großteil der Emails - die waren aber im Gegensatz zu heute speichertechnisch recht genügsam. Wichtig ist noch zum Bedenken, ob die Software, die auf den Rechnern drauf ist, auch zuhause genutzt werden kann - bzw. wie einfach oder wie schwer das ist. Im einen anderen Thread ging es ja z.B. um ein Standard-Format zum Dateien austauschen. Programme installieren? Installieren oder einfach (z.B. von Diskette) laufen lassen? Zum einen gehen mobile Anwendungen, zum anderen bieten sich (heutzutage) der Einfachheit halber VMs an.
A. K. schrieb: > Nano schrieb: >> Alternativ dazu sollte es auch möglich sein, alle home und >> Programmverzeichnisse als Netzlaufwerk von einem zentralen Server >> einzubinden, so dass auch hier jeder Nutzer seine Umgebung wieder wie in >> der Fragestellung beschrieben, vorfindet. > > Klappt das wirklich zuverlässig? Home/Daten - klar. Aber sämtliche vom > Anwender selbst installierten Programme per individuellem Netzlaufwerk? > In der Theorie kann ich mir das vorstellen, in der Praxis weniger. Ich habe schon auf Thinclients auf Solaris OS, meine Programme, die ich so brauchte, selber compiliert und installiert. Natürlich musste ich den --prefix Ordner auf meinen Homeordner, wo ich Schreibrechte hatte, umbiegen, denn Adminrechte hatte ich keine. Im großen und ganzen hat das aber geklappt. Problematisch könnten gegebenenfalls dynamische Bibliotheken sein, das habe ich damals nicht getestet. Unter Windows dürfte es in der Tat schwierig sein, vor allem mit proprietären Programmen auf die man keinen großen Einfluss hat, aber das würde ich für so etwas ohnehin nicht nutzen. Windows ist meiner Meinung nach etwas für Full Clients, für die Netzlaufwerkwelt wurde es nie designed. Bei Unix und Co geht es durch den File Hierarchy Standard. Deswegen gibt es z.b. /bin und /usr/bin, sowie die sbin Gegenstücke dazu. /bin ist für die lokale Installation vorgesehen, alles was in /usr installiert wird, ist als Netzlaufwerk vorgesehen. Leider gibt es Bestrebungen diese Auftrennung im FHS Standard nach und nach aufzuheben, einige Linux Distributionen haben das schon gemacht.
A. K. schrieb: > Andreas R. schrieb: >> In einem Büro sollen die Anwender in der Regel keine eigenen Programme >> installieren. > > Ja. Das vereinfacht die Sache ganz erheblich. Das einfachste wäre in dem Szenario wohl, den Anwendern einfach Virtuelle Maschinen zu geben und diese hostseitig entsprechend einzuschränken, auf denen können sie dann machen was sie wollen.
A. K. schrieb: > Eine Variante kann Auslagerung nach draussen sein, aka Cloud. Geht > schlecht bei Individual- und Nischenanwendungen, aber bei > Standardanwendungen bieten sich da durchaus Möglichkeiten. Spart Aufwand > und Kosten für Administration. > > Nun bin ich aus mancherlei Gründen nicht so recht der Fan davon, aber > nennen sollte man das schon. Vom Aufwand her überschaubare Individualanwendungen könnte man als Entwicklungsauftrag vergeben und daraus eine Webanwendung machen lassen. Dann braucht man nur einen Webserver und die Nutzer nehmen ihre Browser auf ihren Clients.
xyz schrieb: > VMWare Horizon. Und mit passenden Nvidia-GPUs (und dazu Lizenzen) ist das eine echt schöne Lösung, aber die Lizenzkosten sind echt interessant. (Gerade wenn man dazu noch "AppVolumes" mit "WritableVolumes" einsetzt, kann man sogar hybride Systeme bauen, Basissystem zentral gepflegt, trotzdem individuelle Anpassungen vom Nutzer.) > Die koennen nicht mal zuegig ihre Bugs fixen. Da ist vmWare aber auch kein gutes Beispiel, ein Bug gerade seit fast 6 Monaten offen, aber angeblich in der nächsten Version gefixt, wann auch immer die veröffentlicht wird.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.