Forum: PC Hard- und Software Nutzt hier jemand Linux & Windows?


von Max M. (maxmicr)


Lesenswert?

Ich bin vor kurzem vollständig auf Linux umgestiegen, benötige aber 
leider etwas Software noch auf Windows (unter anderem Altium Designer).

Ich hab nun ein kleines Board mit KiCAD erstellt aber an das Feature-Set 
von Altium kommt es einfach vor allem beim Routen nicht an. Deswegen 
wieder Altium auf einer Windows 10 VM unter VirtualBox installiert.

Leider ist Altium in der VM nicht wirklich angenehm bedienbar. Es dauert 
einfach alles etwas länger und ruckelt teilweise auch (klar, die 
virtuelle Grafikkarte hat ja nur 256MB RAM, was anscheinend das Maximum 
ist).

Ich hab schon GuestAdditions von VirtualBox installiert, RAM + CPU 
hochgeschraubt aber so wirklich geholfen hat das alles nichts.

Dann hab ich mir heute Abend den Spaß gegönnt dochmal KVM/QEMU 
auszuprobieren. Läuft auch halbwegs aber erstmal nicht merklich 
schneller. Dazu gekommen irgendwas zu installieren bin ich nicht, da 
SharedFolder anscheinend nativ mit dem virt-manager nicht möglich ist 
sondern man über irgendwelche Umwege gehen muss - sprich ich hab dann 
enttäuscht aufgegeben (was nützt mir ein Guest-Betriebssystem ohne 
SharedFolder).

DualBoot möchte ich überhaupt nicht da das für mich noch weniger Komfort 
ist als die lahme VM über VirtualBox.

Kennt ihr noch Alternativen (nein, komplett zurück zu Windows auch 
nicht)?

: Bearbeitet durch User
von Thomas (Gast)


Lesenswert?

Alternative?

Entweder den Rechner soweit aufrüsten, das Win+Altium in der VM wirklich 
gut läuft, oder einen zweiten Windows Rechner mit der Software 
"headless" laufen lassen und Remote vom Linux darauf zugreifen.

von Max M. (maxmicr)


Lesenswert?

Thomas schrieb:
> Entweder den Rechner soweit aufrüsten, das Win+Altium in der VM wirklich
> gut läuft,

Ich bezweifle aktuell, dass es eine Hardware-Kombination gibt, mit der 
das möglich ist. Mir scheint, dass die Virtualisierung von VirtualBox 
einfach bei weitem nicht an ein "natives" Erlebnis herankommt (vor allem 
von der Grafikkarte her).
Mein Rechner ist eigentlich recht gut ausgestattet, hab einen i7 6700K, 
GTX1050, 16GB RAM und 2 SSDs. Auch wenn es nicht mehr das Neueste vom 
Neuesten ist, ist das bei weitem keine langsame Kiste (meiner Ansicht 
nacht).

Thomas schrieb:
> oder einen zweiten Windows Rechner mit der Software
> "headless" laufen lassen und Remote vom Linux darauf zugreifen.

Wäre tatsächlich eine Idee. Das Problem ist nur, dass ich einen 4K 
Monitor als Hauptmonitor verwende. 4K x 60FPS per WLAN übertragen 
(Remote) wird denke ich nicht ordentlich bzw. flüssig funktionieren.

Ich weiß, das ist jetzt etwas mimimi, ich versuche nur gerade andere 
Möglichkeiten abzuklappern.
Ansonsten bleibe ich bei der VirtualBox.

: Bearbeitet durch User
von Alias (Gast)


Lesenswert?

Hallo,

das sollte aber in Griff zu kriegen sein.
Ich nutze Altium 17 in der gleichen Konstellation und empfinde kein 
Ruckeln o.ä. Allerdings habe ich Altium auch noch nie in einer nativen 
Installation verwendet. Kann sein, dass mir auch nur der Vergleich fehlt 
;)

In den Einstellungen der VM solltest Du "3D" und "2D Video" 
Beschleunigung aktivieren können. Wenn das bereits aktiviert ist, wäre 
meine nächste Frage, was Du denn für eine Grafikkarte hast.
Bei NVIDIA Karten bspw. solltest Du die propritären NVIDIA Treiber 
verwenden.
Mit den quelloffenen Treibern hatte ich seinerzeit auch 
Performanceprobleme.

Bei ATI Karten würde ich ebenfalls mal nach aktuellen Treibern beim 
Hersteller schauen.

von Donni D. (Gast)


Lesenswert?

Vielleicht mal VMWare Workstation testen, kann man 30 Tage (glaube ich) 
kostenlos nutzen. Dort empfand ich die 3D Beschleunigung immer etwas 
angenehmer als in VirtualBox.

von Eric (Gast)


Lesenswert?

KVM wurde Dir ja bereits als bessere Lösung genannt.
Du kannst eine zweites Grafikboard installieren und das als PCI 
passthrough an die VM durchreichen.
Um Daten zwischen Host und VM auszutauschen bietet sich das erstellen 
eines zweiten (virtuellen) NIC an.

von Max M. (maxmicr)


Angehängte Dateien:

Lesenswert?

Alias schrieb:
> In den Einstellungen der VM solltest Du "3D" und "2D Video"
> Beschleunigung aktivieren können.

Sobald ich 3D Beschleunigung aktiviere (unter VBoxSVGA), wird z.B. das 
Startmenü stellenweise schwarz und flickert und in Altium zeigen 
gewissen Fenster keinen Inhalt mehr an.

Alias schrieb:
> Bei NVIDIA Karten bspw. solltest Du die propritären NVIDIA Treiber
> verwenden.

Hab eine GTX1050 von Nvidia, propritäre Treiber sind installiert (siehe 
Anhang).

Donni D. schrieb:
> Vielleicht mal VMWare Workstation testen

Danke, die kenne ich noch von Windows. Wusste ich nicht, dass die auch 
unter Linux läuft. Den VMWare Player gibt es ja auch noch.

Eric schrieb:
> KVM wurde Dir ja bereits als bessere Lösung genannt.

Wie auch beschrieben, "besser" kam sie mir nicht vor. Oberfläche war 
auch nicht wirklich flüssig und die Displayauflösung im Guest passt sich 
nicht automatisch der Monitorauflösung im Host an bzw. war auch 2560 x 
1440 beschränkt.

Eric schrieb:
> Du kannst eine zweites Grafikboard installieren und das als PCI
> passthrough an die VM durchreichen.

Das hab ich auch schon gelesen. War mir um ehrlich zu sein erstmal zu 
viel Aufwand.

Eric schrieb:
> Um Daten zwischen Host und VM auszutauschen bietet sich das erstellen
> eines zweiten (virtuellen) NIC an.

Blöd gefragt, aber was mache ich dann mit diesem 2. NIC? Google sagt 
Samba-Server, aber das halte ich für Overkill für einen SharedFolder.

: Bearbeitet durch User
von Thomas (Gast)


Lesenswert?

Max M. schrieb:
> Wäre tatsächlich eine Idee. Das Problem ist nur, dass ich einen 4K
> Monitor als Hauptmonitor verwende. 4K x 60FPS per WLAN übertragen
> (Remote) wird denke ich nicht ordentlich bzw. flüssig funktionieren.

In beide Rechner eine 1000 MBit Netzwerkkarte (wenn die nicht sowieso 
auf dem Boards drauf sind) rein und mit einem kleinen Patch-Kabel direkt 
verbinden. Der zweite "Headless"-Rechner steht ja bestimmt auch in 
Schreibtischnähe.

von Jörg E. (jackfritt)


Lesenswert?

Virt-viewer sollte das Guest VM in entsprechender Auflösung darstellen. 
Allerdings musst du dann noch die virtuellen  Grafiktreiber in der vm 
installieren etc. alles Aufwand und wird nicht schneller ohne echte GPU 
in der VM. Also extra Rechner und dann per Remote Desktop drauf 
zugreifen.. Alles andere kostet dich nur mehr nerven und Zeit...

Virtualbox unter windows Host war immer ein gebastel mit usb etc.
Da freue Ich mich heute über linux und kvm....

: Bearbeitet durch User
von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Max M. schrieb:
> Leider ist Altium in der VM nicht wirklich angenehm bedienbar.

Ich benutze (dienstlich) Altium in einer VM unter VMware. Ist allerdings 
noch die V16, da die 19er Demoversion Späne gemacht hatte. Andere 
wiederum scheinen auch die 18er/19er in VMware laufen zu haben, es ist 
also vermutlich kein grundsätzliches Problem.

Wenn du es einfach mal testen willst: VMware Workstation Player ist für 
private Nutzung kostenlos benutzbar.

Die VM ist an manchen Stellen insgesamt langsamer als der Host (nicht 
nur auf Altium bezogen), aber das liegt natürlich auch daran, dass ich 
ihr bspw. nur eine CPU "gönne" und dass die VM-Dateisysteme alle auf 
einer rotierenden Platte liegen, während der Host für OS und wesentliche 
Anwenderdaten eine SSD hat. Die 3D-Grafik lässt sich auf jeden Fall 
flüssig bedienen, und als ich das beim Kunden mal nebenbei auf einem 
inzwischen schon betagten Laptop laufen lassen habe, fanden sie vom 
Draufgucken her die Performance nicht schlechter als das, was sie native 
unter Windows benutzen. Sicher wird es Details geben, wo die VM nicht so 
flink ist.

: Bearbeitet durch Moderator
von Max M. (maxmicr)


Lesenswert?

Jörg W. schrieb:
> Wenn du es einfach mal testen willst: VMware Workstation Player ist für
> private Nutzung kostenlos benutzbar.

Danke!

Wieso bin ich nicht schon früher drauf gekommen. Hab unter Windows auch 
öfter VMware Player mit Linux als Guest eingesetzt - hat immer 
einwandfrei funktioniert. Ich dachte nur, das wäre eine reine Windows 
Applikation.

Naja, was soll ich sagen. VMware Player installiert, VMware Tools im 
Guest installiert, Vtx-d aktiviert...und es fühlt sich an wie nativ - 
unglaublich was gute Software ausmacht (oder ich bin zu blöd für 
VirtualBox).

4K Display überhaupt kein Problem. Geil :)

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Max M. schrieb:
> oder ich bin zu blöd für VirtualBox

Nö, die ist in mancherlei Hinsicht wirklich viel schlechter.

Auch im Bereich USB liegen da Welten zwischen beiden. Selbst solche 
Sachen wie Firmwareupgrade von USB-Geräten (bspw. Atmel-Tools aus Atmel 
Studio heraus) funktionieren – und bei denen muss das Gerät 
zwischenzeitlich im Bootloader-Modus die IDs ändern.

Ich musste lediglich für Dualmonitor-Betrieb den fvwm patchen, den ich 
nach wie vor gern benutze: VMware setzt dafür offenbar ein mittlerweile 
obsoletes Protokoll voraus, und die fvwm-Maintainer weigern sich, das 
noch zu implementieren. Aber gut, dafür isses Opensource, ich patche das 
dann einfach für mich selbst, und habe beide Monitore auch im 
VMware-Guest zur Verfügung.

: Bearbeitet durch Moderator
von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Übrigens, das (für meine Begriffe) wirklich schöne an dieser 
Konstellation: du musst dem Windows nur dann ein richtiges Netzwerk 
geben, wenn du das wirklich mal willst (bspw. um Windows-Updates zu 
holen). Ansonsten läuft das Netzwerkinterface bei mir permanent auf 
"host only". Damit hat man Filesharing zwischen Host und Guest, aber so 
gut wie kein Risiko, dass einem da irgendeine Malware reinkommt.

von Eric (Gast)


Lesenswert?

Max M. schrieb:
> Blöd gefragt, aber was mache ich dann mit diesem 2. NIC? Google sagt
> Samba-Server, aber das halte ich für Overkill für einen SharedFolder.

Du kannst natürlich auf dem Host einen Samba-Server installieren oder 
den Ordner in deiner (Windows) VM erstellen und vom Host aus darauf 
zugreifen. Aber Mal ehrlich, Samba installieren und drei Zeilen in eine 
Config zu schreiben ist doch kein allzu grosser Aufwand, oder?

Warum dieser 2. nic? Nun, ich bin mal davon ausgegangen, dass Du ein 
separates Netzwerk nur zwischen Host und VM haben willst. Gerade wenn 
die VM ein Windows System ist dass nur dem Ausführen einer Software 
dient, macht es eventuell Sinn, es gar nicht erst aufs Netzwerk bzw 
Internet zugreifen zu lassen. Aber das muss jeder für sich entscheiden.

von Eric (Gast)


Lesenswert?

Max M. schrieb:
> Eric schrieb:
>> KVM wurde Dir ja bereits als bessere Lösung genannt.
>
> Wie auch beschrieben, "besser" kam sie mir nicht vor. Oberfläche war
> auch nicht wirklich flüssig und die Displayauflösung im Guest passt sich
> nicht automatisch der Monitorauflösung im Host an bzw. war auch 2560 x
> 1440 beschränkt.

Und Du hast auch alle virtio Treiber installiert und vor dem Start 
ausgewaehlt?

von Eric (Gast)


Lesenswert?

Eric schrieb:
> Oberfläche war
>> auch nicht wirklich flüssig und die Displayauflösung im Guest passt sich
>> nicht automatisch der Monitorauflösung im Host an bzw. war auch 2560 x
>> 1440 beschränkt.

Und natuerlich unter Windows die Guest Tools von Spice installieren:
https://spice-space.org/

Dann klappt das auch mit der Aufloesung und Copy&Paste

von Rene K. (xdraconix)


Lesenswert?

Jetzt mal ganz ehrlich, was spricht denn gegen eine zweite Installation 
von Windows neben Linux?! ? So läuft das bei mir hier auf dem Schleppe 
und auf dem Desktop.

von Philipp K. (philipp_k59)


Lesenswert?

Max M. schrieb:
> Ich bezweifle aktuell, dass es eine Hardware-Kombination gibt, mit der
> das möglich ist. Mir scheint, dass die Virtualisierung von VirtualBox
> einfach bei weitem nicht an ein "natives" Erlebnis herankommt (vor allem
> von der Grafikkarte her).

Dreh das ganze um, benutz VM-Ware in win windows für linux

von Philipp K. (philipp_k59)


Lesenswert?

Rene K. schrieb:
> Jetzt mal ganz ehrlich, was spricht denn gegen eine zweite Installation
> von Windows neben Linux?! ? So läuft das bei mir hier auf dem Schleppe
> und auf dem Desktop.

Das heutzutage die Hardware Virtualisierung bei auch schon älteren 
Geräten so  ausgereift und Hardware unterstützt ist das eine 
doppelinstallation schon eine komische Idee ist.

EDIT: Das war im letzten Jahrzehnt modern.

: Bearbeitet durch User
von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Rene K. schrieb:
> was spricht denn gegen eine zweite Installation von Windows neben
> Linux?!

Dass es viel lästiger ist, jedesmal neu zu booten, statt einfach auf ein 
anderes Fenster umzuschalten und dort seine VM mit dem Altium innerhalb 
von weniger als einer Sekunde zur Hand zu haben.

Der wirklich einzig verbleibende Nachteil eines zweiten, (vernünftig) 
virtualisierten OSes heutzutage ist, dass man natürlich RAM für zwei 
parallel laufende Betriebssysteme braucht. Das wird ansonsten der 
Flaschenhals. Im Gegenzug, mit ausreichend RAM kann man auch problemlos 
zwischen drei oder vier verschiedenen Systemen hin und her schalten. ;-)

: Bearbeitet durch Moderator
von udok (Gast)


Lesenswert?

Philipp K. schrieb:
> ax M. schrieb:
>> Ich bezweifle aktuell, dass es eine Hardware-Kombination gibt, mit der
>> das möglich ist. Mir scheint, dass die Virtualisierung von VirtualBox
>> einfach bei weitem nicht an ein "natives" Erlebnis herankommt (vor allem
>> von der Grafikkarte her).
>
> Dreh das ganze um, benutz VM-Ware in win windows für linux


Brauchst du nicht.

Windows hat schon Unterstützung für Linux dabei:
https://docs.microsoft.com/de-de/windows/wsl/install-win10

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

udok schrieb:
> Windows hat schon Unterstützung für Linux dabei:

Das mag für Leute gut sein, die neben Windows gern ein Linux hätten.

Wer aber Windows eher nur notgedrungen und am Rande haben möchte, wird 
mit sowas nicht recht glücklich. Ich sage da nur "Schalten Sie Ihren 
Computer nicht aus" – um mal ein Beispiel zu nennen, was man mit dieser 
Variante eben doch nicht los wird. (Wenn ich diese Ausschrift in einer 
VM habe, dann schalte ich einfach die Fenster um und arbeite derweil 
weiter.)

Was ich persönlich auch sehr praktisch finde: Snapshots. Wenn die VM 
sich mit irgendwas verrannt hat, oder man bspw. irgendwelche testhalber 
installierte Software wieder los werden will: einfach auf einen älteren 
Snapshot zurückleiern. Klar, das kostet extra Plattenplatz, aber der hat 
sich schon manches Mal bezahlt gemacht. (Geht allerdings bei VMware nur 
mit der Bezahlversion VMware Workstation, nicht mit dem Player.)

von udok (Gast)


Lesenswert?

Ich würde ja auch gerne auf Windows verzichten...

Geht aber in der Praxis nur schlecht, wenn man auf
CAD Software (DirectX) angewiesen ist,
oder wenn der Kunde Windows verwendet.

Ich tue mir schon schwer, mich halbwegs in Windows
auszukennen.
Linux braucht da noch mal deutlich mehr Zeit.

von Thomas S. (Gast)


Lesenswert?

Ich hab den Tread nicht wirklich komplett gelesen.

Vorschlag: Bootmanager wie BootUS, oder BootStar. Beides bei mir seit 
Jahren ohne Probleme am laufen. Betriebssysteme wirden 'richtig' 
versteckt, sodass kein Schaden vom anderen BS entsteht. Andere 
Partitionen, wie Daten-Partition, ect. lassen sich individuell zuordnen, 
oder eben auch 'ect verstecken'

Linux, Win 7, usw. kein Problem

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

udok schrieb:
> Geht aber in der Praxis nur schlecht, wenn man auf
> CAD Software (DirectX) angewiesen ist,

Genau darum geht's im Thread, und genau das funktioniert durchaus auch 
in einer VM – wenn man das will. Der TE will es, und hat nun offenbar 
mit VMware Player eine praktikable Lösung.

Ansonsten ist natürlich jeder frei, solche Entscheidungen für sich zu 
treffen, aber das gehört dann einfach mal nicht in diesen Thread. Der 
Thread-Titel ist zugegebenermaßen etwas sehr allgemein formuliert, aber 
man sollte sich vielleicht vor dem Mitdiskutieren wenigstens mal das 
Eröffnungsposting durchlesen.

von fchk (Gast)


Lesenswert?

Max M. schrieb:

> Kennt ihr noch Alternativen (nein, komplett zurück zu Windows auch
> nicht)?

Ich habe hier zwei Rechner stehen, einen mit Windows 7 (unter anderem 
für Altium Designer) und einer mit Linux, auf das ich auch nicht 
verzichten kann. Anders geht es bei mir nicht - ich brauche unbedingt 
zwei physikalische Maschinen, weil da auch noch etwas Hardware 
dranhängt, was nicht virtualisierbar ist.

fchk

von Peter E. (Firma: S&P) (eosangel)


Lesenswert?

Bei mir gibt es einen Linux Rechner an dem 2 Monitore hängen und ein 
Umschalter (USB/DVI).
Monitor 1 ist auf HDMI, Monitor 2 auf beiden Rechnern DVI am Umschalter.

Daneben ein 2ter Rechner mit windows/linux/bsd..Ich probiere gerne viel 
aus.

Entweder ich arbeite mit den 2 Monitoren unter Fedora oder ich schalte 
um (Tastatur/Maus/Monitor2/Sound) auf den Win Rechner.

Den Linux Rechner stört die Umschaltung nicht weil die USB Sachen sich 
nicht abmelden.
Sie funktionieren dann eben auf dem anderen Rechner.
Monitor 1 (HDMI) bleibt an.

So kann ich immer wieder hin und her schalten ohne das die Rechner das 
aus dem Tritt bringt.
Also Video Rendern auf der Linux Maschine und Iphone sichern auf der 
Windows Maschine.

the Raccoon

by the way. Auf dem Fedora ist ein win7 in der virtualbox und das läuft 
auch sehr gut.

von Eric (Gast)


Lesenswert?

Man kann fast alles virtualisieren - und was man nicht virtualisieren 
kann, wird durchgereicht. Das geht sogar mit dem USB Dongle von 
Architrend Zero - einer knapp 15k Euro teuren CAD Lösung aus dem 
Architektur Bereich.

Wie andere vor mir bereits angemerkt haben kommt es auf die Ressourcen 
des Hosts an. RAM kann nie genug vorhanden sein; manchmal macht auch 
mehr als eine CPU Sinn. Beziehungsweise eine dediziertes Graphikboard 
für entsprechende Anwendungen als PCI passthrough.
Wenn man unter Linux KVM einsetzt - mit den richtigen Treibern (spice 
und virtio) - dann merkt man auch keinen Unterschied zu einem System 
welches auf einem physikalischen Rechner läuft.

von udok (Gast)


Lesenswert?

Jörg W. schrieb:
> udok schrieb:
>> Geht aber in der Praxis nur schlecht, wenn man auf
>> CAD Software (DirectX) angewiesen ist,
>
> Genau darum geht's im Thread, und genau das funktioniert durchaus auch
> in einer VM – wenn man das will. Der TE will es, und hat nun offenbar
> mit VMware Player eine praktikable Lösung.
>
> Ansonsten ist natürlich jeder frei, solche Entscheidungen für sich zu
> treffen, aber das gehört dann einfach mal nicht in diesen Thread. Der
> Thread-Titel ist zugegebenermaßen etwas sehr allgemein formuliert, aber
> man sollte sich vielleicht vor dem Mitdiskutieren wenigstens mal das
> Eröffnungsposting durchlesen.

Klar kann man theoretisch alles virtualisieren.
Es macht nur nicht immer viel Sinn.
Manchmal ist die beste Lösung eben die, das Problem zu umschiffen.
Aber natürlich kann jeder seine Zeit verbraten, wie er mag.

von Der Kaffee wird nicht fertig (Gast)


Lesenswert?

Mehrere win doffses und mehrere linuxe

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

udok schrieb:
> Aber natürlich kann jeder seine Zeit verbraten, wie er mag.

Eben. Beispielsweise durch Warten auf "Bitte schalten Sie den Computer 
nicht aus". :-))

SCNR …

von Tobias .. (bitfehler)


Angehängte Dateien:

Lesenswert?

Eine Zwischenfrage, an alle die Altium unter VMWare Workstation auf 
einem Linux Host nutzen:
Habt ihr auch solche Rendering Probleme im 3D Modus, dass keine Pads und 
Silkscreen angezeigt werden?

VMWare Workstation 15.5
Altium 19.1.8
Host: openSUSE Leap 15.1

von Andreas M. (amesser)


Lesenswert?

Ich denke das dein KVM nicht richtig eingerichtet war/ist.

Videotreiber QXL/spice mit passenden Treibern im Windows.

Bei mir läuft Windows gefühlt in der VM sogar schneller als Nativ auf 
der selben Maschine. (Dank Linux Festplattencache im RAM)

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Tobias .. schrieb:
> Habt ihr auch solche Rendering Probleme im 3D Modus, dass keine Pads und
> Silkscreen angezeigt werden?

Ich nicht, ist allerdings noch Altium 16.

von Eric (Gast)


Lesenswert?

Tobias .. schrieb:
> Eine Zwischenfrage, an alle die Altium unter VMWare Workstation auf
> einem Linux Host nutzen

VMware nutze ich zwar beruflich (ESXi), allerdings werden auf den VMs 
dort keine grafiklastigen Anwendungen ausgeführt.

Wie ich bereits angemerkt habe, ist KVM die bessere Lösung. Ausreichend 
RAM, die richtigen Treiber und gegebenfalls ein dediziertes Grafikboard 
als PCI passthrough und ich bin mir sicher dass auch Altium keine 
Probleme beim Rendern hat.

von Kilo S. (kilo_s)


Lesenswert?

Max M. schrieb:
> was nützt mir ein Guest-Betriebssystem ohne SharedFolder).

Mach dir doch einen Netzwerkordner. Zb. USB HDD an einer fritzbox oder 
die freigabe unter Windows/linux Nutzen.

von Reinhard S. (rezz)


Lesenswert?

Jörg W. schrieb:
> udok schrieb:
>> Aber natürlich kann jeder seine Zeit verbraten, wie er mag.
>
> Eben. Beispielsweise durch Warten auf "Bitte schalten Sie den Computer
> nicht aus". :-))
>
> SCNR …

Im Ernst: Worauf sollte ich da warten? Der Computer schaltet sich dann 
selbst aus.

von Andreas M. (amesser)


Lesenswert?

Reinhard S. schrieb:
> Jörg W. schrieb:
>> Eben. Beispielsweise durch Warten auf "Bitte schalten Sie den Computer
>> nicht aus". :-))
>>
>> SCNR …
>
> Im Ernst: Worauf sollte ich da warten? Der Computer schaltet sich dann
> selbst aus.

Immer wieder erfreulich am Ende des Arbeitstags wenn man das Notebook 
mit nach Hause nimmt/nehmen muss. Ist man eh shon spät dran, beglückt 
einen das Windows dann mit "1 von 50 Updates werden installiert..,"

von Bernd K. (prof7bit)


Lesenswert?

Andreas M. schrieb:
> Reinhard S. schrieb:
>> Jörg W. schrieb:
>>> Eben. Beispielsweise durch Warten auf "Bitte schalten Sie den Computer
>>> nicht aus". :-))
>>>
>>> SCNR …
>>
>> Im Ernst: Worauf sollte ich da warten? Der Computer schaltet sich dann
>> selbst aus.
>
> Immer wieder erfreulich am Ende des Arbeitstags wenn man das Notebook
> mit nach Hause nimmt/nehmen muss. Ist man eh shon spät dran, beglückt
> einen das Windows dann mit "1 von 50 Updates werden installiert..,"

Oder wenn man wie weiter oben vorgeschlagen ein Dual-Boot aufgesetzt hat 
und das Windows alle paar Monate mal für ein paar Stunden braucht. Da 
kann man schon mal jedesmal noch ne extra Stunde zusätzlich einplanen 
für die Zeit die es braucht bis es sich nach dem Boot wieder beruhigt 
hat und die Zeit die es anschließend zum Herunterfahren braucht.

Da bekomm ich jedesmal Hautausschlag davon. Der Blick auf den Kalender 
zeigt ganz klar 2019 und dann kommt der Windows-Flashback mit 
User-Experience aus den späten 80ern, ganz egal welche Versionsnummer es 
hat, im Gegenteil sogar: Je höher die Versionsnummer desto schlimmer.

: Bearbeitet durch User
von udok (Gast)


Lesenswert?

Dann schalt die Windows Kiste doch einfach aus.
So einfach kann es sein...

von Bernd K. (prof7bit)


Lesenswert?

udok schrieb:
> Dann schalt die Windows Kiste doch einfach aus.

Das letzte mal als ich das gemacht habe (nachdem ich 1 Stunde lang 
"Bitte schalten Sie nicht aus" betrachten durfte, morgens beim 
Hochfahren) war das Windows anschließend kaputt.

Manch einer würde wohl geneigt sein zu sagen sowas ist kein Werkzeug für 
professionellen Einsatz sondern eher ein Spielzeug, aber diese 
Diskussion möchte ich hier nicht lostreten, deshalb sag ich da jetzt mal 
nichts dazu.

: Bearbeitet durch User
von Udo K. (Gast)


Lesenswert?

Das dürfte dann aber noch unter Windows 98 mit FAT32 gewesen sein.

Seit XP gibt es einen Cache, der die wichtigen DLLs sichert.

Auch ist das NTFS ziemlich abgesichert gegen DAUs
(Wiederherstellungspunkte, Journaling File System, redundante Tabellen).

Windows 7/10 ist unter der Haube ein ziemlich fortschrittliches BS,
das wegen einem fehlgeschlagenen Update nicht gleich die Haxn streckt.

von Franz M. (elmo64)


Lesenswert?

Max M. schrieb:
> Ich bin vor kurzem vollständig auf Linux umgestiegen, benötige aber
> leider etwas Software noch auf Windows[...]VirtualBox[...]ruckelt.

Hast du es schon mit Wine probiert?

von Arno (Gast)


Lesenswert?

Andreas M. schrieb:
> Reinhard S. schrieb:
>> Jörg W. schrieb:
>>> Eben. Beispielsweise durch Warten auf "Bitte schalten Sie den Computer
>>> nicht aus". :-))
>>
>> Im Ernst: Worauf sollte ich da warten? Der Computer schaltet sich dann
>> selbst aus.
>
> Immer wieder erfreulich am Ende des Arbeitstags wenn man das Notebook
> mit nach Hause nimmt/nehmen muss. Ist man eh shon spät dran, beglückt
> einen das Windows dann mit "1 von 50 Updates werden installiert..,"

Und wenn man die Kiste am nächsten Morgen wieder anmacht, dauert es 
gerade mal einen halben Tag, bis sie wieder neu starten will...

Naja, ich werde für die Zeit ja bezahlt, und wenn die Firma das mit der 
IT nicht hinbekommt... Privat tue ich mir das nicht mehr an.

MfG, Arno

von DPA (Gast)


Lesenswert?

A. M. schrieb:
> Hast du es schon mit Wine probiert?

Die aktuellen Altium Designer versionen soll laut WineHQ.org nicht 
besonders gut laufen: 
https://appdb.winehq.org/objectManager.php?sClass=version&iId=37491
Aber es wird wohl dran gearbeitet: 
https://bugs.winehq.org/show_bug.cgi?id=46107

von Udo K. (Gast)


Lesenswert?

Das grösste Problem mit Windows dürfte sein, dass man meist
keine Admin Rechte hat, und die IT nicht wirklich für einen da ist.
Man hat keine Kontrolle.

Das nächstgrössere Problem ist, dass sich - ausser Programmierer - 
keiner
mit Windows beschäftigt und daher auch kein tieferes
Verständnis hat, wie man Probleme lösen kann.

Windows lädt auch nicht gerade dazu ein, es ist ja ein
Werkzeug, das zu funktionieren hat, und keine Spielzeug wie Linux.

Daraus resultiert dann dieses typische Draufhauen auf Windows.

Linux hingegen sucht man sich selbst aus, in dem Wissen, dass
es erst mal viele Probleme machen wird, aber das ist ja eine
Herausforderung.

Es ist wie ein Spielzeug, man hat die
Kontrolle darüber, und könnte es auch jdederzeit durch eine
andere Distri ersetzen oder sogar die Platte formatieren :-)

Mit dieser positiven Einstellung sieht man dann die Probleme
nicht mehr als Probleme sondern als nette
Eigenheiten des Systems, die man Nichtwissenden lange und
ausführlich erklären kann.
Und man könnte ja den Source Code anpassen, wenn man gar nicht
mehr weiterweiss.

Wenn aber erst mal Linux in die Büros einzieht, und es zu einem
dummen Werkzeug wird, das zu funktionieren hat,
und der Frustlevel steigt,
dann wünscht man sich manchmal sein buntes Windows zurück.
(Vielleicht so geschehen in der Münchner Bürokratie...).

von Max M. (maxmicr)


Lesenswert?

Udo K. schrieb:
> dass sich - ausser Programmierer -
> keiner
> mit Windows beschäftigt und daher auch kein tieferes
> Verständnis hat, wie man Probleme lösen kann.

Softwareentwickler beschäftigen sich auch nicht wirklich mit Windows. 
Das sind eher die Systemadmins.

von Reinhard S. (rezz)


Lesenswert?

Andreas M. schrieb:
> Reinhard S. schrieb:
>> Jörg W. schrieb:
>>> Eben. Beispielsweise durch Warten auf "Bitte schalten Sie den Computer
>>> nicht aus". :-))
>>>
>>> SCNR …
>>
>> Im Ernst: Worauf sollte ich da warten? Der Computer schaltet sich dann
>> selbst aus.
>
> Immer wieder erfreulich am Ende des Arbeitstags wenn man das Notebook
> mit nach Hause nimmt/nehmen muss. Ist man eh shon spät dran, beglückt
> einen das Windows dann mit "1 von 50 Updates werden installiert..,"

Wenn man das auf Arbeit so "runterfährt" ist es zuhause doch fertig. 
Schlimmer find ich dann beim darauffolgenden Start die "Restarbeiten" 
samt schlimmstenfalls nochmaligem Reboot. Aber wenn mans weiß startet 
man eben mal so oder holt sich in der Zeit nen Kaffee.

Bernd K. schrieb:
> Oder wenn man wie weiter oben vorgeschlagen ein Dual-Boot aufgesetzt hat
> und das Windows alle paar Monate mal für ein paar Stunden braucht. Da
> kann man schon mal jedesmal noch ne extra Stunde zusätzlich einplanen
> für die Zeit die es braucht bis es sich nach dem Boot wieder beruhigt
> hat und die Zeit die es anschließend zum Herunterfahren braucht.

Hier ist der Punkt für mich schon eher nachvollziehbar. Wobei ne Stunde 
nun auch übetrieben ist, meiner Erfahrung nach. Aber klar, selbst 10 
Minuten Wartezeit und Gerödel nervt da.

> Da bekomm ich jedesmal Hautausschlag davon. Der Blick auf den Kalender
> zeigt ganz klar 2019 und dann kommt der Windows-Flashback mit
> User-Experience aus den späten 80ern, ganz egal welche Versionsnummer es
> hat, im Gegenteil sogar: Je höher die Versionsnummer desto schlimmer.

Kann nicht sein, in den späten 80ern gabs noch keine derartigen Updates 
;)

Ich kenn jetzt die Update-Mechanismen von Linux nicht (mehr), werd sie 
aber im Rahmen des Win7-Supportendes sicher kennenlernen.

von Max M. (maxmicr)


Lesenswert?

Reinhard S. schrieb:
> Ich kenn jetzt die Update-Mechanismen von Linux nicht (mehr)

Bei Arch-Linux (manuell):
1
sudo pacman -Syu

Automatisch updated sich das System nicht.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Reinhard S. schrieb:
> Ich kenn jetzt die Update-Mechanismen von Linux nicht (mehr),

Sie haben ihre Abhängigkeiten insgesamt besser im Griff, und müssen 
daher nicht für allen Krimskrams „vorsichtshalber“ gleich mal die Kiste 
runterfahren.

Außerdem haben alle Unixe ein völlig anderes Dateisystem-Verhalten, was 
es einem problemlos gestattet, eine aktuell ausgeführte Datei zu 
löschen: die noch in Ausführung befindliche Datei wird erst dann 
gelöscht, wenn nicht nur der letzte Verzeichniseintrag darauf entfernt 
worden ist, sondern auch die letzte in Ausführung befindliche Instanz 
beendet ist. Du kannst dann jedoch bereits eine neue (bspw. 
aktualisierte) Datei gleichen Namens anlegen, die dann jedoch auf eine 
völlig andere Datei zeigt. Die Dateien selbst werden durch 
Beschreibungsblöcke eindeutig gekennzeichnet (i-node). Windows 
unterscheidet dagegen nicht zwischen Verzeichniseintrag und 
Dateibeschreibungsblock, deshalb musst du dort zwangsweise einen 
entsprechenden Serverprozess erst einmal anhalten, damit du die 
zugehörige Datei löschen / ersetzen kannst.

Allein dadurch sind Aktualisierungen natürlich viel „smoother“ zu 
arrangieren. Wenn man einen neuen Kernel braucht, muss man natürlich 
auch neu booten, aber das ist dann ein ganz normaler Neustart (dessen 
Zeitpunkt man sich selbst aussuchen kann), ohne nennenswerten weiteren 
Overhead. Ladbare Kernelmodule lassen sich dagegen normalerweise auch 
ohne Neustart austauschen, nur das durch sie implementierte Subsystem 
steht dann halt für einen Moment nicht zur Verfügung.

von Rene K. (xdraconix)


Lesenswert?

Uhuhu... Also Debian hat mittlerweile auch immer die Eigenart einen 
Neustart nach einem Update machen zu müssen. Update muss man zwar Manuel 
starten aber bei Windows kann man sich die Automatischen Updates ja auch 
ausschalten... Achja, und ein Zeitpunkt in der nicht produktiven Zeit 
zum installieren kann man mittlerweile unter Windows 10 auch einstellen.

Ich arbeite übrigens unter Linux und Windows, auf dem Familierechner zu 
Hause läuft übrigens Windows 10... Weil es, für einen 
Ottonormal-Benutzer (in dem Fall meine Frau), intuitiver zu bedienen 
ist.

von Hauke Haien (Gast)


Lesenswert?

Rene K. schrieb:
> bei Windows kann man sich die Automatischen Updates ja auch
> ausschalten..

Das war einmal...!

von Udo K. (Gast)


Lesenswert?

Jörg W. schrieb:
> Reinhard S. schrieb:
>> Ich kenn jetzt die Update-Mechanismen von Linux nicht (mehr),
>
> Sie haben ihre Abhängigkeiten insgesamt besser im Griff, und müssen
> daher nicht für allen Krimskrams „vorsichtshalber“ gleich mal die Kiste
> runterfahren.

Ist das so?

Die Abhängigkeiten innerhalb des Windows Betriebssystems
sind relativ gering, da zumindest bis Windows 7 nur wenige DLLs
für wichtige Betriebssystemkomponenten erlaubt waren.
Das ist aber in der Hand von MS gut aufgehoben.

Anwenderprogramme sind Sache der Hersteller.
Die hängen typischerweise von einer bestimmten Version einer
DLL (wie msvcrt-x.y.dll) ab, und die muss irgendwo im Pfad sein.
Diese DLLs werden aber nur bei Sicherheitsproblemen gepatcht.

Abgesehen von wenigen Desastern ist die Abwärtskompatibilität
von Windows ziemlich gut.
Da werden viele Programmierfehler und Schlampigkeiten verziehen,
damit alte Programme laufen.

Unter Linux hat jede Distro ein bis zwei Packetmanager,
und es gibt keinen Standard.
Da hat es mir schon für mich wichtige Programme zerschossen, weil
irgendwas geupdated wurde, weil die Packetmanager nichts voneinander
wussten.

Die Abhängigkeiten von grossen Packeten wie Latex oder KDE sind
Seitenlang, das macht alles einen fragilen Eindruck.

Die Doku, Libs und Config Files der Programme
sind über das ganze Filesystem verteilt, und der Wildwuchs
der Config Files wird immer schlimmer.
Das war zu Zeiten, wo ein Directory Eintrag viel Platz brauchte
und es sowieso nur eine man Page gab ok, aber heute?

Abwärtskompatibilität unter Linux?
Ich schätze mal das es kein ein einziges komplexes 32 Bit Program gibt,
das heute noch auf einem 64 Bit Linux läuft,
oder sich neu kompilieren lässt.


Unter Windows ist es schon ziemlich lange her, dass ich wegen einem
Update neu booten musste.

Es gibt dazu auch seit Jahren keinen wirklichen Grund mehr.
Wichtige Systemfiles werden beim nächsten Booten
vor dem Start von Hintergrundprozessen überschrieben.
Dazu gibt es eine API.

Die meisten Files werden aber im laufenden Betrieb geupdated.


>
> Außerdem haben alle Unixe ein völlig anderes Dateisystem-Verhalten, was
> es einem problemlos gestattet, eine aktuell ausgeführte Datei zu
> löschen: die noch in Ausführung befindliche Datei wird erst dann
> gelöscht, wenn nicht nur der letzte Verzeichniseintrag darauf entfernt
> worden ist, sondern auch die letzte in Ausführung befindliche Instanz
> beendet ist.

Das hat für viele Programcrashes gesorgt, wenn dem Program wichtige
Config und Daten Files unter dem Hintern wegkopiert wurden :-)
Daher hat jedes ernstzunehmende Programpacket seinen eigenen
Locking Mechanismus erfunden... ach herrje, den konnte man ja
auch einfach umgehen.


Du kannst dann jedoch bereits eine neue (bspw.
> aktualisierte) Datei gleichen Namens anlegen, die dann jedoch auf eine
> völlig andere Datei zeigt. Die Dateien selbst werden durch
> Beschreibungsblöcke eindeutig gekennzeichnet (i-node). Windows
> unterscheidet dagegen nicht zwischen Verzeichniseintrag und
> Dateibeschreibungsblock, deshalb musst du dort zwangsweise einen
> entsprechenden Serverprozess erst einmal anhalten, damit du die
> zugehörige Datei löschen / ersetzen kannst.

Windows hat dasselbe Verhalten, nur ist der Default beim Öffnen
einer Datei, diese nicht zu "sharen".
Das lässt sich aber bei fopen() einstellen.

>
> Allein dadurch sind Aktualisierungen natürlich viel „smoother“ zu
> arrangieren. Wenn man einen neuen Kernel braucht, muss man natürlich
> auch neu booten, aber das ist dann ein ganz normaler Neustart (dessen
> Zeitpunkt man sich selbst aussuchen kann), ohne nennenswerten weiteren
> Overhead. Ladbare Kernelmodule lassen sich dagegen normalerweise auch
> ohne Neustart austauschen, nur das durch sie implementierte Subsystem
> steht dann halt für einen Moment nicht zur Verfügung.

Ist auch unter Windows seit langem so.

Ich behaupte mal, das sich die Betriebssysteme heute nicht mehr stark
unterscheiden.

Alle wichtigen Features gibt es bei Windows und bei Linux.
Die Systeme sind erwachsen geworden.

Der DAU User ist halt unter Linux noch nicht so sehr verbreitet.
Dafür ist dort der Egomane daheim.

Die Entwicklung wird bei beiden Systemen seit langem von
Firmen gestemmt.

Beide Systeme sind hässlich komplex, inkonsistent,
und protzen mit Bloatware.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Udo K. schrieb:

>> Sie haben ihre Abhängigkeiten insgesamt besser im Griff, und müssen
>> daher nicht für allen Krimskrams „vorsichtshalber“ gleich mal die Kiste
>> runterfahren.
>
> Ist das so?

Warum zum Geier™ muss Windows denn sonst diese berüchtigte Ausschrift 
ausspucken?

> Windows hat dasselbe Verhalten,

Du hast offenbar nicht den grundsätzlichen Unterschied beider 
Dateisystemkonzepte begriffen. Es ist eben etwas völlig anderes, ob ein 
Verzeichniseintrag die Datei selbst beschreibt (CP/M, RSX-11, MS-DOS, 
Windows, vermutlich auch VMS), oder ob er nur einen (von potenziell 
vielen) Verweis auf das Dateiobjekt enthält, welches komplett unabhängig 
von Verzeichniseinträgen (und damit "Dateinamen") existiert (alle 
Unixe).

Wenn du diesen Unterschied begriffen hättest, würdest du eine solche 
Behauptung nicht aufstellen.

Ich habe nicht behauptet, dass es jederzeit unproblematisch ist, 
entsprechende Dateien im Betrieb auf diese Weise zu ersetzen, aber es 
ist eben grundsätzlich dadurch erst einmal möglich – und zwar, indem 
beide Dateiversionen noch für eine gewisse Zeit parallel existieren.

> Unter Windows ist es schon ziemlich lange her, dass ich wegen einem
> Update neu booten musste.

Sorry, dann machen alle meine Kollegen wohl was falsch. Sie dürfen sich 
regelmäßig damit rumärgern.

(Bei mir sind die durch Updates verursachten Reboots auch selten, aber 
nur, weil ich das Windows in der VM sowieso nur sehr selten update – und 
ansonsten getrennt vom großen Netz halte.)

von Nano (Gast)


Lesenswert?

Max M. schrieb:
> DualBoot möchte ich überhaupt nicht da das für mich noch weniger Komfort
> ist als die lahme VM über VirtualBox.
>
> Kennt ihr noch Alternativen (nein, komplett zurück zu Windows auch
> nicht)?

Ja, du hast genau zwei Möglichkeiten

1. Klassisches Dualbooten, ist am einfachsten und am günstigsten, 
bedeutet aber doppelter Pflegeaufwand und ja, willst du nicht, habe ich 
gelesen.

2. Zweite dedizierte GPU kaufen und in den Rechner einbauen.
Und diese extra GPU an die VM durchreichen, so dass die VM die alleinige 
Kontrolle über die GPU bekommt.
Damit bekommst du eine sehr gute Performance hin, vergleichbar, als wenn 
du einfach Dualbooten würdest.
Der Nachteil sind aber extra kosten für die extra Grafikkarte und das 
Problem, dass du einen Monitor mit zwei Eingängen benötigst und dann am 
Monitor immer zwischen Gast OS und Host OS umschalten musst.
Für einen Betrieb von Windows im Fenstermodus auf dem Host OS (Linux) 
ist das also nicht gedacht.
Eine alternative zum Umschalten des Eingangssignal am Monitor wäre ein 
zweiter Monitor, aber das ist auch doof, da man dann auf dem 
Schreibtisch nicht mehr die beste Ergonomie hat.
Auf jeden Fall ist es auch teurer, vor allem wenn du auch unter Linux 
eine High-End GPU nutzen möchtest und so etwas auch für Windows haben 
willst.
Dann musst du praktisch zweimal eine High End GPU kaufen, da ist 
Dualbooten viel günstiger.
Falls dir aber die integrierte GPU auf der CPU unter dem Host- oder 
Gastsystem genügt, ist es nicht all zu teuer.

von Eric (Gast)


Lesenswert?

Bernd K. schrieb:
> Windows alle paar Monate mal für ein paar Stunden braucht. Da kann man
> schon mal jedesmal noch ne extra Stunde zusätzlich einplanen für die
> Zeit die es braucht bis es sich nach dem Boot wieder beruhigt hat und
> die Zeit die es anschließend zum Herunterfahren braucht.
> Da bekomm ich jedesmal Hautausschlag davon. Der Blick auf den Kalender
> zeigt ganz klar 2019 und dann kommt der Windows-Flashback mit
> User-Experience aus den späten 80ern, ganz egal welche Versionsnummer es
> hat, im Gegenteil sogar: Je höher die Versionsnummer desto schlimmer.

Dem kann ich nur zustimmen. Gestern auf der Arbeit wieder erlebt als der 
Rechner den ganzen Vormittag für ein Update gebraucht hat. Während 
dieser Zeit kann man das System im Gegensatz zu Linux/BSD natürlich 
nicht benutzen. Für den Produktiven Einsatz völlig ungeeignet. Zumal 
nach dem Update auch noch die Vlan Einstellungen weg waren...

von Eric (Gast)


Lesenswert?

Hauke Haien schrieb:
>> bei Windows kann man sich die Automatischen Updates ja auch
>> ausschalten..
>
> Das war einmal...!

Das geht tatsächlich über die GPOs - zumindest bei Version 1604 LTSB. 
Warum man das nicht wie bei vernünftigen OS im Menü einstellen kann, 
erschliesst sich mir nicht.

Das gilt natürlich auch für diverse andere Dinge, die in Windows einfach 
miserabel gelöst sind. Nur weil Windows 10 weniger häufig abstürzt als 
Windows 95, wird daraus nicht gleich ein gutes OS.

von Eric (Gast)


Lesenswert?

Udo K. schrieb:
> Ich schätze mal das es kein ein einziges komplexes 32 Bit Program gibt,
> das heute noch auf einem 64 Bit Linux läuft,
> oder sich neu kompilieren lässt.

Gegenfrage: Nenne doch Mal ein 32bit Programm dass sich nicht 
kompilieren/ausführen lässt. i386/lib32 Pakete vorausgesetzt. Wenn eine 
alte Software nicht läuft, liegt es nicht an der Architektur (32 oder 64 
Bit), sondern an den Abhängigkeiten. Eine Möglichkeit wäre ein LXC/Jail 
mit den entsprechenden Abhängigkeiten zu erstellen und die Software 
darin auszuführen.

von DPA (Gast)


Lesenswert?

Rene K. schrieb:
> Also Debian hat mittlerweile auch immer die Eigenart einen
> Neustart nach einem Update machen zu müssen.

Ich verwende seit Jahren devuan (im grunde genommen debian ohne 
systemd), und kann definitiv sagen, dass das bullshit ist. Nach einem 
update muss man nie einen Neustart machen. Falls der Kernel 
aktuallisiert wird sollte man einen neustart machen, aber man muss 
nicht (Scheint weniger als einmal pro Monat zu sein, dadd das mal einen 
neuen gibt. 
https://sources.debian.org/src/linux-latest/105+deb10u1/debian/changelog/). 
Services werden normalerweise automatisch neu gestartet, sollten sie 
zumindest (angeblich soll das sogar bei systemd gehen, aber wer weiss 
bei dem zeug schon, ob das geht), wenn man apt manuell aufruft fragt es 
manchmal sogar noch, aber von service neustarts merkt man eigentlich 
sowieso nie was, das läuft einfach. Bei Programmen sollte man diese halt 
neu starten, wenn sie geupdatet wurden, damit das Update aktiv wird, 
auch dort muss man das aber nicht, man kann noch bequem zuerst fertig 
machen woran auch immer man gerade gearbeitet hat. (Wenn man es 
zusätzlich nochmal öffnet greift das Update bei der neuen instanz in der 
regel auch, sofern die Anwendung nicht nur ein IPC Signal an den alten 
Prozess sendet.). Der X Server ist etwas unpraktischer, das kann man 
nicht restarten, ohne das sich alle damit verbundenen GUI Anwendungen 
beenden, aber auch hier gibt es keinen restart zwang, und updates sind 
dort sowieso nur alle paar Jahre mal. Wayland ist noch etwas nerviger, 
dort kann man den Window Manager nicht separat neu starten, aber wer 
nutzt das zeug schon. Die meisten der Updates sind auch garnicht 
sicherheitsrelevant. Und falls man sich entschliesst, doch mal den 
ganzen Rechner neu zu starten, dann ist das wirklich nur ein Neustart, 
kein "warten sie erstmal, wir machen da noch irgendwelche geheimen 
Updatedinge im Hintergrund."

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Nano schrieb:
> 2. Zweite dedizierte GPU kaufen und in den Rechner einbauen.

Nein, braucht er nicht. Wenn du den Thread komplett gelesen hättest, 
hättest du bemerkt, dass er mit der VMware-Player-Variante alles hat, 
was er braucht – mit der regulären Grafikkarte. Das Problem des TE kann 
man mithin als erledigt betrachten.

Ergänzung:

> Eine alternative zum Umschalten des Eingangssignal am Monitor wäre ein
> zweiter Monitor

Der TE will mit Altium arbeiten. Wenn man sowieso schon zwei Monitore 
auf dem Tisch hat (und mithin den Platz für diese), dann glaub' mir, 
möchte man auch im Altium (wie in jedem andere EDA-Tool) beide 
gleichzeitig verwenden können. Dann hat man nämlich auf einem den 
Schaltplan und auf dem anderen das Layout, oder wenn das Layout noch 
nicht begonnen ist, auf einem den Schaltplan und auf dem anderen die 
Bauteilbibliothek.

: Bearbeitet durch Moderator
von vn nn (Gast)


Lesenswert?

Udo K. schrieb:
> Das grösste Problem mit Windows dürfte sein, dass man meist
> keine Admin Rechte hat, und die IT nicht wirklich für einen da ist.
> Man hat keine Kontrolle.

Und ich dachte schon, das größte Problem wäre die viel zu große 
Komplexität und die daraus folgende latente Unsicherheit, die man mit 
Antiviren-Schlangenöl zu bekämpfen versucht.

Udo K. schrieb:
> Das nächstgrössere Problem ist, dass sich - ausser Programmierer -
> keiner
> mit Windows beschäftigt und daher auch kein tieferes
> Verständnis hat, wie man Probleme lösen kann.

Sagt wer?
Aber ja, dass mittlerweile nicht mal MS selbst weiß, wie man die 
Probleme löst, ist richtig.

Udo K. schrieb:
> Windows lädt auch nicht gerade dazu ein, es ist ja ein
> Werkzeug, das zu funktionieren hat, und keine Spielzeug wie Linux.

Es läuft zwar ein Großteil der Server in den Weiten des Internets auf 
Linux oder UNIX, aber wenn du das sagst...
Sicher alles Spielzeug.

Udo K. schrieb:
> Linux hingegen sucht man sich selbst aus, in dem Wissen, dass
> es erst mal viele Probleme machen wird, aber das ist ja eine
> Herausforderung.

Stimmt. Linux verwendet man deshalb in Industrie und IT, weil man die 
Herausforderung liebt. Und Windows weil es so toll ist, und nicht etwa, 
weil dank gutem Marketing halt ein Großteil der Endanwender-Software nur 
dafür released wird.

Udo K. schrieb:
> Wenn aber erst mal Linux in die Büros einzieht, und es zu einem
> dummen Werkzeug wird, das zu funktionieren hat,
> und der Frustlevel steigt,
> dann wünscht man sich manchmal sein buntes Windows zurück.
> (Vielleicht so geschehen in der Münchner Bürokratie...).

In der Münchner Bürokratie gab es mit Linux weniger Probleme als zuvor. 
Der Wechsel zurück zu MS war in erster Linie eine politische 
Entscheidung von selbst-titulierten Microsoft-Fans, zufälligerweise 
gerade als Microsoft einen neuen Standort bei München eröffnete...

von J. V. (janvi)


Lesenswert?

habe hier Mentors Expedition in einem VM Workstation Fenster laufen und 
das geht ohne merkliche Unterschiede. U.a. wegen inkompatibler 
Bibliotheken und Designs habe ich keine Lust auf neue Lizenzen und die 
alte Version läuft nach Windows XP definitiv nicht mehr. Sie ist aber 
schon älter 10 Jahre und lief bereits unter NT4.0 ganz passabel. Auf 
einem Laptop mit Suse hatte ich vor etwa 15 Jahre mal das Gleiche mit 
einer VM Workstation probiert und da hat der PCB Scroll deutlich 
geruckelt. Man konnte aber arbeiten, war halt nicht so smooth wie 
gewohnt.

Ansonsten mache ich einfachere neue Designs auf Kicad und habe auch 
meine alte Eagle Lizenz in die Tonne getreten bzw. das Abo abbestellt. 
Das sind klare Rückschritte aber die V6 Vorhaben scheinen durch CERN 
ambitioniert. Anstelle mit Workarounds graue Haare zu kriegen kann man 
ja selbst Hand anlegen und es gibt immer Details die auch besser sind 
als vom alten Teil gewohnt. Es ist halt nicht gleich und meist findet 
man das auch nicht raus wenn man sich nicht drauf einlässt.

Als Motivation dies zu tun: MS ist noch immer eine amerikanische Firma. 
Was mir da per Präsidentenerlass passieren kann ist genauso fragwürdig 
wie die gesetzliche Verpflichtung für chinesische Firmen der Regierung 
Spionagedaten beizusteuern. Daher mein (erneuter) Schwenk auf Linux. 
Bestimmte Dinge sind hier einfach besser - nicht alle - und andere eben 
auf W10 das ich noch immer gleichzeitig betreibe.

https://www.heise.de/ct/artikel/Adobe-drohte-die-Abschaltung-seiner-Creative-Cloud-in-Venezuela-4563862.html

von Udo K. (Gast)


Lesenswert?

Jörg W. schrieb:
> Udo K. schrieb:
>
>>> Sie haben ihre Abhängigkeiten insgesamt besser im Griff, und müssen
>>> daher nicht für allen Krimskrams „vorsichtshalber“ gleich mal die Kiste
>>> runterfahren.
>>
>> Ist das so?
>
> Warum zum Geier™ muss Windows denn sonst diese berüchtigte Ausschrift
> ausspucken?

Wenn du das Reboot meinst:

Daran sind sind die Installationsprogramme schuld.
Die meisten Anwendungen verwenden ein oder zwei zugekaufte 
Installationsroutinen,
und die booten aus Gewohnheit,
oder um auf der sicheren Seite zu sein,
immer neu.

Aber installiere mal aktuelle, neu entwickelte SW.  Du wirst staunen.


>
>> Windows hat dasselbe Verhalten,
>
> Du hast offenbar nicht den grundsätzlichen Unterschied beider
> Dateisystemkonzepte begriffen. Es ist eben etwas völlig anderes, ob ein
> Verzeichniseintrag die Datei selbst beschreibt (CP/M, RSX-11, MS-DOS,
> Windows, vermutlich auch VMS), oder ob er nur einen (von potenziell
> vielen) Verweis auf das Dateiobjekt enthält, welches komplett unabhängig
> von Verzeichniseinträgen (und damit "Dateinamen") existiert (alle
> Unixe).
>
> Wenn du diesen Unterschied begriffen hättest, würdest du eine solche
> Behauptung nicht aufstellen.

Auch NTFS verwendet intern einen B-Tree mit 64 bit "Inode" Nummern
(nFileIndexHigh und nFileIndexLow in 
https://docs.microsoft.com/en-us/windows/win32/api/fileapi/ns-fileapi-by_handle_file_information?redirectedfrom=MSDN),
ähnlich wie Unix.

Die Windows Inode gilt aber nur innerhalb einer Partition,
Partitionen und Devices werden in Windows intern
mit eindeutigen Strings angesprochen, nicht mit Nummern.
Unter der Haube also nicht viel Unterschied.
Diese Strings sind im Gegensatz zu den Inodes
auch in einem Netzwerk eindeutig.

Die Default Einstellungen von Linux sind krank, da jedes Program
potentiell einem anderen Program die Datenbank unterm Hintern 
weglöschen/verändern kann.
Das wird eine der ersten Lücken sein, auf die sich Virenschreiber
stürzen werden.

Unter Windows muss man für dieses Verhalten explizit beim Öffnen des 
Files
FILE_SHARE_DELETE angeben.


>
> Ich habe nicht behauptet, dass es jederzeit unproblematisch ist,
> entsprechende Dateien im Betrieb auf diese Weise zu ersetzen, aber es
> ist eben grundsätzlich dadurch erst einmal möglich – und zwar, indem
> beide Dateiversionen noch für eine gewisse Zeit parallel existieren.

Was zu Inkonsistenzen und Sicherheitslücken ohne Ende
in jeder komplexeren Anwendung führt!
Ein 0815 Program stürzt halt ab, oder liefert einen komischen Fehler.
Wen das Program aber eine 10 Millionen $ teure Industrieanlage steuert,
ist das mehr als ärgerlich.

>
>> Unter Windows ist es schon ziemlich lange her, dass ich wegen einem
>> Update neu booten musste.
>
> Sorry, dann machen alle meine Kollegen wohl was falsch. Sie dürfen sich
> regelmäßig damit rumärgern.

Na ja, sollen sie halt auf einen Kaffee gehen...
fördert die Kommunikation in der Firma.

Der Sysadmin kann sich in der Zwischenzeit weiterbilden, und in
der Gruppenrichtlinie eintragen, dass automatische Neustarts
nicht gemacht werden sollen, während der Anwender angemeldet ist...

von Eric (Gast)


Lesenswert?

Udo K. schrieb:
> Die Default Einstellungen von Linux sind krank, da jedes Program
> potentiell einem anderen Program die Datenbank unterm Hintern
> weglöschen/verändern kann.
> Das wird eine der ersten Lücken sein, auf die sich Virenschreiber
> stürzen werden.

Wenn die Aussage ernst gemeint sein sollte, empfehle ich Dir dringend, 
dich einmal mit Linux/Unix zu beschäftigen.

von Udo K. (Gast)


Lesenswert?

Um noch mal auf das Problem vom Max zu kommen:

Ich finde die Idee eine komplexe CAD SW auf einem anderen
BS laufen zu lassen schlecht.

Man schichtet auf der Linux Bloatware noch mal die nachgebaute
Windows Bloatware drauf, und hofft dass alles besser wird.


Gründe:

- Zeitaufwand

- potentiellen Probleme von Linux

- und potentielle Probleme der Windows Portierung

- das BS ist unwichtig, man arbeitet ohnehin 95% der Zeit in der CAD SW.

- Probleme mit dem Datenaustausch
 (die Altium Files verwenden einige sehr spezielle, hässlich komplexe
 und schlecht dokumentierte MS APIs um Files zu schreiben...)

- keine Gewährleistung der 7000 Euro SW im Schadensfall

- Als Entwickler kann ich mich nicht mal auf einen Bug in der SW 
ausreden,
wenn ich die SW nicht in der unterstützten Umgebung verwende!

- Ich kann auch nicht den Altium Support fragen, die werden nur
mit der Schulter zucken und sich denken: wieder so ein *****.

- Ich habe keine Gewährleistung, und auch die berufliche Haftpflicht 
wird
nicht zahlen im Worstcase Fall.

Der letzte Punkt ist zwar unwahrscheinlich und nur in 
sicherheitsrelevanten Branchen wichtig, aber hat potentiell hässliche 
Auswirkungen
in komplexen Designs, wo nicht alles händisch geprüft wird.

Ich erinnere dran, dass schon die Floating Point Unit unter Windows
und Linux anders initialisiert wird...

von Udo K. (Gast)


Lesenswert?

Eric schrieb:
> Udo K. schrieb:
>> Die Default Einstellungen von Linux sind krank, da jedes Program
>> potentiell einem anderen Program die Datenbank unterm Hintern
>> weglöschen/verändern kann.
>> Das wird eine der ersten Lücken sein, auf die sich Virenschreiber
>> stürzen werden.
>
> Wenn die Aussage ernst gemeint sein sollte, empfehle ich Dir dringend,
> dich einmal mit Linux/Unix zu beschäftigen.

Hast du irgendwelche Argumente ausser der üblichen Pro Linux Polemik.

von Eric (Gast)


Lesenswert?

Udo K. schrieb:
> Hast du irgendwelche Argumente ausser der üblichen Pro Linux Polemik.

Da ich seit mehr als 25 Jahren mit Linux/BSD arbeite weiss ich die 
Vorteile dieser Systeme zu schätzen. Mit Polemik hat das erstmal nichts 
zu tun.

Aber deine Aussage

Udo K. schrieb:
> da jedes Program
> potentiell einem anderen Program die Datenbank unterm Hintern
> weglöschen/verändern kann.

Ist entweder scherzhaft gemeint, oder Dir fehlt tatsächlich das 
Grundwissen über unixoide Betriebssysteme.
Denn genau dass passiert unter Linux eben nicht, weil jede wichtige 
Software als eigener Benutzer ausgeführt wird.
Und die Datenbank hat ebenfalls mehrere Benutzer - für jedes Programm 
mindestens einen - so dass auch hier der Zugriff ausgeschlossen ist.

von Reinhard S. (rezz)


Lesenswert?

Udo K. schrieb:
> Jörg W. schrieb:
>> Udo K. schrieb:
>>
>>>> Sie haben ihre Abhängigkeiten insgesamt besser im Griff, und müssen
>>>> daher nicht für allen Krimskrams „vorsichtshalber“ gleich mal die Kiste
>>>> runterfahren.
>>>
>>> Ist das so?
>>
>> Warum zum Geier™ muss Windows denn sonst diese berüchtigte Ausschrift
>> ausspucken?
>
> Wenn du das Reboot meinst:
>
> Daran sind sind die Installationsprogramme schuld.
> Die meisten Anwendungen verwenden ein oder zwei zugekaufte
> Installationsroutinen,

Bei meinem Win7 kommt das von Windows (Update) selbst. Weil es ja, wie 
du selbst geschrieben hast, Dateien ersetzen muss, die in Benutzung 
sind.

> Aber installiere mal aktuelle, neu entwickelte SW.  Du wirst staunen.

Ändert halt nix an den WindowsUpdates.

> Die Default Einstellungen von Linux sind krank, da jedes Program
> potentiell einem anderen Program die Datenbank unterm Hintern
> weglöschen/verändern kann.
> Das wird eine der ersten Lücken sein, auf die sich Virenschreiber
> stürzen werden.

Wenn Linux jetzt neu und unverbreitet wäre würde ich das glauben.

> Was zu Inkonsistenzen und Sicherheitslücken ohne Ende
> in jeder komplexeren Anwendung führt!
> Ein 0815 Program stürzt halt ab, oder liefert einen komischen Fehler.
> Wen das Program aber eine 10 Millionen $ teure Industrieanlage steuert,
> ist das mehr als ärgerlich.

Deshalb stürzt es früher oder später trotzdem ab oder liefert einen 
komischen Fehler. Die Auswirkungen sind halt größer. Und behaupte jetzt 
nicht, das Win da fehlerfrei ist.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Udo K. schrieb:
> Um noch mal auf das Problem vom Max zu kommen:

… das er gar nicht mehr hat inzwischen.

> Ich finde die Idee eine komplexe CAD SW auf einem anderen
> BS laufen zu lassen schlecht.

Gut. Andere finden sie nicht schlecht.

> Man schichtet auf der Linux Bloatware noch mal die nachgebaute
> Windows Bloatware drauf, und hofft dass alles besser wird.

Nein, man hofft nicht, sondern weiß es. :-) Es gibt ja Leute (wie mich), 
die das schon eine Weile so machen.

Das Windows wird dabei übrigens sogar schneller. Der Grund? Ganz 
einfach: indem ich das Windows nicht mehr am Netz habe, sondern nur noch 
einen sehr expliziten und gezielten Übergabepunkt, kann ich mir den 
Virenscanner klemmen.

> Gründe:
>
> - Zeitaufwand

Einmal-Investition. Habe ich vor 5 Jahren getätigt, seitdem weniger als 
einen Arbeitstag in die Wartung investiert (hauptsächlich 
zwischenzeitliches Upgrade von VMware).

> - potentiellen Probleme von Linux

"Potenzielle" Probleme hast du sowieso immer.

Die realen halten sich in Grenzen.

> - und potentielle Probleme der Windows Portierung

Welche Portierung? Da ist nichts portiert.

> - das BS ist unwichtig, man arbeitet ohnehin 95% der Zeit in der CAD SW.

Nein. Ich arbeite 95 % der Zeit mit Compilern, allein dafür ist der 
Geschwindigkeitsunterschied beim Compilieren so erheblich (wenn man 
beide auf gleiche Hardware loslässt), dass mir das wohl schon genug 
reale Einsparung gebracht hat. Keine Ahnung, warum das so ist, 
eventuell ist es ja „nur“ der Virenscanner (der jede Assembler- und 
Objektdatei des Compilers ja auf Viren testet), vielleicht auch was 
anderes. Ich muss da aber keinen Aufwand in irgendeine Analyse 
investieren. No Windows, no problem.

Ganz davon abgesehen, ich arbeite nun seit fast 30 Jahren mit Unixen, 
ich bin da wirklich um Welten schneller in allem, was ich damit mache. 
Ich erhebe natürlich nicht den Anspruch, dass anderen das genauso geht. 
Das fängt bei mir schon bei einem vernünftig funktionierenden 
focus-follows-mouse an. (Ich weiß, geht unter Windows auch, habe ich 
wegen Altium sogar aktiviert, aber ist im Vergleich zu meinem fvwm 
einfach nur gruselig zu benutzen. Dass das dort sonst niemand groß 
benutzen will, kann ich voll und ganz verstehen.)

> - Probleme mit dem Datenaustausch
>  (die Altium Files verwenden einige sehr spezielle, hässlich komplexe
>  und schlecht dokumentierte MS APIs um Files zu schreiben...)

Welchen Datenaustausch? Das Altium muss sich doch praktisch nur mit sich 
selbst verstehen. Davon abgesehen, ein-, zweimal hatten wir auch schon 
Contractors, die uns Altiumprojekte zugearbeitet haben. Das Einzige, was 
dabei nicht funktioniert hat, war so ein Draftsman-Dokument, weil AD16 
das von AD17 generierte hier nicht schlucken wollte. Aber da war eh 
verzichtbar, der Contractor wollte das nur mal ausprobieren.

> - keine Gewährleistung der 7000 Euro SW im Schadensfall

Hast du jemals für irgendeine Software erfolgreich einen 
Gewährleistungsanspruch geltend gemacht?

> Ich erinnere dran, dass schon die Floating Point Unit unter Windows
> und Linux anders initialisiert wird...

???

: Bearbeitet durch Moderator
von vn nn (Gast)


Lesenswert?

Udo K. schrieb:
> Eric schrieb:
>> Udo K. schrieb:
>>> Die Default Einstellungen von Linux sind krank, da jedes Program
>>> potentiell einem anderen Program die Datenbank unterm Hintern
>>> weglöschen/verändern kann.
>>> Das wird eine der ersten Lücken sein, auf die sich Virenschreiber
>>> stürzen werden.
>>
>> Wenn die Aussage ernst gemeint sein sollte, empfehle ich Dir dringend,
>> dich einmal mit Linux/Unix zu beschäftigen.
>
> Hast du irgendwelche Argumente ausser der üblichen Pro Linux Polemik.

Gegenfrage, hast du was anderes zu bieten außer deinen abstrusen 
Behauptungen?
Würde sich da tatsächlich ein Problem darstellen, warum hat das noch 
niemand ausgenutzt? Linux-Server wären ein lohnendes Ziel...
Aber du weißt halt nix über das Unix-Rechtesystem.

Udo K. schrieb:
> Jörg W. schrieb:
>> Udo K. schrieb:
>>
>>>> Sie haben ihre Abhängigkeiten insgesamt besser im Griff, und müssen
>>>> daher nicht für allen Krimskrams „vorsichtshalber“ gleich mal die Kiste
>>>> runterfahren.
>>>
>>> Ist das so?
>>
>> Warum zum Geier™ muss Windows denn sonst diese berüchtigte Ausschrift
>> ausspucken?
>
> Wenn du das Reboot meinst:
>
> Daran sind sind die Installationsprogramme schuld.
> Die meisten Anwendungen verwenden ein oder zwei zugekaufte
> Installationsroutinen,
> und die booten aus Gewohnheit,
> oder um auf der sicheren Seite zu sein,
> immer neu.
>
> Aber installiere mal aktuelle, neu entwickelte SW.  Du wirst staunen.

Äh, was hat das nunmal mit den Leidigen Update-Reboots zu tun?

von Udo K. (Gast)


Lesenswert?

Eric schrieb:
> Udo K. schrieb:
>> Hast du irgendwelche Argumente ausser der üblichen Pro Linux Polemik.
>
> Da ich seit mehr als 25 Jahren mit Linux/BSD arbeite weiss ich die
> Vorteile dieser Systeme zu schätzen. Mit Polemik hat das erstmal nichts
> zu tun.

Ich sage ja nicht dass Linux schlecht oder unbrauchbar ist.
Mir ist es auch herzlich egal, unter welchem BS irgendwas läuft.
Wichtig ist, das es was sinnvolles macht, und dafür braucht
es erfahrene Leute und getestete Software.  Beides ist auf allen
OS der Welt zu finden.

Wenn aber eine komplexe Software XYZ auf Linux entwickelt worden ist,
und ich XYZ dann auf Windows laufen lassen möchte, dann habe ich erst 
mal
viele Probleme und schlechte Performance.
Wenn die SW komplex ist, dann gibt es neben der Aussage läuft oder läuft
nicht auch noch sehr viele "aber".

Und ja, ich habe das schon gemacht, und weiss auch wovon ich rede...


>
> Aber deine Aussage
>
> Udo K. schrieb:
>> da jedes Program
>> potentiell einem anderen Program die Datenbank unterm Hintern
>> weglöschen/verändern kann.
>
> Ist entweder scherzhaft gemeint, oder Dir fehlt tatsächlich das
> Grundwissen über unixoide Betriebssysteme.
> Denn genau dass passiert unter Linux eben nicht, weil jede wichtige
> Software als eigener Benutzer ausgeführt wird.
> Und die Datenbank hat ebenfalls mehrere Benutzer - für jedes Programm
> mindestens einen - so dass auch hier der Zugriff ausgeschlossen ist.

Anstatt zu unterstellen, das ich ja ein Dorftrottel wäre,
könntest du auch mit harten Fakten argumentieren?

Genau das passiert wenn ich rm -rf /etc/* eintippe.

Ja sicher kann man alles mit Zugriffsrechten absichern, nur das war
ja nicht die Frage.

Es ging drum, ob das Überschreiben von Files im laufenden Betrieb
eine gute Idee ist, oder eher nicht.   Ich meine, das das keine
gute Idee ist.

von Ingo W. (uebrig) Benutzerseite


Lesenswert?

Udo K. schrieb:
> Genau das passiert wenn ich rm -rf /etc/* eintippe.

Du bekommst eine Latte an Fehlermeldungen, das die Datei(en) mangels 
Rechten nicht gelöscht werden konnten. Root wird dies nicht tun, denn 
der weis ja, was dies bedeuten würde.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Udo K. schrieb:
> Ich meine, das das keine
> gute Idee ist.

Deine Meinung ist dir natürlich unbenommen.

4.4BSD hatte versucht, mit den file flags (bspw. "immutable") das 
Gefahrenpotenzial in dieser Hinsicht zu reduzieren. Wenn das System in 
einem erhöhten Securelevel läuft, dürfen derartige Dateien nicht mehr 
modifiziert werden. Der Securelevel lässt sich ohne Reboot nur erhöhen, 
nicht verringern. So gab es auch noch append-only als Flag (für 
Logfiles).

In der Praxis hat das niemand benutzt, denn man hätte damit deutlich 
häufigere Reboots erzwingen müssen, bspw. um Logfiles zu rotieren. War 
dann wohl doch zu unhandlich.

MacOS hat nun etwas ähnliches für einen Teil der Dateisystemhierarchie 
implementiert, den sie als extrem lebenswichtig für das OS kennzeichnen. 
Dort gestatten sie eine Modifikation nur, wenn das aktuell laufende 
System nicht von der gleichen Partition gebootet worden ist wie die zu 
ändernden Dateien. Auch hier wird, allerdings eben nur für wichtige 
Systemdateien, ein Reboot erzwungen, wenn man Updates machen möchte. Für 
einen PC (wir erinnern uns, dass das Ding ja ein "persönlicher Computer" 
ist) mag das gehen, für einen Server würde ich das nicht haben wollen.

Ist halt ein tradeoff zwischen Sicherheit und Bequemlichkeit / 
Ausfallzeit. In der Praxis scheint sich der Schaden, der durch 
versehentliche oder vorsätzlich böswillig gelöschte oder überschriebene 
wichtige Dateien oder Datenbanken entsteht, doch recht arg in Grenzen zu 
halten.

von Nano (Gast)


Lesenswert?

Jörg W. schrieb:
> Nano schrieb:
>> 2. Zweite dedizierte GPU kaufen und in den Rechner einbauen.
>
> Nein, braucht er nicht. Wenn du den Thread komplett gelesen hättest,
> hättest du bemerkt, dass er mit der VMware-Player-Variante alles hat,
> was er braucht – mit der regulären Grafikkarte. Das Problem des TE kann
> man mithin als erledigt betrachten.

Ich habe den Thread nicht komplett gelesen, allerdings ist die 
VMware-player Variante nur eine Softwarelösung, das kann gut 
funktionieren, muss es aber nicht.
Wenn er die volle GPU Geschwindigkeit haben will, dann ist eine 
dedizierte GPU, abgesehen von dem Punkt das es wegen dem Umschalten 
umständlicher ist, die bessere Wahl.


> Ergänzung:
>
>> Eine alternative zum Umschalten des Eingangssignal am Monitor wäre ein
>> zweiter Monitor
>
> Der TE will mit Altium arbeiten. Wenn man sowieso schon zwei Monitore
> auf dem Tisch hat (und mithin den Platz für diese), dann glaub' mir,
> möchte man auch im Altium (wie in jedem andere EDA-Tool) beide
> gleichzeitig verwenden können. Dann hat man nämlich auf einem den
> Schaltplan und auf dem anderen das Layout, oder wenn das Layout noch
> nicht begonnen ist, auf einem den Schaltplan und auf dem anderen die
> Bauteilbibliothek.

Ich habe nirgends gesagt, dass er nur einen Monitor nutzen soll.
Sondern wenn er nicht umschalten möchte, dass er auch einen separaten 
Monitor ansteuern kann.

Wenn er also für Altium zwei Monitore für Windows haben will und nicht 
umschalten will, dann braucht er halt noch zwei zusätzliche Monitore.
Oder er muss mit umschalten, dann halt zwei umschalten.

Und wenn er n Monitore haben will, dann heißt es eben auf n Monitoren 
umschalten oder n Monitore zusätzlich kaufen und an die dedizierte GPU 
anschließen.

Prinzipiell könnte er auch einen zweiten Tisch hinstellen, dann da seine 
n Monitore anschließen und zusätzlich noch eine USB Tastatur und Maus 
allein für die VM aufstellen, das geht auch.

von Nano (Gast)


Lesenswert?

Udo K. schrieb:
> Die Default Einstellungen von Linux sind krank, da jedes Program
> potentiell einem anderen Program die Datenbank unterm Hintern
> weglöschen/verändern kann.
> Das wird eine der ersten Lücken sein, auf die sich Virenschreiber
> stürzen werden.

Auch Windows hat keine Trennung der Rechte pro Anwendung, sondern auch 
da sind alle Daten des Nutzers unter seinem Nutzeraccount mit seinen 
Rechten zugänglich.

Eine echte Trennung der Nutzerdaten auf Anwendungsebene gibt es momentan 
meines Wissens nach nur bei Android. Bei den Systemen von Apple weiß ich 
es nicht.

> Unter Windows muss man für dieses Verhalten explizit beim Öffnen des
> Files
> FILE_SHARE_DELETE angeben.

Und das soll jetzt inwiefern ein Hindernis für Prozess A sein, um die 
Nutzdaten von Prozess B zu verändern?

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Nano schrieb:
> Wenn er die volle GPU Geschwindigkeit haben will, dann ist eine
> dedizierte GPU, abgesehen von dem Punkt das es wegen dem Umschalten
> umständlicher ist, die bessere Wahl.

Naja. Es ging hier nicht um ein Ballerspiel, sondern um ein EDA-Tool. 
Das braucht den 3D-Modus vor allem, weil sich damit viele 
Zeichenprimitiven der Boarddarstellung effizienter lösen lassen, siehe 
auch Horizon und seine Mindestanforderungen. Ansonsten noch für die 
3D-Boarddarstellung, aber die braucht man doch eher selten.

Da wird also eh keine "Spiele-Performance" in irgendeiner Form benötigt, 
sondern nur, dass es insgesamt überhaupt und stabil funktioniert, das 
3D-API von Windows auf den Host abzubilden.

Das bekommt VMware gut (genug) hin. Dafür muss man sich nicht den 
Arbeitsplatz mit Monitoren zunageln. :)

von Nano (Gast)


Lesenswert?

Jörg W. schrieb:
> Nein. Ich arbeite 95 % der Zeit mit Compilern, allein dafür ist der
> Geschwindigkeitsunterschied beim Compilieren so erheblich (wenn man
> beide auf gleiche Hardware loslässt), dass mir das wohl schon genug
> reale Einsparung gebracht hat. Keine Ahnung, warum das so ist,
> eventuell ist es ja „nur“ der Virenscanner (der jede Assembler- und
> Objektdatei des Compilers ja auf Viren testet), vielleicht auch was
> anderes. Ich muss da aber keinen Aufwand in irgendeine Analyse
> investieren. No Windows, no problem.

Man kann die Buildverzeichnis vom Virencheck herausnehmen.
Das kann man in der Antivirensoftware in der Regel einstellen.
Das geht natürlich nur mit der Pro Version, die kostenlosen privat 
Editions können das in der Regel nicht, aber wer auf dem Rechner 
kommerziell arbeitet, der muss sowieso die kostenpflichtige Version 
verwenden.

Die private Edition ist nur für die private Nutzung erlaubt.

@TS
Das gilt übrigens auch für den Threadstarter und VMWare Player.
Wenn er Altrium kommerziell nutzt, dann braucht er eine gewerbliche 
VMWare Lizenz, wenn er VMWare nutzen möchte.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Nano schrieb:
> Man kann die Buildverzeichnis vom Virencheck herausnehmen.

Kann man.

Allerdings muss man dafür die Buildverzeichnisse (vor allem die 
temporären) erstmal kennen. Dann muss man rausfinden, wo und wie man das 
konfiguriert.

Da ist mir die VM jedoch lieber, bei der man den ganzen Zirkus mangels 
Netzwerkzugriff (und mangels entsprechender Nutzung für Webbrowsen, 
Mails lesen etc.) gar nicht erst braucht – muss ich keine Zeit in solch 
unproduktive Dinge investieren. :-)

von Nano (Gast)


Lesenswert?

Jörg W. schrieb:
> Nano schrieb:
>> Wenn er die volle GPU Geschwindigkeit haben will, dann ist eine
>> dedizierte GPU, abgesehen von dem Punkt das es wegen dem Umschalten
>> umständlicher ist, die bessere Wahl.
>
> Naja. Es ging hier nicht um ein Ballerspiel, sondern um ein EDA-Tool.

Das weiß ich und das ist umso mehr ein Grund eine dedizierte GPU zu 
verwenden. Weil die Softwarelösung Treiber auf dem Gastsystem benötigt 
und diese Softwarelösung für Spiele optimiert werden.

Es heißt nicht umsonst VMWare Player.

Es kann natürlich sein, dass die EDA Suite nur einen Bruchteil der 
Direct3d oder OpenGL Funktionen verwendet und das dann mit diesen 
"Spiele" Treibern problemlos läuft. Optimiert sind die darauf aber nicht 
und eine Funktionsgarantie hat man ohnehin nicht.

Will man dem aus dem Weg gehen, dann ist die dedizierte GPU das Mittel 
der Wahl, weil man dann die für die GPU geschriebenen Originaltreiber 
von bspw. NVidia oder AMD nehmen kann, je nach Hersteller der GPU 
natürlich.


> Das bekommt VMware gut (genug) hin. Dafür muss man sich nicht den
> Arbeitsplatz mit Monitoren zunageln. :)

Ja, wie schon gesagt, das mag ausreichen, muss es aber nicht.

Wenn er Altium in einer WMWare Player Umgebung gewerblich verwenden 
möchte, dann braucht er meines Wissens nach zudem noch eine 
kostenpflichtige Lizenz von WMWare Player, ansonsten gilt das wie nicht 
lizensiert.

von vn nn (Gast)


Lesenswert?

Udo K. schrieb:
> Genau das passiert wenn ich rm -rf /etc/* eintippe.
>
> Ja sicher kann man alles mit Zugriffsrechten absichern, nur das war
> ja nicht die Frage.

Natürlich ist genau das die Frage, denn genau aufgrund der 
Zugriffsrechte wird nix schlimmes passieren.

Nano schrieb:
> Man kann die Buildverzeichnis vom Virencheck herausnehmen.
> Das kann man in der Antivirensoftware in der Regel einstellen.
> Das geht natürlich nur mit der Pro Version, die kostenlosen privat
> Editions können das in der Regel nicht, aber wer auf dem Rechner
> kommerziell arbeitet, der muss sowieso die kostenpflichtige Version
> verwenden.

Es stellt sich die Frage, warum überhaupt derartiges Schlangenöl 
verwenden?

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Nano schrieb:

> Das weiß ich und das ist umso mehr ein Grund eine dedizierte GPU zu
> verwenden. Weil die Softwarelösung Treiber auf dem Gastsystem benötigt
> und diese Softwarelösung für Spiele optimiert werden.

Huh?

> Es heißt nicht umsonst VMWare Player.

Das hat völlig andere (historische) Hintergründe.

Früher konnte man mit dem "Player" nur vorab mit der vollen Version von 
VMware Workstation erzeugte und exportierte VMs "abspielen".

Irgendwann haben sie dann den Player so weit aufgebohrt, dass er nun 
praktisch eine leicht abgerüstete Variante der normalen 
Workstation-Version ist, bspw. kann man damit keine disk snapshots 
anlegen.

Mit "playing games" hat das Dingens nun wirklich nichts zu tun.

> Ja, wie schon gesagt, das mag ausreichen, muss es aber nicht.

Es mag nicht bloß, es reicht. Mach ich nun seit Jahren so, und der TE 
war nach der Umstellung von Virtualbox auf VMware ja auch zufrieden mit 
der Performance.

> Wenn er Altium in einer WMWare Player Umgebung gewerblich verwenden
> möchte, dann braucht er meines Wissens nach zudem noch eine
> kostenpflichtige Lizenz von WMWare Player, ansonsten gilt das wie nicht
> lizensiert.

Du wiederholst dich – und das hatten wir oben sowieso schon geklärt, 
dass das Teil nur für private Nutzung frei ist.

Wenn man es kommerziell nutzen will, sollte man eh die paar Euro mehr 
ausgeben und nicht bloß den Player, sondern die volle Version kaufen. 
Gerade Snapshots sind ein Feature, das einem schnell mal das Gesäß 
retten kann. Man muss sich dann nicht dreimal überlegen, ob man 
irgendeine Demoversion von irgendwas im Gast installiert oder nicht oder 
ob die einem ggf. hinterher unliebsame Spuren hinterlässt – einfach 
einen Snapshot anlegen, installieren, ausprobieren, danach Snapshot 
zurückleiern, alles wieder wie zuvor.

von Nano (Gast)


Lesenswert?

Jörg W. schrieb:
> Nano schrieb:
>
>> Das weiß ich und das ist umso mehr ein Grund eine dedizierte GPU zu
>> verwenden. Weil die Softwarelösung Treiber auf dem Gastsystem benötigt
>> und diese Softwarelösung für Spiele optimiert werden.
>
> Huh?

Windows 10 liefert die für VMWare schon mit.
Bei Virtualbox müsste man die noch separat installieren.
Für KVM gibt es auch schon welche.

Guck einfach mal in den Gerätemanager und schaue, was da als Treiber für 
die GPU läuft, die Windows in der VM meint vor sich zu haben.



> Mit "playing games" hat das Dingens nun wirklich nichts zu tun.

Als solches wird es aber inzwischen beworben.
Das hat auch damit etwas zu tun, dass diese 3d Softwaretreiber eben 
immer besser geworden sind und nun auch viele Spiele damit relativ gut 
funktionieren sollen.


>
>> Ja, wie schon gesagt, das mag ausreichen, muss es aber nicht.
>
> Es mag nicht bloß, es reicht. Mach ich nun seit Jahren so, und der TE
> war nach der Umstellung von Virtualbox auf VMware ja auch zufrieden mit
> der Performance.

Er hätte für die Virtualbox noch die Gastsystemtreiber installieren 
müssen.
Die muss man separat downloaden, da die bei Windows nicht mitgeliefert 
werden.
Die sind auf der Webseite von virtualbox verfügbar.

Zu beachten ist allerdings, dass diese noch längst nicht so ausgereift 
und gut sind, wie die für VMWare.
VMWare funktioniert in dieser Hinsicht immer noch besser und Virtualbox 
muss da noch nachholen.
Das gleiche gilt für KVM + QEMU.



> Du wiederholst dich – und das hatten wir oben sowieso schon geklärt,
> dass das Teil nur für private Nutzung frei ist.

Ok, ich bin in den Thread später eingestiegen und habe nicht alles 
gelesen.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Nano schrieb:

> Guck einfach mal in den Gerätemanager und schaue, was da als Treiber für
> die GPU läuft, die Windows in der VM meint vor sich zu haben.

Ja, natürlich VMware, anders kann es ja nicht gehen.

> Er hätte für die Virtualbox noch die Gastsystemtreiber installieren
> müssen.

Ich gehe davon aus, dass man das beim Aufsetzen eines Gastes sowieso als 
erstes tut.

Ohne 3D-Grafiktreiber wäre Altium gar nicht gelaufen. So lief es ja 
lediglich zäh.

> Zu beachten ist allerdings, dass diese noch längst nicht so ausgereift
> und gut sind, wie die für VMWare.

Genau da liegt offenbar der Hase im Pfeffer.

von Jens G. (jensig)


Lesenswert?

>Er hätte für die Virtualbox noch die Gastsystemtreiber installieren
>müssen.
> ...
>Ok, ich bin in den Thread später eingestiegen und habe nicht alles
>gelesen.

Das hätest Du aber mal machen sollen, sonst würdest Du nicht stämndig im 
Trüben fischen, und dem TO empfehlen, was er bereits im ersten Post als 
erledigt abgehakt hat.

Denn der TO schrieb anfangs:

>Ich hab schon GuestAdditions von VirtualBox installiert, RAM + CPU
>hochgeschraubt aber so wirklich geholfen hat das alles nichts.

von Andreas M. (amesser)


Lesenswert?

Jörg W. schrieb:
> Nein. Ich arbeite 95 % der Zeit mit Compilern, allein dafür ist der
> Geschwindigkeitsunterschied beim Compilieren so erheblich (wenn man
> beide auf gleiche Hardware loslässt), dass mir das wohl schon genug
> reale Einsparung gebracht hat. Keine Ahnung, warum das so ist,
> eventuell ist es ja „nur“ der Virenscanner (der jede Assembler- und
> Objektdatei des Compilers ja auf Viren testet), vielleicht auch was

Das hat etwas mit der Funktionsweise des GCC (eventuell andere Compiler 
auch) und der Dateisysteme unter Linux / Windows zu tun. Der GCC 
arbeitet sehr viel mit temporären Dateien. Windows schreibt Dateien im 
Allgemeinen immer direkt auf die Festplatte. (Sobald der Schreibvorgang 
beginnt) Man kennt das von USB-Sticks, selbst ohne die explizit 
auszuwerfen kann man die unter Windows meist direkt nach dem 
Kopiervorgang abziehen und die Daten sind trotzdem drauf. Bei Linux ist 
das anders. Dort landen die Daten erst mal im RAM und die Festplatte 
rührt sich überhaupt überhaupt nicht. Typischerweise beginnt Linux erst 
nach einigen Sekunden mit den Festplattenzugriffen. Da der GCC die 
temporären Dateien nur kurzzeitig anlegt und dann dann alsbald wieder 
löscht,  kommt es unter Linux meist zu gar keinen Festplattenzugriffen, 
da die Dateien schon wieder gelöscht wurden bevor sie überhaupt auf die 
Platte geworfen wurden. Unter Windows werden diese "brav" geschrieben 
und wieder gelöscht. Dadurch werden unter Windows die übrigen 
Festplattenzugriffe (Include Dateien, C Dateien, Objektdateien) 
verlangsamt, unter Linux kaum.

Dazu kommt, dass das "/tmp" unter Linux heute oftmals gleich direkt eine 
RAM Disk ist (tmpfs).

von Uhu U. (uhu)


Lesenswert?

Andreas M. schrieb:
> Dazu kommt, dass das "/tmp" unter Linux heute oftmals gleich direkt eine
> RAM Disk ist (tmpfs).

Das könnte Windows auch – das ist also überhaupt kein Argument…

von Naja (Gast)


Lesenswert?

Uhu U. schrieb:
> Andreas M. schrieb:
>> Dazu kommt, dass das "/tmp" unter Linux heute oftmals gleich direkt eine
>> RAM Disk ist (tmpfs).
>
> Das könnte Windows auch – das ist also überhaupt kein Argument…

Wobei das Thema "RAM Disk" doch ein reichlich historisches ist. Das hat 
man damals mal befeuert als noch Festplattenzugriffe grottenlahm waren. 
Heutzutage gibt es ultra schnelle SSDs. Da braucht es sowas wie eine 
"RAM Disk" nun wirklich nicht mehr (allenfalls für die 
Fortschrittsverweigerer).

;)

von Bernd K. (prof7bit)


Lesenswert?

Andreas M. schrieb:
> (Sobald der Schreibvorgang
> beginnt) Man kennt das von USB-Sticks, selbst ohne die explizit
> auszuwerfen kann man die unter Windows meist direkt nach dem
> Kopiervorgang abziehen und die Daten sind trotzdem drauf.

Das kannst Du nur weil ein USB-Stick unter Windows per Default (sofern 
nicht vom Benutzer anders konfiguriert) mit der Option "sync" (oder dem 
Windows-Äquivalent davon) gemountet wird.

Das kann man auch abschalten wenn man will.

Und für interne HDD ist das standardmäßig sowieso abgeschaltet, hier 
cached Windows genauso aggressiv wie Linux auch. Daß es trotzdem 
langsamer ist liegt einfach daran daß Dateioperationen unter Windows 
halt einfach generell um Größenordnungen langsamer sind als bei 
vernünftigen Betriebssystemen, der Teufel allein weiß warum das so ist.

: Bearbeitet durch User
von Andreas M. (amesser)


Lesenswert?

Naja schrieb:
> Wobei das Thema "RAM Disk" doch ein reichlich historisches ist. Das hat
> man damals mal befeuert als noch Festplattenzugriffe grottenlahm waren.
> Heutzutage gibt es ultra schnelle SSDs. Da braucht es sowas wie eine
> "RAM Disk" nun wirklich nicht mehr (allenfalls für die
> Fortschrittsverweigerer).
>
> ;)

Ultraschnell? Mein RAM schafft 34GB/s Zeig mir bitte mal eine SSD die 
das kann.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Andreas M. schrieb:
> Mein RAM schafft 34GB/s Zeig mir bitte mal eine SSD die das kann.

Der Compiler muss den Salat ja auch erstmal produzieren, insofern dürfte 
der praktische Unterschied minimal sein.

Eine RAM-Disk ist eigentlich eh' nur RAM-Verschwendung, da sie den dafür 
dedizierten RAM von der on-demand-Aufteilung entzieht. Wie schon genannt 
worden ist, kurzlebige Dateien profitieren hinreichend vom RAM als 
Cache. Das dürfte zumindest auf die Assembler-Zwischendateien zutreffen 
– Objektdateien können in etwas größeren Projekten schon ein bisschen 
länger leben, bis sie dem Linker präsentiert werden. Außerdem bleiben 
sie im Allgemeinen hinterher stehen.

Aber wir bewegen uns mächtig vom Thema weg, und das Beispiel mit dem 
unter Unixen deutlich schnelleren Compilieren war eh nur einer meiner 
Punkte, warum ich Windows lieber als Sekundär-OS denn als primäres haben 
will (und der TE offensichtlich ja auch, um den Bogen mal wieder zu 
schließen :).

: Bearbeitet durch Moderator
von Arno (Gast)


Lesenswert?

[OT]
Arno schrieb:
> Andreas M. schrieb:
>> Reinhard S. schrieb:
>>> Jörg W. schrieb:
>>>> Eben. Beispielsweise durch Warten auf "Bitte schalten Sie den Computer
>>>> nicht aus". :-))
>>>
>>> Im Ernst: Worauf sollte ich da warten? Der Computer schaltet sich dann
>>> selbst aus.
>>
>> Immer wieder erfreulich am Ende des Arbeitstags wenn man das Notebook
>> mit nach Hause nimmt/nehmen muss. Ist man eh shon spät dran, beglückt
>> einen das Windows dann mit "1 von 50 Updates werden installiert..,"
>
> Und wenn man die Kiste am nächsten Morgen wieder anmacht, dauert es
> gerade mal einen halben Tag, bis sie wieder neu starten will...

Muss mich korrigieren: Das war eine "Fehlbedienung" meinerseits - 
offenbar ist für Windows 10 "Herunterfahren" und "Wieder einschalten" 
nicht das gleiche wie "Neu starten", was die Installation von Updates 
angeht...[/OT]

MfG, Arno

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.