Forum: PC Hard- und Software Linux wird nicht wirklich akzeptiert, woran liegt das ?


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Y/n ... (Gast)


Lesenswert?

Nop schrieb:
> Übrigens zum Thema WSL - es gibt nichts, was Microsoft dank seiner
> kaputtgesparten QA nicht mit Updates ruinieren kann:
>
> 
https://www.borncity.com/blog/2020/09/10/windows-10-version-2004-update-kb4571756-macht-wsl-2-kaputt/




Fast interessanter find ich das Bild seines Bücherregals.
~40 Titel zu idH. windows 7/8 u. 10, budget knowhow von M&T


Irgendwo müßte hier bei mir auch noch ~2m Microsoft Press Literatur 
technische Referenz 3/95/NT/Backoffice/SBS4.5/... programming 
excel/access/ 95..2000 etc. lagern übern Daumen locker 2-3000DM; dann 
endete das schlagartig, man oh man ;)


---

Aber das war ja garnicht die Frage :)

von W.S. (Gast)


Lesenswert?

Uwe D. schrieb:
> Deine Beiträge sind einfach nur beleidigend. Und es bringt mich keinen
> Millimeter weiter im Sinne des Threads.

Ach herrje - schau dir doch bloß mal an, WAS hier in diesem Thread 
schon alles den jeweils anderen an die Köpfe geworfen wurde!

Ich habe mit Pappnasen ganz bewußt eines der harmlosesten Wörter aus 
meinem Repertoire benutzt. Ich kann noch ganz anders - und eigentlich 
wäre das auch das Angemessene für diesen völlig ausgeuferten Thread.

Und wohin soll bei dir die Reise 'im Sinne der Threads' gehen? Dieser 
Thread fußt auf einer Frage. Da gibt es keinen erklärten Sinn des 
Threads, lediglich Antworten, die im wesentlichen den Linuxern nicht 
gefallen haben. Und darum haben selbige auf jede nur erdenkliche Art 
versucht, die Antworten als irrelevant abzutun, dagegenzusprechen, 
kurzum die Antworten einfach nicht wahrnehmen WOLLEN.

OK, es gibt auch die Möglichkeit, daß sie die Antworten einfach nicht 
wahrnehmen KÖNNEN. Sowas kommt von völlig unterschiedlichen beruflichen 
Arbeitsfeldern. Kleines Beispiel aus der Historie: COBOL versus FORTRAN. 
Hier hab ich so unsäglich oft lesen müssen 'Linux ist nichts für dich, 
bleib bei Windows' im Sinne von 'du bist ja nur zu strunzdoof und 
Windows ist für Strunzdoofe'. Das ist der Versuch, sich als Linuxer 
etwas elitärer zu fühlen als der Rest der Welt. Klar, kann man machen 
(und es gibt erschreckend viele, die das für ihr Ego brauchen), einem 
jeden ist sein Elfenbeinturm gegönnt (so er ihn haben will)...

... aber was an all dem suchst du, das dich zu irgend etwas 
weiterbringen soll? Wartest du darauf, daß dir endlich jemand eine 
Antwort auf die Frage des TO liefert, die dir gefällt?

Wenn du schon in diesem Thread weitergebracht sein willst, dann schreib 
etwas mehr und erkläre dich etwas gründlicher.

W.S.

von Jack V. (jackv)


Lesenswert?

W.S. schrieb:
> 'Linux ist nichts für dich,
> bleib bei Windows' im Sinne von 'du bist ja nur zu strunzdoof und
> Windows ist für Strunzdoofe'.

Nachdem ich damit wohl gemeint sein soll: interessante Unterstellung, 
jedoch leider nicht zutreffend. Wenn ich schreibe: „Linux ist nichts für 
dich“, dann meine ich „Linux ist nichts für dich“. Wenn ich hingegen 
meinen würde: „Du bist doof“, dann schriebe ich: „Du bist doof“. Ich 
bitte daher, die haltlosen Unterstellungen mal gepflegt steckenzulassen, 
danke.

Ist genau der gleiche Stuss, wie die wiederholte Unterstellung, ich 
würde behaupten, Linux wäre per se besser als Windows, oder das Windows 
Schrott wäre – die Pappnasen, die das hier zu glauben scheinen, 
interpretieren und phantasieren offensichtlich mehr, als sie tatsächlich 
lesen.

von Egon D. (egon_d)


Lesenswert?

W.S. schrieb:

> Ich habe mit Pappnasen ganz bewußt eines der
> harmlosesten Wörter aus meinem Repertoire
> benutzt. Ich kann noch ganz anders [...]

Das zieht niemand in Zweifel. Es stellt sich aber
die Frage nach dem Sinn.

Merke: "Toleranz ist der Verdacht, der andere
könnte Recht haben."

In diesem Sinne: Sei tolerant -- es könnte Deine
Rettung sein.


> Da gibt es keinen erklärten Sinn des Threads,
> lediglich Antworten,

Richtig.


> die im wesentlichen den Linuxern nicht gefallen
> haben. Und darum haben selbige auf jede nur
> erdenkliche Art versucht, die Antworten als
> irrelevant abzutun,

Auch richtig.

Ich nehme mir beispielsweise die unglaubliche
Arroganz und Überheblichkeit heraus, von einer
Erklärung zu erwarten, dass sie tatsächlich etwas
erklärt -- also "klarer macht".

Dazu gehört -- weiterer Affront -- das Respektieren
der Kausalität: Die Wirkung kann nicht vor der
Ursache eintreten.

Wenn ich also -- wie einige hundert Beiträge weiter
oben vorgeführt -- die Geburtsdaten von William Gates
und Linus Thorvalds sowie die Veröffentlichungsdaten
von MS-DOS, MS Windows 1.0 und Linux 0.01 hernehme
und darüber auch nur fünf Minuten nachdenke, dann ist
die gestellte Frage für mich beantwortet: Neben anderen
Faktoren hatte Linux zu dem Zeitpunkt, als es weiteren
Kreisen bekanntwurde, einen Rückstand von ca. 10 Jahren
gegenüber den Microsoft-Produkten. Das ist praktisch
nicht mehr aufzuholen -- gerade in einem derart dynamischen
Markt wie dem der Computertechnik.

Die viel interessantere Anschlussfrage, wo Richard Stallman
eigentlich mit seinem Kernel geblieben ist, OBWOHL er fast
zeitgleich mit Gates gestartet ist, wurde überhaupt nicht
gestellt. :)


Und nebenbei bemerkt: Ich war Mitte der Neunziger auch
noch fest davon überzeugt, dass theoretisch die Möglichkeit
besteht, Linux könne in den nächsten Jahren eine wesentliche
Rolle auf dem Desktop spielen -- erst aus der Rückschau
wird mir sonnenklar, dass das schon damals eine Illusion
war. Ich wusste es nur nicht...


> dagegenzusprechen, kurzum die Antworten einfach nicht
> wahrnehmen WOLLEN.
>
> OK, es gibt auch die Möglichkeit, daß sie die Antworten
> einfach nicht wahrnehmen KÖNNEN.

Das stimmt beides nicht, und das könntest Du vermutlich
auch erkennen, wenn Du nicht so blind vor Eifer wärst.


> Hier hab ich so unsäglich oft lesen müssen 'Linux ist
> nichts für dich, bleib bei Windows'

Richtig.


> im Sinne von 'du bist ja nur zu strunzdoof und Windows
> ist für Strunzdoofe'.

Stopp: Es KANN wohl sein, dass dieser Sinn gemeint ist,
aber das ist NICHT IMMER UND NICHT ZWANGSLÄUFIG der Fall.


> Das ist der Versuch, sich als Linuxer etwas elitärer
> zu fühlen als der Rest der Welt.

Nein, nicht notwendig.

Ein wesentliches Motiv, bei Linux zu bleiben, ist bei
mir tatsächlich ein gewisses Interesse an der
Computertechnik. Dies damit gleichzusetzen, dass ich
ja "nur ewig frickeln und nie produktiv arbeiten" will,
ist aber auch eine Diffamierung -- die nebenbei auch
nicht der Wahrheit entspricht. Ich möchte ein zuverlässig
arbeitendes System haben, UND ich möchte ungefähr wissen,
was im System passiert und mir selbst helfen können, wenn
es klemmt.

Es gibt aber Menschen, die NICHT dieses Interesse an
der Computertechnik haben -- und denen muss man Stand
heute sagen: Wenn Du niemanden kennst, der Dir bei
Problemen helfen kann, dann ist Linux nichts für Dich.

Das hat überhaupt nichts mit "elitär fühlen" zu tun,
das ist einfach der Status quo.


> ... aber was an all dem suchst du, das dich zu irgend
> etwas weiterbringen soll? Wartest du darauf, daß dir
> endlich jemand eine Antwort auf die Frage des TO
> liefert, die dir gefällt?
>
> Wenn du schon in diesem Thread weitergebracht sein
> willst, dann schreib etwas mehr und erkläre dich
> etwas gründlicher.

Also... ich war zwar nicht gefragt, aber ich HABE eine
für mich plausible Antwort, und der Thread HAT mich
weitergebracht. Ja.

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

W.S. schrieb:
> Das ist der Versuch, sich als Linuxer
> etwas elitärer zu fühlen als der Rest der Welt.

Das ist in erster Linie der Versuch, den Leuten näherzubringen, dass es 
sich um unterschiedliche Systeme handelt. Mit einem unterschiedlichen 
Konzept, einer unterschiedlichen Philosophie, und daraus folgend 
unterschiedlichen Eigenschaften und unterschiedlicher Bedienung. Es ist 
der Versuch, den Leuten zu erklären, dass sie mit ihren dreißig Jahren 
Windowserfahrung trotzdem Anfänger unter Linux sind, und auftretende 
Probleme mit höchster Wahrscheinlichkeit darauf zurückzuführen sind. 
Und es ist der Versuch, ihnen beizubringen, dass, wenn sie nicht willens 
oder in der Lage sind, sich mit dem Neuen zu beschäftigen, sie doch 
lieber bei dem bleiben sollten, womit sie sich auskennen – weil 
ansonsten nunmal nur Frust und Ärger vorprogrammiert sind.

Wie man daraus lesen kann, dass es irgendwas mit „elitär“ zu tun haben 
soll, erschließt sich mir nicht. Projektion?

: Bearbeitet durch User
von herbert (Gast)


Lesenswert?

W.S. schrieb:
> Hier hab ich so unsäglich oft lesen müssen 'Linux ist nichts für dich,
> bleib bei Windows' im Sinne von 'du bist ja nur zu strunzdoof und
> Windows ist für Strunzdoofe'. Das ist der Versuch, sich als Linuxer
> etwas elitärer zu fühlen als der Rest der Welt. Klar, kann man machen
> (und es gibt erschreckend viele, die das für ihr Ego brauchen), einem
> jeden ist sein Elfenbeinturm gegönnt (so er ihn haben will)...

Gut analyliert, ist unterm Strich auch meine Sicht der Dinge.
Ich hab auch mal einen Link eingefügt der einiges treffend erklärt
siehe :https://karrierebibel.de/confirmation-bias/

Die leben halt in ihrer eigenen kleinen Welt und denken ,es gibt sonst 
nichts mehr. Wenn dann einer daher kommt und meint ihre "kleine Welt hat 
Macken, dann wird man für Strunzdoof erklärt, weil sie alles was ihnen 
gegen den Strich geht mit Beleidigungen und Ablehnung beantworten.
Dabei ist Linux doch nicht der Nabel der Welt,vieles geht vieles aber 
auch nicht weil Programmiere vom normalen denken soweit weg sind und nur 
ein kleines Fester zum Hof haben wo sich das reale Leben abspielt. Das 
"Bleib bei Windows" als sicheres Empfehlung wenn man behauptet es geht 
etwas nicht , ist doch an Armut kaum mehr zu toppen. Vermutlich 
reagieren sie nur deshalb so empfindlich weil Linux das einzige ist 
wofür sie so etwas wie Gefühle aufgebaut haben.Verteidigen um jeden 
Preis. Die Glucke macht das auch nicht anders...

von Jack V. (jackv)


Lesenswert?

herbert schrieb:
> Ich hab auch mal einen Link eingefügt der einiges treffend erklärt
> siehe :https://karrierebibel.de/confirmation-bias/

… leider hast du’s entweder nicht selbst gelesen, oder es nicht 
verstanden. Denn die Theorie des Confirmation Bias erklärt auch ganz 
wunderbar deine Wahrnehmung: „Die Linuxer sind alle doof und überhaupt 
halten sie sich für die Spitze der Evolution. Und mit allem, was sie 
sagen, wollen sie doch nur ihr System verteidigen“ – und fortan findest 
du in jedem Beitrag „Belege“ dafür.

Du bist uns übrigens immer noch den Link auf den Beitrag schuldig, in 
dem jemand behauptet, dass Linux objektiv besser als Windows wäre. Ich 
bestehe deshalb darauf, weil das ein wunderbares Beispiel für 
Obenstehendes ist: keiner hat das nämlich hier geschrieben. Du hast das 
Geschriebene aufgrund deiner Erwartungshaltung nur so interpretiert.

: Bearbeitet durch User
von herbert (Gast)


Lesenswert?

Jack V. schrieb:
> Es ist
> der Versuch, den Leuten zu erklären, dass sie mit ihren dreißig Jahren
> Windowserfahrung trotzdem Anfänger unter Linux sind, und auftretende
> Probleme mit höchster Wahrscheinlichkeit darauf zurückzuführen sind.

Nein ,es ist der Versuch den Leuten vorzuwerfen was man alles selber 
verbockt haben und dass man selber Schuld ist dass es nicht geht.
Wahrscheinlich hast du , mit Sicherheit hast du, wahrscheinlich hast du 
irgendwo gedreht,wahrscheinlich bist du aber auch nur ein Troll der uns 
Linixer ärgern will... und und und.  Verfolungswahn herrscht da vor 
Leute ,da wird jede Fehlerbeschreibung erstmal in Quarantäne geschickt.
Locker ist das nicht eher ziemlich verkrampft.

von Egon D. (egon_d)


Lesenswert?

Jack V. schrieb:

> Wie man daraus lesen kann, dass es irgendwas mit
> „elitär“ zu tun haben soll, erschließt sich mir
> nicht.

Naja, ein "Körnchen" Wahrheit liegt schon in seiner
Kritik. Wer hat nicht schon Antworten der Bauart:

  "Wenn Du Blödmann nicht siehst, dass es
  'cat $/)"/) <<awk ?)=8)7 > sed -opqweur << /dev/null'
  heißen muss, dann ist Linux nix für Dich Depp!"

gelesen?

von Egon D. (egon_d)


Lesenswert?

Jack V. schrieb:

> herbert schrieb:
>> Ich hab auch mal einen Link eingefügt der einiges
>> treffend erklärt
>> siehe :https://karrierebibel.de/confirmation-bias/
>
> … leider hast du’s entweder nicht selbst gelesen,
> oder es nicht verstanden. Denn die Theorie des
> Confirmation Bias erklärt auch ganz wunderbar
> deine Wahrnehmung:

Das ist ja die Ironie dabei.

von Jack V. (jackv)


Lesenswert?

herbert schrieb:
> Nein ,es ist der Versuch den Leuten vorzuwerfen was man alles selber
> verbockt haben und dass man selber Schuld ist dass es nicht geht.

Und? War’s nicht so? Hast du nicht selbst den neuen User angelegt und 
mangels Erfahrung mit dem System übersehen, dass der noch in die 
richtige Gruppe gesteckt werden müsste? Hast du daraufhin nicht 
geschimpft, wie ein Rohrspatz, wie doof dieses Linux doch wäre, weil es 
nicht wie Windows funktionieren würde?

von herbert (Gast)


Lesenswert?

Jack V. schrieb:
> … leider hast du’s entweder nicht selbst gelesen, oder es nicht
> verstanden. Denn die Theorie des Confirmation Bias erklärt auch ganz
> wunderbar deine Wahrnehmung: „Die Linuxer sind alle doof und überhaupt
> halten sie sich für die Spitze der Evolution. Und mit allem, was sie
> sagen, wollen sie doch nur ihr System verteidigen“ – und fortan findest
> du in jedem Beitrag „Belege“ dafür.

Ich würde mir nach meinen Erfahrungen hier mit lediglich 4 oder 5 
Linuxer hier im Thread niemals anmaßen ein schlechtes Urteil über alle 
Linuxer zu fällen. Ihr fünf seid doch nicht repräsentativ für alle .Gott 
sei Dank nicht.Da gibt es sicher bessere als ihr.

von Jack V. (jackv)


Lesenswert?

Egon D. schrieb:
> Naja, ein "Körnchen" Wahrheit liegt schon in seiner
> Kritik. Wer hat nicht schon Antworten der Bauart:
>
>   "Wenn Du Blödmann nicht siehst, dass es
>   'cat $/)"/) <<awk ?)=8)7 > sed -opqweur << /dev/null'
>   heißen muss, dann ist Linux nix für Dich Depp!"
>
> gelesen?

Mag sein. Allerdings gebe ich mir große Mühe, eben genau sowas nicht zu 
machen. Umso mehr nagt es mich ein wenig an, dass mir sowas unterstellt 
wird. Wenn die Leute mehr zusammendichten, als tatsächlich lesen, und 
mir auf der Grundlage dann so Sachen unterstellen – darf ich dann nicht 
auch mal ein wenig sauer werden und das auch zeigen?

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

herbert schrieb:
> Da gibt es sicher bessere als ihr.

… „als euch“.

Und ja, mag’s geben. Die würden sich aber diese Schlammschlacht nicht 
antun, sondern sich mit einem wohlbedachten „Scheiß drauf“ wieder ihren 
Sachen zuwenden. Sollte unsereins dann vielleicht auch machen – um 
besser zu werden. Aber einmal darf ich noch, oder? Ich mach einfach mal: 
„herbert! Linux ist nichts für dich! Deine dreißig Jahre Windows und 
deine vollkommene Unfähigkeit, sich auf was anderes einzulassen, werden 
immer wieder dafür sorgen, dass du unter Linux (oder irgendeinem anderen 
System außer Windows) gegen Wände läufst!“

So, besser – bye, herbert o/

(den Beleg für deine Behauptung, siehe oben, braucht man wohl nicht mehr 
erwarten, oder?)

: Bearbeitet durch User
von herbert (Gast)


Lesenswert?

Jack V. schrieb:
> Und? War’s nicht so? Hast du nicht selbst den neuen User angelegt und
> mangels Erfahrung mit dem System übersehen, dass der noch in die
> richtige Gruppe gesteckt werden müsste? Hast du daraufhin nicht
> geschimpft, wie ein Rohrspatz, wie doof dieses Linux doch wäre, weil es
> nicht wie Windows funktionieren würde?

Schick mir mal einen Link ... weisst du heute wollte ich meinen User "h"
den "Administrator" nehmen und daraus einen normalen Benutzer machen.
Das geht nicht,das System verweigert das,und warum klar weil es dann 
Keinen Administrator geben würde und das harakiri wäre.
Hätte ich vorher einen neuen Benutzer angemeldet und dem Admin Rechte 
eingeräumt, dann wäre das gegangen.Als einziger User geht das nicht. Ist 
ja auch logisch. Man kann sich nicht den Ast absägen auf dem man sitzt.
Damit ist deine These widerlegt.

von Uwe D. (monkye)


Lesenswert?

W.S. schrieb:
> Uwe D. schrieb:
>> Deine Beiträge sind einfach nur beleidigend. Und es bringt mich keinen
>> Millimeter weiter im Sinne des Threads.
>
> Ach herrje - schau dir doch bloß mal an, WAS hier in diesem Thread
> schon alles den jeweils anderen an die Köpfe geworfen wurde!

Ja. Ich finde es nicht als Legitimierung das zu akzeptieren. Bei jedem.

> Und wohin soll bei dir die Reise 'im Sinne der Threads' gehen? Dieser
> Thread fußt auf einer Frage. Da gibt es keinen erklärten Sinn des
> Threads, lediglich Antworten, die im wesentlichen den Linuxern nicht
> gefallen haben.
Das „gefallen“ ist Interpretation, immer. I.d.R. spielt die emotionale 
Ebene eine viel größere Rolle, da ist mit „Fakten“ schwer was zu 
bewegen.

Respektvoller Umgang ist eine gute Basis.

> versucht, die Antworten als irrelevant abzutun, dagegenzusprechen,
> kurzum die Antworten einfach nicht wahrnehmen WOLLEN.

Nee, Deine Worte - oder auch meine - sind die persönliche 
Wahrheiten/Sichten/Erfahrungen. Geh‘ mal ein Stück auf Abstand und 
schau‘, ob Du Dich so verhältst wie Du das von allen Anderen forderst.

> OK, es gibt auch die Möglichkeit, daß sie die Antworten einfach nicht
> wahrnehmen KÖNNEN.

Stimmt.

> .... Das ist der Versuch, sich als Linuxer
> etwas elitärer zu fühlen als der Rest der Welt. Klar, kann man machen
> (und es gibt erschreckend viele, die das für ihr Ego brauchen), einem
> jeden ist sein Elfenbeinturm gegönnt (so er ihn haben will)...

Das ist das was Du für Dich empfindest. Die Worte schreibst auch Du 
selbst.

> ... aber was an all dem suchst du, das dich zu irgend etwas
> weiterbringen soll?

Es gab mehrere gute Zusammenfassungen, die Emotionen und persönliche 
Ausbrüche außen vorgelassen haben. Konkurrenz belebt das Geschäft und 
erhöht die Qualität.

Heute war ich im Mediamarkt um mal die neuen iPads in der Hand zu haben 
und zu überlegen, ob eine Tastatur & Stift fällig wären. Es hat hier 
ordentlich geregnet, so dass der Markt ziemlich voll war.
Da konnte ich zuschauen, wie „Papa Normalverbraucher“ gegenüber 
versuchte mit dem Stift eine Reaktion am iPad zu erzielen. „Intuitiv“ 
war es nicht, denn nach vielleicht 15 Minuten wurde dem Mann geholfen.
Und für mich ist klar, dass das normal ist.
Und ich trotzdem mir das Teil demnächst kaufen werde.


> Wartest du darauf, daß dir endlich jemand eine
> Antwort auf die Frage des TO liefert, die dir gefällt?

Du fällst in alte Muster zurück....

Ein Dialog wird jedenfalls durch persönliches Bashing und 
Phrasendrescherei kaputt gemacht.

von Egon D. (egon_d)


Lesenswert?

herbert schrieb:

> Nein ,es ist der Versuch den Leuten vorzuwerfen was
> man alles selber verbockt haben und dass man selber
> Schuld ist dass es nicht geht.

Ja -- und weisst Du auch, warum längjährige Linux-Nutzer
das so schreiben?

Weil sie aus langjähriger Erfahrung WISSEN, "dass man
es meistens selbst verbockt hat und selber Schuld ist,
dass es nicht geht"!

von Uwe D. (monkye)


Lesenswert?

Schade das der Admin meinen verlinkten Beitrag zu @Cyblord Worten 
gelöscht hat.
Da ging es mir nicht darum jemanden ans Bein zu machen, sondern auf die 
Widersprüche zwischen diesem Thread und anderen Beiträgen aufzuzeigen.

Es ist halt einfach Schade, das Dauertrollerei ohne Konsequenz bleibt.

von Jack V. (jackv)


Lesenswert?

herbert schrieb:
> weisst du heute wollte ich meinen User "h"
> den "Administrator" nehmen und daraus einen normalen Benutzer machen.

Der Administrator ist root, und dem kannst du die Rechte nicht nehmen. 
Aber Namen sind Schall und Rauch, es zählt die UID. Nun kann’s UID 0 
jedoch nur einmal geben, ergo kannst du nicht einfach einem Useraccount 
„Administrator geben“, also auch nicht „Administrator nehmen“. Und das 
Geschilderte ist ein ganz wunderbares Beispiel dafür, dass du mit deiner 
Herangehensweise wie unter Windows an die Wand fährst – etwas 
Grundlagenwissen über die Userverwaltung unter Linux hätte dir das 
gesamte Gehampel erspart. q.e.d.

: Bearbeitet durch User
von herbert (Gast)


Lesenswert?

Jack V. schrieb:
> Aber einmal darf ich noch, oder? Ich mach einfach mal:
> „herbert! Linux ist nichts für dich! Deine dreißig Jahre Windows und
> deine vollkommene Unfähigkeit, sich auf was anderes einzulassen, werden
> immer wieder dafür sorgen, dass du unter Linux (oder irgendeinem anderen
> System außer Windows) gegen Wände läufst!“

Man spürst richtig, dass du das jetzt "gebraucht" hast. Wie fühlst du 
dich jetzt? Ich kenne mich zwar mir Linux nicht aus, weil es neu ist für 
mich ,aber es gibt eine Reihe von Feldern , da hören die Leute auf mich.
 Du schläfst schlecht,deine Posting -Zeiten hier wo andere und ich 
pennen und was schönes träumen lassen nicht das annehmen.
Ps: Du hast einen Schreibfehler von mir hervorgehoben "euch" "ihr".War 
dir das wichtig? Warum ? Ich übergehe so etwas bei anderen... aus reiner 
Menschlichkeit, weil man selber nicht perfekt ist.

von Zeno (Gast)


Lesenswert?

Martin schrieb:
> Denken ist nicht deine Stärke. Wenn im Falle eines Falles die Platte
> nicht lesbar ist, dann ist es egal wie viele Systemd die Platte nicht
> lesen können.

Tja, leider ist verstehendes Lesen noch Denken nicht Deine Stärke. Noch 
mal Schritt für Schritt damit auch Du das verstehst.
Wenn man von einem System, egal erst mal welches, ein Backup seiner 
Daten macht, dann geht es darum die Daten auf einem anderen Medium als 
dem auf dem das System läuft zu sichern, damit man man für den Fall wenn 
das System crashen sollte, man immer noch auf seine Daten zurückgreifen 
kann. Deshalb sicher man diese Daten auf einem, besser zwei, externen 
Medium (Medien). Das oder die Medien mit der Sicherungskopie bewahrt man 
am besten auch an verschiedenen Orten auf. Mit anderen Worten es ist 
eine schlechte Idee das Medium mit der Sicherung in der Nähe des PC's 
aufzubewahren, von dem man die Daten gezogen hat. Es ist ebenso eine 
gute Idee das Ganze nach der Datensicherung zu verifizieren und zu 
prüfen ob die Daten lesbar sind.

Wenn Du natürlich das Sicherungsmedium nimmst und mit einen 10kg Bello 
drauf haust, dann ist natürlich kein System mehr in der Lage die Platte 
noch zu lesen.

von ThomasW (Gast)


Lesenswert?

Egon D. schrieb:
> herbert schrieb:
> Nein ,es ist der Versuch den Leuten vorzuwerfen was man alles selber
> verbockt haben und dass man selber Schuld ist dass es nicht geht.
>
> Ja -- und weisst Du auch, warum längjährige Linux-Nutzer das so
> schreiben?
> Weil sie aus langjähriger Erfahrung WISSEN, "dass man es meistens selbst
> verbockt hat und selber Schuld ist, dass es nicht geht"!

der eigentliche Witz ist ja, dass auch seine ganze Erfahrung mit Windows 
durch Ausprobieren und Scheitern entstanden ist. Aber das wird gern mal 
ausgeblendet wenn es schon so lange her ist. Möchte nicht wissen,  wie 
oft die Windows-Verfechter ihr System in der Lernphase neu aufgesetzt 
haben.

von Zeno (Gast)


Lesenswert?

Jack V. schrieb:
> Wenn man unter Linux ein Backup anlegt (darauf deutet das FS hin), dann
> wird man mit hoher Wahrscheinlichkeit im Ernstfall auch unter Linux
> wieder daraus zurücksichern wollen. Warum sollte man in dem Fall
> Rücksicht drauf nehmen, ob irgendwelche anderen Systeme damit Probleme
> haben könnten?

Für ein komplettes Systembackup ist das durchaus richtig, aber 
Sicherungskopien von Daten würde ich so speicheren, das sie möglichst 
von vielen Systemen gelesen werden können. In Praxis hat sich bewährt 
und hat mir schon des öfteren weiter geholfen.
Das muß aber jeder für sich selbst entscheiden. Da ich privat mit 3 
System arbeite (Win, Mac, Linux) mache ich Sicherungskopien meiner Daten 
auf einer USB-Platte mit mit FAT32, da dieses Filesystem von allen 
Systemen die ich verwende gelesen werden kann.

von herbert (Gast)


Lesenswert?

Jack V. schrieb:
> Der Administrator ist root, und dem kannst du die Rechte nicht nehmen.

Ich dachte "root " ist der "Supervisor" und steht über dem 
Administrator.
Bei der Installation gab es auch die Option ein "root" Passwort 
anzulegen , was ich aber nicht gemacht habe. Deswegen auch meine Annahme 
"root" und "Admin" wären nicht das selbe. Gut jetzt ist mir das klar.

von herbert (Gast)


Lesenswert?

ThomasW schrieb:
> der eigentliche Witz ist ja, dass auch seine ganze Erfahrung mit Windows
> durch Ausprobieren und Scheitern entstanden ist. Aber das wird gern mal
> ausgeblendet wenn es schon so lange her ist. Möchte nicht wissen,  wie
> oft die Windows-Verfechter ihr System in der Lernphase neu aufgesetzt
> haben.

Woher hast du das ? Schickst du mir einen Link?

von (prx) A. K. (prx)


Lesenswert?

Egon D. schrieb:
> Weil sie aus langjähriger Erfahrung WISSEN, "dass man
> es meistens selbst verbockt hat und selber Schuld ist,
> dass es nicht geht"!

Schimpfen wie die Rohrspatzen tun sie dabei allerdings auch. Manchmal 
auch im Netz. Das gehört einfach zur Beschäftigung mit Technik dazu.

von ThomasW (Gast)


Lesenswert?

herbert schrieb:
> ThomasW schrieb:
> der eigentliche Witz ist ja, dass auch seine ganze Erfahrung mit Windows
> durch Ausprobieren und Scheitern entstanden ist. Aber das wird gern mal
> ausgeblendet wenn es schon so lange her ist. Möchte nicht wissen,  wie
> oft die Windows-Verfechter ihr System in der Lernphase neu aufgesetzt
> haben.
>
> Woher hast du das ?

Erfahrungen. Eigene und im Umfeld. Ich war oft der, der Windows neu 
installieren durfte.

herbert schrieb:
> Schickst du mir einen Link?

Du schaffst es nicht ein neues System richtig zu nutzen, schlägst jede 
Hilfe aus und gibst lieber dem System die Schuld. Und jetzt so ein 
Kindergarten? Ach komm schon ...

von Egon D. (egon_d)


Lesenswert?

ThomasW schrieb:

> der eigentliche Witz ist ja, dass auch seine ganze
> Erfahrung mit Windows durch Ausprobieren und Scheitern
> entstanden ist. Aber das wird gern mal ausgeblendet
> wenn es schon so lange her ist. Möchte nicht wissen,
> wie oft die Windows-Verfechter ihr System in der
> Lernphase neu aufgesetzt haben.

Das erklärt übrigens auch den wütenden Hass, den
sie auf Linux und deren User haben: Bisher waren
sie der Meinung, sich mit Blut, Schweiss und Tränen
eine Menge COMPUTERwissen angeeignet zu haben -- und
jetzt kommen diese arroganten Sprutze, die noch grün
hinter den Ohren sind, daher, und behaupten, man
verstünde gar nicht so viel von COMPUTERN, sondern
nur einiges von WINDOWS!

Kann ich sogar verstehen. Hilft nur nicht allzuviel
weiter, die Erkenntnis...

von Nop (Gast)


Lesenswert?

W.S. schrieb:

> Hier hab ich so unsäglich oft lesen müssen 'Linux ist nichts für dich,
> bleib bei Windows'

Ist ja auch bei manchen Leuten hier so.

> im Sinne von 'du bist ja nur zu strunzdoof und
> Windows ist für Strunzdoofe'.

Das halluzinierst Du. Doof ist man nur, wenn man was macht, was nicht 
funktioniert, und es dann wieder und wieder macht.

Beispielsweise sich an ein Linux setzen und sich immer wieder 
beschweren, daß es nicht haargenau wie Windows ist. Das ist ähnlich 
doof, wie sich an einen Pflaumenpudding zu machen in der Erwartung, er 
müsse wie Schokopudding schmecken, und sich bei jedem Bissen erneut zu 
beschweren, wenn er das nicht tut.

> Das ist der Versuch, sich als Linuxer
> etwas elitärer zu fühlen als der Rest der Welt.

Mag's geben. Wäre das für mich ein Motiv, dann wäre ich aber nicht von 
Linux damals zu Win 7 gewechselt, weil ich mich dann ja nicht mehr 
"elitär" hätte fühlen können.

Nee, ich nutze Linux vor allem, weil es (je nach Distro) zuverlässiger 
und problemfreier funktioniert als Windows, und weil es keine Spyware 
enthält.

Während Leute wie Du mit Erfahrungen von vor 15 Jahren argumentieren, 
daß sowas nicht sein könne, sitzen bei mir reine Endnutzer (d.h. keine 
IT-Geeks) an ihren Linuxmaschinen und freuen sich, daß es super geht.

Allerdings sind das auch keine Windows-"Experten", weswegen sie nicht am 
System rumfummeln und es sich damit auch nicht verbasteln. Aber selbst 
wenn doch, ist Timeshift installiert, so daß ein Rollback auch kein 
Problem ist.

von Egon D. (egon_d)


Lesenswert?

Nop schrieb:

> Wäre das für mich ein Motiv, dann wäre ich aber
> nicht von Linux damals zu Win 7 gewechselt,

Und warum bist Du? Ich frage ganz im Ernst.

von Jack V. (jackv)


Lesenswert?

herbert schrieb:
> Ich kenne mich zwar mir Linux nicht aus, weil es neu ist für
> mich ,aber es gibt eine Reihe von Feldern , da hören die Leute auf mich.

Oh, ein Lichtblick. Was ist passiert? Oder meinst du nun, weil du in 
anderen Bereichen „was auf dem Kasten hast“, wie man so schön sagt, muss 
es an diesem Linux liegen, dass du damit nicht klarkommst? Dann wäre 
alles beim Alten geblieben.

herbert schrieb:
> Du schläfst schlecht,deine Posting -Zeiten hier wo andere und ich
> pennen und was schönes träumen lassen nicht das annehmen.

Ich schlafe recht gut, danke der Nachfrage.

herbert schrieb:
> Ps: Du hast einen Schreibfehler von mir hervorgehoben "euch" "ihr".War
> dir das wichtig? Warum ? Ich übergehe so etwas bei anderen... aus reiner
> Menschlichkeit, weil man selber nicht perfekt ist.

Es ist mir wichtig, auf sowas hinzuweisen, ja. Allerdings nicht, um das 
Gegenüber irgendwie abzuwerten, sondern um seine Aufmerksamkeit darauf 
zu lenken. Oft ist ihm nämlich gar nicht bewusst, wie störend solche 
Sachen für einen geübten Vielleser sind.

Vor Satzzeichen (auch Kommata) gehört im Deutschen übrigens kein 
Leerzeichen.

: Bearbeitet durch User
von Uwe D. (monkye)


Lesenswert?


von Zeno (Gast)


Lesenswert?

Nop schrieb:
> von der ich Clonezilla starte

Also auch noch ein Sonderdateiformat benutzen was mit nix anderem lesbar 
ist. Dazu sag ich nur : Es sind Deine Daten - denk mal in aller Ruhe 
drüber nach.

Ich habe früher auch mal so Backuptools wie Ghost oder Acronis genutzt, 
davon bin ich lange weg. Gerade wenn man die Sicherung auf CD/DVD macht, 
sind bei den heutigen Plattengrößen mehrere Datenträger erforderlich und 
da ist es mehr als einmal vorgekommen das ich auf die Archive nur noch 
mit viel Mühe zugreifen konnte weil ein Medium beschädigt war. Zugriff 
mit anderen Tools war auch nicht mehr möglich, da probitäre Formate.
Wenn ich überhaupt noch Komplettsicherungen mache, dann mache ich das 
auch mit einem Linuxlivesystem und ganz Oldscool mit gezippten 
tar-Archiven auf eine USB Platte, wobei die Archive so  aufgeteilt 
werden das jedes Archiv auf eine CD passen würde. Bootsektoren werden 
mit dd gesichert. Das ist der kleinste gemeinsame Nenner. tar und zip 
ist auf allen unixoiden Systemen vorhanden. tar, zip sowieso, ist auch 
für Windows verfügbar.
Das Verfahren ist sehr wahrscheinlich nicht super effizient, aber die 
Datensicherungen sind, wenn sie nicht beschädigt werden, mit allen 
gängigen Systemen lesbar. Selbst wenn ein Archiv beschädigt werden 
sollte hält sich der Schaden in Grenzen.
Letzendlich ist jeder seines eigenen Glückes Schmied.

von (prx) A. K. (prx)


Lesenswert?

Zeno schrieb:
> Oldscool mit gezippten
> tar-Archiven auf eine USB Platte, wobei die Archive so  aufgeteilt
> werden das jedes Archiv auf eine CD passen würde

Ist lange her, dass ich mit "tar" als Backup aktiv zutun hatte. Daher 
die ernst gemeinte Frage: Speichert der alle Attribute von Files, also 
inklusive ACL, SELinux etc, mit Namen jeder Länge, die in Filesystemen 
vorkommen kann?

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

Zeno schrieb:
> [allerhand]

Bitte erkläre mir mit einfachen Worten den Unterschied zwischen einem 
Livesystem mit tar und zip, und einem mit Clonezilla, was die 
Verfügbarkeit betrifft.

Ich meine: wenn meine Daten und mein System gleichzeitig die Hufe 
hochreißen, dann ist’s zumindest mir mal völlig egal, ob ich die Daten 
mit clonezilla, oder mit tar und zip aus dem Backup ziehe – ist eh 
beides auf dem grml-Stick. Abgesehen davon meine ich gehört zu haben, 
dass die Sicherungen von clonezilla sehr wohl auch manuell zugreifbar 
sind – kann das aber selbst nicht bestätigen, weil ich schlicht ein 
Script auf Basis von rsync nutze.

In dem Zusammenhang steht auch noch die Erläuterung aus, warum ext4 als 
Dateisystem für Backups eine schlechte Wahl wäre.

von Nop (Gast)


Lesenswert?

Egon D. schrieb:

> Und warum bist Du? Ich frage ganz im Ernst.

Im Wesentlichen, weil die Neuanschaffung eines Rechners genau in die 
unselige Zeit fiel, als die KDE-Truppe meinen damals bevorzugten Desktop 
ruiniert hat. KDE3 war schon nur mäßig stabil, aber immer noch etwas 
besser als XP - nur habe ich gesehen, daß der Trend bei KDE massiv 
abwärts ging.

XFCE mochte ich noch nie außer als Notlösung, Gnome schon gar nicht, und 
Cinnamon gab's noch nicht.

Dazu kam, daß ich seinerzeit Linux immer am Laufen gehalten habe, aber 
der Aufwand nervte. DVDs gucken ging nicht bei allen DVDs ruckelfrei, 
wohl wegen irgendwelcher Treiberprobleme. Installierte Software (über 
den Paketmanager natürlich) hatte immer irgendwelche Macken, wo ich 
hinterherfrickeln mußte. Updates lösten Probleme, brachten aber neue, 
mit immer neuen Workarounds.

Den endgültigen Rest gab mir dann, als ich nicht mehr online gehen 
konnte, weil mein damaliges DSL-Modem mit PPPoE nach einem Linux-Update 
auf einmal nicht mehr ging. Das war der Tropfen, der das Faß zum 
Überlaufen brachte.

Gut, ich hätte wahrscheinlich mit genug Gefummel und Distro-Hopping bei 
Linux bleiben können, aber dazu hatte ich keinen Nerv. Meine Erfahrung 
war damals, daß Distro-Hopping meistens Probleme gegen andere Probleme 
eintauschte, aber keine Lösung darstellte. Außerdem wollte ich das 
Gefrickel noch nie haben. Ich hatte eigentlich ein Sorglos-System haben 
wollen.

Zugleich war Win 7 das geworden, was Vista hätte sein sollen, und in der 
Firma war ich von Win 7 sehr angetan. Diese Stabilität und 
Frickelfreiheit hatte ich mit Windows noch nie erlebt. Spyware im OS war 
damals ja noch kein Thema.

Als Sahnehäubchen kam dann noch der Aero-Eyecandy, weil Win 7 genau in 
die kurze Zeit fiel, als die Hardware dafür leistungsfähig genug war, 
aber bevor man mit Flat Design wieder zu Windows 3.1 zurückfiel.

Es hat einfach "wow" gemacht bei mir. Wenn man sich in ein 
Betriebssystem verlieben könnte, dann wäre Win 7 bei mir sowas wie Liebe 
auf den ersten Blick gewesen. ^^

von Nop (Gast)


Lesenswert?

Zeno schrieb:

> Also auch noch ein Sonderdateiformat benutzen was mit nix anderem lesbar
> ist.

Clonezilla gibt es schon so lange, daß es das auch immer geben wird, 
zumal es Open Source ist und daher nicht "vom Markt genommen" werden 
kann. Ich brauche auch nur eine Festplatte, die mindestens so groß ist 
wie die alte. Ich kann damit notfalls auch das Image auf eine andere 
externe USB-Platte entpackt zurückspielen - auf jedem Rechner, der von 
USB booten kann.

Wobei ich die Backups übrigens nochmal dupliziere, weil ich hier zwei 
Rechner im Haushalt habe, die jeweils mit Clonezilla auf eigene 
USB-Platten gesichert werden. Ich halte die Images beider Rechner auf 
beiden Sicherungsplatten vor, falls eine die Grätsche macht.

> Ich habe früher auch mal so Backuptools wie Ghost oder Acronis genutzt

Ich traue keinem Backup-Tool, das auf aktiven Dateisystemen läuft. 
Deswegen Clonezilla von einer Live-Distro.

> Gerade wenn man die Sicherung auf CD/DVD macht,
> sind bei den heutigen Plattengrößen mehrere Datenträger erforderlich

Bei einigen hundert GB wäre ich da als Discjockey eine Ewigkeit am 
Brennen.

von (prx) A. K. (prx)


Lesenswert?

Nop schrieb:
> Ich traue keinem Backup-Tool, das auf aktiven Dateisystemen läuft.

Snapshots sind eine sehr nützliche Erfindung.

von Nop (Gast)


Lesenswert?

A. K. schrieb:

> Snapshots sind eine sehr nützliche Erfindung.

Weiß ich, Timeshift habe ich ja auch. Aber das ist nur gegen vergurkte 
Updates gedacht und nicht als Backup in dem Sinne. Wenn Timeshift 
versagt, kann ich das System notfalls immer noch neu installieren, das 
kostet mich vielleicht zwei, drei Stunden.

von (prx) A. K. (prx)


Lesenswert?

Misverständnis. Snapshots sind auch die Grundlage von konsistenten 
Image-Backups aus dem laufenden System heraus.

von Y/n ... (Gast)


Lesenswert?

A. K. schrieb:
> Zeno schrieb:
>> Oldscool mit gezippten
>> tar-Archiven auf eine USB Platte, wobei die Archive so  aufgeteilt
>> werden das jedes Archiv auf eine CD passen würde
>
> Ist lange her, dass ich mit "tar" als Backup aktiv zutun hatte. Daher
> die ernst gemeinte Frage: Speichert der alle Attribute von Files, also
> inklusive ACL, SELinux etc,

schöne Frage mal eine lokal zugängliche manpage anzuschauen :)

Wird von der Version abhängen, aktuelle unterstützen das.
--[no]selinux, --[no]acl, --[no]xattrs,

ansonsten vlt. mit get/setfacl vorher sichern dann wiederherstellen


> mit Namen jeder Länge, die in Filesystemen
> vorkommen kann?

gnu 255byte





--
1
Archive format selection
2
       -H, --format=FORMAT
3
              Create archive of the given format.  Valid formats are:
4
5
              gnu    GNU tar 1.13.x format
6
7
              oldgnu GNU format as per tar <= 1.12.
8
9
              pax, posix
10
                     POSIX 1003.1-2001 (pax) format.
11
12
              ustar  POSIX 1003.1-1988 (ustar) format.
13
14
              v7     Old V7 tar format.

von (prx) A. K. (prx)


Lesenswert?

Y/n ... schrieb:
>> mit Namen jeder Länge, die in Filesystemen
>> vorkommen kann?
>
> gnu 255byte

Was schon anno OS/2 ein Problem war, heute erst recht. Der damalige GNU 
TAR hatte dafür eine zum würgen üble Krücke drin.

von Egon D. (egon_d)


Lesenswert?

Nop schrieb:

> Egon D. schrieb:
>
>> Und warum bist Du? Ich frage ganz im Ernst.
>
> Im Wesentlichen, [...]

Sehr interessant. Vielen Dank.

von Zeno (Gast)


Lesenswert?

A. K. schrieb:
> Speichert der alle Attribute von Files, also
> inklusive ACL, SELinux etc, mit Namen jeder Länge, die in Filesystemen
> vorkommen kann?
Habe ich bisher nie darauf geachte, allerdings ist ja tar ein Urgestein 
und da würde ich mal davon ausgehen das es das kann. ACL und SELinux 
sagen mir jetzt nichts - erklärs einfach mal. Ansonsten kannte du 
einfach mal ein kleines Archiv mit ein zwei Dateien erzeugen wo die von 
Dir genannten Attribute vorhanden sind. Das Archiv kannste dann ja in 
einem einem anderen Verzeichnis mal auspacken und nachschauen ob die von 
Dir genannten Attribute    korrekt gesichert wurden.

Jack V. schrieb:
> Ich meine: wenn meine Daten und mein System gleichzeitig die Hufe
> hochreißen, dann ist’s zumindest mir mal völlig egal, ob ich die Daten
> mit clonezilla, oder mit tar und zip aus dem Backup ziehe – ist eh
> beides auf dem grml-Stick. Abgesehen davon meine ich gehört zu haben,
> dass die Sicherungen von clonezilla sehr wohl auch manuell zugreifbar
> sind – kann das aber selbst nicht bestätigen, weil ich schlicht ein
> Script auf Basis von rsync nutze.
Der Punkt ist einfach, das wenn ein spezielles Format benutzt wird, man 
immer etwas braucht was mit diesem Format umgehen kann.
Nehmen wir einfach mal rein hypothetisch an, die Clonezilla Entwickler 
ändern irgend etwas, wodurch die Abwärtskompatibilität nicht mehr 
gewährleistet ist (muß ja noch nicht mal Absicht sein), Du vertraust 
darauf und bringst Dein Lifesystem auf den aktuellen Stand, weil 
Clonezilla auch ein neues Feature bekommen hat auf welches Du schon 
lange gewartet hast. Irgendenwann nach dem Update brauchst Du Dein 
Backup, weil Du versehentlich irgendwelche Daten geschreddert hast, aber 
irgendwie kann das neue Clonezilla nicht mehr auf die alten zugreifen.
Ich weis das das ein konstruiertes Szenario ist, aber man kann es nicht 
ausschließen das es so passiert. Genau deshalb bevorzuge ich für Backups 
Lösungen die mit klassischen bewährten Tools auf die möglichst vielen 
Plattformen funktionieren.
Ich habe z.B. für berufliche Dinge noch 2 HP-UX Workstations stehen, 
selbst mit denen könnte ich ein mit tar und zip unter Linux erzeugtes 
Archiv lesen und auspacken und käme so an die Daten ran. Das ginge auch 
mit einem Mac.

Nop schrieb:
> Clonezilla gibt es schon so lange, daß es das auch immer geben wird,
> zumal es Open Source ist und daher nicht "vom Markt genommen" werden
> kann.
Würde ich nicht darauf vertrauen, ist aber Deine Sache.

Nop schrieb:
> Bei einigen hundert GB wäre ich da als Discjockey eine Ewigkeit am
> Brennen.
Ich habe ja nicht gesagt das ich das auf CD mache. Ich mache das schon 
auf USB-Platte, aber eben in Häppchen die auf eine CD passen würden. Man 
hätte dann die Möglichkeit die Archive oder Teile noch auf eine CD zu 
schreiben, um diese an einem anderen Ort zulagern. Auch können fast alle 
OS mit Dateigrößen kleiner 650MB umgehen so das ein Restore der Daten 
fast immer möglich sein sollte.

Ich habe sogar noch einen Server mit angeschlossenen DAT-Laufwerk 
stehen. Ganz wichtige Daten (Sourcecode, in einem meiner Projekt stecken 
über 20 Jahre Arbeit drin) werden dann zusätzlich noch auf Band 
gesichert.

von Egon D. (egon_d)


Lesenswert?

A. K. schrieb:

> Misverständnis. Snapshots sind auch die Grundlage von
> konsistenten Image-Backups aus dem laufenden System
> heraus.

Hilf einem Unwissenden (--> mir) auf die Sprünge:
Gemeint ist, zunächst einen Snapshot anzulegen und
von diesem dann das Backup zu erstellen? Inwiefern
löst das das Problem mit den offenen Dateien?

von Zeno (Gast)


Lesenswert?

A. K. schrieb:
> Was schon anno OS/2 ein Problem war, heute erst recht. Der damalige GNU
> TAR hatte dafür eine zum würgen üble Krücke drin.

Jetzt formuliere das doch auch mal so das man es versteht.

von W.S. (Gast)


Lesenswert?

Egon D. schrieb:
> Wenn ich also -- wie einige hundert Beiträge weiter
> oben vorgeführt -- die Geburtsdaten von William Gates
> und Linus Thorvalds sowie die Veröffentlichungsdaten
> von MS-DOS, MS Windows 1.0 und Linux 0.01 hernehme
> und darüber auch nur fünf Minuten nachdenke, dann ist
> die gestellte Frage für mich beantwortet: Neben anderen
> Faktoren hatte Linux zu dem Zeitpunkt, als es weiteren
> Kreisen bekanntwurde, einen Rückstand von ca. 10 Jahren
> gegenüber den Microsoft-Produkten. Das ist praktisch
> nicht mehr aufzuholen -- gerade in einem derart dynamischen
> Markt wie dem der Computertechnik.

Du versuchst also, alles auf einen Zeitvorsprung von DOS und Windows 
zurückzuführen?

Das ist ziemlicher Unsinn. Linux IST abgeschriebenes Unix und der 
Grund dafür waren (sind?) die Lizenzprobleme seit AT&T. Unix als solches 
ist ja weitaus älter - und es wurde als administriertes 
Mehrbenutzersystem konzipiert. Das ist eigentlich der Basis-Fakt in der 
Orientierung dieses OS und damit auch dieser ganzen Diskussion.

Linus Thorvalds hatte überhaupt keinen Rückstand sondern einen etwa 20 
jährigen Vorlauf, denn Unix wurde m.W. schon Ende der 60er, Anfang der 
70er Jahre entwickelt. Erst deutlich später kam dann CP/M, schließlich 
konnte das erst ab der Verfügbarkeit des i8080 überhaupt konzipiert 
werden und MS-DOS kam dann noch einige Jahre später, schließlich 
brauchte es dafür die Verfügbarkeit der i8086.

Und Windows kam noch viel später. Die ersten verfügbaren 
Linux-Distributionen kamen um 1993..4, also zur Zeit von Windows 3.1 und 
dem Anlauf von OS/2.

Nein, Thorvalds hatte Vorlauf. Er hätte ein PC-Betriebssystem 
konzipieren können, aber er hat es nicht getan, sondern Unix 
hergenommen. Daß das dann Linux genannt wurde und rein nominell keine 
Codezeile aus dem Besitz von AT&T enthalten hat, ist ein Teil des 
damaligen Unix-Wars. Juristenzeugs eben.

Der krasse Unterschied zwischen allen unixoiden OS und allen PC-OS liegt 
in der grundsätzlichen Ausrichtung: Mehrbenutzersystem mit 
Administrierung auf der einen Seite, von einem (1 Person) Benutzer zu 
handhabendes System auf der anderen Seite - deswegen auch PC = 
persönlicher Rechner. Und eben der von IBM hatte sich durchgesetzt, weil 
er Steckplätze hatte, von Firmen und Anwendern konfiguriert werden 
konnte und damit an sehr unterschiedliche Verwendung angepaßt werden 
konnte. Alles andere war damals eben nicht derart flexibel.

Was bleibt, sind die völlig unterschiedlichen Ausrichtungen zwischen der 
Mainframe-Szene und der PC-Szene und der jeweils dafür verwendeten 
Betriebssysteme und Programme.

Genau DIESES ist auch der Anlaß dieses gesamten Threads. Ein unixoides 
OS ist definitiv von hause aus NICHT geeignet für einen PC, denn es geht 
aus von mehreren Dingen, die am PC eben völlig anders sind als in den 
Gefilden (vulgo "Rechenzentrum"), die dunnemals bei Bell und in den 
Universitäten üblich waren, als da sind:
1. Mehrbenutzerbetrieb. Gleichzeitig.
2. professionelle Administration
3. EDV- bzw. datentechnische Ausrichtung. Keine Meß- und Steuertechnik, 
kein Büroeinsatz, kein privater Einsatz

zu 1. Am PC spielt ein Mehrbenutzerbetrieb praktisch gar keine Rolle, 
denn es gibt nur einen einzigen Platz vor der Kiste und mehrere Benutzer 
irgendwo an diversen Terminals sind unüblich.

zu 2. Am PC (zumindest am privaten) gab/gibt es keinen angestellten 
Administrator. Das war und ist Sache des Benutzers.

zu 3. Am PC findet sowohl Büroeinsatz oder büroähnlicher Einsatz statt, 
ebenso Meß- und Steuerungstechnik, ebenso ganz erheblich privater 
Einsatz, auch zu privaten Hobbies. Und da wir Menschen keine Maschinen 
sind und am PC auch nicht über Netzwerke hinweg irgendwelche Server 
administrieren müssen um unsere Brötchen zu verdienen, ist es die 
Normalität, daß das User-Interface eben grafisch und bunt ist und nicht 
die Kommandozeile, daß wir mit Anwendungen auf grafischer Glotze 
arbeiten und nicht mit Kommandozeilentools, die per Script zu diversen 
Zwecken zusammengestellt werden.

Dies habe ich noch deutlich nach 2000 und mehr als 5 Jahren 
Windows95/98/2K/XP mir von Linuxer vorwerfen lassen müssen, die 
"Klickibunti" riefen und die Kommandozeile lobten.

An dieser Stelle wird klar, daß der angebliche Vorsprung von Windows 
keineswegs SO jemals existiert hat, sondern daß die Entwicklung von den 
Linuxern schlichtweg verpennt worden ist. SO HERUM.

Nun mag man argumentieren, daß es ja inzwischen grafische Aufsätze auf's 
Unix/Linux gibt, womit das äußere Erscheinungsbild dem Erscheinungsbild 
von Windows angenähert wird. Ja, ist richtig, aber die grundsätzliche 
Orientierung des gesamten OS ist nach wie vor dazu nicht passend, 
sondern immer noch so wie zu Zeiten von Bell Labs. Die schiere bunte 
Oberfläche ist nicht das Entscheidende, sondern die Funktionalität 
dahinter.

W.S.

von (prx) A. K. (prx)


Lesenswert?

Image Backups sind sehr praktisch bei Disaster-Recovery des 
Grundsystems. Mit oder ohne Anwendungsdaten, je nachdem wie die auf den 
Disks liegen. Um an versemmelte Einzelfiles oder Subtrees zu kommen sind 
sie aber eher unhandlich, auch wenn es Backup-Systeme gibt, die das 
einigermassen können.

Darüber hinaus nutze ich gerne Backup-Systeme, die ein normales 
Filesystem verwenden, über Hardlinks versionierend. Ob rsync, oder davon 
abgeleitete Progs wie rsnapshot etc. Was auch in Windows geht (=> 
hardlinkbackup).

Das hat nämlich den Charme, dass man auf der Suche nach versemmelten 
Einzelfiles nichts auspacken muss, keine Inkrements durchsuchen muss. 
Sondern einfach bloss das Backup-FS durchbrowsen kann, in dem für jeden 
einzelnen Backup der vollständige Dateibaum liegt.

Das geht aber natürlich nur mit Filesystemen, die Hardlinks kennen, und 
die Files mit ihren Eigenschaften und Attributen speichern können. FAT 
Varianten können das nicht.

von (prx) A. K. (prx)


Lesenswert?

Zeno schrieb:
> A. K. schrieb:
>> Was schon anno OS/2 ein Problem war, heute erst recht. Der damalige GNU
>> TAR hatte dafür eine zum würgen üble Krücke drin.
>
> Jetzt formuliere das doch auch mal so das man es versteht.

GNU TAR hatte zumindest damals zwei Pfadfelder mit zusammen 255 Bytes. 
Zwischendrin musste passend ein "/" sein, 155 davor, 100 dahinter, iirc. 
Passte das nicht, war der Pfad nicht direkt codierbar. War der Pfad 
sowieso zu lang, dann erst recht nicht.

Passte es nicht, vergab es einen Pseudo-Filenamen, und am Ende vom 
Backup hing ein spezielles Pseudo-File, das diese Pseudo-Filenamen in 
reale umsetzte.

: Bearbeitet durch User
von W.S. (Gast)


Lesenswert?

Jack V. schrieb:
> Bitte erkläre mir mit einfachen Worten den Unterschied zwischen einem
> Livesystem mit tar und zip, und einem mit Clonezilla, was die
> Verfügbarkeit betrifft.

Wenn du ne Scheibe hast, wo ein Clonezilla-Archiv drauf ist, brauchst du 
Clonezilla und das dazu passende OS, um an die Briefe an die Omi wieder 
heranzukommen.

Wenn du ne Scheibe hast, wo du ZIP-Archive drauf sind, kommst du auf so 
gut wie allen Systemen an die Briefe an die Omi wieder heran, weil ZIP 
eben ubiquitär ist. Und wenn jemand zuerst ein TAR macht und das dann 
zippt, dann vergeigt er sich den individuellen Zugriff auf die im Archiv 
enthaltenen Dateien zugunsten einer etwas höheren Kompressionsrate - er 
muß zuerst das tar entzippen und kann sich dann auf die Suche seines 
Briefes im tar machen.

Aber da tar ja nichts komprimiert, sondern bloß mit nem oktalen Header 
versieht und aneinander beppt (mit 256 mal nul = Leer-Vorlauf, um es an 
dieser Stelle in den Lochbandleser einlegen zu können), ist das 
Auspacken von tar kein Kunststück.

Aber bei Verwendung von speziellen Backup-Programmen braucht man eben 
immer wieder genau diese Programme, um an die gesicherten Briefe an die 
Omi wieder heranzukommen.

Das ist der Unterschied.

W.S.

von (prx) A. K. (prx)


Lesenswert?

W.S. schrieb:
> Wenn du ne Scheibe hast, wo ein Clonezilla-Archiv drauf ist, brauchst du
> Clonezilla und das dazu passende OS, um an die Briefe an die Omi wieder
> heranzukommen.

Soll heissen: Du verwendest sinnvollerweile ein Clonezilla-Livesystem 
von CD oder USB-Stick. Kein Hexenwerk, gibts nämlich fix und fertig von 
der Clonezilla-Site. Und läuft auf so ziemlich allem, was einen x86 drin 
hat.

Wie eben schon beschrieben ist das super für Komplettrestores der 
Systemdisk. Und ziemlich mies, wenn man nur die Briefe will. Weshalb 
Disaster-Recovery ein ganz anderes Thema ist, als die Wiederherstellung 
von Omis Briefen. Und weshalb es sinnvoll sein kann, die Verfahren zu 
trennen.

: Bearbeitet durch User
Beitrag #6419015 wurde vom Autor gelöscht.
von Zeno (Gast)


Lesenswert?

A. K. schrieb:
> GNU TAR hatte zumindest damals zwei Pfadfelder mit zusammen 255 Bytes.
> Zwischendrin musste passend ein "/" sein, 155 davor, 100 dahinter, iirc.
> Passte das nicht, war der Pfad nicht direkt codierbar. War der Pfad
> sowieso zu lang, dann erst recht nicht.
>
> Passte es nicht, vergab es einen Pseudo-Filenamen, und am Ende vom
> Backup hing ein spezielles Pseudo-File, das diese Pseudo-Filenamen in
> reale umsetzte.

OK das war mir bisher nicht bekannt, ist  mir aber bis dato nicht auf 
die Füße gefallen.

Unter HP-UX haben Backups auch mit gpio gemacht, das soll wohl gegenüber 
tar irgendwelche Vorteile haben. Aber da müßte ich nach schauen wie das 
geht. Wenn ich mich recht entsinne war das sehr kryptisch.

von Nop (Gast)


Lesenswert?

W.S. schrieb:

> Wenn du ne Scheibe hast, wo ein Clonezilla-Archiv drauf ist, brauchst du
> Clonezilla und das dazu passende OS

Äh, nein. Auf der Backup-Platte ist natürlich das Iso (nebst 
MD5-Checksumme) mit der passenden Live-Distri mit drauf, wo sowohl das 
verwendete Clonezilla als auch ein passendes OS drin sind. Das braucht 
man nur auf einen USB-Stick zu überspielen und davon zu booten.

Alles, was es dazu braucht, ist (wegen Ext4 auf der externen Platte) ein 
Linuxrechner, aber das kann genausogut ein Windowsrechner sein, in dem 
Knoppix von USB gebootet wurde.

Übrigens habe ich spaßeshalber die Live-Distri vom alten Rechner mal am 
neuen getestet und war verblüfft, daß eine Live-Distri von 2014 
problemlos auf Hardware von 2020 lief.

von (prx) A. K. (prx)


Lesenswert?

W.S. schrieb:
> er muß zuerst das tar entzippen und kann sich dann auf die Suche
> seines Briefes im tar machen.

Naja, tar heisst "tape archiver", dafür war er gebaut. Gezielter Zugriff 
gehört nicht zu seinen Stärken. Das gzip kann man freilich ins Verfahren 
einbauen, d.h. gzip in tar pipen und dann lesen. Läuft auch nicht anders 
als ohne gzip.

Direkter Zugriff auf Positionen im Archiv war nicht vorgesehen, nur 
Suche im Stream von vorne bis hinten. Das entsprach den Tape-Laufwerken 
damaliger Ära. In neueren Zeiten konnten die aber direkt positionieren, 
also hatte ich es damals dem Backup-Verfahren via tar beigebracht (OS/2 
16bit, 32bit, WinNT). Das geht mit Stream-Komprimierung über gzip 
freilich nicht mehr so einfach, aber die Laufwerke konnten irgendwann 
selbst komprimieren.

Letztlich ist tar zwar sukzessive modernisiert worden, aber ein im Kern 
antiquiertes Werkzeug. Ob aber zip besser ist, wenn man nicht nur 
Fileinhalte sichern will, sondern auch Metadaten wie EATTRs oder ACLs, 
ist eine andere Frage.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Zeno schrieb:
> Unter HP-UX haben Backups auch mit gpio gemacht, das soll wohl gegenüber
> tar irgendwelche Vorteile haben.

Tar ist geblockt, was zu feste Grössen führt und zu Bandlaufwerken 
passt. Cpio ist ein Bytestream, der liess sich im Laufe der Zeit 
leichter adaptieren.

von S. R. (svenska)


Lesenswert?

Zeno schrieb:
> Unter HP-UX haben Backups auch mit gpio gemacht, das soll
> wohl gegenüber tar irgendwelche Vorteile haben.

Du meinst "cpio". Hat den Hauptvorteil, dass das Dateiformat wesentlich 
besser standardisiert ist, d.h. es da keinen Wildwuchs gibt wie bei tar. 
Deswegen nutzt Linux das für die initramfs.

Allerdings ist die Syntax von cpio (dem Tool) eher beschissen.

von (prx) A. K. (prx)


Lesenswert?

W.S. schrieb:
> Das ist ziemlicher Unsinn. Linux IST abgeschriebenes Unix und der
> Grund dafür waren (sind?) die Lizenzprobleme seit AT&T.

Krieg ich nicht dekodiert. Linux fusst auf dem API von Unix, aber 
abgeschrieben wurde nichts. Das gibts schriftlich vom Gericht, SCO hats 
ja versucht.

von (prx) A. K. (prx)


Lesenswert?

W.S. schrieb:
> Der krasse Unterschied zwischen allen unixoiden OS und allen PC-OS liegt
> in der grundsätzlichen Ausrichtung: Mehrbenutzersystem mit
> Administrierung auf der einen Seite, von einem (1 Person) Benutzer zu
> handhabendes System auf der anderen Seite

Windows NT ist im Kern genauso ein Mehrbenutzersystem wie Unix. Nur war 
die Inspirationsquelle nicht Unix, sondern DEC VMS. Kein Zufall, der 
Chefdesigner kam von DEC. Scherzkeksen fiel bald auf, dass WNT 
rauskommt, wenn man VMS buchstabenweise hochzählt.

Das ist es übrigens auch heute noch. Per RDP können sich verschiedene 
User gleichzeitig anmelden, begrenzt nur durch die Lizenzierung. Es gibt 
etwas Haken und Ösen bei Anwendungen, weshalb der dafür gedachte Windows 
Terminal-Server nicht nur Freude bereitete.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

W.S. schrieb:
> Was bleibt, sind die völlig unterschiedlichen Ausrichtungen zwischen der
> Mainframe-Szene und der PC-Szene und der jeweils dafür verwendeten
> Betriebssysteme und Programme.

Unix wurde von Leuten gebaut, die auf den damaligen Mainframes keine 
Rechenzeit kriegten und denen Multics zu klobig war, die aber an die 
damaligen Kleinrechner ran kamen. Die nicht in den Rechenzentren 
standen.

VMS als Inspirationsquelle von Windows NT hatte deutlich mehr mit 
Rechenzentren zu tun als Unix. Die DEC VAXen mit VMS wurden ähnlich 
betrieben wie Mainframes. Gross genug dafür war so eine 780 sowieso. Die 
PDPs mit Unix hingehen waren oft keine RZ-Kisten, vor allem nicht die 
kleinen. Es gab aber VAXen, auf denen Unix statt VMS lief.

: Bearbeitet durch User
von Zeno (Gast)


Lesenswert?

S. R. schrieb:
> Du meinst "cpio"

Ja, ist halt schon ne Weile her das ich das gemacht habe.

von Egon D. (egon_d)


Lesenswert?

W.S. schrieb:

> Du versuchst also, alles auf einen Zeitvorsprung
> von DOS und Windows zurückzuführen?

Nicht alles, nein.
Ich versuche nur, die TATSÄCHLICHE Ausgangslage zu
verstehen und zu berücksichtigen.


> Das ist ziemlicher Unsinn. Linux IST abgeschriebenes
> Unix und der Grund dafür waren (sind?) die Lizenzprobleme
> seit AT&T. Unix als solches ist ja weitaus älter - und
> es wurde als administriertes Mehrbenutzersystem konzipiert.
> Das ist eigentlich der Basis-Fakt in der Orientierung
> dieses OS und damit auch dieser ganzen Diskussion.

Ich drösel das mal auf:

- "Unix ist älter als Linux": Klar, ungefähr 20 Jahre.
- "Unix = administrierter Mehrnutzersystem": Klar.

Zu "Linux ist abgeschriebenes Unix" komme ich weiter
unten noch.


> Linus Thorvalds hatte überhaupt keinen Rückstand
> sondern einen etwa 20 jährigen Vorlauf,

Das ist schlecht möglich -- Linus mag zwar ein Genie
sein, aber es ist nichts davon überliefert, dass er
bereits im zarten Alter von 2 Jahren Betriebssysteme
entwickelt hätte :)

Soll heißen: Ich versteh, glaube ich, Deinen Gedanken,
bin aber der Meinung, dass Du ihn sinnwidrig anbringst.


> denn Unix wurde m.W. schon Ende der 60er, Anfang
> der 70er Jahre entwickelt. Erst deutlich später
> kam dann CP/M, schließlich konnte das erst ab der
> Verfügbarkeit des i8080 überhaupt konzipiert
> werden und MS-DOS kam dann noch einige Jahre später,
> schließlich brauchte es dafür die Verfügbarkeit
> der i8086.

Soweit, so gut. Bis hierher halbwegs Einigkeit über
die Jahreszahlen.

Was Du m.E. außer Acht lässt, das ist die Tatsache,
dass Unix auf der einen und Einzelplatzsysteme wie
CP/M, MS-DOS und Konsorten auf der anderen Seite auf
ganz verschiedene Maschinenklassen und Anwenderkreise
zielten. CP/M hatte seine goldenen Jahre auf einem
Prozessor, der heutzutage sogar als Mikrocontroller
veraltet ist.

Der moderne PC ist technisch ein Großrechner,
entwicklungsgeschichtlich aber ein programmierbarer
Tischrechner. Aus diesem Widerspruch resultiert
der ganze Ärger, über den wir diskutieren.


> Und Windows kam noch viel später. Die ersten
> verfügbaren Linux-Distributionen kamen um 1993..4,
> also zur Zeit von Windows 3.1 und dem Anlauf von
> OS/2.

Die Fakten stimmen -- aber was folgt daraus?

Windows kam später als Unix, stimmt -- so viel später,
dass wesentliche Ideen vom X Window System bzw. vom
Mac geklaut werden konnten. Linux seinerseits kam
später als Windows.

Und -- nicht zu vergessen: Selbst Windows 3.1 war
noch ein "Graphischer Betriebssystemaufsatz"!
Die Trennung von Kommandointerpreter und graphischer
Oberfläche findet sich also sogar in den ersten
Versionen von Microsoft Windows wieder!


> Nein, Thorvalds hatte Vorlauf.

Sicher nicht. Als Windows 3.1 erschien, war Linus
Student.

Es ist nicht redlich, so zu tun, als wären Richard
Stallman und Linus Thorvalds dieselbe Person. Das
ist nicht fair.


> Er hätte ein PC-Betriebssystem konzipieren können,
> aber er hat es nicht getan, sondern Unix hergenommen.

Naja, aus der Rückschau würde ich sagen: Er hat das
getan, was längst überfällig war -- nämlich endlich
ein Betriebssystem, das keine "Ladehilfe" ist, auf
den PC zu bringen.
Stallman hat das begonnen -- Linus hat es vollbracht.


> Der krasse Unterschied zwischen allen unixoiden OS und
> allen PC-OS liegt in der grundsätzlichen Ausrichtung:

Korrekt.


> Mehrbenutzersystem mit  Administrierung auf der einen
> Seite,

Moment: "Multi User multi Tasking"-System, soviel Zeit
muss sein.
Der Unterschied ist wichtig; ich komme auf ihn zurück.


> von einem (1 Person) Benutzer zu handhabendes System
> auf der anderen Seite - deswegen auch PC = persönlicher
> Rechner.

Richtig.


> Und eben der von IBM hatte sich durchgesetzt, weil
> er Steckplätze hatte, von Firmen und Anwendern
> konfiguriert werden konnte und damit an sehr
> unterschiedliche Verwendung angepaßt werden konnte.
> Alles andere war damals eben nicht derart flexibel.

Ja -- aber nicht NUR deshalb hat sich der IBM-PC
durchgesetzt:

IBM hat damals sämtliche Schaltpläne veröffentlicht,
was es den findigen Asiaten ermöglicht hast, preiswerte
Clones auf den Markt zu werfen, die bis ins letzte Bit
kompatibel waren.
Damit kam dann der bekannte jahrzehntelange Preisrutsch
und die immer noch laufende Explosion der Rechenleistung.

(Und es kam auch das von c't-Autor Andreas Stiller
heißgeliebte A20-Gate.)


> Was bleibt, sind die völlig unterschiedlichen
> Ausrichtungen zwischen der Mainframe-Szene und der
> PC-Szene und der jeweils dafür verwendeten
> Betriebssysteme und Programme.

Richtig -- und genau hier möchte ich einhaken:

Es gab -- am Geldbeutel von Privatandwendern und
Kleinunternehmen gemessen -- Ende der Achtziger
schlicht weder preiswerte Hardware, auf der man Unix
hätte ausführen können, noch ein leicht zugängliches
und preiswertes unixoides Betriebssystem. (Einzige
mir bekannte -- tragische -- Ausnahme: Coherent.)

Diese Lage änderte sich schlagartig, als der 386er
erschien -- und die logische Folge war ein freier
Nachbau von Unix. ENDLICH! konnten die Erfahrungen,
die schon über zwanzig Jahre hinweg beim Betrieb
von EDVA gesammelt wurden, auch für ein System
verfügbar gemacht werden, das Kleinanwender mit
schmalem Geldbeutel nutzen können!


> Genau DIESES ist auch der Anlaß dieses gesamten
> Threads. Ein unixoides OS ist definitiv von hause
> aus NICHT geeignet für einen PC, denn es geht
> aus von mehreren Dingen, die am PC eben völlig
> anders

Das stimmt. Deshalb ist ein aktuelles Linux ja
auch kein Unix von anno dunnemals.


> sind als in den Gefilden (vulgo "Rechenzentrum"),
> die dunnemals bei Bell und in den Universitäten
> üblich waren, als da sind:
> 1. Mehrbenutzerbetrieb. Gleichzeitig.
> 2. professionelle Administration
> 3. EDV- bzw. datentechnische Ausrichtung. Keine
>    Meß- und Steuertechnik, kein Büroeinsatz, kein
>    privater Einsatz
>
> zu 1. Am PC spielt ein Mehrbenutzerbetrieb praktisch
> gar keine Rolle, denn es gibt nur einen einzigen Platz
> vor der Kiste und mehrere Benutzer irgendwo an diversen
> Terminals sind unüblich.

Formell richtig, inhaltlich aber sinnwidrig:

Auch wenn die verschiedenen Nutzer den PC NACHEINANDER
nutzen, ist es sehr angenehm, wenn deren private Daten
und deren persönliche Systemeinstellungen getrennt im
System getrennt werden. Das ist SO praktisch, dass auch
MS Windows dazu in der Lage ist.

Auf der anderen Seite möchte ich heute DEFINITIV keine
Kiste benutzen, die nicht zum Mehrprozessbetrieb
(multi tasking) in der Lage ist -- und das scheint
ja immerhin auch anderen SO wichtig zu sein, dass
es Windows ab XP ebenfalls beherrscht.

Tanenbaum hat übrigens in der legendären Diskussion
"Linux is obsolete" auch so ähnlich argumentiert wie
Du -- was die Argumente nicht gültiger macht, aber
zeigt, wie alt das Denkmuster ist.


> zu 2. Am PC (zumindest am privaten) gab/gibt es
> keinen angestellten Administrator. Das war und ist
> Sache des Benutzers.

Das ist richtig -- aber kein Argument gegen getrennte
Logins. Es ist auch Laien sehr leicht zu erklären, dass
dieselbe physische Person zu verschiedenen Zeitpunkte
verschiedene Rollen bekleiden kann.


> zu 3. Am PC findet sowohl Büroeinsatz oder büroähnlicher
> Einsatz statt, ebenso Meß- und Steuerungstechnik, ebenso
> ganz erheblich privater Einsatz, auch zu privaten Hobbies.
> Und da wir Menschen keine Maschinen sind und am PC auch
> nicht über Netzwerke hinweg irgendwelche Server
> administrieren müssen um unsere Brötchen zu verdienen,
> ist es die Normalität, daß das User-Interface eben
> grafisch und bunt ist und nicht die Kommandozeile,

Das hat nichts miteinander zu tun.

Ob ich eine GUI oder eine Kommandozeile verwenden will,
hängt von der konkreten AUFGABE ab.


> Dies habe ich noch deutlich nach 2000 und mehr als
> 5 Jahren Windows95/98/2K/XP mir von Linuxer vorwerfen
> lassen müssen, die "Klickibunti" riefen und die
> Kommandozeile lobten.

Siehe oben.


> An dieser Stelle wird klar, daß der angebliche Vorsprung
> von Windows keineswegs SO jemals existiert hat,

Das sagen die Linuxer ja schon lange: TECHNISCH war
Windows nie besser als Linux. :)


> sondern daß die Entwicklung von den Linuxern schlichtweg
> verpennt worden ist. SO HERUM.

Nein, auch das nicht.

Beim Aufkommen von Linux (LINUX! Nicht GNU, und nicht Unix!)
war die Marktdurchdringung von Windows einfach schon zu groß.
Schlechtes Timing.


> Nun mag man argumentieren, daß es ja inzwischen grafische
> Aufsätze auf's Unix/Linux gibt,

Geschichtsklitterung: Diese Aufsätze gibt es nicht
"inzwischen", die gab es (für Unix) VOR dem Erscheinen
von MS Windows.

von herbert (Gast)


Lesenswert?

ThomasW schrieb:
> Erfahrungen. Eigene und im Umfeld. Ich war oft der, der Windows neu
> installieren durfte.

Ich habe in all den vielen Jahre mein System nicht ein einziges mal 
selber zerschossen.
Freilich, wenn ich in den Anfangszeiten mit Internet neu ausetzen musste 
, dann hatte ich mir eine Schädling eingefangen. War aber daran selber 
Schuld weil ich mit meinem Admin Account im Netz war. Dann habe ich aber 
dazu gelernt.und die AV- Software gewechselt und zusätzlich eine 
Firewall unter w2k (das erste bessere windows) eingerichtet und 
natürlich auch einen eingeschränkte Nutzer.
Heute setze ich nur noch auf, wenn es sich um eine neues OS handelt. Xp 
habe ich auf einer Sicherungplatte  und wenn ich das Gefühl habe , xp 
wird ist wieder schleppend, dann bereinige ich meine ED kopiere die auf 
eine externe und dann kommt Clonezilla zum Einsatz. Danach geht es 
wieder etwas flotter.

Aber heuer noch werde ich ein W7 neu aufsetzen. Hatte mal vor 3 Jahren 
ein Test Installation gemacht, nur um mir das mal anzusehen. Danach 
sollte mein Problem mit den alten Browsern unter xp eine Zeit lang 
vergessen sein. Ich weiß, das w7 nicht mehr gesupportet wird. xp auch 
nicht, es ist mir egal, Hatte noch nie ein Problem deswegen.

von Jack V. (jackv)


Lesenswert?

Zeno schrieb:
> Der Punkt ist einfach, das wenn ein spezielles Format benutzt wird, man
> immer etwas braucht was mit diesem Format umgehen kann.
> Nehmen wir einfach mal rein hypothetisch an, die Clonezilla Entwickler
> ändern irgend etwas, wodurch die Abwärtskompatibilität nicht mehr
> gewährleistet ist (muß ja noch nicht mal Absicht sein), Du vertraust
> darauf und bringst Dein Lifesystem auf den aktuellen Stand, weil
> Clonezilla auch ein neues Feature bekommen hat auf welches Du schon
> lange gewartet hast. Irgendenwann nach dem Update brauchst Du Dein
> Backup, weil Du versehentlich irgendwelche Daten geschreddert hast, aber
> irgendwie kann das neue Clonezilla nicht mehr auf die alten zugreifen.

Danke für die Ausführung. Dazu wäre aus meiner Sicht zu sagen: Was du 
für Clonezilla beschreibst, könnte ebenso mit tar passieren. 
Tatsächlich ist’s so, dass es derzeit verschiedene Varianten gibt, die 
in Details voneinander abweichen (GNU tar und BSD tar), so dass man 
etwas aufpassen muss, sich keinen Datensalat zuzubereiten. Außerdem kann 
das Gleiche, was du für Clonezilla zeigst, mit tar passieren. Allerdings 
unterstelle ich sowohl den Entwicklern von tar, als auch denen von 
Clonezilla mal, dass sie Wert drauf legen, das nicht geschehen zu 
lassen, und dass sie kompetent genug sind, das auch zu schaffen. 
Außerdem würde ich direkt nach einem Major-Update ein Backup mit der 
dann aktuellen Version fahren, so dass ich eine garantiert zur 
Softwareversion passende Backupversion vorliegen hätte.

Aber angenommen, der gezeichnete Fall tritt ein: dann hole ich mir ein 
älteres Clonezilla aus einem der unzähligen Archive und gut. Außerdem 
ist das Format wohl dokumentiert, so dass man auch ohne das Programm 
darauf zugreifen können sollte – ich kann’s nicht mit Gewissheit sagen, 
weil ich nichts davon halte, Images zu normalen Backupzwecken zu 
erstellen: Das ist aus meiner Sicht eine furchtbare 
Ressourcenverschwendung (Redundanz, Zeitbedarf, unwichtige Sachen werden 
mitgesichert, Platzbedarf), und extrem unflexibel (kein Backup der 
tatsächlich geänderten Daten, sondern immer alles) – und wenn ich 
wirklich mal ein Image brauchen sollte, dann nehme ich dd, cat, cp, pv – 
die etablierten Werkzeuge halt, die tatsächlich Images erzeugen können. 
Das jedenfalls wären aus meiner Sicht die Argumente gegen Clonezilla, 
das „spezielle“ Datenformat ist’s jedoch nicht.

Für besser als Images oder auch tarballs zu Backupzwecken halte ich 
dateibasierte Sicherungen: mittels rsync kann man initial Kopien des 
gewünschten Dateisystems oder Verzeichnisses oder auch nur einzelner 
Dateien aus einer Liste erzeugen, und diese Kopien dann im 
Rotationsprinzip inkrementell (sprich: mit geringstem Zeitaufwand) auf 
den aktuellen Stand bringen. Das lässt sich auch gut scripten: man 
steckt einen Backupdatenträger an, und einige Sekunden später sagt eine 
Meldung auf dem Bildschirm, dass man ihn nun wieder abziehen kann, weil 
das Backup fertig ist – mehr ist nach einmaliger Einrichtung nicht 
erforderlich. Und: die Dateien sind direkt zugreifbar, weil es ein 
normales Dateisystem ist, das man einhängen und nutzen kann. 
Selbstverständlich ist dazu ein Dateisystem nötig, welches alle 
Attribute unterstützt, die relevant sind. Ein NTFS oder FAT ist dazu 
unter Linux ungeeignet.

Egon D. schrieb:
> Gemeint ist, zunächst einen Snapshot anzulegen und
> von diesem dann das Backup zu erstellen? Inwiefern
> löst das das Problem mit den offenen Dateien?

Die Dateien sind im Snapshot nicht mehr offen. Gegen unsyncrone Files 
etwa eines DBMS, bei dem für eine Aktion teils mehrere Files geändert 
werden, hilft das natürlich nicht – solches weiß man aber, wenn man 
derartige Software nutzt, und macht das Backup dieser Daten mit den 
dafür vorgesehenen Werkzeugen.

Snapshots sind eine prima Sache – man sollte allerdings nicht auf die 
Idee kommen, sie selbst als Backup zu betrachten, sondern zu dem Zweck 
den Inhalt auf herkömmliche Weise sichern.

von Computerbildleser (Gast)


Lesenswert?

A. K. schrieb:
> Speichert der alle Attribute von Files, also
> inklusive ACL, SELinux etc, mit Namen jeder Länge, die in Filesystemen
> vorkommen kann?
man tar

Beitrag #6419193 wurde von einem Moderator gelöscht.
von Uwe D. (monkye)


Lesenswert?

Zeno schrieb:
> Jack V. schrieb:
>> Wenn man unter Linux ein Backup anlegt (darauf deutet das FS hin), dann
>> wird man mit hoher Wahrscheinlichkeit im Ernstfall auch unter Linux
>> wieder daraus zurücksichern wollen. Warum sollte man in dem Fall
>> Rücksicht drauf nehmen, ob irgendwelche anderen Systeme damit Probleme
>> haben könnten?
>
> Für ein komplettes Systembackup ist das durchaus richtig, aber
> Sicherungskopien von Daten würde ich so speicheren, das sie möglichst
> von vielen Systemen gelesen werden können. In Praxis hat sich bewährt
> und hat mir schon des öfteren weiter geholfen.
> Das muß aber jeder für sich selbst entscheiden. Da ich privat mit 3
> System arbeite (Win, Mac, Linux) mache ich Sicherungskopien meiner Daten
> auf einer USB-Platte mit mit FAT32, da dieses Filesystem von allen
> Systemen die ich verwende gelesen werden kann.

Akademisch stimmt das. Nur, es ist weder in der Breite der Benutzer 
üblich noch halten es die meisten Anwender so durch.

Der aufgeklärte Otto-Normaluser sichert...
- auf USB-Medien mit C&P
- in die Cloud, wenn es vorher eingerichtet wurde
- mit Kauf-Software (schon seltener)
- mit Bordmitteln des OS (selten)

Unsere lokale Admins arbeiten mit fertiger Business-Lösung. Und da ist 
schon einmal nicht sicher was nach Upgrades geht oder nicht geht - auch 
in der Windows-Welt.
Frag‘ doch mal den Admin Deiner Wahl, wie die Daten aus TEAMS-Kanälen 
zurückgesichert werden...  Ich wette das er nicht einmal weiß ob das 
überhaupt geht.

Schnappschüsse sind DAS Mittel für 24x7 oder auch das Backup in der 
Mittagspause, ohne runterfahren des Systems.

Windows Volumenschattenkopielässt grüßen.

Rsync benutze ich sehr gerne, weil zuverlässig und schnell und mit allem 
was ich brauche und in vielen OS verfügbar.

von Computerbildleser (Gast)


Lesenswert?

Zeno schrieb:
> Ich habe sogar noch einen Server mit angeschlossenen DAT-Laufwerk
> stehen. Ganz wichtige Daten (Sourcecode, in einem meiner Projekt stecken
> über 20 Jahre Arbeit drin) werden dann zusätzlich noch auf Band
> gesichert.
Dann kannste du auch gleich nach /dev/null sichern, das geht schneller.

von (prx) A. K. (prx)


Lesenswert?

Jack V. schrieb:
> Gegen unsyncrone Files
> etwa eines DBMS, bei dem für eine Aktion teils mehrere Files geändert
> werden, hilft das natürlich nicht

In Windows gibt es einen Mechanismus, über den das Snapshot-Verfahren 
des Systems solchen DBMS diese Intention mitteilen kann. Das DBMS kann 
dann temporär point-in-time consistency herstellen.

von Uwe D. (monkye)


Lesenswert?

NACHTRAG: Die Sicherungen sollen i.d.R. kurzfristig/zeitnah 
funktionieren, deshalb ist eine Annahme wie „Einstellung des Produktes“ 
o.ä. praktisch von geringer Relevanz. Wer nur alle 2 Jahre sichert ist 
selbst das Problem, nicht die Softwareversion/Verfügbarkeit.

: Bearbeitet durch User
von Uwe D. (monkye)


Lesenswert?

A. K. schrieb:
> Jack V. schrieb:
>> Gegen unsyncrone Files
>> etwa eines DBMS, bei dem für eine Aktion teils mehrere Files geändert
>> werden, hilft das natürlich nicht
>
> In Windows gibt es einen Mechanismus, über den das Snapshot-Verfahren
> des Systems solchen DBMS diese Intention mitteilen kann. Das DBMS kann
> dann temporär point-in-time consistency herstellen.

Dafür verwendet der geneigte Nutzer die geeignete Software. Und das 
passiert beim Otto-Normalverbraucher eher nicht, dass da eine 500GB 
große SQL-DB produktiv werkelt...

von (prx) A. K. (prx)


Lesenswert?

Uwe D. schrieb:
> Schnappschüsse sind DAS Mittel für 24x7 oder auch das Backup in der
> Mittagspause, ohne runterfahren des Systems.

Was man auf geeigneten Systemen auch alle 15 Minuten machen kann. Aber 
das ist derzeit noch nichts für Tante Erna, weil der Unterbau nicht 
wirklich reif ist. In FreeNAS gehts schon eine Weile, da hat man ZFS zur 
Verfügung. Bei Linux auf dem Desktop käme nur BTRFS in Frage, und da 
gibts wohl keine Distro, die das schlüsselfertig anbietet.

von Jack V. (jackv)


Lesenswert?

A. K. schrieb:
> In Windows gibt es einen Mechanismus, über den das Snapshot-Verfahren
> des Systems solchen DBMS diese Intention mitteilen kann. Das DBMS kann
> dann temporär point-in-time consistency herstellen.

Die Sache mit den DBMS ist aber auch: es kann durchaus passieren, dass 
ein dateibasiertes Backup einer älteren Version mit einer aktuellen 
Version des DBMS nicht mehr kompatibel ist (aka „die Daten aus der 
Datenbank haben wir ewig nicht gebraucht, irgendwann im letzten Jahr 
muss sie aus dem System verschwunden sein – ich gehe und hole das 
LTO-Band mit den Files aus dem Safe …“). Mit dem mitgelieferten Werkzeug 
ist das hingegen kein Problem, damit kann man sich beim Restore auch 
genau die Datenbanken oder gar Tabellen raussuchen, die man wirklich 
wiederherstellen will. Meine Erfahrung beschränkt sich hier aber 
zugegebenermaßen auf MySQL/MariaDB – mag sein, dass es mit anderen 
Produkten weniger problematisch ist.

von Jack V. (jackv)


Lesenswert?

A. K. schrieb:
> Bei Linux auf dem Desktop käme nur BTRFS in Frage, und da
> gibts wohl keine Distro, die das schlüsselfertig anbietet.

Unter den von mir genutzten /Distro/bitionen … ähm  /Distri/butionen 
ist’s kein Problem, BTRFS zu nutzen. Ebensowenig, ZFS herzunehmen 
(einige User schwören drauf …).

Und nicht zuletzt kann man ja noch LVM drunterlegen, das bringt dann 
dateisystemunabhängig Snapshots mit.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Jack V. schrieb:
> Die Sache mit den DBMS ist aber auch: es kann durchaus passieren, dass
> ein dateibasiertes Backup einer älteren Version mit einer aktuellen
> Version des DBMS nicht mehr kompatibel ist

Es ist generell kein Nachteil, wenn man weiss, was man tut. Was sich 
besonders bei DBMS empfiehlt. ;-)

von Computerbildleser (Gast)


Lesenswert?

A. K. schrieb:
> Bei Linux auf dem Desktop käme nur BTRFS in Frage, und da
> gibts wohl keine Distro, die das schlüsselfertig anbietet.
Nur ist BTRFS eher ne frühe Beta, wer mit solchem halbfertigen Müll 
"Backups" macht hat nicht mehr alle Tassen im Schrank. Der Dreck kann ja 
bis heute nicht zuverlässig den freien Speicher melden, wenn es 
vollläuft riskiert man ein geschrottetes FS. Meine Tests mit BTRFS waren 
vernichtend.

von (prx) A. K. (prx)


Lesenswert?

Jack V. schrieb:
> Unter den von mir genutzten /Distro/bitionen … ähm  /Distri/butionen
> ist’s kein Problem, BTRFS zu nutzen.

Ich erwähnte in diesem Zusammenhang nicht zufällig Tante Erna...

von Stefan ⛄ F. (stefanus)


Lesenswert?

Zeno schrieb:
> Für so eine Sicherungskopie würde ich ein Format wählen,
> welches von möglichst vielen OS zumindest lesbar ist.
> Gleiches gilt für das Komprimierverfahren.

Ich benutze auf meinen externen Destplatten NTFS. Dazu ein Programm, 
dass meine Dateien einfach nur kopiert und identische Dateien mit 
einander verlinkt.

Komprimieren bringt mir derzeit nicht viel, da die größten Dateien 
(Bilder, Videos, Java Bibliotheken) sowieso schon komprimiert sind. Wenn 
ich komprimieren würde, dann mit einem gängigen Format. ZIP wäre da mein 
bevorzugter Kandidat, dicht gefolgt von tar.gz.

Mir ist es wichtig, dass ich meine Backups nach einem OS oder 
Programmwechsel notfalls mit anderer Software wieder einlesen kann. 
Deswegen mag ich Tools, die auf Standard-Verfahren (wie ZIP) aufbauen 
und ihre Meta-Informationen in einer Maschinen+Menschen lesbarer Form 
drumherum bauen.

Für diese Flexibilität nehme ich in Kauf, einige Informationen vom Linux 
Dateisystem (z.B. Zugriffsrechte) zu verlieren. Die wäre für mich nur 
von Interesse, wenn ich das ganze OS sichern würde. Aber das mache ich 
ohnehin nicht. Ich sichere nur meine persönlichen Dateien und die von 
mir geänderten Konfigurationsdateien aus /etc (das sind nicht einmal 10 
Dateien).

: Bearbeitet durch User
von Snappy Snoppy (Gast)


Lesenswert?

A. K. schrieb:

> Was man auf geeigneten Systemen auch alle 15 Minuten machen kann. Aber
> das ist derzeit noch nichts für Tante Erna, weil der Unterbau nicht
> wirklich reif ist. In FreeNAS gehts schon eine Weile, da hat man ZFS zur
> Verfügung. Bei Linux auf dem Desktop käme nur BTRFS in Frage, und da
> gibts wohl keine Distro, die das schlüsselfertig anbietet.

IMHO kann Ubuntu von einem ZFS-Snapshot booten und richtet für jeden 
Update einen Snapshot ein.

von Zeno (Gast)


Lesenswert?

Jack V. schrieb:
> Tatsächlich ist’s so, dass es derzeit verschiedene Varianten gibt, die
> in Details voneinander abweichen (GNU tar und BSD tar)

Das ist richtig, da aber tar dazu konzipiert wurde die Daten Bit für Bit 
schön hintereinander auf ein Tape zu schreiben wir und kann sich an dem 
Datenformat nichts ändern. tar ist mittlerweile so ein Unixurgestein das 
es auch keiner mehr anfassen wird.

Wichtig bei der Benutzung von tar ist z.B. auch das man keine Schalter 
benutzt die nur ein bestimmtes tar kennt. Klassisches Beispiel dafür ist 
der bei GNU tar vorhandene Schalter -z mit dem das Archiv gleich 
zip-komprimiert wird. tar von HP-UX kennt diesen Schalter nicht. Also 
schreibe ich beim Erstellen des Archives nicht tar cfz backup.tar.gz 
/home/* sondern tar cf - /home/* |gzip > backup.tar.gz. Vielleicht ist 
das ja auch etwas paranoid, aber für den 2.Fall weis ich das die 
eigentlich jedes unixoide System lesen kann, während ich beim ersten mir 
da nicht so sicher bin.
Mit anderen Worten ich versuche möglichst den Standard zu verwenden, 
weil man nur da relativ sicher sein kann das er von vielen Sytemen 
unterstützt wird.
Wie gesagt vielleicht etwas paranoid, aber bei Backups von Daten 
vertraue ich lieber den Standards und setze nicht auf irgendwelche 
Sondersachen, an dieser Stelle steht Sicherheit ein Back auch wieder 
lesen zu können vor Effizienz und Komfort.

von Stefan ⛄ F. (stefanus)


Lesenswert?

Zeno schrieb:
> Klassisches Beispiel dafür ist
> der bei GNU tar vorhandene Schalter -z mit dem das Archiv gleich
> zip-komprimiert wird. tar von HP-UX kennt diesen Schalter nicht. Also
> schreibe ich beim Erstellen des Archives nicht tar cfz backup.tar.gz
> /home/* sondern tar cf - /home/* |gzip > backup.tar.gz. Vielleicht ist
> das ja auch etwas paranoid, aber für den 2.Fall weis ich das die
> eigentlich jedes unixoide System lesen kann, während ich beim ersten mir
> da nicht so sicher bin.

Soweit mir bekannt ist, sind diese beiden Kommandos im Resultat 
identisch - also 100% kompatibel.

von Zeno (Gast)


Lesenswert?

Computerbildleser schrieb:
> Dann kannste du auch gleich nach /dev/null sichern, das geht schneller.

Bist halt ein typischer Computerbildleser - keine Ahnung von nix.
Bänder gehören immer noch zu den sichersten Backupmedien und werden 
immer noch im professionellen Umfeld eingesetzt.
Magnetische Datenspeicher haben immer noch die höchste Lebensdauer (s. 
hier https://blog.storagecraft.com/de/lebensdauer-der-datenspeicher/), 
was ich auch bestätigen kann. Ich habe selbst noch einige alte Bänder 
die immer noch lesbar sind, hingegen haben da gleich alte CD's schon 
Aussetzer und werden teilweise gar nicht mehr gelesen. Es gibt da sicher 
auch bei CD/DVD Ausnahmen, aber man kann sich eben nicht darauf 
verlassen.
DAT ist auch ein Kompromiss, es gibt Besseres aber das ist auch noch 
heute (für privat) unbezahlbar. Gebrauchte DAT bekommt man heute zu 
bezahlbaren Preisen. Die klassischen Laufwerke benötigen in aller Regel 
aber einen SCSI Anschluß, so das man da eine spezielle Controllerkarte 
braucht. Die scheint es aber  noch bei Amazon zu geben - im örtlichen 
Mediamarkt, wo Du einkaufst, aber ganz bestimmt nicht.

von Computerbildleser (Gast)


Lesenswert?

Zeno schrieb:
> Vielleicht ist
> das ja auch etwas paranoid, aber für den 2.Fall weis ich das die
> eigentlich jedes unixoide System lesen kann, während ich beim ersten mir
> da nicht so sicher bin.

Weil ja andere unices so wichtig sind wenn man daheim linux nutzt. Dein 
Allerwetlsformat kann man auch unter Windows entpacken.

Wer mit tar + gzip verwendet hat ganz andere Probleme und ist sehr 
mutig.

von Computerbildleser (Gast)


Lesenswert?

Zeno schrieb:
> ist halt ein typischer Computerbildleser - keine Ahnung von nix.
> Bänder gehören immer noch zu den sichersten Backupmedien und werden
> immer noch im professionellen Umfeld eingesetzt.
Aber nicht dein DDS-Schrott. Das sollte man mittlerweile mal mitbekommen 
haben, wir haben 2020. Den Müll setzt man auch aus ganz anderen Gründen 
heute nicht mehr ein.

von Computerbildleser (Gast)


Lesenswert?

Zeno schrieb:
> bezahlbaren Preisen. Die klassischen Laufwerke benötigen in aller Regel
> aber einen SCSI Anschluß, so das man da eine spezielle Controllerkarte
> braucht. Die scheint es aber  noch bei Amazon zu geben - im örtlichen
> Mediamarkt, wo Du einkaufst, aber ganz bestimmt nicht.

Im Gegensatz zu dir Vollexperten weiss ich dass es sogar DDS-Laufwerke 
mit USB-Anschluss gibt. DDS und sicher mein Gott du lebst hinterm Mond. 
Wenn dir dein Laufwerk verreckt wirst du den Grossteil deiner Bänder in 
einem anderen definitiv nicht mehr lesen können. Ich habe hier noch ne 
Kiste voller DDS-Laufwerk in diversen Level (diverse HPs, 
Quantum/Seagate, von DDS-2 bis DAT72), welches Laufwerk da was von 
andern lesen kann ist die reinste Glückssache. Das ist der 
unzuverlässigste Schrott der jemals produziert wurde.

von Zeno (Gast)


Lesenswert?

Stefan ⛄ F. schrieb:
> Dazu ein Programm,
> dass meine Dateien einfach nur kopiert und identische Dateien mit
> einander verlinkt.

Für Datensicherungen, also Dokumente, Bilder, Sourcecode etc. ist 
einfaches Kopieren eigentlich immer noch 1.Wahl. Unkompriemiert geht bei 
den heutigen Datengrößen schon fast nicht mehr. Der Umfang eines 
größeren C# Projektes ist schon beträchtlich, da geht es ohne 
komprimieren eigentlich nicht mehr.
tar nehme ich halt gerne weil das ohne große Verrenkungen halt auch die 
Unterverzeichnisse mit sichert. Bei zip muß es meistens dem Paker noch 
per Schalter mitteilen, das er rekursiv sichern soll. Ich hatte auch 
schon mal einen ZIP-Packer der hatte mit größeren Verzeichnisbäumen 
Probleme und die Sicherungskopien waren dann schlichtweg unbrauchbar, 
weil unvollständig.

Stefan ⛄ F. schrieb:
> Ich benutze auf meinen externen Destplatten NTFS. Dazu ein Programm,
> dass meine Dateien einfach nur kopiert und identische Dateien mit
> einander verlinkt.
NTFS ist an und für sich schon ein recht gutes Dateisystem - auch wenn's 
von MS ist - ich kann mich aber noch erinnern das es mal Linuxdistris 
gab die damit nicht richtig umgehen konnten. Aus diesem Grund benutze 
ich lieber FAT32 weil dort die Kompatibilität besser ist, auch zu MS 
eigenen BS wie z.B. Win98.

von Zeno (Gast)


Lesenswert?

Stefan ⛄ F. schrieb:
> Für diese Flexibilität nehme ich in Kauf, einige Informationen vom Linux
> Dateisystem (z.B. Zugriffsrechte) zu verlieren. Die wäre für mich nur
> von Interesse, wenn ich das ganze OS sichern würde. Aber das mache ich
> ohnehin nicht. Ich sichere nur meine persönlichen Dateien und die von
> mir geänderten Konfigurationsdateien aus /etc (das sind nicht einmal 10
> Dateien).

SEhe ich genau so - habe ich ja auch schon geschrieben.

von Stefan ⛄ F. (stefanus)


Lesenswert?

Zeno schrieb:
> ich kann mich aber noch erinnern das es mal Linuxdistris
> gab die damit nicht richtig umgehen konnten.

Ich auch. Das ist zum Glück verbessert worden.

von Zeno (Gast)


Lesenswert?

Computerbildleser schrieb:
> Im Gegensatz zu dir Vollexperten

Als Vollexperte hast eben Du Dich mit Deinem ersten Post geoutet. Ich 
habe mittlerweile seit gut 30 Jahren mit HP-UX inclusive den zu den 
Workstations gehörigen DAT-Laufwerken zu tun und da kann ich nur sagen 
das die bisher sehr zuverlässig waren. Hardwareausfälle kann ich in den 
30 Jahren an einer Hand abzählen und die brauch ich noch nicht mal 
vollständig dazu. Dabei stehen die in teilweise recht rauher 
Produktionsumgebung.

Computerbildleser schrieb:
> Wenn dir dein Laufwerk verreckt wirst du den Grossteil deiner Bänder in
> einem anderen definitiv nicht mehr lesen können.
Da ich 3 gleichartige Laufwerke habe mache ich mir da sehr wenig Sorgen. 
Selbst wenn da mal eines verrecken sollte ist das kein Beinbruch. Da das 
bisher noch nicht vorgekommen ist, gehe ich davon aus das ich da zu 
Lebzeiten nicht im Regen stehen werde. Desweiteren habe ich wichtige 
Daten auf verschiedenen Medien gesichert, so das ich das Ganze sehr 
entspannt angehe.

von Zeno (Gast)


Lesenswert?

Computerbildleser schrieb:
> Dein
> Allerwetlsformat kann man auch unter Windows entpacken.

Richtig! Und jetzt benutze mal Dein Hirn warum ich eben genau diese 
Allerweltsformat gern nutze.

Computerbildleser schrieb:
> Weil ja andere unices so wichtig sind wenn man daheim linux nutzt
Hatte ich nicht geschrieben, das LX nur eines unter mehreren Systemen 
ist, die ich zu Verfügung habe?

Computerbildleser schrieb:
> Wer mit tar + gzip verwendet hat ganz andere Probleme und ist sehr
> mutig.
Bisher hat sich dieser Mut bewährt und ich habe keine Gründe davon 
abzugehen.


PS: Arbeite mal an Deine Rechtschreibung, gerade der Post den ich hier 
zitiert habe ist schwierig zu lesen.

von (prx) A. K. (prx)


Lesenswert?

Stefan ⛄ F. schrieb:
> Soweit mir bekannt ist, sind diese beiden Kommandos im Resultat
> identisch - also 100% kompatibel.

Sind sie. Da passiert intern auch nichts anderes.

von Tarpit (Gast)


Lesenswert?

Computerbildleser schrieb:

> Wer mit tar + gzip verwendet hat ganz andere Probleme und ist sehr
> mutig.

Wieder so eine steile Behauptung ohne Belege.

von (prx) A. K. (prx)


Lesenswert?

.tar.gz ist das Standardformat für Verteilung von Filebündeln in 
Linux/Unix. Sehr viel häufiger als .zip.

von Uwe D. (monkye)


Lesenswert?

Tarpit schrieb:
> Computerbildleser schrieb:
>
>> Wer mit tar + gzip verwendet hat ganz andere Probleme und ist sehr
>> mutig.
>
> Wieder so eine steile Behauptung ohne Belege.

Ja, das dachte ich auch gerade als Du diese These aufgestellt hast. 
Welche, konkret werden bitte...

von Stefan ⛄ F. (stefanus)


Lesenswert?

Wenn tar.gz kein allgemeiner langzeit-stabiler Standard ist, dann ist es 
ASCII auch nicht. Der Einzige, der dieses Format immer noch nicht 
implementiert hat, ist (tadaaaa!) Microsoft.

Aber das wundert niemanden. Microsoft hat nämlich schon immer alles so 
lange anders gemacht, bis die Leute dies als den neuen Standard 
akzeptieren.

Bestes Beispiel ist ihre Umsetzung der OpenDocument Formate und diese 
beschissene ssh.exe, mit der man neuerdings zwangsbeglückt wird.

Vor nicht allzu langer Zeit hatte MS auch eine ganz eigene Vorstellung 
davon, wie Webseiten zu funktionieren haben. Gottseidank ist wenigstens 
das vorbei.

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

Zeno schrieb:
> Das ist richtig, da aber tar dazu konzipiert wurde die Daten Bit für Bit
> schön hintereinander auf ein Tape zu schreiben wir und kann sich an dem
> Datenformat nichts ändern.

Das ist ja alles schön und gut, aber erlaube mir drei Fragen:

1) wenn du es sowieso nicht auf ein Tape schreiben willst, warum 
verpackst du es vorher noch mit tar? Wie gesagt, ich fahre mit meiner 
dateibasierten Sicherung mit rsync ziemlich gut – prüfen, ob’s Backup 
geklappt hat? Mit diff kein Problem. Selektives Rücksichern, ohne dass 
ein Programm erstmal den ganzen tarball durchrödeln muss? Mit cp kein 
Problem. Nur die tastächlich geänderten Files wegsichern? Mit rsync kein 
Problem. Dateirechte? Sowieso kein Problem.

2) wenn jemand, warum auch immer, sein Pseudoimage haben will, das 
Clonezilla erzeugt, was spricht denn nun dagegen? Clonezilla ist offen, 
wird also nicht von heute auf morgen verschwinden, oder so umgebaut, 
dass es mit alten Daten nicht mehr klarkommt. Und es gibt ein Livesystem 
extra dafür (wobei andere Systeme das ebenfalls mitbringen, so dass das 
nicht mal erforderlich ist – grml, etwa), wodurch es vom eigentlichen 
System unabhängig ist.

3) wenn ich nur Linuxmaschinen habe, und alle meine Kisten zudem von USB 
booten können, ein Livesystem also ohne irgendein Problem zum Einsatz 
kommen kann – warum sollte ich ein Dateisystem mit in diesem Szenario 
nennenswerten Nachteilen nutzen wollen, nur, damit ein nicht mal 
vorhandenes Windows darauf zugreifen könnte?

von Stefan ⛄ F. (stefanus)


Lesenswert?

Jack V. schrieb:
> 1) wenn du es sowieso nicht auf ein Tape schreiben willst, warum
> verpackst du es vorher noch mit tar?

Ich sichere meine Dateien ohne Kompression.

Die Kompression (als *.tar.gz) spart Speicherplatz und damit Geld. Da 
kann die Backup-Platte schon mal 20€ billiger werden, oder man gibt das 
gesparte Geld für (hoffentlich) mehr Qualität aus.

Ich kann das schon nachvollziehen.

Ich hatte mal ein Backup Programm (unter Windows), das scheinbar ganz 
normale ZIP Archive erstellte. Doch bei einem späteren Test stellte sich 
heraus, dass alle meine ZIP Tools nur die ersten 80% davon lesen 
konnten. Nur dieses eine Backup Programm konnte alles lesen.

Wenn einem so etwas zu spät auffällt, hat man unter Umständen ein 
ernsthaftes Problem. Da nützt es einem gar nichts, die Schuld auf ein 
Programm zu schieben.

von Jack V. (jackv)


Lesenswert?

Stefan ⛄ F. schrieb:
> Die Kompression (als *.tar.gz) spart Speicherplatz und damit Geld.

Wenn ich eines beim Backup nicht machen würde, dann, es zu komprimieren 
– während ein gekipptes Bit unkomprimiert maximal eine Datei unbrauchbar 
macht, kann dieses eine gekippte Bit in einem komprimierten Archiv 
erheblich mehr in den Abgrund reißen.

Da ich, wie geschrieben, inkrementell sichere, sind mir die paar 
Prozent, die ich mir damit erkaufen würde, auch potentiell egal. Wenn 
meine 1TB-Platten irgendwann in vielen Jahren wirklich voll sein 
sollten, dann werde ich die paar Münzen für neue Platten wohl auch 
auftreiben können.

Meine Frage zielte darauf ab: Wenn ich nun also ohne Komprimierung 
sichere, warum sollte ich dann nicht auch direkt tar weglassen? Seinen 
einzigen Vorteil in dem Kontext würde ich sehen, wenn jemand große 
Files, etwa Videos, auf sowas wie FAT32 sichern möchte – da kann man tar 
anweisen, handliche Stücke draus zu machen. Da ich aber mangels 
ernsthaft genutztem Windows sowieso keinen Bedarf sehe, das Backup auf 
ein solches Dateisystem zu schreiben, fällt auch der Punkt weg. Was also 
wäre der Vorteil von tar?

von Stefan ⛄ F. (stefanus)


Lesenswert?

Jack V. schrieb:
> Meine Frage zielte darauf ab: Wenn ich nun also ohne Komprimierung
> sichere, warum sollte ich dann nicht auch direkt tar weglassen?

Solltest du. Ich sehe keinen Sinn darin, die Festplatte zum Bandlaufwerk 
zu degradieren.

> Da ich, wie geschrieben, inkrementell sichere

Guck dir mal an, wie "Back In Time" das macht. Damit erstellst du 
komplette Schnappschüsse. Aber bei Dateien, die nicht verändert wurden, 
verweist der Eintrag im Inhaltsverzeichnis einfach auf die alte Datei. 
So wird vermieden, Duplikate zu speichern. Das Verfahren ist super 
einfach und doch effizient.

(FAT32 kann das nicht, wohl aber NTFS und alle Unix/Linux Formate).

Am Ende hast du auf deiner Backup Platte für jeden Schnappschuss einen 
kompletten Verzeichnisbaum, auf den du ganz normal mit dem Dateimanager 
zugreifen kannst.

Beim Benutzen des Sicherungskopie entfällt somit die Notwendigkeit, erst 
die Komplettsicherung zu nehmen und danach in inkrementellen Änderungen. 
Du hast alle Dateien sofort präsent, in jeder beliebigen 
Schappschuss-Version. Du musst sie nicht einmal zurück kopieren.

: Bearbeitet durch User
von Y/n ... (Gast)


Lesenswert?

Stefan ⛄ F. schrieb:
> Jack V. schrieb:
>> 1) wenn du es sowieso nicht auf ein Tape schreiben willst, warum
>> verpackst du es vorher noch mit tar?
>
> Ich sichere meine Dateien ohne Kompression.
>
> Die Kompression (als *.tar.gz) spart Speicherplatz und damit Geld. Da
> kann die Backup-Platte schon mal 20€ billiger werden, oder man gibt das
> gesparte Geld für (hoffentlich) mehr Qualität aus.
>
> Ich kann das schon nachvollziehen.
>
> Ich hatte mal ein Backup Programm (unter Windows), das scheinbar ganz
> normale ZIP Archive erstellte. Doch bei einem späteren Test stellte sich
> heraus, dass alle meine ZIP Tools nur die ersten 80% davon lesen
> konnten. Nur dieses eine Backup Programm konnte alles lesen.
>
> Wenn einem so etwas zu spät auffällt, hat man unter Umständen ein
> ernsthaftes Problem. Da nützt es einem gar nichts, die Schuld auf ein
> Programm zu schieben.


tar kann alle Dateiattribute aufnehmen,
ein einfaches zip nicht.

gz, bzip2, xy ist diesbezüglich sekundär


zip ist halt Standard auf Windows,
jeder kann das lesen ohne weitere Software zu installieren.

Daten weitergeben zip.
7z, rar, etc. muss halt wieder ein Stück Software installiert werden.
Aber irgendwie kommts da auch nicht mehr drauf an.


https://itsfoss.com/tar-vs-zip-vs-gz/

... Whereas we cannot reject tradition as a motivation for still using 
tarballs, with this little example, you understand why there is still 
some (corner?) cases where tar cannot be replaced by zip. This is 
especially true when you want to preserve all standard file metadata....

von Jack V. (jackv)


Lesenswert?

Stefan ⛄ F. schrieb:
> Aber bei Dateien, die nicht verändert wurden,
> verweist der Eintrag im Inhaltsverzeichnis einfach auf die alte Datei.

Klingt umständlich. Wenn ich sowas wollte, würde ich lieber Hardlinks 
nehmen.

Y/n ... schrieb:
> tar kann alle Dateiattribute aufnehmen,
> ein einfaches zip nicht.

Naja, die Frage war: warum die Daten überhaupt irgendwo reinstopfen? Ist 
doch nur eine weitere potentielle Fehlerquelle, zumindest aber unnötiger 
Aufwand?

: Bearbeitet durch User
von Stefan ⛄ F. (stefanus)


Lesenswert?

> Stefan ⛄ F. schrieb:
>> Aber bei Dateien, die nicht verändert wurden,
>> verweist der Eintrag im Inhaltsverzeichnis einfach auf die alte Datei.

Jack V. schrieb:
> Klingt umständlich. Wenn ich sowas wollte, würde ich lieber Hardlinks
> nehmen

Es sind Hardlinks. 
https://blog.bmarwell.de/backup-mit-back-in-time/#Hardlinks_statt_Dupletten

Wobei ich zu diesem Aufsatz ergänzen möchte, dass auch Windows solche 
Hardlinks unterstützt. Das war dem Autor wohl nicht klar.

: Bearbeitet durch User
von Y/n ... (Gast)


Lesenswert?

Jack V. schrieb:

:

>
> Naja, die Frage war: warum die Daten überhaupt irgendwo reinstopfen? Ist


Wenn der angedachte Speicherort genug Platz und das gleiche FS in der 
gleichen Revision hat braucht man das nicht, dann kriegt man sie so 
zurück wie man sie abgelegt hat, von ext2,3,4 auf NTFS u. dann zurück 
liefert ja nur den gestrippten Inhalt.

von Jack V. (jackv)


Lesenswert?

Y/n ... schrieb:
> Wenn der angedachte Speicherort genug Platz und das gleiche FS in der
> gleichen Revision hat braucht man das nicht, dann kriegt man sie so
> zurück wie man sie abgelegt hat, von ext2,3,4 auf NTFS u. dann zurück
> liefert ja nur den gestrippten Inhalt.

Ja, genau das war doch die Frage: warum sollte ich für mein Backup nicht 
das passende Dateisystem nehmen, und die Daten einfach draufkopieren 
(was z.B. rsync macht), sondern ein unpassendes Dateisystem nehmen, und 
dann noch eine weitere Komplexitätsschicht wie tar hinzufügen?

von (prx) A. K. (prx)


Lesenswert?

Filebündel statt einzelner Files zu speichern kann bei vielen kleinen 
Files wesentlich schneller sein, als die Files einzeln zu verarbeiten. 
Sowohl schreibend, wie auch später löschend. Besonders dann, wenn das 
System entfernbare Medien so anspricht, dass die die Strukturen des 
Filesystems des Mediums eine vorzeitige Entfernung halbwegs unbeschadet 
überleben.

Windows ist dafür bekannt, entfernbare Medien anders zu behandeln als 
fest installierte. Weil es davon ausgeht, dass Tante Erna nicht immer 
daran denkt, das USB-Medium abzumelden, bevor sie es rauszieht.

Hintergrund sind primär die Metadaten-Operationen, wie Files und 
Directories anlegen und löschen. Die Integrität der Metadaten ist 
kritisch, entsprechend vorsichtig ist Windows in Standardeinstellung bei 
entfernbaren Medien. Linux ist rücksichtsloser, kann aber folglich auch 
effizienter mit solchen Medien umgehen.

Files zu bündeln, ob in zip, tar, cpio oder andere Formaten, erspart 
solche Metadaten-Operationen für jedes einzelne File. Bei grossen Files 
spielen die anteilig keine Rolle. Bei vielen kleinen Files hingegen kann 
die Metadaten-Verarbeitung den grössten Teil der Arbeit des Backups 
darstellen.

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

A. K. schrieb:
> Windows ist dafür bekannt, entfernbare Medien anders zu behandeln als
> fest installierte.

Windows war hier eigentlich irrelevant. Und zumindest ich sehe bei mir 
im normalen Betrieb keinen nennenswerten Unterschied zwischen der 
Übertragungsgeschwindigkeit, wenn ich mein ~ einmal durch tar pipe, und 
einmal direkt auf den Zieldatenträger schreibe. Beim zweiten Backuplauf 
dann ist der Unterschied hingegen in der Tat beträchtlich: wenige 
Sekunden vs. mehrere Minuten. Allerdings ist Ersteres die Lösung mit den 
einzelnen Files im Ziel.

Nein, tut mir leid – ich sehe bislang weder einen Grund, Backups auf ein 
FAT-FS zu schreiben, noch, eine zusätzliche Schicht Komplexität 
reinzustopfen, und die bisherigen Erläuterungen haben das nicht ändern 
können.

Eine Ausnahme ist, wenn ich via Packet Write (also ohne den 
Zwischenschritt eines Images) auf BD-RE sichere – dort scheint der 
kontinuierliche Datenstrom eines tars erkennbare Vorteile zu bringen, 
aber beim Backup über USB oder über das Netz auf ein HDD oder SSD ist 
davon nichts mehr feststellbar.

von Thomas S. (doschi_)


Lesenswert?

Microsoft bzw. deren Einsatz von Produkten wie Windows, Office etc. im 
Bildungswesen wurde hier vermutlich auch schon angeschnitten.

Hr. Kuketz hat hierzu vor kurzem einige meiner Meinung nach lesens- und 
bedenkenswerte Überlegungen angestellt, und 5 Mythen rund um den 
Microsoft-Einsatz durchleuchtet.
https://www.kuketz-blog.de/bildungswesen-entlarvung-der-haeufigsten-microsoft-mythen/

: Bearbeitet durch User
von Zeno (Gast)


Lesenswert?

A. K. schrieb:
>> Soweit mir bekannt ist, sind diese beiden Kommandos im Resultat
>> identisch - also 100% kompatibel.
>
> Sind sie. Da passiert intern auch nichts anderes.

Ich war mir da halt nicht sicher, weils es diesen Komprimierungsschalter 
bei HP-UX nicht gibt und bei anderen Implementationen von tar könnte 
dies ja ebenso gelagert sein. Deshalb bin ich halt lieber den Weg über 
das Konstrukt mit dem Pipe gegangen, da war ich mir sicher das es mit 
einer gwissen Kompatibilität funktioniert.
Wenn beides identisch ist um so besser, schaden tut der andere Weg aber 
definitiv nicht.

von Zeno (Gast)


Lesenswert?

Jack V. schrieb:
> wenn du es sowieso nicht auf ein Tape schreiben willst, warum
> verpackst du es vorher noch mit tar?

Hatte ich doch ein paar Post's weiter vorn geschrieben, weil tar von 
Hause aus rekursiv einpackt und ich da keine Klimmzüge machen muß. Bei 
Zip bin ich da schon mal auf die Nase gefallen.
Desweiteren schreibe ich ja ganz wichtige Daten auch noch auf Band, dann 
brauche ich dem Script halt nur das andere Zielangeben und der Rest 
läuft gleichartig ab. Beim auspacken ist es dann genauso, ich kann die 
Datei und das Band gleichartig verwenden.
Und ganz bestimmt ist auch noch ein bissel Gewohnheit dabei.

von c.m. (Gast)


Lesenswert?

Zeno schrieb:
> A. K. schrieb:
>>> Soweit mir bekannt ist, sind diese beiden Kommandos im Resultat
>>> identisch - also 100% kompatibel.
>>
>> Sind sie. Da passiert intern auch nichts anderes.
>
> Ich war mir da halt nicht sicher, weils es diesen Komprimierungsschalter
> bei HP-UX nicht gibt und bei anderen Implementationen von tar könnte
> dies ja ebenso gelagert sein.

Ist bei Solaris genau so. Man kann sich aber ein GNU Tool Package 
nachinstallieren bei dem dann die gewohnten Optionen verfügbar sind.

von Jack V. (jackv)


Lesenswert?

Zeno schrieb:
> Hatte ich doch ein paar Post's weiter vorn geschrieben, weil tar von
> Hause aus rekursiv einpackt und ich da keine Klimmzüge machen muß. Bei
> Zip bin ich da schon mal auf die Nase gefallen.

Eigentlich wollte ich gefragt haben (und im Grunde bin ich mir auch 
sicher, es getan zu haben): Warum hälst du es für einen Vorteil, die 
Daten überhaupt einzupacken? Warum ich es für einen Vorteil halte, 
genau das nicht zu tun, habe ich dargelegt – mich interessieren nun die 
Argumente dafür.

von Zeno (Gast)


Lesenswert?

Jack V. schrieb:
> wenn jemand, warum auch immer, sein Pseudoimage haben will, das
> Clonezilla erzeugt, was spricht denn nun dagegen?
Es verbietet Dir keiner Clonezilla. Ich mag generell keine 
Backuplösungen die auf eine spezielle Software setzen, unabhängig davon 
welches System das ist, weil ich eben dann von dieser Software abhängig 
bin. Ich versuche eigentlich immer den kleinsten gemeinsamen Nenner zu 
finden, weil ich das eben für wichtig halte mich nicht auf ein System 
fest zu nageln. Hängt vielleicht auch damit zusammen das ich beruflich 
mit verschiedenen Systemen zu tun habe. Da gibt es noch DOS, die 
komplette Windowspalette, HP-UX und Linux. DOS und UX wird zwar immer 
weniger und nur noch ganz wenige Kunden benutzen diese Systeme aber es 
gibt es eben noch - es gibt halt auch Kunden bei denen das Geld nicht so 
locker sitzt.

Jack V. schrieb:
> wenn ich nur Linuxmaschinen habe, und alle meine Kisten zudem von USB
> booten können, ein Livesystem also ohne irgendein Problem zum Einsatz
> kommen kann – warum sollte ich ein Dateisystem mit in diesem Szenario
> nennenswerten Nachteilen nutzen wollen, nur, damit ein nicht mal
> vorhandenes Windows darauf zugreifen könnte?
Bei mir können halt nicht alle Maschinen von USB booten. Desweiteren 
schrieb ich ja das ich zu Hause auch viel mit Mac arbeite und Mac kann 
von Haus aus keine ext Dateisysteme von Linux mounten und damit weder 
lesen noch schreiben. Es gibt zwar Zusatzsoftware mit der das möglich 
sein soll, aber darauf vertraue ich nicht. Umgekehrt kann Linux per 
default auch kein HFS. Auch da gibt es ein Kernelmodul und diverse 
Software, ist aber eben auch kein Standard. FAT32 ist da eben der 
kleinste gemeinsame Nenner, da dieses Dateisystem von allen 3 System 
(Win, Linux, Mac) les- und schreibbar ist.

von Zeno (Gast)


Lesenswert?

Jack V. schrieb:
> Zeno schrieb:
>> Hatte ich doch ein paar Post's weiter vorn geschrieben, weil tar von
>> Hause aus rekursiv einpackt und ich da keine Klimmzüge machen muß. Bei
>> Zip bin ich da schon mal auf die Nase gefallen.
>
> Eigentlich wollte ich gefragt haben (und im Grunde bin ich mir auch
> sicher, es getan zu haben): Warum hälst du es für einen Vorteil, die
> Daten überhaupt einzupacken? Warum ich es für einen Vorteil halte,
> genau das nicht zu tun, habe ich dargelegt – mich interessieren nun die
> Argumente dafür.
Hast Du meinen zitierten Post vollständig gelesen? Da ist die Antwort 
auf Deine Frage eigentlich drin.

von Jack V. (jackv)


Lesenswert?

Zeno schrieb:
> Hast Du meinen zitierten Post vollständig gelesen?

Das Einzige, was da für tar sprechend drinstand, war, dass du z.T. auf 
Tape sicherst. Die Beiträge vorher lasen sich aber eher so, als würdest 
du generell a) ein Dateisystem empfehlen, das „von möglichst vielen 
Systemen gelesen“ werden könne, und b) die dadurch entstehenden 
Nachteile durch das Verpacken via tar kompensieren wollen. Dafür hätte 
ich Argumente lesen wollen, aber:

Zeno schrieb:
> Es verbietet Dir keiner Clonezilla.

Leider scheinst du nicht zu lesen, was ich schreibe, denn ich habe 
mehrfach darauf aufmerksam gemacht, dass ich Clonezilla weder nutze, 
noch sonderlich toll finde. Insofern würde ich vorschlagen, wir belassen 
es dabei.

: Bearbeitet durch User
von Gerhard (Gast)


Lesenswert?

Zurück zum Thema ;-) Gerade gesehen:

"…and Linux finally wins the desktop wars, not by displacing Windows but 
by co-opting it. Perhaps this is always how it had to be."

siehe: http://esr.ibiblio.org/?p=8764

und wird auf Slashdot diskutiert:

https://linux.slashdot.org/story/20/09/27/193250/eric-s-raymond-is-microsoft-switching-to-a-linux-kernel-that-emulates-windows

So wird's kommen :-)
Gerhard

von Nop (Gast)


Lesenswert?

Naja, daß MS die Prio nicht mehr bei Windows sieht, war ja überhaupt 
erst der Grund, wieso MS die Windows-QA eingestampft hat. Die Profite 
mit Azure und MS' Verdreifachung des Börsenwertes geben Nadella insofern 
ja recht, auch wenn's für die Windowsnutzer bitter ist.

Aber Chromedge als Testplattform für Linux zu sehen ist schon arg weit 
hergeholt. Ich habe hier Vivaldi unter Linux, was ja genau wie der 
jetztige Edge auf Chromium basiert. Das ist also von vornherein so 
portabel, daß es eben deswegen kaum als Testfall taugt.

von W.S. (Gast)


Lesenswert?

A. K. schrieb:
> Naja, tar heisst "tape archiver", dafür war er gebaut.

Du, ich weiß was tar ist/war. Vermutlich habe ich zu meiner 
Studentenzeit mit dem Wiederaufrollen von Lochbändern mindestens 2x den 
Äquator umrundet (längenmäßig gesehen).

256x Leerlochung, dann der Header, den man damals direkt vom Lochband 
lesen konnte (so eingeübt mit oktal und ASCII war man damals), dann noch 
ein Stückchen Leerlochung und was dann kam, gehörte ein Stückchen vor 
die Abtastzeile, Klappe runter und es konnte losgehen. Kenn ich alles, 
dem weine ich aber keine Tränen nach. War genau so umständlich wie das 
Editieren von Lochband zu Lochband. Danke, genau wegen all dieser 
Erfahrungen bevorzuge ich ein grafisches UI und schreibe Batchdateien 
bloß, um mir make zu ersparen.

Also laß mal.

W.S.

von 🐧 DPA 🐧 (Gast)


Lesenswert?

Also wer glaubt, Windows würde ihren Kernel durch den Linux kernel 
ersetzen, muss schon arg was geraucht haben. Deren letzte Aktion mit den 
fragwürdigen DirectX wsl patches, die DirectX in WSL für 
Linuxanwendungen ermöglicht, aber nur in der WSL und nicht auf einem 
standalone linux, würde ich eher als Versuch betrachten, Linux 
Anwendungen zu Linux selbst inkompatibel zu machen, und nicht als indiz, 
dass MS was an Linux liegt.

von W.S. (Gast)


Lesenswert?

Egon D. schrieb:
>> Linus Thorvalds hatte überhaupt keinen Rückstand
>> sondern einen etwa 20 jährigen Vorlauf,
>
> Das ist schlecht möglich -- Linus mag zwar ein Genie
> sein, aber es ist nichts davon überliefert, dass er
> bereits im zarten Alter von 2 Jahren Betriebssysteme
> entwickelt hätte :)
>
> Soll heißen: Ich versteh, glaube ich, Deinen Gedanken,
> bin aber der Meinung, dass Du ihn sinnwidrig anbringst.

Es ist exakt so wie ich es schrieb. Unix lag allen Universitäten im 
Quelltext vor. Thorvald brauchte bloß in die Quellen zu schauen. Das 
Einzige, was er tatsächlich neu und selbst gemacht hatte, war der 
allererste Versuch, einen Scheduler für den 386 zu schreiben. Ja 
richtig, nicht für den 286, denn dessen protected Mode war zwar deutlich 
sicherer als der 32 Bit Modus, aber eben deshalb auch richtig 
lahmarschig - jedenfalls auf einem damaligen 286er mit stolzen 24 MHz 
Systemtakt.

Also, Thorvalds hatte das gesamte Systemkonzept von Unix vorliegen, dazu 
sämtliche Quellen - er hatte 20 Jahre Vorlauf vor DOS/Windows, eben weil 
er nicht etwas wirklich neues gemacht hatte, sondern lediglich das 
bereits bekannte Unix ähem.. 'wiederverwendet' hatte. So war das nämlich 
- oder willst du die durchaus frappierenden Ähnlichkeiten zwischen Unix 
und Linux als reinen Zufall abtun?



Egon D. schrieb:
> Was Du m.E. außer Acht lässt, das ist die Tatsache,
> dass Unix auf der einen und Einzelplatzsysteme wie
> CP/M, MS-DOS und Konsorten auf der anderen Seite auf
> ganz verschiedene Maschinenklassen und Anwenderkreise
> zielten. CP/M hatte seine goldenen Jahre auf einem
> Prozessor, der heutzutage sogar als Mikrocontroller
> veraltet ist.
>
> Der moderne PC ist technisch ein Großrechner,
> entwicklungsgeschichtlich aber ein programmierbarer
> Tischrechner. Aus diesem Widerspruch resultiert
> der ganze Ärger, über den wir diskutieren.

Nein, ich habe hier garnichts außer Acht gelassen. MS-DOS hatte als 
einziges Vorbild CP/M, was aber schon für 16 Bit Prozessoren ein einfach 
zu kleines System war. Und Windows hatte überhaupt keine Vorläufer außer 
den nur quasi-grafischen Oberflächen diverser Programme, die es damals 
für den IBM-PC gab. Windows war tatsächlich eine genuine Entwicklung von 
Microsoft und die ersten zwei Versionen waren ungefähr so kümmerlich wie 
die allererste Version von Eagle. Aber man sehe mal, was daraus geworden 
war - weil damals die Fundamente für diese Software an den richtigen 
Stellen gelegt wurden.

Und der moderne PC ist beileibe kein Großrechner, denn dessen 
Gesamtarchitektur ist völlig anders: Der Rechner als administriertes 
Ding ohne Zutritt durch User, abgesetzt davon User an Terminals. Eben 
deswegen auch ein OS, was diesen Umständen entspricht. Und die sind 
himmelweit entfernt von den Umständen am PC. Verrate mir doch mal, 
wieviele User an deinem PC zugleich arbeiten, also mit eigenem 
Bildschirm, eigener tastatur, Maus etc. Nein, ein PC ist durchweg ein 
Einmann-Rechner, war es schon immer und wird es auch bleiben. Eben ein 
persönlicher Rechner. Mit nur einem Stuhl davor.

Der moderne PC kommt auch nicht von einem programmierbaren Tischrechner 
her. Das ist schlichtweg auch falsch. Selbst ein etwa zeitgleicher 
ZX-Spectrum war zu keiner Zeit ein programmierbarer Tischrechner. Der 
moderne PC ist eine Klasse von Geräten, die es vor dem ertsen IBM-PC 
nicht gegeben hatte: Ein Desktopgerät, was sowohl bürotauglich ist, als 
auch dank Erweiterbarkeit für Labor und Werkstatt geeignet. Zwar von 
einem Hersteller kommend, aber ausdrücklich für die weitere Ausstattung 
durch andere Firmen vorgesehen. Das hatte es zuvor schlichtweg noch 
nicht. Selbst die damaligen Osborne PC's waren geschlossene Konstrukte 
(und unverschämt teuer).

W.S.

von S. R. (svenska)


Lesenswert?

Jack V. schrieb:
> Warum hälst du es für einen Vorteil, die
> Daten überhaupt einzupacken?

Packen hat den Vorteil, dass man nicht mit hunderttausenden Dateien 
hantieren muss, unabhängig von der Kompression.

Viele Dateien sind schlicht unhandlich: Dateimanager mögen keine 20k 
Dateien in einem Ordner, das I/O-System wird strapaziert und die 
Performance auch bei SSDs leidet, und Netzwerkprotokolle verlieren auch 
deutlich an Effizienz.

🐧 DPA 🐧 schrieb:
> Also wer glaubt, Windows würde ihren Kernel durch den Linux kernel
> ersetzen, muss schon arg was geraucht haben.

Es würde mich sehr wundern, wenn Microsoft darüber nicht gründlich 
nachgedacht hätte. Technisch ist das garnicht so furchtbar abwegig.

Der Windows-Kernel hat eine stabile Treiber-API, die man in den 
Linux-Kernel integrieren kann (man denke an Projekte wie z.B. 
ndiswrapper). Die Anzahl der Anwendungen für den Windows-Kernel ist 
ebenfalls recht überschaubar - hauptsächlich die Win64- und 
Win32/WoW-Hosts.

Der Linux-Kernel ist nachweislich stabil, skaliert deutlich besser und 
hat eine größere Entwicklergemeinschaft um sich herum. Portabilität ist 
bei beiden Kerneln gegeben, aber Linux existiert für so ziemlich jede 
Plattform auf dieser Welt.

🐧 DPA 🐧 schrieb:
> und nicht als indiz, dass MS was an Linux liegt.

Naja, Microsoft entwickelt sich zu einem ernstzunehmenden 
Linux-Contributor.

von S. R. (svenska)


Lesenswert?

W.S. schrieb:
> Es ist exakt so wie ich es schrieb. Unix lag allen Universitäten im
> Quelltext vor. Thorvald brauchte bloß in die Quellen zu schauen.

Was er weder konnte - weil er keinen Zugang dazu hatte - noch durfte - 
die BSDs sind aufgrund der rechtlichen Unsicherheit gescheitert, nicht 
weil sie untauglich waren.

Was Torvalds hatte (und man schreibt ihn ohne 'h'), sind die Sourcen von 
Minix. Und Minix ist durch das Mikrokernel-Konzept vollständig anders 
aufgebaut, weswegen wir heute garantieren können, dass er es definitiv 
nicht abgeschrieben hat.

> Das Einzige, was er tatsächlich neu und selbst gemacht hatte,
> war der allererste Versuch, einen Scheduler für den 386 zu schreiben.

Ich glaube, du unterschlägst hier sowohl 386BSD und DOS-Extender. Die 
gab es nämlich auch schon. Und selbst Windows 3.0 (Extended Mode) ist 
technisch äußerst interessant, weil es eigentlich nur ein Hypervisor für 
Windows 3.0 (Standard Mode) und Real Mode ist. Zwischen denen übrigens 
vollwertiges, präemptives(!) Multitasking existiert.

> Ja richtig, nicht für den 286, denn dessen protected Mode
> war zwar deutlich sicherer als der 32 Bit Modus,

Hä? Erstens kann ein 286er keinen 32 Bit Modus, zweitens kann der 386er 
keinen 32 Bit Modus ohne Protected Mode...

> aber eben deshalb auch richtig lahmarschig - jedenfalls auf
> einem damaligen 286er mit stolzen 24 MHz Systemtakt.

... und drittens gab es keine 286er mit 24 MHz zu der Zeit. Schon 
garnicht von Intel.

> So war das nämlich - oder willst du die durchaus frappierenden
> Ähnlichkeiten zwischen Unix und Linux als reinen Zufall abtun?

Du unterstellst ihm, dass er den UNIX-Code kopiert hat.
Das ist nachweislich falsch.

Und du verwechselst außerdem den UNIX-Kernel mit den UNIX-APIs (später 
als POSIX standardisiert), sowie die bereits existierenden 
Implementationen der ganzen UNIX-Tools aus dem GNU-Projekt und die grob 
kompatiblen Minix-Tools.

Kurz: Da fehlt ein ganzer Haufen relevanter Details in deinem Text.

von 🐧 DPA 🐧 (Gast)


Lesenswert?

> 🐧 DPA 🐧 schrieb:
>> und nicht als indiz, dass MS was an Linux liegt.
>
> Naja, Microsoft entwickelt sich zu einem ernstzunehmenden
> Linux-Contributor.

Hast du deren Mail auf der mailingliste gesehen? Viel mühe hat man sich 
da nicht gegeben. Zuerst der grosse Mediawirbel mit Blogpost, dann erst 
die mail... Reines Alibihelfen.

Oder meinst du OSS allgemein? Ja, hab ich erlebt. Plötzlich war ein 
github Projekt zu dem ich schon beigetragen hatte unter der Microsoft 
Organisation, und wenn man was neues beitragen wollte, musste man 
plötzlich Microsofts CLA zustimmen, was aber nur Microsoft hilft, aber 
nicht anderen, die später das Projekt forken. Also nein, nicht mit mir.

Und dann gabs mal noch ne geschichte in den News, wo sie von jemanden 
ein OSS Projekt angeschaut haben, den Author befragt, und dann 
kurzerhend das Projekt nachentwickelt haben, natürlich ohne den anderen 
auch nur zu erwähnen.

Und die ganzen packet/software repos, die sie gerade übernehmen (z.B. 
NPM) oder anbieten, hinterlassen auch keinen guten nachgeschmack...

Ok, ernstzunehmen sind sie, aber nicht unbedingt zum besten...

von 🐧 DPA 🐧 (Gast)


Lesenswert?

🐧 DPA 🐧 schrieb:
> kurzerhend das Projekt nachentwickelt haben

Das war AppGet, ist mir gerade wieder eingefallen.

von S. R. (svenska)


Lesenswert?

🐧 DPA 🐧 schrieb:
>> Naja, Microsoft entwickelt sich zu einem ernstzunehmenden
>> Linux-Contributor.
> Hast du deren Mail auf der mailingliste gesehen?

Die um den Hypervisor-Support? Ja.

🐧 DPA 🐧 schrieb:
> Oder meinst du OSS allgemein? Ja, hab ich erlebt.
> Plötzlich war ein github Projekt zu dem ich schon
> beigetragen hatte unter der Microsoft Organisation,

...und plötzlich war ganz Github ein Teil von Microsoft. :-)

Fakt ist, dass Microsoft plötzlich begriffen hat, dass OSS eine günstige 
und gebrauchbare Basis für eigene Entwicklungen ist. Ideen wie das 
Rolling Release, semi-öffentliche Entwicklung (z.B. die Microsoft-Blogs 
zum Thema WSL etc.) oder die Adoption von Standards (ANSI-Support in 
cmd.exe) sprechen dafür.

Was die CLAs betrifft, die kann ich aus Unternehmenssicht vollkommen 
nachvollziehen, auch wenn ich sie persönlich nicht mag. Andererseits 
schenken sich Microsoft, Canonical oder Google da absolut nichts.

Immerhin führt das dazu, dass der Code öffentlich ist - und da wollten 
wir doch alle mal ursprünglich hin, oder? Soweit ich weiß, ging es bei 
OSS nicht vordergründig darum, die großen Konzerne zu zerschlagen.

🐧 DPA 🐧 schrieb:
> Und dann gabs mal noch ne geschichte in den News, wo sie
> von jemanden ein OSS Projekt angeschaut haben, den Author
> befragt, und dann kurzerhend das Projekt nachentwickelt haben,
> natürlich ohne den anderen auch nur zu erwähnen.

Das klingt für mich eher nach Google als nach Microsoft. Die machen das 
nämlich auch sehr gerne.

: Bearbeitet durch User
von 🐧 DPA 🐧 (Gast)


Lesenswert?

S. R. schrieb:
> 🐧 DPA 🐧 schrieb:
>>> Naja, Microsoft entwickelt sich zu einem ernstzunehmenden
>>> Linux-Contributor.
>> Hast du deren Mail auf der mailingliste gesehen?
>
> Die um den Hypervisor-Support? Ja.

Nein, die davor, auf der dri-devel liste, zu DirectX.

> Immerhin führt das dazu, dass der Code öffentlich ist - und da wollten
> wir doch alle mal ursprünglich hin, oder? Soweit ich weiß, ging es bei
> OSS nicht vordergründig darum, die großen Konzerne zu zerschlagen.

Das ist nicht genug. Die Ursprünglichen freien Softwareentwickler, 
hatten gewisse Moralische/Ethische grundsätze, die von den Firmen in der 
Szene heutzutage einfach nicht geteilt werden. Bei denen gilt nur, 
haupsache, es macht sich gut in der Öffentlichkeit, oder spült Geld in 
die Tasche.

von S. R. (svenska)


Lesenswert?

🐧 DPA 🐧 schrieb:
>> Soweit ich weiß, ging es bei OSS nicht vordergründig
>> darum, die großen Konzerne zu zerschlagen.
> Das ist nicht genug.

Das Zerschlagen der Konzerne ist nicht genug?
Was würdest du denn noch alles zerschlagen wollen?
Ich finde das Stallman'sche Extrem jetzt auch nicht unbedingt 
erstrebenswert...

Nachtrag: Nein, die DirectX-Mails habe ich nicht gelesen.

: Bearbeitet durch User
von 🐧 DPA 🐧 (Gast)


Lesenswert?

S. R. schrieb:
> Das Zerschlagen der Konzerne ist nicht genug?

Nein, nur das Veröffentlichen von code ist das, was nicht genug ist.

von (prx) A. K. (prx)


Lesenswert?

S. R. schrieb:
>> Es ist exakt so wie ich es schrieb. Unix lag allen Universitäten im
>> Quelltext vor. Thorvald brauchte bloß in die Quellen zu schauen.
>
> Was er weder konnte - weil er keinen Zugang dazu hatte - noch durfte

Ob er Zugang dazu hatte weiss ich nicht, ich jedenfalls hatte. Denn der 
kommentierte Quellcode vom recht frühen Unix V6 war an Universitäten 
leicht aufzutreiben und wurde oft kopiert:
https://de.wikipedia.org/wiki/Lions_Book

W.S. schrieb:
> So war das nämlich
> - oder willst du die durchaus frappierenden Ähnlichkeiten zwischen Unix
> und Linux als reinen Zufall abtun?

Ein System, das den API von Unix mit einem monolithischen Kernel 
re-implementiert, sieht aus Sicht von Anwendungsprogrammen einem Unix 
frappierend ähnlich. Dazu muss es nicht abgeschrieben sein.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

W.S. schrieb:
> Und Windows hatte überhaupt keine Vorläufer außer
> den nur quasi-grafischen Oberflächen diverser Programme, die es damals
> für den IBM-PC gab.

Es besteht keine innere Ähnlichkeit zwischen dem auf DOS basierten 
frühen Windows 3.1 und dem Unterbau des vollkommen neu aufgesetzten 
Windows NT 3.1. Das neue System hatte zwar keinen nominellen Vorläufer, 
aber die Inspiration durch VMS hat Microsoft $150 Mio gekostet:
https://de.wikipedia.org/wiki/Microsoft_Windows_NT

: Bearbeitet durch User
von Sheeva P. (sheevaplug)


Lesenswert?

herbert schrieb:
> Unter Mint Mate war der Erstbenutzer der Ersteller der Installatoin "H"
> von den Rechten her nicht definiert.

Mit Sicherheit war er das, sonst hätte er sich nicht einmal einloggen 
können.

> Das habe ich nachträglich auf
> "Administrator" gesetzt. Mich hat eh schon gewundert warum ich für alle
> anderen Aktionen immer mein Passwort das ich bei der Installation
> vergeben habe eingeben musste.

Wenn man weiß, wie es geht, dann muß man das natürlich nicht.

> Unter Win gibt es das nicht

Aber siehst Du, Herbert, genau das ist (wieder einmal) der Punkt. Du 
erwartest, daß Linux so funktioniert, wie Du es unter Windows gewöhnt 
bist.

Das tut es aber nicht, und daran wird sich auch nichts ändern.

Klügere Menschen, als ich es bin, und auch ich selbst haben es in diesem 
und anderen Threads schon abermillionen, wenn nicht gar -milliardenfach 
gesagt. Linux ist nicht das bessere Windows. Das will es auch nicht 
sein. Und das wird es auch nicht.

Wer Linux benutzen will, muß sich darauf einlassen. (Das gilt übrigens 
genauso für jedes andere Betriebssystem, seien es Windows, MacOS, eines 
der *BSDs, Solaris, AIX oder HP-UX.) Daran führt kein Weg vorbei!

(Exkurs: als ich vor Ewigkeiten einem Freund von mir, einem 
Grafikdesigner der sonst nur mit MacOS9 arbeitete, das Windows auf einem 
ausgemusterten P2/300 mit einem SuSE Linux ersetzt habe, rief er mich 
schon auf dem Heimweg triumphierend an, er habe es geschafft, Linux zum 
Abstürzen zu bringen. Da habe ich gelacht und ihn gefragt, was er denn 
getan habe. Er hatte die 3D-Grafiksuite Blender ausprobiert und damit 
eines der mitgelieferten Beispiele rendern wollen, jetzt könne er die 
Maus nur noch ganz ruckelnd bewegen und das ganze System fühle sich 
total zäh und langsam an. Deshalb habe ich ihn gebeten, das System 
einfach mal in Ruhe zu lassen und am nächsten Tag nochmal zu schauen, 
und siehe da: die Grafik war gerendert, und alles lief wieder flüssig 
und rund. Ich glaube, ich habe ihn nie so tief beeindruckt erlebt. Er 
nutzt Linux immer noch, mittlerweile allerdings Xubuntu.)

Nun, wie dem auch sei, ich befürchtet, Deine Motivation ist die falsche. 
Du suchst einen Ersatz für Windows, aber den gibt es nicht. Linux ist 
keiner, und MacOS und die *BSDs sind es auch nicht.

Natürlich, ist ja auch doof: da hat man sich in die 
"Benutzerkontensteuerung", die "Systemsteuerung", den "Gerätemanager", 
das (unter Windows durchaus komplizierte) Rechtesystem, die "Setup.exe" 
und die "MSI-Installer" und womöglich sogar in diese "Registry" 
hineingefuchst. Und dann probiert man etwas anderes, und plötzlich ist 
das ganze schöne und -- wahlweise in Form von Fachliteratur und 
reißerisch-buntem Computerpr0n, oder mit vielen bitteren Erfahrungen mit 
Trial, Error und diversen Neuinstallationen -- teuer erkaufte 
"Fachwissen" nichts mehr wert.

Am Rande bemerkt habe ich die Erfahrung gemacht, daß sich 
Windows-Umsteiger nicht nur mit einem Linux, sondern auch mit MacOS und 
anderen Systemen oft viel schwerer tun als komplette Neueinsteiger. Ich 
persönlich erkläre mir das so, daß die Windows-Erfahrenen sich dermaßen 
an seine Marotten und Meriten gewöhnt haben, daß ihnen die Offenheit 
(und manchen vielleicht auch die Einsicht) fehlen, das aufwändig 
Erlernte und lange Gewohnte zu vergessen und mit etwas Neuem, Anderem zu 
beginnen.

Klar, das ist doof. Und klar, mir geht es nicht anders, wenn ich mich 
mal mit einem Windows auseinandersetzen muß -- und das, obwohl ich vor 
Ewigkeiten mal ein großes Microsoft-Zertifikat für Windows NT4 gemacht 
habe. Es ist also nicht so, als würde ich das nicht durchaus verstehen. 
Jedesmal, wenn ich vor einem Windows sitzen muß, was -- glücklicherweise 
-- nur noch sehr selten der Fall ist, fühle ich mich wie jene berühmten 
drei Affen, nur daß der "Nichts sagen"-Affe durch einen ersetzt ist, der 
Tastatur und Maus mit dicken Polarfausthandschuhen bedienen muß.

Aber mein Verständnis dafür ändert nichts an der Situation, und diese 
Situation ist, daß Linux nun einmal anders ist als Windows, und man sich 
darauf einlassen und Neues erlernen muß, wenn man denn umsteigen will. 
Ob Du ernsthaft bereit bist für einen Einstieg in Linux, oder vielleicht 
sogar für einen Umstieg, ist Deine Sache. In Wahrheit hat das aber gar 
nichts mit Linux zu tun, sondern einzig und alleine mit Dir selbst -- 
und Deiner Einstellung, genauer: Deiner Erwartung.

Nebenbei bemerkt wird es Dir und auch sonst niemandem helfen, wenn Du 
Dich in einem Mikrocontroller- und Elektronikforum darüber beschwerst, 
daß dieses blöde Linux sich standhaft weigert, Deine unerfüllbaren 
Erwartungen zu erfüllen. Wie bereits gesagt, will und wird es das nicht 
tun, solange Du im Endeffekt ein besseres, kostenloses und 
ressourcenschonenderes Windows erwartest.

Wenn Du ein anderes Betriebssystem erwartest, das kein Windows ist, 
deswegen anders funktioniert, das Dir neue, unbekannte Komfortfunktionen 
liefert, Ressourcen schont, flexibler, mächtiger, besser dokumentiert 
und deutlich vielseitiger ist als Windows, dann sei herzlich willkommen 
und hab' viel Freude und Vergnügen damit. Ich möchte Dir dann das Buch 
"Linux" von Michael Kofler empfehlen, und ansonsten das "Debian 
GNU/Linux Anwenderhandbuch" von Frank Ronneburg [1] sowie, wenn Du über 
die ersten Schritte hinaus bist und die Mächtigkeit von Linux erkunden 
willst, natürlich das "Debian Administrationshandbuch" von Raphaël 
Hertzog und Roland Mas [2], außerdem das Wiki des Projekts Arch Linux 
[3].


[1] https://www.debiananwenderhandbuch.de/
[2] https://debian-handbook.info/browse/de-DE/stable/
[3] https://wiki.archlinux.org/

von Sheeva P. (sheevaplug)


Lesenswert?

herbert schrieb:
> Ein Destopsystem muss jemand mit etwas Computererfahrung ohne
> Informatikstudium oder 30 Jahre Linuxerfahrungen inkl. Unix.... aufsezen
> können [...] Linux ist das Gegenteil und eigentlich
> mehr Basis und selbstzweck eines Wissenden der natürlich nicht 30 Jahre
> umsonst gelernt haben will.

Zu meinen lustigsten Erfahrungen in diesem Thread gehört für mich, daß 
ich immer wieder etwas hinsichtlich Deines Hintergrundes, Deiner 
Erfahrungen und Deiner Erwartungen vermute, und Du meine Vermutungen 
dann umgehend bestätigst.

Pardon, Du bist ein vielleicht ein Windows-Wissender. Aber das macht 
Dich noch lange nicht zu einem Wissenden, tut mir leid. Solange Du Deine 
30 Jahre Windows-Erfahrungen nicht zumindest hinterfragen und erweitern 
möchtest, wird das mit Dir und Linux leider nichts werden. Das tut mir 
leid, ändert aber nichts an den Tatsachen.

Nebenbei bemerkt, hast Du allerdings trotzdem eine Reihe sehr nützlicher 
Dinge unter Windows gelernt, wenn Du so viel Erfahrung hast, wie Du 
sagst. Zum Beispiel kennst Du vermutlich noch die Autoexec.bat und die 
Config.sys unter DOS-basierten Windowsen, womöglich hast Du sogar schon 
einmal eine .INI-Datei gesehen oder eventuell sogar editiert. Wenn das 
so ist, dann hast Du gelernt: ein Betriebssystem und die Programme kann 
man prima mit so Textdateien konfigurieren, in denen man sich nicht 
vertippen sollte, und nach Änderungen an solchen Dateien sollte man 
meistens die solcherart konfigurierte Software neu starten.

von Sheeva P. (sheevaplug)


Lesenswert?

herbert schrieb:
> 🐧 DPA 🐧 schrieb:
>> Einige Player kommen nur mit Audio CDs klar, dort sind die Daten
>> unkomprimiert drauf. Stelle sicher, dass K3b auch auf Audio CD
>> eingestellt ist. Ausserdem empfehle ich, CD-RW zu verwenden, die kann
>> man nämlich einige male wiederverwenden.
>
> Die Einstellung k3b  war "clonen". Das ist eindeutig für die Software
> und wenn ich eine Video DVD einlege zum "clonen" dann muss das das
> Programm selber handeln. Ich will dann da nicht reinpfuschen müssen.

Merkwürdig, mit der Einstellung "klonen" macht k3b eine bitweisen Kopie 
eines vorhandenen Mediums oder eines vorhandenen Image eines Mediums, 
sofern ebendieses keinen Kopierschutz hat.

Aber nur, damit ich das richtig verstanden habe: Du hast eine Video-DVD 
eingelegt oder hattest ein Video-DVD-Image, und hast dann k3b aufgerufen 
und ihm gesagt, er soll Dein Quellmedium klonen? Und Du hast erwartet, 
daß eine Audio-CD oder -DVD herauskommt, die Deine 
Stereoanlage/Autoradio/whatever abspielen können soll?

Und wo wir gerade bei Video-DVDs sind: hast Du die Bibliothek libdvdcss 
installiert, um den auf DVDs regelmäßig vorhandenen Kopierschutz 
"Content Scrambling System" CSS umgehen zu können? Diese Bibliothek wird 
aus rechtlichen Gründen meistens nicht mit installiert, kann in modernen 
Distributionen aber leicht nachinstalliert werden.

von (prx) A. K. (prx)


Lesenswert?

W.S. schrieb:
> Nein, ein PC ist durchweg ein
> Einmann-Rechner, war es schon immer und wird es auch bleiben.

Man sollte zwischen Usern im Sinn der Kernels und vor dem Gerät 
sitzenden Anwendern unterscheiden (die auch weiblich sein dürfen ;-). 
Da mehrere Anwender nicht gleichzeitig vor dem gleichen PC sitzen 
können, muss es sich bei gleichzeitiger Nutzung zwangsläufig um 
Terminal-Betrieb handeln.

Von Linux (nicht Unix) ist mir nicht bekannt, dass die Nutzung durch 
mehrere Anwender gleichzeitig nennenswert verbreitet war, wenngleich es 
technisch möglich ist und die von Unix übernommene X11-Technik es auch 
mit GUIs zulässt.

Im Kern ist auch Windows ein Multiuser-System. Die GUI war auf eine 
parallele Nutzung durch mehrere Anwender jedoch anfangs nicht 
eingerichtet. Da half Citrix nach, was in Terminal Services mündete. 
Zumindest früher waren Windows Server auch als Multi-Anwender-Systeme 
verbreitet. Für Adminsitrationstätigkeit findet das auch heute noch 
statt. Technisch gibt es keinen wesentlichen Unterschied zwischen den 
Windows-Varianten von "Home" bis "Datacenter Server".

Im direkten Vergleich beider Systeme war nur in Windows die 
gleichzeitige Nutzung durch mehrere Anwender in Unternehmen zeitweilig 
verbreitet.

Unabhängig davon laufen in beiden Systemen stets Prozesse verschiedener 
User gleichzeitig, ob als Daemons in Linux oder als Services in 
Windows. Darunter sind auch Services mit GUI-Zugang (sichtbar im System 
Tray).

: Bearbeitet durch User
von Sheeva P. (sheevaplug)


Lesenswert?

Nop schrieb:
> Sheeva P. schrieb:
>> Dagegen hat Linux im Serverbereich schon längst gewonnen, auch wenn es
>> zuerst die alten Platzhirsche wie SunOS/Solaris und in weiten Teilen
>> auch AIX, HP-US und Co. verdrängt hat.
>
> Das lag jedoch vor allem daran, daß Linux auf billiger x86-Hardware lief
> und die anderen nur auf teurer proprietärer.

Ja, natürlich. Ich war viele Jahre bei Sun Microsystems und habe den 
Niedergang quasi live miterlebt, und manchmal blutet mir bis heute das 
Herz. Unsere Hardware war unfaßbar teuer, aber auch unfaßbar stabil und 
schnell, und aus Nostalgie steht hier immer noch eine Sun Ultra 
1-Workstation auf dem verstaubten Rack. Und unsere Software war bis 
heute wegweisend. Aber so ist der Lauf der Welt: das Bessere frißt das 
Gute, und heutzutage erreichen billige x86-Server für 10k€ schon im 
Idlemode die Leistung, für die man damals eine Starfire Enterprise 10000 
(E10k) für kommode 6-8 Millionen US-Dollar gebraucht hätte. ;-)

> Sheeva P. schrieb:
>> Und etwas Besseres als diese findest Du auch nicht im
>> Windows-Umfeld, denn die Kosten von Support seitens Microsoft... sagen
>> wir so: das kann die Telekom bezahlen, aber Du und ich mit sehr hoher
>> Wahrscheinlichkeit eher... nicht.
>
> Ist man Privatnutzer ohne Supportvertrag, dann findet man in den
> Linuxforen der genutzten Distri um Längen bessere Hilfestellungen als in
> den MS-Hilfeforen, in denen zu 90% am Ende die Neuinstallation von
> Windows empfohlen wird.

Zweifellos, aber man muß halt mitarbeiten. Das muß man bei kommerziellem 
Support natürlich auch, aber... naja, sagen wir so: dann werde ich von 
jemandem bezahlt, damit ich mir seine Elogen anhören muß. ;-)

von Sheeva P. (sheevaplug)


Lesenswert?

Gerhard schrieb:
> Wen die häufige Passworteingabe beim Administrieren so stört, der meldet
> sich halt als root entweder grafisch oder im Terminal an und hat Ruhe
> davor. Wo ist das Problem?

Vermutlich ein klassischer Fall von PEBKAC. ;-)

von Sheeva P. (sheevaplug)


Lesenswert?

Le X. schrieb:
> Cyblord -. schrieb:
>> Es gibt keins. Ich habe nur widersprochen dass eine ständige lokale
>> Passworteingabe sinnvoll ist. Ob und wie man das abschalten kann, war
>> NICHT das Thema
>
> Halte ich auch für wenig sinnvoll.

Es ist auch völliger Unfug, weil das so nämlich gar nicht läuft. sudo(8) 
merkt sich nämlich für einen konfigurierbaren Zeitraum -- standardmäßig 
fünf (5) Minusten, daß der User das Paßwort korrekt eingegeben hat, und 
fragt dann nicht mehr. Und wenn in diesen fünf Minuten der User am 
selben Controlling TTY wieder sudo(8) aufruft, dann verlängert sich die 
Ablaufzeit.

Tippfaule können sudo(8) so einstellen, daß für bestimmte Kommandos 
keine Eingabe des Paßworte erforderlich ist.

Berechtigte Kundige geben, wenn sie längere Admin-Sessions vorhaben, 
auch gerne mal "sudo su -" oder "sudo -i" ein, und bekommen dann eine 
echte Rootshell.

Es ist sogar möglich, sudo(8) so einzustellen, daß ein Benutzer 
bestimmte Kommandos mit genau definierten Parametern aufrufen kann, ohne 
daß eine Paßworteingabe nötig ist, aber wenn andere Parameter eingegeben 
werden, dann schon.

Man kann sudo auch so einstellen, daß bestimmte Benutzer gar keine 
Paßworteingabe brauchen, egal welches Kommando (und mit welchen 
Parametern) sie aufrufen.

Dasselbe natürlich alles auch für Gruppen.

sudo(8) ist ein sehr mächtiger Befehl, und was wer wann wie darf, ist 
extrem fein granuliert konfigurierbar. Man kann damit sogar -- in 
gewissem Umfang -- richtige Mandatory Access Control wie RSBAC, 
SE-Linux, AppArmor, oder Polkit nachbilden.

Profitipp: zum Editieren der Konfigurationsdatei immer visudo(8) 
benutzen. Das sorgt dafür, daß die betreffende Konfigurationsdatei -- 
die ich hier nicht nennen möchte -- zumindest syntaktisch korrekt ist. 
Mit der Umgebungsvariablen EDITOR läßt sich dabei einstellen, ob als 
Editor vi, Emacs, Nano, Kate oder sonstwas benutzt wird.

von Sheeva P. (sheevaplug)


Lesenswert?

Jay W. schrieb:
> Will sagen, die Präferenz des Betriebssystems ist, ähnlich wie Religion
> eine Sozialisierungsfrage. Die Diskussion hier zeigt das recht
> eindrücklich.

Keine Frage, aber das darf man nicht sagen. Wenn man es sagt, sind die 
Windowsuser angepieselt, weil sie sich dann als genau das Herdenvieh 
betrachtet sehen, das sie objektiv betrachtet sind -- wie wir alle. ;-)

von Sheeva P. (sheevaplug)


Lesenswert?

W.S. schrieb:
> Android IST Googles Kind und ein jeder weiß, daß Google auf jedes
> irgendwie am Internet oder wenigstens an einem Telefonprovider hängende
> Android-Gerät als root zugreifen kann - jederzeit. Lediglich der
> Käufer/Benutzer kann explizit dies nicht.
>
> Und ebenso weiß jedermann, daß neben Google eigentlich auch alle
> staatlichen Stellen der USA prinzipiell dort ebenfalls zugreifen können.
>
> Und jedermann weiß, daß ein Gleiches gilt für alle Produkte von Apple.

Wenn ich mich recht entsinne, haben sich die Apfelleute doch vor einigen 
Jahren noch mit (IIRC) dem FBI angelegt, weil sie nicht verraten 
wollten, wie man die Äpfelchen knackt.

> Und den Leuten ist das erstaunlicherweise absolut schnurz. Auch den
> Linuxern, die ein Smartphone haben.

Was, wenn ich nicht "die Leute" bin?

von Sheeva P. (sheevaplug)


Lesenswert?

herbert schrieb:
> Zum brennen braucht iman "Root Rechte" !!!!!

Dein Imam vielleicht. Meiner nicht.

"Three exclamation marks", he nodded, "the sure sign of a diseased 
mind." (Terry Pratchett)

von Sheeva P. (sheevaplug)


Lesenswert?

Jack V. schrieb:
> herbert schrieb:
>> Zum brennen braucht iman "Root Rechte" !!!!
>
> Manchmal fragt man sich schon, wie manche Leute
> überhaupt in der Lage sind, hier zu schreiben …

Weil 30 Jahre Windows es möglich machen. ;-)

von Sheeva P. (sheevaplug)


Lesenswert?

Zeno schrieb:
> Glaubste mir nicht dann geh einfach mal nach /dev und mache ein
> geschmeidiges ls -l. Und danach schauste in die /etc/group rein und
> schon weist Du wer welches device benutzen darf.

Wenn jemand wissen will, welchen Gruppen sie/er angehört, gibt es unter 
Linux die Kommandos id(1) oder groups(1). Nur so nebenbei.

Beitrag #6420252 wurde von einem Moderator gelöscht.
von Sheeva P. (sheevaplug)


Lesenswert?

ACDC schrieb:
> Ein normaler Windows User kennt kein Root oder sonst was.
> Also wird er nur erkennen, dass er unter Linux nicht brennen kann.
>
> Was ist nun die Lösung?
> Dem Windows User eine Schulung geben?

Ja. Was sonst?

Beitrag #6420255 wurde von einem Moderator gelöscht.
von Sheeva P. (sheevaplug)


Lesenswert?

Jack V. schrieb:
> Rene schrieb im Beitrag #6416263:
>> Windows ist dennoch auf den meisten Desktops zuhause. Aber ich verstehe
>> schon, der Fakt passt gerade nicht in Dein Weltbild.
>
> An welcher Stelle glaubst du zu erkennen, dass ich der Meinung wäre,
> dass das anders sei? Warum dichtest du dir Müll zusammen, und postest
> das als Aussage Anderer? Hast du keinen Anstand?

Naja, das sind diese "Most Valuable Professionals", die am MVP-Programm 
von Microsoft teilnehmen. Die bekommen Geld, Schulungen, verbilligte 
Lizenzen, und weitere Goodies, wenn sie Werbung für Microsoft-Produkte 
und ansonsten alles runtermachen.

Beitrag #6420257 wurde von einem Moderator gelöscht.
von Sheeva P. (sheevaplug)


Lesenswert?

Zeno schrieb:
> Egon D. schrieb:
>> Ein normaler User, der Zugriff auf das CDROM-Laufwerk
>> benötigt, sollte somit Mitglied der Gruppe "cdrom" sein - ja!
>> Genau das ist die Logik dahinter!
> Ja und genau das ist im privaten Desktopbereich Mist.

Das wäre Mist, wenn es "im privaten Desktopbereich Mist" wäre. Ist es 
aber nicht.

> Da ist der
> Benutzer in aller Regel User und Admin in Personalunion

Ja, super Idee.

>  und will mit
> seinenm Rechner was machen z.B. auch mal ne CD brennen - ohne Frickeln.
> Windows und MacOS beweisen das es geht.

Ja, Linux auch.

> Man könnte ja beim Anlegen eines neuen Users, diesen auch automatisch
> z.B mit in die Gruppe cdrom aufnehmen, aber igitt das wäre ja
> userfreudlich.

Ja, und haargenau das machen ja auch alle mir bekannten Installer für 
den ersten User. Danach muß man das natürlich manüll angeben. 
Multiusersystem, klar. :-)

von Sheeva P. (sheevaplug)


Lesenswert?

Egon D. schrieb:
> Andreas schrieb:
>
>> Ist in dem Fall wohl wirklich ursächlich ein Problem
>> eines ungeeigneten Rechtekonzepts [...]
>
> "Ungeeignet" würde ich jetzt nicht direkt sagen.
> "Etwas schlicht gestrickt" trifft es m.E. besser.
>
> Man kann halt keine "Rechteprofile" erstellen, sondern
> muss jedem User jede Geräteklasse einzeln erlauben
> oder verbieten.

Aber ja doch, sowas kann UNIX seit einer Zeit, als Linus noch nicht 
einmal geboren war und "Windows" Öffnungen nichts als in Mauern waren. 
Diese "Rechteprofile" werden unter UNIX üblicherweise als "Gruppen" 
bezeichnet. :-)

Beitrag #6420266 wurde von einem Moderator gelöscht.
von Sheeva P. (sheevaplug)


Lesenswert?

Zeno schrieb:
> Da kann man davon ausgehen das die passende Adminscripte haben die das
> erledigen - egal ob Linux, Unix oder Windows.

Profis scripten sowas nicht selbst. Ansible, Puppet, cfengine und Co. 
existieren.

von GPL-Nazi (Gast)


Lesenswert?

S. R. schrieb:

> Ich finde das Stallman'sche Extrem jetzt auch nicht unbedingt
> erstrebenswert...

Das derzeitige Copyright/Lizenz/Eigentums Regime ist nicht minder 
extrem.

Beitrag #6420271 wurde von einem Moderator gelöscht.
Beitrag #6420272 wurde von einem Moderator gelöscht.
von Sheeva P. (sheevaplug)


Lesenswert?

Zeno schrieb:
> Allerdings ist bei Ubuntu, Mint und Konsorten das Sicherheitskonzept von
> Linux durch sudo eh schon aufgeweicht. Mit den passenden Eintragungen in
> der /ezc/sudoers ist das Ding offen wie ein Scheunentor.

Doof, daß es diese Eintragungen nicht gibt. Sonst könnte unser 
Herbie-Held ja locker und flockig auf seinen Brenner zugreifen, ne?

Xenu, tust Du mir einen Gefallen? Ja? Bitte red' doch mal ausnahmsweise 
über etwas, von dem Du auch was verstehst. Lieben Dank.

Beitrag #6420274 wurde von einem Moderator gelöscht.
von GPL-Nazi (Gast)


Lesenswert?

A.B. schrieb im Beitrag #6420272:

> Gleiches gilt mal mindestens für den aktuellen Datenschutz-Wahn.

Arbeitest du bei Cambridge Analytica?
Strebst du eine Plutokratie an?

von GPL-Nazi (Gast)


Lesenswert?

Zeno schrieb:
> Mit den passenden Eintragungen in
> der /ezc/sudoers ist das Ding offen wie ein Scheunentor.

Sollte es diese Möglichkeiten nicht geben?
Willst du die totale Bevormundung durch den Hersteller?

von Stefan ⛄ F. (stefanus)


Lesenswert?

W.S. schrieb:
> Nein, ein PC ist durchweg ein
> Einmann-Rechner, war es schon immer und wird es auch bleiben. Eben ein
> persönlicher Rechner. Mit nur einem Stuhl davor.

Auf dem Schreibtisch ja. Windows passt dazu.

Mittlerweile werden PC aber auch als Server eingesetzt, und da sind 10 
bis 1000 gleichzeitige User der Regelfall. Windows passt nicht dazu.

von Stefan ⛄ F. (stefanus)


Lesenswert?

Sheeva P. schrieb:
> Unsere Hardware war unfaßbar teuer, aber auch unfaßbar stabil und
> schnell

Angeblich konnte man in die Netra FT1800 eine Schraube werfen, ohne dass 
man den daraus resultierenden Defekt von außen bemerkte. Ich durfte das 
leider nicht ausprobieren.

von (prx) A. K. (prx)


Lesenswert?

Stefan ⛄ F. schrieb:
> Mittlerweile werden PC aber auch als Server eingesetzt, und da sind 10
> bis 1000 gleichzeitige User der Regelfall. Windows passt nicht dazu.

Inwiefern? Windows selbst scheint nicht zu wissen, dass das ein Problem 
sei. Windows ist zudem nicht erst "mittlerweile" ein funktionierender 
Server, sondern seit WinNT. Die x86 waren es z.B. unter Novell, OS/2 
oder auch SCO Unix/Xenix schon vorher.

: Bearbeitet durch User
von Stefan ⛄ F. (stefanus)


Lesenswert?

A. K. schrieb:
> Inwiefern?

Windows verliert ständig Marktanteile im Server Umfeld. Das zeigt, dass 
die Zeit vom Windows zumindest dort allmählich zu Ende geht.

von GPL-Nazi (Gast)


Lesenswert?

Stefan ⛄ F. schrieb:
> Angeblich konnte man in die Netra FT1800 eine Schraube werfen, ohne dass
> man den daraus resultierenden Defekt von außen bemerkte. Ich durfte das
> leider nicht ausprobieren.

Leider fing SUN irgendwann an wegen ECC-Fehlern Zicken zu machen, für 
das Geld was die bekommen haben hätte ich was anderes erwartet.

Aber egal, der Laden ist Geschichte!

von (prx) A. K. (prx)


Lesenswert?

Stefan ⛄ F. schrieb:
> Windows verliert ständig Marktanteile im Server Umfeld. Das zeigt, dass
> die Zeit vom Windows zumindest dort allmählich zu Ende geht.

Das heisst nicht, dass Windows prinzipiell ungeeignet sei, sondern das 
Linux (a) besser und (b) viel billiger ist. Bei Windows mit SQL-Server 
als Datenbank dahinter gibts beispielsweise lustige Lizenzfragen.

von (prx) A. K. (prx)


Lesenswert?

GPL-Nazi schrieb:
> Leider fing SUN irgendwann an wegen ECC-Fehlern Zicken zu machen

Das kann auch am Speicher selbst liegen. Wir hatten eine zweistellige 
Anzahl gleicher Dell-Server, deren Speichermodule nach ~5 Jahren reihum 
die Grätsche machten. Ersatz lief problemlos bis zur Ausmusterung.

: Bearbeitet durch User
von Nop (Gast)


Lesenswert?

Sheeva P. schrieb:

> Ja, natürlich. Ich war viele Jahre bei Sun Microsystems

Ich mochte die Suns an der Uni lieber als die HP-Apollos. Sag mal, wie 
hieß der Sun-Desktop, welcher nicht CDE/Motif war? Das war ein 
tendentiell blaues Theme mit grauen Elementen und etwas rundlicher als 
CDE. Zeitindex wäre so Mitte der 90er Jahre. Ich suche das als 
Retro-Theme für Linux-DEs, weiß aber nichtmal, wonach ich googeln muß.


Sheeva P. schrieb:

> Nun, wie dem auch sei, ich befürchtet, Deine Motivation ist die falsche.
> Du suchst einen Ersatz für Windows, aber den gibt es nicht.

Wobei Linux je nach Distri durchaus auch als Windows-Ersatz taugt, das 
sehe ich ja in meiner Familie. Das sind aber auch keine 
"Windows-Experten", sondern die wollen einfach nur die Anwendungen 
nutzen.

Der Browser ist da genauso ein Icon auf dem Desktop zum Doppelklicken 
wie unter Windows. Das Startmenü geht ähnlich, ist aber (bei Cinnamon) 
noch etwas besser organisiert. Updates machen sich mit nem Tray-Icon 
bemerkbar, wie unter Windows. Installation neuer Software ist deutlich 
anders, aber vom Smartphone her bekannt.

von Lotta  . (mercedes)


Lesenswert?

Hmmm.

Was Windows ist weiß ich.
Aber was ist eigendlich ein GPL-Nazi?


mfg

von warumNurImmer (Gast)


Lesenswert?

~Mercedes~  . schrieb:
> Aber was ist eigendlich ein GPL-Nazi?

Eine offensichtlich traurige und tief frustrierte Persönlichkeit...

von Zeno (Gast)


Lesenswert?

Sheeva P. schrieb:
> Zeno schrieb:
>> Allerdings ist bei Ubuntu, Mint und Konsorten das Sicherheitskonzept von
>> Linux durch sudo eh schon aufgeweicht. Mit den passenden Eintragungen in
>> der /ezc/sudoers ist das Ding offen wie ein Scheunentor.
>
> Doof, daß es diese Eintragungen nicht gibt. Sonst könnte unser
> Herbie-Held ja locker und flockig auf seinen Brenner zugreifen, ne?
>
> Xenu, tust Du mir einen Gefallen? Ja? Bitte red' doch mal ausnahmsweise
> über etwas, von dem Du auch was verstehst. Lieben Dank.

Du widersprichst Dir höchst persönlich

Sheeva P. schrieb:
> Man kann sudo auch so einstellen, daß bestimmte Benutzer gar keine
> Paßworteingabe brauchen, egal welches Kommando (und mit welchen
> Parametern) sie aufrufen.
>
> Dasselbe natürlich alles auch für Gruppen.
>
> sudo(8) ist ein sehr mächtiger Befehl .... usw.

Ich habe nichts anderes gesagt, einziger Unterschied Du schreibst wieder 
mal einen Roman zu einer Sache, die man mit 2 Sätzen abtun kann.

von Zeno (Gast)


Lesenswert?

Sheeva P. schrieb:
> Xenu, tust Du mir einen Gefallen? Ja? Bitte red' doch mal ausnahmsweise
> über etwas, von dem Du auch was verstehst. Lieben Dank.

Du hast mir hier gar nix vorzuschreiben. Laß Du mal lieber DFeine 
Oberlehrerhafte Art hier stecken.

von Zeno (Gast)


Lesenswert?

Nop schrieb:
> Ich mochte die Suns an der Uni lieber als die HP-Apollos. Sag mal, wie
> hieß der Sun-Desktop, welcher nicht CDE/Motif war? Das war ein
> tendentiell blaues Theme mit grauen Elementen und etwas rundlicher als
> CDE. Zeitindex wäre so Mitte der 90er Jahre. Ich suche das als
> Retro-Theme für Linux-DEs, weiß aber nichtmal, wonach ich googeln muß.

Meinst Du das "Java Desktop System" 
(https://de.wikipedia.org/wiki/Sun_Java_Desktop), das war bei Solaris10 
für Intel PC mit dabei. Ja das sieht schick aus, gefällt mir auch.

von Stefan ⛄ F. (stefanus)


Lesenswert?

A. K. schrieb:
> Das heisst nicht, dass Windows prinzipiell ungeeignet sei,

ja das stimmt wohl, ich habe übertrieben.

: Bearbeitet durch User
von Stefan ⛄ F. (stefanus)


Lesenswert?

Zeno schrieb:
> Meinst Du das "Java Desktop System"

Geil: "Die Idee hinter JDS war es, ein System für durchschnittliche 
Computeranwender zu erstellen"

Also ob sich jemand eine Sun Workstation ins Wohnzimmer stellen würde. 
Hochmut kommt vor dem Fall.

Auch Cool, dass sie es "Java Desktop" nannten, obwohl er mit Java fast 
nichts zu tun hatte. Hauptsache man trägt den Markennamen nochmal hoch, 
dann verkauft er sich vielleicht besser.

: Bearbeitet durch User
von Nop (Gast)


Lesenswert?

Zeno schrieb:

> Meinst Du das "Java Desktop System"

Nein, das paßt zeitlich nicht. JDS basiert auf Gnome 2, was erst 2002 
erschien. Außerdem gab's für Solaris 8 eine Preview noch mit Gnome 1.4, 
aber Solaris 8 war 2000.

Was ich meine, war noch früher, halt Mitte der 90er.

von Nop (Gast)


Lesenswert?

Stefan ⛄ F. schrieb:

> Also ob sich jemand eine Sun Workstation ins Wohnzimmer stellen würde.

In den 90ern waren Workstations als Arbeitsgeräte für nicht IT-ler 
durchaus relevant - beispielsweise SGIs unter Irix für CAD-Zwecke. Die 
wurden allerdings überrollt, weil auf x86 ein Kreislauf aus Spielen, 
beschleunigten Grafikkarten und anspruchsvolleren Spielen entstand. Da 
floß als Massenmarkt dermaßen Geld rein, daß dagegen kein Ankommen war.

von GPL-Nazi (Gast)


Lesenswert?

warumNurImmer schrieb:
> ~Mercedes~  . schrieb:
>> Aber was ist eigendlich ein GPL-Nazi?
>
> Eine offensichtlich traurige und tief frustrierte Persönlichkeit...

Nö, Windowsfrei und Spaß dabei.

von GPL-Nazi (Gast)


Lesenswert?

Nop schrieb:

> In den 90ern waren Workstations als Arbeitsgeräte für nicht IT-ler
> durchaus relevant - beispielsweise SGIs unter Irix für CAD-Zwecke. Die
> wurden allerdings überrollt, weil auf x86 ein Kreislauf aus Spielen,
> beschleunigten Grafikkarten und anspruchsvolleren Spielen entstand. Da
> floß als Massenmarkt dermaßen Geld rein, daß dagegen kein Ankommen war.

Rate mal wo Nvidia das Know-How für 3D hergenommen hat.

von Christobal M. (c_m_1)


Lesenswert?

Ich hab mal eine Frage an Leute die sich mit Windows auskennen.

Vorgeschichte: Mir ist wieder einmal ein USB Stick verreckt - 
"Markenware" (Intenso), wenig gebraucht, vielleicht 2 Jahre alt, 
trotzdem kaputt.
Ich hab mir nun neue Sticks bestellt, wieder "Markenware" (Samsung), und 
möchte testen wie weit und lange ich den Dingern wohl trauen kann.
Da man in Werbung und Tests immer nur die Übertragungsraten, aber nie 
TBW (wie bei SSD's) findet, dachte ich mir ich schreibe ein kleines 
Script das einen Stick andauernd beschreibt und dabei logt.
Die Idee ist 2 grosse Dateien abwechselnd auf den Stick zu schreiben, 
nach jedem schreiben den Dateisystemcache zu leeren um dann eine 
Checksumme von der geschriebenen Datei zu erzeugen - so lange bis ich 
keine Lust mehr habe, oder ein Schreibfehler auftritt.

Unter Linux, meinem präferierten System kein Problem. Aber, um auf meine 
Eingangsfrage zu kommen, wie würde man sowas unter Windows machen?
Ich hab ca um die Jartausendwende aufgehört Windows zu benutzen (ausser 
als Spieleplattform), und in der Zwischenzeit hat sich ja einiges getan 
- die Powershell zum Beispiel - wovon ich keine Ahnung habe.
1
#!/bin/bash
2
3
PATHtoSTICK="$1"
4
TESTFILESIZE=500M
5
LOGFILE=/root/usbstick-writetest.log
6
7
function cleanup {
8
    echo -e "\nlösche...\n"
9
    rm /tmp/testfile1 >/dev/null 2>&1
10
    rm /tmp/testfile2 >/dev/null 2>&1
11
}
12
trap cleanup SIGINT
13
stty -echoctl
14
15
shred  --size=${TESTFILESIZE} - >/tmp/testfile1
16
SHA_T1=$(sha1sum /tmp/testfile1 | awk '{print $1}')
17
shred  --size=${TESTFILESIZE} - >/tmp/testfile2
18
SHA_T2=$(sha1sum /tmp/testfile2 | awk '{print $1}')
19
20
echo "testfile1 -> ${SHA_T1}" | tee -a ${LOGFILE}
21
echo "testfile2 -> ${SHA_T2}" | tee -a ${LOGFILE}
22
23
while :
24
do
25
 wtime=$(/usr/bin/time -f %E cp /tmp/testfile1 ${PATHtoSTICK}/. 2>&1)
26
 for a in 1 2 3 ; do sync ; echo $a > /proc/sys/vm/drop_caches ; done
27
 SHA_T1_temp=$(sha1sum ${PATHtoSTICK}/testfile1 | awk '{print $1}')
28
 if [ "${SHA_T1}" != "${SHA_T1_temp}" ] 
29
 then
30
  echo "checksum fehler" >>${LOGFILE}
31
  exit 1
32
 fi
33
 echo -e "'$(date --iso-8601)','$(date +%T)','${wtime}','testfile1','${SHA_T1_temp}'" | tee -a ${LOGFILE}
34
 rm ${PATHtoSTICK}/testfile1
35
 
36
 wtime=$(/usr/bin/time -f %E cp /tmp/testfile2 ${PATHtoSTICK}/. 2>&1)
37
 for a in 1 2 3 ; do sync ; echo $a > /proc/sys/vm/drop_caches ; done
38
 SHA_T2_temp=$(sha1sum ${PATHtoSTICK}/testfile2 | awk '{print $1}')
39
 if [ "${SHA_T2}" != "${SHA_T2_temp}" ] 
40
 then
41
  echo "checksum fehler" >>${LOGFILE}
42
  exit 1
43
 fi
44
 echo -e "'$(date --iso-8601)','$(date +%T)','${wtime}','testfile2','${SHA_T2_temp}'" | tee -a ${LOGFILE}
45
 rm ${PATHtoSTICK}/testfile2
46
done

von Zeno (Gast)


Lesenswert?

Nop schrieb:
> Nein, das paßt zeitlich nicht. JDS basiert auf Gnome 2, was erst 2002
> erschien. Außerdem gab's für Solaris 8 eine Preview noch mit Gnome 1.4,
> aber Solaris 8 war 2000.
>
> Was ich meine, war noch früher, halt Mitte der 90er.

Da gäbe es noch OpenLook (https://en.wikipedia.org/wiki/OPEN_LOOK)

von Stefan ⛄ F. (stefanus)


Lesenswert?

Christobal M. schrieb:
> Ich hab mir nun neue Sticks bestellt, wieder "Markenware" (Samsung), und
> möchte testen wie weit und lange ich den Dingern wohl trauen kann.

Dazu müsstest du sie mit zahlreichen Steckzyklen und Stromstößen 
stressen, bis sie kaputt gehen. Und das dann ganz oft machen, um eine 
Ausfallquote zu ermitteln. Du kannst den Sticks von außen nicht ansehen, 
wie robust sie sind.

> dachte ich mir ich schreibe ein kleines
> Script das einen Stick andauernd beschreibt und dabei logt.

Damit testest du nur den Speicherchip - übrigens auch zerstörend. 
Meistens geht aber der Controller zwischen dem Speicher und dem Stecker 
kaputt.

von (prx) A. K. (prx)


Lesenswert?

Christobal M. schrieb:
> "Markenware" (Intenso)

contradictio in adiecto

von Toby P. (Gast)


Lesenswert?

Christobal M. schrieb:
> Aber, um auf meine
> Eingangsfrage zu kommen, wie würde man sowas unter Windows machen?

Würde ich eines der vielen USB Testprogramme (c't-test fällt mir ad hoc 
ein) nehmen und startest über einen loop batch starten.

Wie bereits geschrieben nützt das aber eher wenig. Wenn dir öfter mal 
USB Sticks abrauchen liegt das wohl eher an Hardware Problemen die du 
mit Software nicht raustesten kannst. Das ist übrigens OS-independend 
;-).

von Cyblord -. (cyblord)


Lesenswert?

Mit SW-Tests findest du nur Fake-Sticks raus. Die also falsche 
Größenangaben machen.

USB-Sticks sind einfach kein Medium dem man groß vertrauen sollte. Die 
sind für den Datentransfer gedacht und dafür können sie genutzt werden.
Nicht das längere Aufbewahren wichtiger Daten.

von Yalu X. (yalu) (Moderator)


Lesenswert?

Stefan ⛄ F. schrieb:
> Geil: "Die Idee hinter JDS war es, ein System für durchschnittliche
> Computeranwender zu erstellen"
>
> Also ob sich jemand eine Sun Workstation ins Wohnzimmer stellen würde.
> Hochmut kommt vor dem Fall.

"Durchschnittliche" Computeranwender findet man ja nicht nur in
Wohnzimmern, sondern bspw. auch in Sekretariaten, Verwaltungsbüros usw.

Ich hatte mal bei einer französischen Firma zu tun, da standen in den
meisten Büros Suns herum, nicht nur in den technischen Abteilungen. Und
am Empfang wurden zwei Suns für die Registrierung von Besuchern
eingesetzt.

Generell ist man in Frankreich nicht ganz so sehr dem Windows-Wahn
verfallen wie in Deutschland. Insbesondere Apple Macs haben dort einen
vergleichsweise hohen Marktanteil. Wenn ein Franzose von einem "PC"
(ohne Zusatz wie "Windows-", "compatible" o.ä.) spricht, meint er damit
ganz allgemein einen "Personal Computer", was durchaus auch ein Mac sein
kann.

von (prx) A. K. (prx)


Lesenswert?

In den 90ern stand eine zweistellige Anzahl IBM RS/6000 Clients mit IBMs 
Unix AIX im Unternehmen. Die Anwender waren von einer Berufsgruppe, die 
man weder damals noch heute auf dem Bürostuhl vor einem 
Computerbildschirm sucht.

: Bearbeitet durch User
von herbert (Gast)


Lesenswert?

@ Sheeva P

Du solltest nicht so lange mit alten Infos arbeiten sonder gelegentlich 
ein Update  durchführen. Bei so vielen Beiträgen ist das allerdings 
Arbeit.

Ich habe zueltzt geschrieben, dass K3b mitlerweile das tut was es 
soll,es dubliziert meine Musik CD- auf eine CD-R im Clon-Modus.
Ich habe aktuell 3 Abspiel Geräte wo von ich nur zwei aktuell benutzen 
kann weil eines unter meinem Bett verpackt ist. Dieser von K3b erstellte 
Clon kann in meiner Steroanlage nicht gelesen werden , aber von einem 
portablen Gerät (Diskman ).

Unter derselben Hardware und Windows xp ikl. xp bourner free geclonte 
gleiche Musik CD kann ich in beiden Playern abspielen. Die Roglinge sind 
gleich.
Ergo muss unter k3b etwas anders ablaufen beim Clonen. Das einzige Setup 
unter k3b ist das vorgeben der Brenngeschwindigkeit. Sonst ändere ich 
nichts.
Meine Info ist, dass älter Laufwerke keine Ordnerstruktur lesen 
können.Da der Discman neuer ist wird er das können ,das ist bei Mp3 
Dateien ja üblich, wenn man keinen Wert auf guten Klang legt.
Ich hab jetzt einige Tests gemacht aber die Scheiben von k3b laufen nur 
im Discman. Ich werde jetzt noch schauen ob ich noch andere Hardware 
ausprobieren kann um meine Erkenntnisse zu festigen.Probleme mit 
Kopierschutz hatte ich eigentlich noch nie. Bei mir unter Win wurde 
immer alles gebrannt.

von W.S. (Gast)


Lesenswert?

Sheeva P. schrieb:
> Man kann sudo auch so einstellen, daß...

Merkst du eigentlich, daß du dich bereits ellenlang über die 
Befindlichkeiten von Administratoren ausläßt? Das ist genau DAS Zeugs, 
an dem ein PC-Benutzer aktiv desinteressiert ist. Der will, daß die 
Kiste das tut was er von ihr haben will - ohne all die fein granulierte 
Einstellbarkeit von sudo und Konsorten.

W.S.

von W.S. (Gast)


Lesenswert?

Sheeva P. schrieb:
> Wenn ich mich recht entsinne, haben sich die Apfelleute doch vor einigen
> Jahren noch mit (IIRC) dem FBI angelegt, weil sie nicht verraten
> wollten, wie man die Äpfelchen knackt.

Und? Das ändert nichts daran, daß Apple es kann - mit oder ohne FBI, NSA 
und Konsorten. Bewiesen haben sie es ja bereits einmal.


>> Und den Leuten ist das erstaunlicherweise absolut schnurz. Auch den
>> Linuxern, die ein Smartphone haben.
>
> Was, wenn ich nicht "die Leute" bin?

Das ist genauso schnurz.

W.S.

von Egon D. (egon_d)


Lesenswert?

Sheeva P. schrieb:

> Egon D. schrieb:
> [...]
>> Man kann halt keine "Rechteprofile" erstellen, sondern
>> muss jedem User jede Geräteklasse einzeln erlauben
>> oder verbieten.
>
> Aber ja doch, [...] Diese "Rechteprofile" werden
> unter UNIX üblicherweise als "Gruppen" bezeichnet. :-)

Nee. Ich weiss nicht, ob es theoretisch auch anders
ginge -- aber ich kenne das nur so, dass jede Gruppe
für genau EIN Recht steht.

Das Rechte- PROFIL eines einzelnen Nutzers ergibt
sich daraus, in welchen Gruppen er Mitglied ist --
das wird aber für jeden Nutzer immer wieder neu
völlig wahlfrei festgelegt.

Anders wäre es, wenn man "Gruppen von Gruppen"
bilden könnte -- aber genau das geht mit den
Standard-Unix-Rechten nicht.

von Jack V. (jackv)


Lesenswert?

S. R. schrieb:
> Packen hat den Vorteil, dass man nicht mit hunderttausenden Dateien
> hantieren muss, unabhängig von der Kompression.
>
> Viele Dateien sind schlicht unhandlich: Dateimanager mögen keine 20k
> Dateien in einem Ordner, das I/O-System wird strapaziert und die
> Performance auch bei SSDs leidet, und Netzwerkprotokolle verlieren auch
> deutlich an Effizienz.

Das ist in der Theorie durchaus richtig, in der Praxis einer üblichen 
Desktopkiste aber zu vernachlässigen – ich habe es verglichen. 
Außerdem wäre das nur genau beim ersten Backuplauf von Bedeutung. Schon 
beim Zweiten dauert’s nämlich erheblich länger, und erzeugt erheblich 
mehr Last, einen neuen Tarball zusammenzuschnüren, als die Handvoll 
Dateien zu übertragen, die sich seit dem letzten Backuplauf geändert 
haben.

von W.S. (Gast)


Lesenswert?

Stefan ⛄ F. schrieb:
> Auf dem Schreibtisch ja. Windows passt dazu.
>
> Mittlerweile werden PC aber auch als Server eingesetzt, und da sind 10
> bis 1000 gleichzeitige User der Regelfall. Windows passt nicht dazu.

Ja. Hier wird allerdings die ganze Zeit über den Einsatz auf dem PC 
geredet (wo nur der eine Stuhl davor steht) und nicht über den Einsatz 
als Server. Am Server gibt es heutzutage keine User, die sitzen irgendwo 
an ihrem PC an einer anderen Strippe des Netzwerks und der Server 
"servt" dazu bloß.

W.S.

von Egon D. (egon_d)


Lesenswert?

W.S. schrieb:

> auf dem PC geredet (wo nur der eine Stuhl davor
> steht)

Unter "PC" wird im deutschen Sprachraum üblicherweise
ein "IBM-kompatibler Computer" verstanden und nicht
ein "persönlicher Computer beliebigen Fabrikats".

Es hilft nichts, wenn Du den Begriff zum persönlichen
Gebrauch umdeutest.

Ich muss auch mit "Kontrollstrukturen" und "Festplatten-
kontrolle" leben -- wobei ich bei letzterer merkwürdige
Bilder vor meinem geistigen Auge haben: "HALT! Fest-
plattenkontrolle! Bitte nennen sie Login und Passwort
und nehmen sie die Hände von der Tastatur!"

von W.S. (Gast)


Lesenswert?

Christobal M. schrieb:
> Die Idee ist 2 grosse Dateien abwechselnd auf den Stick zu schreiben,
> nach jedem schreiben den Dateisystemcache zu leeren um dann eine
> Checksumme von der geschriebenen Datei zu erzeugen - so lange bis ich
> keine Lust mehr habe, oder ein Schreibfehler auftritt.

Halte ich für eine miserable Idee. Solange das Wear-Leveling im Stick 
noch funktioniert, wird er dir keine Schreibfehler melden, sondern 
allmählich nur langsamer werden.

Und das Schreiben einiger großer Dateien ist auch nicht das Problem 
dabei, sondern das Aktualisieren des Dateisystems. Sticks laufen 
normalerweise bei Windows als "surprise removal" oder so ähnlich und das 
heißt, Windows läßt ohnehin keine Reste in irgend einem Cache stehen, 
sondern schreibt sie (vermutlich nach ein paar Millisekunden) immer 
wieder zurück - eben um nicht durch ein unerwartetes Entfernen des 
Sticks überrascht zu werden. Wenn du da was testen willst, dann benenne 
deine Datei einfach alle 100 ms um. Das reicht, um den Stick zu 
ruinieren.

Aber WOZU das ganze?
Speichersticks enthalten heutzutage üblicherweise nur noch MLC Speicher 
und der altert eben ziemlich schnell, auch wenn der Stick nur in der 
Schublade liegt. Das kann dir mit Noname genauso passieren wie mit 
Markensticks.

Nochwas: Die wearleveling-Routinen in Sticks und SD-Karten sind m.W. 
einigermaßen an das auf dem Medium bei Auslieferung vorhandene 
Dateisystem angepaßt. Wenn man die umformatiert, dann läuft man gefahr, 
daß das wear-leveling anschließend schlechter funktioniert und das Ding 
eben früher ausfällt.

W.S.

von ACDC (Gast)


Lesenswert?

Christobal M. schrieb:
> Die Idee ist 2 grosse Dateien abwechselnd auf den Stick zu schreiben,
....
> Unter Linux, meinem präferierten System kein Problem.
...
> Aber, um auf meine
> Eingangsfrage zu kommen, wie würde man sowas unter Windows machen?

Gar Nicht.

Man legt alles auf dem Netzlaufwerk ab und gut ist.

Um den Rest (BackUps, Time Maschine...) kümmert sich der die IT.

von Stefan ⛄ F. (stefanus)


Lesenswert?

W.S. schrieb:
> Windows läßt ohnehin keine Reste in irgend einem Cache stehen,
> sondern schreibt sie (vermutlich nach ein paar Millisekunden) immer
> wieder zurück

Windows wartet (mit den Default Settings) sogar nach jeder einzelnen 
Datei ab, bis sie auf den Stick übertragen ist. Erst danach wird die 
nächste Datei übertragen. Deswegen läuft das unter Windows so 
schnarch-langsam ab. Dafür aber deppensicher.

von Werner P. (werner4096)


Lesenswert?

W.S. schrieb:
>> Mittlerweile werden PC aber auch als Server eingesetzt, und da sind 10
>> bis 1000 gleichzeitige User der Regelfall. Windows passt nicht dazu.

Ja klar. Und man verwendet einen Windows PC als Server für bis zu 1000 
User.

man oh man!

von (prx) A. K. (prx)


Lesenswert?

Werner P. schrieb:
> Und man verwendet einen Windows PC als Server für bis zu 1000
> User.

Einen normalen Anwender-PC sollte man nicht als Server für 1000 User 
verwenden, egal welches Betriebssystem drauf läuft.

Für x86 Server sind 1000 User weder unter Linux noch unter Windows ein 
Problem. Er sollte natürlich für die zu erwartende Last ausgelegt sein. 
Aber die Anzahl User selbst stellt keine erhebliche Last dar.

: Bearbeitet durch User
von Nop (Gast)


Lesenswert?

Zeno schrieb:

> Da gäbe es noch OpenLook (https://en.wikipedia.org/wiki/OPEN_LOOK)

Jaaa das isses! Da werden Erinnerungen wach! Danke! :-)

von Werner P. (werner4096)


Lesenswert?

A. K. schrieb:
> Werner P. schrieb:
>> Und man verwendet einen Windows PC als Server für bis zu 1000
>> User.
>
> Einen normalen Anwender-PC sollte man nicht als Server für 1000 User
> verwenden, egal welches Betriebssystem drauf läuft.
>
> Für x86 Server sind 1000 User weder unter Linux noch unter Windows ein
> Problem. Er sollte natürlich für die zu erwartende Last ausgelegt sein.
> Aber die Anzahl User selbst stellt keine wesentliche Last dar.

Du hast das "Ja klar." vergessen zu zitieren ;-)

von Stefan ⛄ F. (stefanus)


Lesenswert?

A. K. schrieb:
> Einen normalen Anwender-PC sollte man nicht als Server für 1000 User
> verwenden

Der Spielecomputer von meinem Sohn packt das locker.

von c.m. (Gast)


Lesenswert?

Stefan ⛄ F. schrieb:
> W.S. schrieb:
>> Windows läßt ohnehin keine Reste in irgend einem Cache stehen,
>> sondern schreibt sie (vermutlich nach ein paar Millisekunden) immer
>> wieder zurück
>
> Windows wartet (mit den Default Settings) sogar nach jeder einzelnen
> Datei ab, bis sie auf den Stick übertragen ist. Erst danach wird die
> nächste Datei übertragen. Deswegen läuft das unter Windows so
> schnarch-langsam ab. Dafür aber deppensicher.

Keine Ahnung wie das unter Windows funktioniert, aber unter Linux sind 
auch fertig geschriebene Daten noch im Cache - so kann man sie schneller 
lesen.
Da ich aber sicher sein will keine Cache Daten zu checksummen, sage ich 
dem Kernel das er die Caches leeren soll, so das ich auf jeden Fall die 
Datei vom Datenträger lesen muss.

1
root@node01:/media/DATEN/temp# time dd if=/dev/zero of=testfile bs=1G count=4 ; time sync
2
4+0 Datensätze ein
3
4+0 Datensätze aus
4
4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 2,59281 s, 1,7 GB/s
5
6
real  0m2,616s
7
user  0m0,000s
8
sys  0m2,613s
9
10
real  0m30,421s
11
user  0m0,000s
12
sys  0m0,066s
13
root@node01:/media/DATEN/temp# time dd of=/dev/null if=testfile bs=1G count=4 
14
4+0 Datensätze ein
15
4+0 Datensätze aus
16
4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 0,83928 s, 5,1 GB/s
17
18
real  0m0,863s
19
user  0m0,000s
20
sys  0m0,861s
21
root@node01:/media/DATEN/temp# time dd of=/dev/null if=testfile bs=1G count=4 
22
4+0 Datensätze ein
23
4+0 Datensätze aus
24
4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 0,897042 s, 4,8 GB/s
25
26
real  0m0,920s
27
user  0m0,000s
28
sys  0m0,919s
29
root@node01:/media/DATEN/temp# for a in 1 2 3 ; do sync ; echo $a > /proc/sys/vm/drop_caches ; done
30
root@node01:/media/DATEN/temp# time dd of=/dev/null if=testfile bs=1G count=4 
31
4+0 Datensätze ein
32
4+0 Datensätze aus
33
4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 29,8891 s, 144 MB/s
34
35
real  0m29,965s
36
user  0m0,000s
37
sys  0m2,195s
38
root@node01:/media/camikusch/DATEN/temp# time dd of=/dev/null if=testfile bs=1G count=4 
39
4+0 Datensätze ein
40
4+0 Datensätze aus
41
4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 0,985637 s, 4,4 GB/s
42
43
real  0m1,030s
44
user  0m0,000s
45
sys  0m1,027s

W.S. schrieb:
> Nochwas: Die wearleveling-Routinen in Sticks und SD-Karten sind m.W.
> einigermaßen an das auf dem Medium bei Auslieferung vorhandene
> Dateisystem angepaßt. Wenn man die umformatiert, dann läuft man gefahr,
> daß das wear-leveling anschließend schlechter funktioniert und das Ding
> eben früher ausfällt.

Welches Wear Leveling? Selbst ein USB Stick Hersteller wie Samsung gibt 
bei seinen Sticks kein min TBW an, so wie es bei SSD's üblich ist.
Oder ich bin zu doof die Specs auf Samsungs Seite zu lesen:
https://www.samsung.com/de/memory-storage/usb-3-1-flash-drive-bar-silver-2020/MUF-64BE3APC/

Ich hab mir zu den normalen USB Sticks auch noch USB3.1/PCIe Gehäuse und 
passende PCIe SSD's gekauft - um etwas dickere aber zuverlässigere "USB 
Sticks" zu bauen.
Bei diesen Flash Speichern ist in den Specs die Mindesthaltbarkeit in 
TBW angegeben (1,2EB beim 2TB Modell), siehe:
https://www.samsung.com/de/memory-storage/970-evo-plus-nvme-m2-ssd/MZ-V7S2T0BW/

Ich schreib grad einen 4GB Stick den ich schon seit Jahren habe (Sandisk 
Ultra Cruzer Titanium) mit dem Script voll. Mal sehen wie lange der 
durchhält, und wie sich dann die neuen Samsung Sticks schlagen.

Aber ich habe auf meine Frage eigentlich noch keine Antwort bekommen: 
Wie würde man sowas unter Windows machen?
Der Sinn oder behauptete Unsinn war gar nicht das Thema.

Dieser Beitrag kann nur von angemeldeten Benutzern beantwortet werden. Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail, Yahoo oder Facebook? Keine Anmeldung erforderlich!
Mit Google-Account einloggen | Mit Facebook-Account einloggen
Noch kein Account? Hier anmelden.