Nop schrieb: > Übrigens zum Thema WSL - es gibt nichts, was Microsoft dank seiner > kaputtgesparten QA nicht mit Updates ruinieren kann: > > https://www.borncity.com/blog/2020/09/10/windows-10-version-2004-update-kb4571756-macht-wsl-2-kaputt/ Fast interessanter find ich das Bild seines Bücherregals. ~40 Titel zu idH. windows 7/8 u. 10, budget knowhow von M&T Irgendwo müßte hier bei mir auch noch ~2m Microsoft Press Literatur technische Referenz 3/95/NT/Backoffice/SBS4.5/... programming excel/access/ 95..2000 etc. lagern übern Daumen locker 2-3000DM; dann endete das schlagartig, man oh man ;) --- Aber das war ja garnicht die Frage :)
Uwe D. schrieb: > Deine Beiträge sind einfach nur beleidigend. Und es bringt mich keinen > Millimeter weiter im Sinne des Threads. Ach herrje - schau dir doch bloß mal an, WAS hier in diesem Thread schon alles den jeweils anderen an die Köpfe geworfen wurde! Ich habe mit Pappnasen ganz bewußt eines der harmlosesten Wörter aus meinem Repertoire benutzt. Ich kann noch ganz anders - und eigentlich wäre das auch das Angemessene für diesen völlig ausgeuferten Thread. Und wohin soll bei dir die Reise 'im Sinne der Threads' gehen? Dieser Thread fußt auf einer Frage. Da gibt es keinen erklärten Sinn des Threads, lediglich Antworten, die im wesentlichen den Linuxern nicht gefallen haben. Und darum haben selbige auf jede nur erdenkliche Art versucht, die Antworten als irrelevant abzutun, dagegenzusprechen, kurzum die Antworten einfach nicht wahrnehmen WOLLEN. OK, es gibt auch die Möglichkeit, daß sie die Antworten einfach nicht wahrnehmen KÖNNEN. Sowas kommt von völlig unterschiedlichen beruflichen Arbeitsfeldern. Kleines Beispiel aus der Historie: COBOL versus FORTRAN. Hier hab ich so unsäglich oft lesen müssen 'Linux ist nichts für dich, bleib bei Windows' im Sinne von 'du bist ja nur zu strunzdoof und Windows ist für Strunzdoofe'. Das ist der Versuch, sich als Linuxer etwas elitärer zu fühlen als der Rest der Welt. Klar, kann man machen (und es gibt erschreckend viele, die das für ihr Ego brauchen), einem jeden ist sein Elfenbeinturm gegönnt (so er ihn haben will)... ... aber was an all dem suchst du, das dich zu irgend etwas weiterbringen soll? Wartest du darauf, daß dir endlich jemand eine Antwort auf die Frage des TO liefert, die dir gefällt? Wenn du schon in diesem Thread weitergebracht sein willst, dann schreib etwas mehr und erkläre dich etwas gründlicher. W.S.
W.S. schrieb: > 'Linux ist nichts für dich, > bleib bei Windows' im Sinne von 'du bist ja nur zu strunzdoof und > Windows ist für Strunzdoofe'. Nachdem ich damit wohl gemeint sein soll: interessante Unterstellung, jedoch leider nicht zutreffend. Wenn ich schreibe: „Linux ist nichts für dich“, dann meine ich „Linux ist nichts für dich“. Wenn ich hingegen meinen würde: „Du bist doof“, dann schriebe ich: „Du bist doof“. Ich bitte daher, die haltlosen Unterstellungen mal gepflegt steckenzulassen, danke. Ist genau der gleiche Stuss, wie die wiederholte Unterstellung, ich würde behaupten, Linux wäre per se besser als Windows, oder das Windows Schrott wäre – die Pappnasen, die das hier zu glauben scheinen, interpretieren und phantasieren offensichtlich mehr, als sie tatsächlich lesen.
W.S. schrieb: > Ich habe mit Pappnasen ganz bewußt eines der > harmlosesten Wörter aus meinem Repertoire > benutzt. Ich kann noch ganz anders [...] Das zieht niemand in Zweifel. Es stellt sich aber die Frage nach dem Sinn. Merke: "Toleranz ist der Verdacht, der andere könnte Recht haben." In diesem Sinne: Sei tolerant -- es könnte Deine Rettung sein. > Da gibt es keinen erklärten Sinn des Threads, > lediglich Antworten, Richtig. > die im wesentlichen den Linuxern nicht gefallen > haben. Und darum haben selbige auf jede nur > erdenkliche Art versucht, die Antworten als > irrelevant abzutun, Auch richtig. Ich nehme mir beispielsweise die unglaubliche Arroganz und Überheblichkeit heraus, von einer Erklärung zu erwarten, dass sie tatsächlich etwas erklärt -- also "klarer macht". Dazu gehört -- weiterer Affront -- das Respektieren der Kausalität: Die Wirkung kann nicht vor der Ursache eintreten. Wenn ich also -- wie einige hundert Beiträge weiter oben vorgeführt -- die Geburtsdaten von William Gates und Linus Thorvalds sowie die Veröffentlichungsdaten von MS-DOS, MS Windows 1.0 und Linux 0.01 hernehme und darüber auch nur fünf Minuten nachdenke, dann ist die gestellte Frage für mich beantwortet: Neben anderen Faktoren hatte Linux zu dem Zeitpunkt, als es weiteren Kreisen bekanntwurde, einen Rückstand von ca. 10 Jahren gegenüber den Microsoft-Produkten. Das ist praktisch nicht mehr aufzuholen -- gerade in einem derart dynamischen Markt wie dem der Computertechnik. Die viel interessantere Anschlussfrage, wo Richard Stallman eigentlich mit seinem Kernel geblieben ist, OBWOHL er fast zeitgleich mit Gates gestartet ist, wurde überhaupt nicht gestellt. :) Und nebenbei bemerkt: Ich war Mitte der Neunziger auch noch fest davon überzeugt, dass theoretisch die Möglichkeit besteht, Linux könne in den nächsten Jahren eine wesentliche Rolle auf dem Desktop spielen -- erst aus der Rückschau wird mir sonnenklar, dass das schon damals eine Illusion war. Ich wusste es nur nicht... > dagegenzusprechen, kurzum die Antworten einfach nicht > wahrnehmen WOLLEN. > > OK, es gibt auch die Möglichkeit, daß sie die Antworten > einfach nicht wahrnehmen KÖNNEN. Das stimmt beides nicht, und das könntest Du vermutlich auch erkennen, wenn Du nicht so blind vor Eifer wärst. > Hier hab ich so unsäglich oft lesen müssen 'Linux ist > nichts für dich, bleib bei Windows' Richtig. > im Sinne von 'du bist ja nur zu strunzdoof und Windows > ist für Strunzdoofe'. Stopp: Es KANN wohl sein, dass dieser Sinn gemeint ist, aber das ist NICHT IMMER UND NICHT ZWANGSLÄUFIG der Fall. > Das ist der Versuch, sich als Linuxer etwas elitärer > zu fühlen als der Rest der Welt. Nein, nicht notwendig. Ein wesentliches Motiv, bei Linux zu bleiben, ist bei mir tatsächlich ein gewisses Interesse an der Computertechnik. Dies damit gleichzusetzen, dass ich ja "nur ewig frickeln und nie produktiv arbeiten" will, ist aber auch eine Diffamierung -- die nebenbei auch nicht der Wahrheit entspricht. Ich möchte ein zuverlässig arbeitendes System haben, UND ich möchte ungefähr wissen, was im System passiert und mir selbst helfen können, wenn es klemmt. Es gibt aber Menschen, die NICHT dieses Interesse an der Computertechnik haben -- und denen muss man Stand heute sagen: Wenn Du niemanden kennst, der Dir bei Problemen helfen kann, dann ist Linux nichts für Dich. Das hat überhaupt nichts mit "elitär fühlen" zu tun, das ist einfach der Status quo. > ... aber was an all dem suchst du, das dich zu irgend > etwas weiterbringen soll? Wartest du darauf, daß dir > endlich jemand eine Antwort auf die Frage des TO > liefert, die dir gefällt? > > Wenn du schon in diesem Thread weitergebracht sein > willst, dann schreib etwas mehr und erkläre dich > etwas gründlicher. Also... ich war zwar nicht gefragt, aber ich HABE eine für mich plausible Antwort, und der Thread HAT mich weitergebracht. Ja.
W.S. schrieb: > Das ist der Versuch, sich als Linuxer > etwas elitärer zu fühlen als der Rest der Welt. Das ist in erster Linie der Versuch, den Leuten näherzubringen, dass es sich um unterschiedliche Systeme handelt. Mit einem unterschiedlichen Konzept, einer unterschiedlichen Philosophie, und daraus folgend unterschiedlichen Eigenschaften und unterschiedlicher Bedienung. Es ist der Versuch, den Leuten zu erklären, dass sie mit ihren dreißig Jahren Windowserfahrung trotzdem Anfänger unter Linux sind, und auftretende Probleme mit höchster Wahrscheinlichkeit darauf zurückzuführen sind. Und es ist der Versuch, ihnen beizubringen, dass, wenn sie nicht willens oder in der Lage sind, sich mit dem Neuen zu beschäftigen, sie doch lieber bei dem bleiben sollten, womit sie sich auskennen – weil ansonsten nunmal nur Frust und Ärger vorprogrammiert sind. Wie man daraus lesen kann, dass es irgendwas mit „elitär“ zu tun haben soll, erschließt sich mir nicht. Projektion?
:
Bearbeitet durch User
W.S. schrieb: > Hier hab ich so unsäglich oft lesen müssen 'Linux ist nichts für dich, > bleib bei Windows' im Sinne von 'du bist ja nur zu strunzdoof und > Windows ist für Strunzdoofe'. Das ist der Versuch, sich als Linuxer > etwas elitärer zu fühlen als der Rest der Welt. Klar, kann man machen > (und es gibt erschreckend viele, die das für ihr Ego brauchen), einem > jeden ist sein Elfenbeinturm gegönnt (so er ihn haben will)... Gut analyliert, ist unterm Strich auch meine Sicht der Dinge. Ich hab auch mal einen Link eingefügt der einiges treffend erklärt siehe :https://karrierebibel.de/confirmation-bias/ Die leben halt in ihrer eigenen kleinen Welt und denken ,es gibt sonst nichts mehr. Wenn dann einer daher kommt und meint ihre "kleine Welt hat Macken, dann wird man für Strunzdoof erklärt, weil sie alles was ihnen gegen den Strich geht mit Beleidigungen und Ablehnung beantworten. Dabei ist Linux doch nicht der Nabel der Welt,vieles geht vieles aber auch nicht weil Programmiere vom normalen denken soweit weg sind und nur ein kleines Fester zum Hof haben wo sich das reale Leben abspielt. Das "Bleib bei Windows" als sicheres Empfehlung wenn man behauptet es geht etwas nicht , ist doch an Armut kaum mehr zu toppen. Vermutlich reagieren sie nur deshalb so empfindlich weil Linux das einzige ist wofür sie so etwas wie Gefühle aufgebaut haben.Verteidigen um jeden Preis. Die Glucke macht das auch nicht anders...
herbert schrieb: > Ich hab auch mal einen Link eingefügt der einiges treffend erklärt > siehe :https://karrierebibel.de/confirmation-bias/ … leider hast du’s entweder nicht selbst gelesen, oder es nicht verstanden. Denn die Theorie des Confirmation Bias erklärt auch ganz wunderbar deine Wahrnehmung: „Die Linuxer sind alle doof und überhaupt halten sie sich für die Spitze der Evolution. Und mit allem, was sie sagen, wollen sie doch nur ihr System verteidigen“ – und fortan findest du in jedem Beitrag „Belege“ dafür. Du bist uns übrigens immer noch den Link auf den Beitrag schuldig, in dem jemand behauptet, dass Linux objektiv besser als Windows wäre. Ich bestehe deshalb darauf, weil das ein wunderbares Beispiel für Obenstehendes ist: keiner hat das nämlich hier geschrieben. Du hast das Geschriebene aufgrund deiner Erwartungshaltung nur so interpretiert.
:
Bearbeitet durch User
Jack V. schrieb: > Es ist > der Versuch, den Leuten zu erklären, dass sie mit ihren dreißig Jahren > Windowserfahrung trotzdem Anfänger unter Linux sind, und auftretende > Probleme mit höchster Wahrscheinlichkeit darauf zurückzuführen sind. Nein ,es ist der Versuch den Leuten vorzuwerfen was man alles selber verbockt haben und dass man selber Schuld ist dass es nicht geht. Wahrscheinlich hast du , mit Sicherheit hast du, wahrscheinlich hast du irgendwo gedreht,wahrscheinlich bist du aber auch nur ein Troll der uns Linixer ärgern will... und und und. Verfolungswahn herrscht da vor Leute ,da wird jede Fehlerbeschreibung erstmal in Quarantäne geschickt. Locker ist das nicht eher ziemlich verkrampft.
Jack V. schrieb: > Wie man daraus lesen kann, dass es irgendwas mit > „elitär“ zu tun haben soll, erschließt sich mir > nicht. Naja, ein "Körnchen" Wahrheit liegt schon in seiner Kritik. Wer hat nicht schon Antworten der Bauart: "Wenn Du Blödmann nicht siehst, dass es 'cat $/)"/) <<awk ?)=8)7 > sed -opqweur << /dev/null' heißen muss, dann ist Linux nix für Dich Depp!" gelesen?
Jack V. schrieb: > herbert schrieb: >> Ich hab auch mal einen Link eingefügt der einiges >> treffend erklärt >> siehe :https://karrierebibel.de/confirmation-bias/ > > … leider hast du’s entweder nicht selbst gelesen, > oder es nicht verstanden. Denn die Theorie des > Confirmation Bias erklärt auch ganz wunderbar > deine Wahrnehmung: Das ist ja die Ironie dabei.
herbert schrieb: > Nein ,es ist der Versuch den Leuten vorzuwerfen was man alles selber > verbockt haben und dass man selber Schuld ist dass es nicht geht. Und? War’s nicht so? Hast du nicht selbst den neuen User angelegt und mangels Erfahrung mit dem System übersehen, dass der noch in die richtige Gruppe gesteckt werden müsste? Hast du daraufhin nicht geschimpft, wie ein Rohrspatz, wie doof dieses Linux doch wäre, weil es nicht wie Windows funktionieren würde?
Jack V. schrieb: > … leider hast du’s entweder nicht selbst gelesen, oder es nicht > verstanden. Denn die Theorie des Confirmation Bias erklärt auch ganz > wunderbar deine Wahrnehmung: „Die Linuxer sind alle doof und überhaupt > halten sie sich für die Spitze der Evolution. Und mit allem, was sie > sagen, wollen sie doch nur ihr System verteidigen“ – und fortan findest > du in jedem Beitrag „Belege“ dafür. Ich würde mir nach meinen Erfahrungen hier mit lediglich 4 oder 5 Linuxer hier im Thread niemals anmaßen ein schlechtes Urteil über alle Linuxer zu fällen. Ihr fünf seid doch nicht repräsentativ für alle .Gott sei Dank nicht.Da gibt es sicher bessere als ihr.
Egon D. schrieb: > Naja, ein "Körnchen" Wahrheit liegt schon in seiner > Kritik. Wer hat nicht schon Antworten der Bauart: > > "Wenn Du Blödmann nicht siehst, dass es > 'cat $/)"/) <<awk ?)=8)7 > sed -opqweur << /dev/null' > heißen muss, dann ist Linux nix für Dich Depp!" > > gelesen? Mag sein. Allerdings gebe ich mir große Mühe, eben genau sowas nicht zu machen. Umso mehr nagt es mich ein wenig an, dass mir sowas unterstellt wird. Wenn die Leute mehr zusammendichten, als tatsächlich lesen, und mir auf der Grundlage dann so Sachen unterstellen – darf ich dann nicht auch mal ein wenig sauer werden und das auch zeigen?
:
Bearbeitet durch User
herbert schrieb: > Da gibt es sicher bessere als ihr. … „als euch“. Und ja, mag’s geben. Die würden sich aber diese Schlammschlacht nicht antun, sondern sich mit einem wohlbedachten „Scheiß drauf“ wieder ihren Sachen zuwenden. Sollte unsereins dann vielleicht auch machen – um besser zu werden. Aber einmal darf ich noch, oder? Ich mach einfach mal: „herbert! Linux ist nichts für dich! Deine dreißig Jahre Windows und deine vollkommene Unfähigkeit, sich auf was anderes einzulassen, werden immer wieder dafür sorgen, dass du unter Linux (oder irgendeinem anderen System außer Windows) gegen Wände läufst!“ So, besser – bye, herbert o/ (den Beleg für deine Behauptung, siehe oben, braucht man wohl nicht mehr erwarten, oder?)
:
Bearbeitet durch User
Jack V. schrieb: > Und? War’s nicht so? Hast du nicht selbst den neuen User angelegt und > mangels Erfahrung mit dem System übersehen, dass der noch in die > richtige Gruppe gesteckt werden müsste? Hast du daraufhin nicht > geschimpft, wie ein Rohrspatz, wie doof dieses Linux doch wäre, weil es > nicht wie Windows funktionieren würde? Schick mir mal einen Link ... weisst du heute wollte ich meinen User "h" den "Administrator" nehmen und daraus einen normalen Benutzer machen. Das geht nicht,das System verweigert das,und warum klar weil es dann Keinen Administrator geben würde und das harakiri wäre. Hätte ich vorher einen neuen Benutzer angemeldet und dem Admin Rechte eingeräumt, dann wäre das gegangen.Als einziger User geht das nicht. Ist ja auch logisch. Man kann sich nicht den Ast absägen auf dem man sitzt. Damit ist deine These widerlegt.
W.S. schrieb: > Uwe D. schrieb: >> Deine Beiträge sind einfach nur beleidigend. Und es bringt mich keinen >> Millimeter weiter im Sinne des Threads. > > Ach herrje - schau dir doch bloß mal an, WAS hier in diesem Thread > schon alles den jeweils anderen an die Köpfe geworfen wurde! Ja. Ich finde es nicht als Legitimierung das zu akzeptieren. Bei jedem. > Und wohin soll bei dir die Reise 'im Sinne der Threads' gehen? Dieser > Thread fußt auf einer Frage. Da gibt es keinen erklärten Sinn des > Threads, lediglich Antworten, die im wesentlichen den Linuxern nicht > gefallen haben. Das „gefallen“ ist Interpretation, immer. I.d.R. spielt die emotionale Ebene eine viel größere Rolle, da ist mit „Fakten“ schwer was zu bewegen. Respektvoller Umgang ist eine gute Basis. > versucht, die Antworten als irrelevant abzutun, dagegenzusprechen, > kurzum die Antworten einfach nicht wahrnehmen WOLLEN. Nee, Deine Worte - oder auch meine - sind die persönliche Wahrheiten/Sichten/Erfahrungen. Geh‘ mal ein Stück auf Abstand und schau‘, ob Du Dich so verhältst wie Du das von allen Anderen forderst. > OK, es gibt auch die Möglichkeit, daß sie die Antworten einfach nicht > wahrnehmen KÖNNEN. Stimmt. > .... Das ist der Versuch, sich als Linuxer > etwas elitärer zu fühlen als der Rest der Welt. Klar, kann man machen > (und es gibt erschreckend viele, die das für ihr Ego brauchen), einem > jeden ist sein Elfenbeinturm gegönnt (so er ihn haben will)... Das ist das was Du für Dich empfindest. Die Worte schreibst auch Du selbst. > ... aber was an all dem suchst du, das dich zu irgend etwas > weiterbringen soll? Es gab mehrere gute Zusammenfassungen, die Emotionen und persönliche Ausbrüche außen vorgelassen haben. Konkurrenz belebt das Geschäft und erhöht die Qualität. Heute war ich im Mediamarkt um mal die neuen iPads in der Hand zu haben und zu überlegen, ob eine Tastatur & Stift fällig wären. Es hat hier ordentlich geregnet, so dass der Markt ziemlich voll war. Da konnte ich zuschauen, wie „Papa Normalverbraucher“ gegenüber versuchte mit dem Stift eine Reaktion am iPad zu erzielen. „Intuitiv“ war es nicht, denn nach vielleicht 15 Minuten wurde dem Mann geholfen. Und für mich ist klar, dass das normal ist. Und ich trotzdem mir das Teil demnächst kaufen werde. > Wartest du darauf, daß dir endlich jemand eine > Antwort auf die Frage des TO liefert, die dir gefällt? Du fällst in alte Muster zurück.... Ein Dialog wird jedenfalls durch persönliches Bashing und Phrasendrescherei kaputt gemacht.
herbert schrieb: > Nein ,es ist der Versuch den Leuten vorzuwerfen was > man alles selber verbockt haben und dass man selber > Schuld ist dass es nicht geht. Ja -- und weisst Du auch, warum längjährige Linux-Nutzer das so schreiben? Weil sie aus langjähriger Erfahrung WISSEN, "dass man es meistens selbst verbockt hat und selber Schuld ist, dass es nicht geht"!
Schade das der Admin meinen verlinkten Beitrag zu @Cyblord Worten gelöscht hat. Da ging es mir nicht darum jemanden ans Bein zu machen, sondern auf die Widersprüche zwischen diesem Thread und anderen Beiträgen aufzuzeigen. Es ist halt einfach Schade, das Dauertrollerei ohne Konsequenz bleibt.
herbert schrieb: > weisst du heute wollte ich meinen User "h" > den "Administrator" nehmen und daraus einen normalen Benutzer machen. Der Administrator ist root, und dem kannst du die Rechte nicht nehmen. Aber Namen sind Schall und Rauch, es zählt die UID. Nun kann’s UID 0 jedoch nur einmal geben, ergo kannst du nicht einfach einem Useraccount „Administrator geben“, also auch nicht „Administrator nehmen“. Und das Geschilderte ist ein ganz wunderbares Beispiel dafür, dass du mit deiner Herangehensweise wie unter Windows an die Wand fährst – etwas Grundlagenwissen über die Userverwaltung unter Linux hätte dir das gesamte Gehampel erspart. q.e.d.
:
Bearbeitet durch User
Jack V. schrieb: > Aber einmal darf ich noch, oder? Ich mach einfach mal: > „herbert! Linux ist nichts für dich! Deine dreißig Jahre Windows und > deine vollkommene Unfähigkeit, sich auf was anderes einzulassen, werden > immer wieder dafür sorgen, dass du unter Linux (oder irgendeinem anderen > System außer Windows) gegen Wände läufst!“ Man spürst richtig, dass du das jetzt "gebraucht" hast. Wie fühlst du dich jetzt? Ich kenne mich zwar mir Linux nicht aus, weil es neu ist für mich ,aber es gibt eine Reihe von Feldern , da hören die Leute auf mich. Du schläfst schlecht,deine Posting -Zeiten hier wo andere und ich pennen und was schönes träumen lassen nicht das annehmen. Ps: Du hast einen Schreibfehler von mir hervorgehoben "euch" "ihr".War dir das wichtig? Warum ? Ich übergehe so etwas bei anderen... aus reiner Menschlichkeit, weil man selber nicht perfekt ist.
Martin schrieb: > Denken ist nicht deine Stärke. Wenn im Falle eines Falles die Platte > nicht lesbar ist, dann ist es egal wie viele Systemd die Platte nicht > lesen können. Tja, leider ist verstehendes Lesen noch Denken nicht Deine Stärke. Noch mal Schritt für Schritt damit auch Du das verstehst. Wenn man von einem System, egal erst mal welches, ein Backup seiner Daten macht, dann geht es darum die Daten auf einem anderen Medium als dem auf dem das System läuft zu sichern, damit man man für den Fall wenn das System crashen sollte, man immer noch auf seine Daten zurückgreifen kann. Deshalb sicher man diese Daten auf einem, besser zwei, externen Medium (Medien). Das oder die Medien mit der Sicherungskopie bewahrt man am besten auch an verschiedenen Orten auf. Mit anderen Worten es ist eine schlechte Idee das Medium mit der Sicherung in der Nähe des PC's aufzubewahren, von dem man die Daten gezogen hat. Es ist ebenso eine gute Idee das Ganze nach der Datensicherung zu verifizieren und zu prüfen ob die Daten lesbar sind. Wenn Du natürlich das Sicherungsmedium nimmst und mit einen 10kg Bello drauf haust, dann ist natürlich kein System mehr in der Lage die Platte noch zu lesen.
Egon D. schrieb: > herbert schrieb: > Nein ,es ist der Versuch den Leuten vorzuwerfen was man alles selber > verbockt haben und dass man selber Schuld ist dass es nicht geht. > > Ja -- und weisst Du auch, warum längjährige Linux-Nutzer das so > schreiben? > Weil sie aus langjähriger Erfahrung WISSEN, "dass man es meistens selbst > verbockt hat und selber Schuld ist, dass es nicht geht"! der eigentliche Witz ist ja, dass auch seine ganze Erfahrung mit Windows durch Ausprobieren und Scheitern entstanden ist. Aber das wird gern mal ausgeblendet wenn es schon so lange her ist. Möchte nicht wissen, wie oft die Windows-Verfechter ihr System in der Lernphase neu aufgesetzt haben.
Jack V. schrieb: > Wenn man unter Linux ein Backup anlegt (darauf deutet das FS hin), dann > wird man mit hoher Wahrscheinlichkeit im Ernstfall auch unter Linux > wieder daraus zurücksichern wollen. Warum sollte man in dem Fall > Rücksicht drauf nehmen, ob irgendwelche anderen Systeme damit Probleme > haben könnten? Für ein komplettes Systembackup ist das durchaus richtig, aber Sicherungskopien von Daten würde ich so speicheren, das sie möglichst von vielen Systemen gelesen werden können. In Praxis hat sich bewährt und hat mir schon des öfteren weiter geholfen. Das muß aber jeder für sich selbst entscheiden. Da ich privat mit 3 System arbeite (Win, Mac, Linux) mache ich Sicherungskopien meiner Daten auf einer USB-Platte mit mit FAT32, da dieses Filesystem von allen Systemen die ich verwende gelesen werden kann.
Jack V. schrieb: > Der Administrator ist root, und dem kannst du die Rechte nicht nehmen. Ich dachte "root " ist der "Supervisor" und steht über dem Administrator. Bei der Installation gab es auch die Option ein "root" Passwort anzulegen , was ich aber nicht gemacht habe. Deswegen auch meine Annahme "root" und "Admin" wären nicht das selbe. Gut jetzt ist mir das klar.
ThomasW schrieb: > der eigentliche Witz ist ja, dass auch seine ganze Erfahrung mit Windows > durch Ausprobieren und Scheitern entstanden ist. Aber das wird gern mal > ausgeblendet wenn es schon so lange her ist. Möchte nicht wissen, wie > oft die Windows-Verfechter ihr System in der Lernphase neu aufgesetzt > haben. Woher hast du das ? Schickst du mir einen Link?
Egon D. schrieb: > Weil sie aus langjähriger Erfahrung WISSEN, "dass man > es meistens selbst verbockt hat und selber Schuld ist, > dass es nicht geht"! Schimpfen wie die Rohrspatzen tun sie dabei allerdings auch. Manchmal auch im Netz. Das gehört einfach zur Beschäftigung mit Technik dazu.
herbert schrieb: > ThomasW schrieb: > der eigentliche Witz ist ja, dass auch seine ganze Erfahrung mit Windows > durch Ausprobieren und Scheitern entstanden ist. Aber das wird gern mal > ausgeblendet wenn es schon so lange her ist. Möchte nicht wissen, wie > oft die Windows-Verfechter ihr System in der Lernphase neu aufgesetzt > haben. > > Woher hast du das ? Erfahrungen. Eigene und im Umfeld. Ich war oft der, der Windows neu installieren durfte. herbert schrieb: > Schickst du mir einen Link? Du schaffst es nicht ein neues System richtig zu nutzen, schlägst jede Hilfe aus und gibst lieber dem System die Schuld. Und jetzt so ein Kindergarten? Ach komm schon ...
ThomasW schrieb: > der eigentliche Witz ist ja, dass auch seine ganze > Erfahrung mit Windows durch Ausprobieren und Scheitern > entstanden ist. Aber das wird gern mal ausgeblendet > wenn es schon so lange her ist. Möchte nicht wissen, > wie oft die Windows-Verfechter ihr System in der > Lernphase neu aufgesetzt haben. Das erklärt übrigens auch den wütenden Hass, den sie auf Linux und deren User haben: Bisher waren sie der Meinung, sich mit Blut, Schweiss und Tränen eine Menge COMPUTERwissen angeeignet zu haben -- und jetzt kommen diese arroganten Sprutze, die noch grün hinter den Ohren sind, daher, und behaupten, man verstünde gar nicht so viel von COMPUTERN, sondern nur einiges von WINDOWS! Kann ich sogar verstehen. Hilft nur nicht allzuviel weiter, die Erkenntnis...
W.S. schrieb: > Hier hab ich so unsäglich oft lesen müssen 'Linux ist nichts für dich, > bleib bei Windows' Ist ja auch bei manchen Leuten hier so. > im Sinne von 'du bist ja nur zu strunzdoof und > Windows ist für Strunzdoofe'. Das halluzinierst Du. Doof ist man nur, wenn man was macht, was nicht funktioniert, und es dann wieder und wieder macht. Beispielsweise sich an ein Linux setzen und sich immer wieder beschweren, daß es nicht haargenau wie Windows ist. Das ist ähnlich doof, wie sich an einen Pflaumenpudding zu machen in der Erwartung, er müsse wie Schokopudding schmecken, und sich bei jedem Bissen erneut zu beschweren, wenn er das nicht tut. > Das ist der Versuch, sich als Linuxer > etwas elitärer zu fühlen als der Rest der Welt. Mag's geben. Wäre das für mich ein Motiv, dann wäre ich aber nicht von Linux damals zu Win 7 gewechselt, weil ich mich dann ja nicht mehr "elitär" hätte fühlen können. Nee, ich nutze Linux vor allem, weil es (je nach Distro) zuverlässiger und problemfreier funktioniert als Windows, und weil es keine Spyware enthält. Während Leute wie Du mit Erfahrungen von vor 15 Jahren argumentieren, daß sowas nicht sein könne, sitzen bei mir reine Endnutzer (d.h. keine IT-Geeks) an ihren Linuxmaschinen und freuen sich, daß es super geht. Allerdings sind das auch keine Windows-"Experten", weswegen sie nicht am System rumfummeln und es sich damit auch nicht verbasteln. Aber selbst wenn doch, ist Timeshift installiert, so daß ein Rollback auch kein Problem ist.
Nop schrieb: > Wäre das für mich ein Motiv, dann wäre ich aber > nicht von Linux damals zu Win 7 gewechselt, Und warum bist Du? Ich frage ganz im Ernst.
herbert schrieb: > Ich kenne mich zwar mir Linux nicht aus, weil es neu ist für > mich ,aber es gibt eine Reihe von Feldern , da hören die Leute auf mich. Oh, ein Lichtblick. Was ist passiert? Oder meinst du nun, weil du in anderen Bereichen „was auf dem Kasten hast“, wie man so schön sagt, muss es an diesem Linux liegen, dass du damit nicht klarkommst? Dann wäre alles beim Alten geblieben. herbert schrieb: > Du schläfst schlecht,deine Posting -Zeiten hier wo andere und ich > pennen und was schönes träumen lassen nicht das annehmen. Ich schlafe recht gut, danke der Nachfrage. herbert schrieb: > Ps: Du hast einen Schreibfehler von mir hervorgehoben "euch" "ihr".War > dir das wichtig? Warum ? Ich übergehe so etwas bei anderen... aus reiner > Menschlichkeit, weil man selber nicht perfekt ist. Es ist mir wichtig, auf sowas hinzuweisen, ja. Allerdings nicht, um das Gegenüber irgendwie abzuwerten, sondern um seine Aufmerksamkeit darauf zu lenken. Oft ist ihm nämlich gar nicht bewusst, wie störend solche Sachen für einen geübten Vielleser sind. Vor Satzzeichen (auch Kommata) gehört im Deutschen übrigens kein Leerzeichen.
:
Bearbeitet durch User
Das passt gut zum Thema und zeigt einen Trend. https://www.heise.de/news/Neue-Microsoft-Angestellte-erhalten-virtuellen-Desktop-statt-Firmenlaptop-4912687.html
Nop schrieb: > von der ich Clonezilla starte Also auch noch ein Sonderdateiformat benutzen was mit nix anderem lesbar ist. Dazu sag ich nur : Es sind Deine Daten - denk mal in aller Ruhe drüber nach. Ich habe früher auch mal so Backuptools wie Ghost oder Acronis genutzt, davon bin ich lange weg. Gerade wenn man die Sicherung auf CD/DVD macht, sind bei den heutigen Plattengrößen mehrere Datenträger erforderlich und da ist es mehr als einmal vorgekommen das ich auf die Archive nur noch mit viel Mühe zugreifen konnte weil ein Medium beschädigt war. Zugriff mit anderen Tools war auch nicht mehr möglich, da probitäre Formate. Wenn ich überhaupt noch Komplettsicherungen mache, dann mache ich das auch mit einem Linuxlivesystem und ganz Oldscool mit gezippten tar-Archiven auf eine USB Platte, wobei die Archive so aufgeteilt werden das jedes Archiv auf eine CD passen würde. Bootsektoren werden mit dd gesichert. Das ist der kleinste gemeinsame Nenner. tar und zip ist auf allen unixoiden Systemen vorhanden. tar, zip sowieso, ist auch für Windows verfügbar. Das Verfahren ist sehr wahrscheinlich nicht super effizient, aber die Datensicherungen sind, wenn sie nicht beschädigt werden, mit allen gängigen Systemen lesbar. Selbst wenn ein Archiv beschädigt werden sollte hält sich der Schaden in Grenzen. Letzendlich ist jeder seines eigenen Glückes Schmied.
Zeno schrieb: > Oldscool mit gezippten > tar-Archiven auf eine USB Platte, wobei die Archive so aufgeteilt > werden das jedes Archiv auf eine CD passen würde Ist lange her, dass ich mit "tar" als Backup aktiv zutun hatte. Daher die ernst gemeinte Frage: Speichert der alle Attribute von Files, also inklusive ACL, SELinux etc, mit Namen jeder Länge, die in Filesystemen vorkommen kann?
:
Bearbeitet durch User
Zeno schrieb: > [allerhand] Bitte erkläre mir mit einfachen Worten den Unterschied zwischen einem Livesystem mit tar und zip, und einem mit Clonezilla, was die Verfügbarkeit betrifft. Ich meine: wenn meine Daten und mein System gleichzeitig die Hufe hochreißen, dann ist’s zumindest mir mal völlig egal, ob ich die Daten mit clonezilla, oder mit tar und zip aus dem Backup ziehe – ist eh beides auf dem grml-Stick. Abgesehen davon meine ich gehört zu haben, dass die Sicherungen von clonezilla sehr wohl auch manuell zugreifbar sind – kann das aber selbst nicht bestätigen, weil ich schlicht ein Script auf Basis von rsync nutze. In dem Zusammenhang steht auch noch die Erläuterung aus, warum ext4 als Dateisystem für Backups eine schlechte Wahl wäre.
Egon D. schrieb: > Und warum bist Du? Ich frage ganz im Ernst. Im Wesentlichen, weil die Neuanschaffung eines Rechners genau in die unselige Zeit fiel, als die KDE-Truppe meinen damals bevorzugten Desktop ruiniert hat. KDE3 war schon nur mäßig stabil, aber immer noch etwas besser als XP - nur habe ich gesehen, daß der Trend bei KDE massiv abwärts ging. XFCE mochte ich noch nie außer als Notlösung, Gnome schon gar nicht, und Cinnamon gab's noch nicht. Dazu kam, daß ich seinerzeit Linux immer am Laufen gehalten habe, aber der Aufwand nervte. DVDs gucken ging nicht bei allen DVDs ruckelfrei, wohl wegen irgendwelcher Treiberprobleme. Installierte Software (über den Paketmanager natürlich) hatte immer irgendwelche Macken, wo ich hinterherfrickeln mußte. Updates lösten Probleme, brachten aber neue, mit immer neuen Workarounds. Den endgültigen Rest gab mir dann, als ich nicht mehr online gehen konnte, weil mein damaliges DSL-Modem mit PPPoE nach einem Linux-Update auf einmal nicht mehr ging. Das war der Tropfen, der das Faß zum Überlaufen brachte. Gut, ich hätte wahrscheinlich mit genug Gefummel und Distro-Hopping bei Linux bleiben können, aber dazu hatte ich keinen Nerv. Meine Erfahrung war damals, daß Distro-Hopping meistens Probleme gegen andere Probleme eintauschte, aber keine Lösung darstellte. Außerdem wollte ich das Gefrickel noch nie haben. Ich hatte eigentlich ein Sorglos-System haben wollen. Zugleich war Win 7 das geworden, was Vista hätte sein sollen, und in der Firma war ich von Win 7 sehr angetan. Diese Stabilität und Frickelfreiheit hatte ich mit Windows noch nie erlebt. Spyware im OS war damals ja noch kein Thema. Als Sahnehäubchen kam dann noch der Aero-Eyecandy, weil Win 7 genau in die kurze Zeit fiel, als die Hardware dafür leistungsfähig genug war, aber bevor man mit Flat Design wieder zu Windows 3.1 zurückfiel. Es hat einfach "wow" gemacht bei mir. Wenn man sich in ein Betriebssystem verlieben könnte, dann wäre Win 7 bei mir sowas wie Liebe auf den ersten Blick gewesen. ^^
Zeno schrieb: > Also auch noch ein Sonderdateiformat benutzen was mit nix anderem lesbar > ist. Clonezilla gibt es schon so lange, daß es das auch immer geben wird, zumal es Open Source ist und daher nicht "vom Markt genommen" werden kann. Ich brauche auch nur eine Festplatte, die mindestens so groß ist wie die alte. Ich kann damit notfalls auch das Image auf eine andere externe USB-Platte entpackt zurückspielen - auf jedem Rechner, der von USB booten kann. Wobei ich die Backups übrigens nochmal dupliziere, weil ich hier zwei Rechner im Haushalt habe, die jeweils mit Clonezilla auf eigene USB-Platten gesichert werden. Ich halte die Images beider Rechner auf beiden Sicherungsplatten vor, falls eine die Grätsche macht. > Ich habe früher auch mal so Backuptools wie Ghost oder Acronis genutzt Ich traue keinem Backup-Tool, das auf aktiven Dateisystemen läuft. Deswegen Clonezilla von einer Live-Distro. > Gerade wenn man die Sicherung auf CD/DVD macht, > sind bei den heutigen Plattengrößen mehrere Datenträger erforderlich Bei einigen hundert GB wäre ich da als Discjockey eine Ewigkeit am Brennen.
Nop schrieb: > Ich traue keinem Backup-Tool, das auf aktiven Dateisystemen läuft. Snapshots sind eine sehr nützliche Erfindung.
A. K. schrieb: > Snapshots sind eine sehr nützliche Erfindung. Weiß ich, Timeshift habe ich ja auch. Aber das ist nur gegen vergurkte Updates gedacht und nicht als Backup in dem Sinne. Wenn Timeshift versagt, kann ich das System notfalls immer noch neu installieren, das kostet mich vielleicht zwei, drei Stunden.
Misverständnis. Snapshots sind auch die Grundlage von konsistenten Image-Backups aus dem laufenden System heraus.
A. K. schrieb: > Zeno schrieb: >> Oldscool mit gezippten >> tar-Archiven auf eine USB Platte, wobei die Archive so aufgeteilt >> werden das jedes Archiv auf eine CD passen würde > > Ist lange her, dass ich mit "tar" als Backup aktiv zutun hatte. Daher > die ernst gemeinte Frage: Speichert der alle Attribute von Files, also > inklusive ACL, SELinux etc, schöne Frage mal eine lokal zugängliche manpage anzuschauen :) Wird von der Version abhängen, aktuelle unterstützen das. --[no]selinux, --[no]acl, --[no]xattrs, ansonsten vlt. mit get/setfacl vorher sichern dann wiederherstellen > mit Namen jeder Länge, die in Filesystemen > vorkommen kann? gnu 255byte --
1 | Archive format selection |
2 | -H, --format=FORMAT |
3 | Create archive of the given format. Valid formats are: |
4 | |
5 | gnu GNU tar 1.13.x format |
6 | |
7 | oldgnu GNU format as per tar <= 1.12. |
8 | |
9 | pax, posix |
10 | POSIX 1003.1-2001 (pax) format. |
11 | |
12 | ustar POSIX 1003.1-1988 (ustar) format. |
13 | |
14 | v7 Old V7 tar format. |
Y/n ... schrieb: >> mit Namen jeder Länge, die in Filesystemen >> vorkommen kann? > > gnu 255byte Was schon anno OS/2 ein Problem war, heute erst recht. Der damalige GNU TAR hatte dafür eine zum würgen üble Krücke drin.
Nop schrieb: > Egon D. schrieb: > >> Und warum bist Du? Ich frage ganz im Ernst. > > Im Wesentlichen, [...] Sehr interessant. Vielen Dank.
A. K. schrieb: > Speichert der alle Attribute von Files, also > inklusive ACL, SELinux etc, mit Namen jeder Länge, die in Filesystemen > vorkommen kann? Habe ich bisher nie darauf geachte, allerdings ist ja tar ein Urgestein und da würde ich mal davon ausgehen das es das kann. ACL und SELinux sagen mir jetzt nichts - erklärs einfach mal. Ansonsten kannte du einfach mal ein kleines Archiv mit ein zwei Dateien erzeugen wo die von Dir genannten Attribute vorhanden sind. Das Archiv kannste dann ja in einem einem anderen Verzeichnis mal auspacken und nachschauen ob die von Dir genannten Attribute korrekt gesichert wurden. Jack V. schrieb: > Ich meine: wenn meine Daten und mein System gleichzeitig die Hufe > hochreißen, dann ist’s zumindest mir mal völlig egal, ob ich die Daten > mit clonezilla, oder mit tar und zip aus dem Backup ziehe – ist eh > beides auf dem grml-Stick. Abgesehen davon meine ich gehört zu haben, > dass die Sicherungen von clonezilla sehr wohl auch manuell zugreifbar > sind – kann das aber selbst nicht bestätigen, weil ich schlicht ein > Script auf Basis von rsync nutze. Der Punkt ist einfach, das wenn ein spezielles Format benutzt wird, man immer etwas braucht was mit diesem Format umgehen kann. Nehmen wir einfach mal rein hypothetisch an, die Clonezilla Entwickler ändern irgend etwas, wodurch die Abwärtskompatibilität nicht mehr gewährleistet ist (muß ja noch nicht mal Absicht sein), Du vertraust darauf und bringst Dein Lifesystem auf den aktuellen Stand, weil Clonezilla auch ein neues Feature bekommen hat auf welches Du schon lange gewartet hast. Irgendenwann nach dem Update brauchst Du Dein Backup, weil Du versehentlich irgendwelche Daten geschreddert hast, aber irgendwie kann das neue Clonezilla nicht mehr auf die alten zugreifen. Ich weis das das ein konstruiertes Szenario ist, aber man kann es nicht ausschließen das es so passiert. Genau deshalb bevorzuge ich für Backups Lösungen die mit klassischen bewährten Tools auf die möglichst vielen Plattformen funktionieren. Ich habe z.B. für berufliche Dinge noch 2 HP-UX Workstations stehen, selbst mit denen könnte ich ein mit tar und zip unter Linux erzeugtes Archiv lesen und auspacken und käme so an die Daten ran. Das ginge auch mit einem Mac. Nop schrieb: > Clonezilla gibt es schon so lange, daß es das auch immer geben wird, > zumal es Open Source ist und daher nicht "vom Markt genommen" werden > kann. Würde ich nicht darauf vertrauen, ist aber Deine Sache. Nop schrieb: > Bei einigen hundert GB wäre ich da als Discjockey eine Ewigkeit am > Brennen. Ich habe ja nicht gesagt das ich das auf CD mache. Ich mache das schon auf USB-Platte, aber eben in Häppchen die auf eine CD passen würden. Man hätte dann die Möglichkeit die Archive oder Teile noch auf eine CD zu schreiben, um diese an einem anderen Ort zulagern. Auch können fast alle OS mit Dateigrößen kleiner 650MB umgehen so das ein Restore der Daten fast immer möglich sein sollte. Ich habe sogar noch einen Server mit angeschlossenen DAT-Laufwerk stehen. Ganz wichtige Daten (Sourcecode, in einem meiner Projekt stecken über 20 Jahre Arbeit drin) werden dann zusätzlich noch auf Band gesichert.
A. K. schrieb: > Misverständnis. Snapshots sind auch die Grundlage von > konsistenten Image-Backups aus dem laufenden System > heraus. Hilf einem Unwissenden (--> mir) auf die Sprünge: Gemeint ist, zunächst einen Snapshot anzulegen und von diesem dann das Backup zu erstellen? Inwiefern löst das das Problem mit den offenen Dateien?
A. K. schrieb: > Was schon anno OS/2 ein Problem war, heute erst recht. Der damalige GNU > TAR hatte dafür eine zum würgen üble Krücke drin. Jetzt formuliere das doch auch mal so das man es versteht.
Egon D. schrieb: > Wenn ich also -- wie einige hundert Beiträge weiter > oben vorgeführt -- die Geburtsdaten von William Gates > und Linus Thorvalds sowie die Veröffentlichungsdaten > von MS-DOS, MS Windows 1.0 und Linux 0.01 hernehme > und darüber auch nur fünf Minuten nachdenke, dann ist > die gestellte Frage für mich beantwortet: Neben anderen > Faktoren hatte Linux zu dem Zeitpunkt, als es weiteren > Kreisen bekanntwurde, einen Rückstand von ca. 10 Jahren > gegenüber den Microsoft-Produkten. Das ist praktisch > nicht mehr aufzuholen -- gerade in einem derart dynamischen > Markt wie dem der Computertechnik. Du versuchst also, alles auf einen Zeitvorsprung von DOS und Windows zurückzuführen? Das ist ziemlicher Unsinn. Linux IST abgeschriebenes Unix und der Grund dafür waren (sind?) die Lizenzprobleme seit AT&T. Unix als solches ist ja weitaus älter - und es wurde als administriertes Mehrbenutzersystem konzipiert. Das ist eigentlich der Basis-Fakt in der Orientierung dieses OS und damit auch dieser ganzen Diskussion. Linus Thorvalds hatte überhaupt keinen Rückstand sondern einen etwa 20 jährigen Vorlauf, denn Unix wurde m.W. schon Ende der 60er, Anfang der 70er Jahre entwickelt. Erst deutlich später kam dann CP/M, schließlich konnte das erst ab der Verfügbarkeit des i8080 überhaupt konzipiert werden und MS-DOS kam dann noch einige Jahre später, schließlich brauchte es dafür die Verfügbarkeit der i8086. Und Windows kam noch viel später. Die ersten verfügbaren Linux-Distributionen kamen um 1993..4, also zur Zeit von Windows 3.1 und dem Anlauf von OS/2. Nein, Thorvalds hatte Vorlauf. Er hätte ein PC-Betriebssystem konzipieren können, aber er hat es nicht getan, sondern Unix hergenommen. Daß das dann Linux genannt wurde und rein nominell keine Codezeile aus dem Besitz von AT&T enthalten hat, ist ein Teil des damaligen Unix-Wars. Juristenzeugs eben. Der krasse Unterschied zwischen allen unixoiden OS und allen PC-OS liegt in der grundsätzlichen Ausrichtung: Mehrbenutzersystem mit Administrierung auf der einen Seite, von einem (1 Person) Benutzer zu handhabendes System auf der anderen Seite - deswegen auch PC = persönlicher Rechner. Und eben der von IBM hatte sich durchgesetzt, weil er Steckplätze hatte, von Firmen und Anwendern konfiguriert werden konnte und damit an sehr unterschiedliche Verwendung angepaßt werden konnte. Alles andere war damals eben nicht derart flexibel. Was bleibt, sind die völlig unterschiedlichen Ausrichtungen zwischen der Mainframe-Szene und der PC-Szene und der jeweils dafür verwendeten Betriebssysteme und Programme. Genau DIESES ist auch der Anlaß dieses gesamten Threads. Ein unixoides OS ist definitiv von hause aus NICHT geeignet für einen PC, denn es geht aus von mehreren Dingen, die am PC eben völlig anders sind als in den Gefilden (vulgo "Rechenzentrum"), die dunnemals bei Bell und in den Universitäten üblich waren, als da sind: 1. Mehrbenutzerbetrieb. Gleichzeitig. 2. professionelle Administration 3. EDV- bzw. datentechnische Ausrichtung. Keine Meß- und Steuertechnik, kein Büroeinsatz, kein privater Einsatz zu 1. Am PC spielt ein Mehrbenutzerbetrieb praktisch gar keine Rolle, denn es gibt nur einen einzigen Platz vor der Kiste und mehrere Benutzer irgendwo an diversen Terminals sind unüblich. zu 2. Am PC (zumindest am privaten) gab/gibt es keinen angestellten Administrator. Das war und ist Sache des Benutzers. zu 3. Am PC findet sowohl Büroeinsatz oder büroähnlicher Einsatz statt, ebenso Meß- und Steuerungstechnik, ebenso ganz erheblich privater Einsatz, auch zu privaten Hobbies. Und da wir Menschen keine Maschinen sind und am PC auch nicht über Netzwerke hinweg irgendwelche Server administrieren müssen um unsere Brötchen zu verdienen, ist es die Normalität, daß das User-Interface eben grafisch und bunt ist und nicht die Kommandozeile, daß wir mit Anwendungen auf grafischer Glotze arbeiten und nicht mit Kommandozeilentools, die per Script zu diversen Zwecken zusammengestellt werden. Dies habe ich noch deutlich nach 2000 und mehr als 5 Jahren Windows95/98/2K/XP mir von Linuxer vorwerfen lassen müssen, die "Klickibunti" riefen und die Kommandozeile lobten. An dieser Stelle wird klar, daß der angebliche Vorsprung von Windows keineswegs SO jemals existiert hat, sondern daß die Entwicklung von den Linuxern schlichtweg verpennt worden ist. SO HERUM. Nun mag man argumentieren, daß es ja inzwischen grafische Aufsätze auf's Unix/Linux gibt, womit das äußere Erscheinungsbild dem Erscheinungsbild von Windows angenähert wird. Ja, ist richtig, aber die grundsätzliche Orientierung des gesamten OS ist nach wie vor dazu nicht passend, sondern immer noch so wie zu Zeiten von Bell Labs. Die schiere bunte Oberfläche ist nicht das Entscheidende, sondern die Funktionalität dahinter. W.S.
Image Backups sind sehr praktisch bei Disaster-Recovery des Grundsystems. Mit oder ohne Anwendungsdaten, je nachdem wie die auf den Disks liegen. Um an versemmelte Einzelfiles oder Subtrees zu kommen sind sie aber eher unhandlich, auch wenn es Backup-Systeme gibt, die das einigermassen können. Darüber hinaus nutze ich gerne Backup-Systeme, die ein normales Filesystem verwenden, über Hardlinks versionierend. Ob rsync, oder davon abgeleitete Progs wie rsnapshot etc. Was auch in Windows geht (=> hardlinkbackup). Das hat nämlich den Charme, dass man auf der Suche nach versemmelten Einzelfiles nichts auspacken muss, keine Inkrements durchsuchen muss. Sondern einfach bloss das Backup-FS durchbrowsen kann, in dem für jeden einzelnen Backup der vollständige Dateibaum liegt. Das geht aber natürlich nur mit Filesystemen, die Hardlinks kennen, und die Files mit ihren Eigenschaften und Attributen speichern können. FAT Varianten können das nicht.
Zeno schrieb: > A. K. schrieb: >> Was schon anno OS/2 ein Problem war, heute erst recht. Der damalige GNU >> TAR hatte dafür eine zum würgen üble Krücke drin. > > Jetzt formuliere das doch auch mal so das man es versteht. GNU TAR hatte zumindest damals zwei Pfadfelder mit zusammen 255 Bytes. Zwischendrin musste passend ein "/" sein, 155 davor, 100 dahinter, iirc. Passte das nicht, war der Pfad nicht direkt codierbar. War der Pfad sowieso zu lang, dann erst recht nicht. Passte es nicht, vergab es einen Pseudo-Filenamen, und am Ende vom Backup hing ein spezielles Pseudo-File, das diese Pseudo-Filenamen in reale umsetzte.
:
Bearbeitet durch User
Jack V. schrieb: > Bitte erkläre mir mit einfachen Worten den Unterschied zwischen einem > Livesystem mit tar und zip, und einem mit Clonezilla, was die > Verfügbarkeit betrifft. Wenn du ne Scheibe hast, wo ein Clonezilla-Archiv drauf ist, brauchst du Clonezilla und das dazu passende OS, um an die Briefe an die Omi wieder heranzukommen. Wenn du ne Scheibe hast, wo du ZIP-Archive drauf sind, kommst du auf so gut wie allen Systemen an die Briefe an die Omi wieder heran, weil ZIP eben ubiquitär ist. Und wenn jemand zuerst ein TAR macht und das dann zippt, dann vergeigt er sich den individuellen Zugriff auf die im Archiv enthaltenen Dateien zugunsten einer etwas höheren Kompressionsrate - er muß zuerst das tar entzippen und kann sich dann auf die Suche seines Briefes im tar machen. Aber da tar ja nichts komprimiert, sondern bloß mit nem oktalen Header versieht und aneinander beppt (mit 256 mal nul = Leer-Vorlauf, um es an dieser Stelle in den Lochbandleser einlegen zu können), ist das Auspacken von tar kein Kunststück. Aber bei Verwendung von speziellen Backup-Programmen braucht man eben immer wieder genau diese Programme, um an die gesicherten Briefe an die Omi wieder heranzukommen. Das ist der Unterschied. W.S.
W.S. schrieb: > Wenn du ne Scheibe hast, wo ein Clonezilla-Archiv drauf ist, brauchst du > Clonezilla und das dazu passende OS, um an die Briefe an die Omi wieder > heranzukommen. Soll heissen: Du verwendest sinnvollerweile ein Clonezilla-Livesystem von CD oder USB-Stick. Kein Hexenwerk, gibts nämlich fix und fertig von der Clonezilla-Site. Und läuft auf so ziemlich allem, was einen x86 drin hat. Wie eben schon beschrieben ist das super für Komplettrestores der Systemdisk. Und ziemlich mies, wenn man nur die Briefe will. Weshalb Disaster-Recovery ein ganz anderes Thema ist, als die Wiederherstellung von Omis Briefen. Und weshalb es sinnvoll sein kann, die Verfahren zu trennen.
:
Bearbeitet durch User
Beitrag #6419015 wurde vom Autor gelöscht.
A. K. schrieb: > GNU TAR hatte zumindest damals zwei Pfadfelder mit zusammen 255 Bytes. > Zwischendrin musste passend ein "/" sein, 155 davor, 100 dahinter, iirc. > Passte das nicht, war der Pfad nicht direkt codierbar. War der Pfad > sowieso zu lang, dann erst recht nicht. > > Passte es nicht, vergab es einen Pseudo-Filenamen, und am Ende vom > Backup hing ein spezielles Pseudo-File, das diese Pseudo-Filenamen in > reale umsetzte. OK das war mir bisher nicht bekannt, ist mir aber bis dato nicht auf die Füße gefallen. Unter HP-UX haben Backups auch mit gpio gemacht, das soll wohl gegenüber tar irgendwelche Vorteile haben. Aber da müßte ich nach schauen wie das geht. Wenn ich mich recht entsinne war das sehr kryptisch.
W.S. schrieb: > Wenn du ne Scheibe hast, wo ein Clonezilla-Archiv drauf ist, brauchst du > Clonezilla und das dazu passende OS Äh, nein. Auf der Backup-Platte ist natürlich das Iso (nebst MD5-Checksumme) mit der passenden Live-Distri mit drauf, wo sowohl das verwendete Clonezilla als auch ein passendes OS drin sind. Das braucht man nur auf einen USB-Stick zu überspielen und davon zu booten. Alles, was es dazu braucht, ist (wegen Ext4 auf der externen Platte) ein Linuxrechner, aber das kann genausogut ein Windowsrechner sein, in dem Knoppix von USB gebootet wurde. Übrigens habe ich spaßeshalber die Live-Distri vom alten Rechner mal am neuen getestet und war verblüfft, daß eine Live-Distri von 2014 problemlos auf Hardware von 2020 lief.
W.S. schrieb: > er muß zuerst das tar entzippen und kann sich dann auf die Suche > seines Briefes im tar machen. Naja, tar heisst "tape archiver", dafür war er gebaut. Gezielter Zugriff gehört nicht zu seinen Stärken. Das gzip kann man freilich ins Verfahren einbauen, d.h. gzip in tar pipen und dann lesen. Läuft auch nicht anders als ohne gzip. Direkter Zugriff auf Positionen im Archiv war nicht vorgesehen, nur Suche im Stream von vorne bis hinten. Das entsprach den Tape-Laufwerken damaliger Ära. In neueren Zeiten konnten die aber direkt positionieren, also hatte ich es damals dem Backup-Verfahren via tar beigebracht (OS/2 16bit, 32bit, WinNT). Das geht mit Stream-Komprimierung über gzip freilich nicht mehr so einfach, aber die Laufwerke konnten irgendwann selbst komprimieren. Letztlich ist tar zwar sukzessive modernisiert worden, aber ein im Kern antiquiertes Werkzeug. Ob aber zip besser ist, wenn man nicht nur Fileinhalte sichern will, sondern auch Metadaten wie EATTRs oder ACLs, ist eine andere Frage.
:
Bearbeitet durch User
Zeno schrieb: > Unter HP-UX haben Backups auch mit gpio gemacht, das soll wohl gegenüber > tar irgendwelche Vorteile haben. Tar ist geblockt, was zu feste Grössen führt und zu Bandlaufwerken passt. Cpio ist ein Bytestream, der liess sich im Laufe der Zeit leichter adaptieren.
Zeno schrieb: > Unter HP-UX haben Backups auch mit gpio gemacht, das soll > wohl gegenüber tar irgendwelche Vorteile haben. Du meinst "cpio". Hat den Hauptvorteil, dass das Dateiformat wesentlich besser standardisiert ist, d.h. es da keinen Wildwuchs gibt wie bei tar. Deswegen nutzt Linux das für die initramfs. Allerdings ist die Syntax von cpio (dem Tool) eher beschissen.
W.S. schrieb: > Das ist ziemlicher Unsinn. Linux IST abgeschriebenes Unix und der > Grund dafür waren (sind?) die Lizenzprobleme seit AT&T. Krieg ich nicht dekodiert. Linux fusst auf dem API von Unix, aber abgeschrieben wurde nichts. Das gibts schriftlich vom Gericht, SCO hats ja versucht.
W.S. schrieb: > Der krasse Unterschied zwischen allen unixoiden OS und allen PC-OS liegt > in der grundsätzlichen Ausrichtung: Mehrbenutzersystem mit > Administrierung auf der einen Seite, von einem (1 Person) Benutzer zu > handhabendes System auf der anderen Seite Windows NT ist im Kern genauso ein Mehrbenutzersystem wie Unix. Nur war die Inspirationsquelle nicht Unix, sondern DEC VMS. Kein Zufall, der Chefdesigner kam von DEC. Scherzkeksen fiel bald auf, dass WNT rauskommt, wenn man VMS buchstabenweise hochzählt. Das ist es übrigens auch heute noch. Per RDP können sich verschiedene User gleichzeitig anmelden, begrenzt nur durch die Lizenzierung. Es gibt etwas Haken und Ösen bei Anwendungen, weshalb der dafür gedachte Windows Terminal-Server nicht nur Freude bereitete.
:
Bearbeitet durch User
W.S. schrieb: > Was bleibt, sind die völlig unterschiedlichen Ausrichtungen zwischen der > Mainframe-Szene und der PC-Szene und der jeweils dafür verwendeten > Betriebssysteme und Programme. Unix wurde von Leuten gebaut, die auf den damaligen Mainframes keine Rechenzeit kriegten und denen Multics zu klobig war, die aber an die damaligen Kleinrechner ran kamen. Die nicht in den Rechenzentren standen. VMS als Inspirationsquelle von Windows NT hatte deutlich mehr mit Rechenzentren zu tun als Unix. Die DEC VAXen mit VMS wurden ähnlich betrieben wie Mainframes. Gross genug dafür war so eine 780 sowieso. Die PDPs mit Unix hingehen waren oft keine RZ-Kisten, vor allem nicht die kleinen. Es gab aber VAXen, auf denen Unix statt VMS lief.
:
Bearbeitet durch User
W.S. schrieb: > Du versuchst also, alles auf einen Zeitvorsprung > von DOS und Windows zurückzuführen? Nicht alles, nein. Ich versuche nur, die TATSÄCHLICHE Ausgangslage zu verstehen und zu berücksichtigen. > Das ist ziemlicher Unsinn. Linux IST abgeschriebenes > Unix und der Grund dafür waren (sind?) die Lizenzprobleme > seit AT&T. Unix als solches ist ja weitaus älter - und > es wurde als administriertes Mehrbenutzersystem konzipiert. > Das ist eigentlich der Basis-Fakt in der Orientierung > dieses OS und damit auch dieser ganzen Diskussion. Ich drösel das mal auf: - "Unix ist älter als Linux": Klar, ungefähr 20 Jahre. - "Unix = administrierter Mehrnutzersystem": Klar. Zu "Linux ist abgeschriebenes Unix" komme ich weiter unten noch. > Linus Thorvalds hatte überhaupt keinen Rückstand > sondern einen etwa 20 jährigen Vorlauf, Das ist schlecht möglich -- Linus mag zwar ein Genie sein, aber es ist nichts davon überliefert, dass er bereits im zarten Alter von 2 Jahren Betriebssysteme entwickelt hätte :) Soll heißen: Ich versteh, glaube ich, Deinen Gedanken, bin aber der Meinung, dass Du ihn sinnwidrig anbringst. > denn Unix wurde m.W. schon Ende der 60er, Anfang > der 70er Jahre entwickelt. Erst deutlich später > kam dann CP/M, schließlich konnte das erst ab der > Verfügbarkeit des i8080 überhaupt konzipiert > werden und MS-DOS kam dann noch einige Jahre später, > schließlich brauchte es dafür die Verfügbarkeit > der i8086. Soweit, so gut. Bis hierher halbwegs Einigkeit über die Jahreszahlen. Was Du m.E. außer Acht lässt, das ist die Tatsache, dass Unix auf der einen und Einzelplatzsysteme wie CP/M, MS-DOS und Konsorten auf der anderen Seite auf ganz verschiedene Maschinenklassen und Anwenderkreise zielten. CP/M hatte seine goldenen Jahre auf einem Prozessor, der heutzutage sogar als Mikrocontroller veraltet ist. Der moderne PC ist technisch ein Großrechner, entwicklungsgeschichtlich aber ein programmierbarer Tischrechner. Aus diesem Widerspruch resultiert der ganze Ärger, über den wir diskutieren. > Und Windows kam noch viel später. Die ersten > verfügbaren Linux-Distributionen kamen um 1993..4, > also zur Zeit von Windows 3.1 und dem Anlauf von > OS/2. Die Fakten stimmen -- aber was folgt daraus? Windows kam später als Unix, stimmt -- so viel später, dass wesentliche Ideen vom X Window System bzw. vom Mac geklaut werden konnten. Linux seinerseits kam später als Windows. Und -- nicht zu vergessen: Selbst Windows 3.1 war noch ein "Graphischer Betriebssystemaufsatz"! Die Trennung von Kommandointerpreter und graphischer Oberfläche findet sich also sogar in den ersten Versionen von Microsoft Windows wieder! > Nein, Thorvalds hatte Vorlauf. Sicher nicht. Als Windows 3.1 erschien, war Linus Student. Es ist nicht redlich, so zu tun, als wären Richard Stallman und Linus Thorvalds dieselbe Person. Das ist nicht fair. > Er hätte ein PC-Betriebssystem konzipieren können, > aber er hat es nicht getan, sondern Unix hergenommen. Naja, aus der Rückschau würde ich sagen: Er hat das getan, was längst überfällig war -- nämlich endlich ein Betriebssystem, das keine "Ladehilfe" ist, auf den PC zu bringen. Stallman hat das begonnen -- Linus hat es vollbracht. > Der krasse Unterschied zwischen allen unixoiden OS und > allen PC-OS liegt in der grundsätzlichen Ausrichtung: Korrekt. > Mehrbenutzersystem mit Administrierung auf der einen > Seite, Moment: "Multi User multi Tasking"-System, soviel Zeit muss sein. Der Unterschied ist wichtig; ich komme auf ihn zurück. > von einem (1 Person) Benutzer zu handhabendes System > auf der anderen Seite - deswegen auch PC = persönlicher > Rechner. Richtig. > Und eben der von IBM hatte sich durchgesetzt, weil > er Steckplätze hatte, von Firmen und Anwendern > konfiguriert werden konnte und damit an sehr > unterschiedliche Verwendung angepaßt werden konnte. > Alles andere war damals eben nicht derart flexibel. Ja -- aber nicht NUR deshalb hat sich der IBM-PC durchgesetzt: IBM hat damals sämtliche Schaltpläne veröffentlicht, was es den findigen Asiaten ermöglicht hast, preiswerte Clones auf den Markt zu werfen, die bis ins letzte Bit kompatibel waren. Damit kam dann der bekannte jahrzehntelange Preisrutsch und die immer noch laufende Explosion der Rechenleistung. (Und es kam auch das von c't-Autor Andreas Stiller heißgeliebte A20-Gate.) > Was bleibt, sind die völlig unterschiedlichen > Ausrichtungen zwischen der Mainframe-Szene und der > PC-Szene und der jeweils dafür verwendeten > Betriebssysteme und Programme. Richtig -- und genau hier möchte ich einhaken: Es gab -- am Geldbeutel von Privatandwendern und Kleinunternehmen gemessen -- Ende der Achtziger schlicht weder preiswerte Hardware, auf der man Unix hätte ausführen können, noch ein leicht zugängliches und preiswertes unixoides Betriebssystem. (Einzige mir bekannte -- tragische -- Ausnahme: Coherent.) Diese Lage änderte sich schlagartig, als der 386er erschien -- und die logische Folge war ein freier Nachbau von Unix. ENDLICH! konnten die Erfahrungen, die schon über zwanzig Jahre hinweg beim Betrieb von EDVA gesammelt wurden, auch für ein System verfügbar gemacht werden, das Kleinanwender mit schmalem Geldbeutel nutzen können! > Genau DIESES ist auch der Anlaß dieses gesamten > Threads. Ein unixoides OS ist definitiv von hause > aus NICHT geeignet für einen PC, denn es geht > aus von mehreren Dingen, die am PC eben völlig > anders Das stimmt. Deshalb ist ein aktuelles Linux ja auch kein Unix von anno dunnemals. > sind als in den Gefilden (vulgo "Rechenzentrum"), > die dunnemals bei Bell und in den Universitäten > üblich waren, als da sind: > 1. Mehrbenutzerbetrieb. Gleichzeitig. > 2. professionelle Administration > 3. EDV- bzw. datentechnische Ausrichtung. Keine > Meß- und Steuertechnik, kein Büroeinsatz, kein > privater Einsatz > > zu 1. Am PC spielt ein Mehrbenutzerbetrieb praktisch > gar keine Rolle, denn es gibt nur einen einzigen Platz > vor der Kiste und mehrere Benutzer irgendwo an diversen > Terminals sind unüblich. Formell richtig, inhaltlich aber sinnwidrig: Auch wenn die verschiedenen Nutzer den PC NACHEINANDER nutzen, ist es sehr angenehm, wenn deren private Daten und deren persönliche Systemeinstellungen getrennt im System getrennt werden. Das ist SO praktisch, dass auch MS Windows dazu in der Lage ist. Auf der anderen Seite möchte ich heute DEFINITIV keine Kiste benutzen, die nicht zum Mehrprozessbetrieb (multi tasking) in der Lage ist -- und das scheint ja immerhin auch anderen SO wichtig zu sein, dass es Windows ab XP ebenfalls beherrscht. Tanenbaum hat übrigens in der legendären Diskussion "Linux is obsolete" auch so ähnlich argumentiert wie Du -- was die Argumente nicht gültiger macht, aber zeigt, wie alt das Denkmuster ist. > zu 2. Am PC (zumindest am privaten) gab/gibt es > keinen angestellten Administrator. Das war und ist > Sache des Benutzers. Das ist richtig -- aber kein Argument gegen getrennte Logins. Es ist auch Laien sehr leicht zu erklären, dass dieselbe physische Person zu verschiedenen Zeitpunkte verschiedene Rollen bekleiden kann. > zu 3. Am PC findet sowohl Büroeinsatz oder büroähnlicher > Einsatz statt, ebenso Meß- und Steuerungstechnik, ebenso > ganz erheblich privater Einsatz, auch zu privaten Hobbies. > Und da wir Menschen keine Maschinen sind und am PC auch > nicht über Netzwerke hinweg irgendwelche Server > administrieren müssen um unsere Brötchen zu verdienen, > ist es die Normalität, daß das User-Interface eben > grafisch und bunt ist und nicht die Kommandozeile, Das hat nichts miteinander zu tun. Ob ich eine GUI oder eine Kommandozeile verwenden will, hängt von der konkreten AUFGABE ab. > Dies habe ich noch deutlich nach 2000 und mehr als > 5 Jahren Windows95/98/2K/XP mir von Linuxer vorwerfen > lassen müssen, die "Klickibunti" riefen und die > Kommandozeile lobten. Siehe oben. > An dieser Stelle wird klar, daß der angebliche Vorsprung > von Windows keineswegs SO jemals existiert hat, Das sagen die Linuxer ja schon lange: TECHNISCH war Windows nie besser als Linux. :) > sondern daß die Entwicklung von den Linuxern schlichtweg > verpennt worden ist. SO HERUM. Nein, auch das nicht. Beim Aufkommen von Linux (LINUX! Nicht GNU, und nicht Unix!) war die Marktdurchdringung von Windows einfach schon zu groß. Schlechtes Timing. > Nun mag man argumentieren, daß es ja inzwischen grafische > Aufsätze auf's Unix/Linux gibt, Geschichtsklitterung: Diese Aufsätze gibt es nicht "inzwischen", die gab es (für Unix) VOR dem Erscheinen von MS Windows.
ThomasW schrieb: > Erfahrungen. Eigene und im Umfeld. Ich war oft der, der Windows neu > installieren durfte. Ich habe in all den vielen Jahre mein System nicht ein einziges mal selber zerschossen. Freilich, wenn ich in den Anfangszeiten mit Internet neu ausetzen musste , dann hatte ich mir eine Schädling eingefangen. War aber daran selber Schuld weil ich mit meinem Admin Account im Netz war. Dann habe ich aber dazu gelernt.und die AV- Software gewechselt und zusätzlich eine Firewall unter w2k (das erste bessere windows) eingerichtet und natürlich auch einen eingeschränkte Nutzer. Heute setze ich nur noch auf, wenn es sich um eine neues OS handelt. Xp habe ich auf einer Sicherungplatte und wenn ich das Gefühl habe , xp wird ist wieder schleppend, dann bereinige ich meine ED kopiere die auf eine externe und dann kommt Clonezilla zum Einsatz. Danach geht es wieder etwas flotter. Aber heuer noch werde ich ein W7 neu aufsetzen. Hatte mal vor 3 Jahren ein Test Installation gemacht, nur um mir das mal anzusehen. Danach sollte mein Problem mit den alten Browsern unter xp eine Zeit lang vergessen sein. Ich weiß, das w7 nicht mehr gesupportet wird. xp auch nicht, es ist mir egal, Hatte noch nie ein Problem deswegen.
Zeno schrieb: > Der Punkt ist einfach, das wenn ein spezielles Format benutzt wird, man > immer etwas braucht was mit diesem Format umgehen kann. > Nehmen wir einfach mal rein hypothetisch an, die Clonezilla Entwickler > ändern irgend etwas, wodurch die Abwärtskompatibilität nicht mehr > gewährleistet ist (muß ja noch nicht mal Absicht sein), Du vertraust > darauf und bringst Dein Lifesystem auf den aktuellen Stand, weil > Clonezilla auch ein neues Feature bekommen hat auf welches Du schon > lange gewartet hast. Irgendenwann nach dem Update brauchst Du Dein > Backup, weil Du versehentlich irgendwelche Daten geschreddert hast, aber > irgendwie kann das neue Clonezilla nicht mehr auf die alten zugreifen. Danke für die Ausführung. Dazu wäre aus meiner Sicht zu sagen: Was du für Clonezilla beschreibst, könnte ebenso mit tar passieren. Tatsächlich ist’s so, dass es derzeit verschiedene Varianten gibt, die in Details voneinander abweichen (GNU tar und BSD tar), so dass man etwas aufpassen muss, sich keinen Datensalat zuzubereiten. Außerdem kann das Gleiche, was du für Clonezilla zeigst, mit tar passieren. Allerdings unterstelle ich sowohl den Entwicklern von tar, als auch denen von Clonezilla mal, dass sie Wert drauf legen, das nicht geschehen zu lassen, und dass sie kompetent genug sind, das auch zu schaffen. Außerdem würde ich direkt nach einem Major-Update ein Backup mit der dann aktuellen Version fahren, so dass ich eine garantiert zur Softwareversion passende Backupversion vorliegen hätte. Aber angenommen, der gezeichnete Fall tritt ein: dann hole ich mir ein älteres Clonezilla aus einem der unzähligen Archive und gut. Außerdem ist das Format wohl dokumentiert, so dass man auch ohne das Programm darauf zugreifen können sollte – ich kann’s nicht mit Gewissheit sagen, weil ich nichts davon halte, Images zu normalen Backupzwecken zu erstellen: Das ist aus meiner Sicht eine furchtbare Ressourcenverschwendung (Redundanz, Zeitbedarf, unwichtige Sachen werden mitgesichert, Platzbedarf), und extrem unflexibel (kein Backup der tatsächlich geänderten Daten, sondern immer alles) – und wenn ich wirklich mal ein Image brauchen sollte, dann nehme ich dd, cat, cp, pv – die etablierten Werkzeuge halt, die tatsächlich Images erzeugen können. Das jedenfalls wären aus meiner Sicht die Argumente gegen Clonezilla, das „spezielle“ Datenformat ist’s jedoch nicht. Für besser als Images oder auch tarballs zu Backupzwecken halte ich dateibasierte Sicherungen: mittels rsync kann man initial Kopien des gewünschten Dateisystems oder Verzeichnisses oder auch nur einzelner Dateien aus einer Liste erzeugen, und diese Kopien dann im Rotationsprinzip inkrementell (sprich: mit geringstem Zeitaufwand) auf den aktuellen Stand bringen. Das lässt sich auch gut scripten: man steckt einen Backupdatenträger an, und einige Sekunden später sagt eine Meldung auf dem Bildschirm, dass man ihn nun wieder abziehen kann, weil das Backup fertig ist – mehr ist nach einmaliger Einrichtung nicht erforderlich. Und: die Dateien sind direkt zugreifbar, weil es ein normales Dateisystem ist, das man einhängen und nutzen kann. Selbstverständlich ist dazu ein Dateisystem nötig, welches alle Attribute unterstützt, die relevant sind. Ein NTFS oder FAT ist dazu unter Linux ungeeignet. Egon D. schrieb: > Gemeint ist, zunächst einen Snapshot anzulegen und > von diesem dann das Backup zu erstellen? Inwiefern > löst das das Problem mit den offenen Dateien? Die Dateien sind im Snapshot nicht mehr offen. Gegen unsyncrone Files etwa eines DBMS, bei dem für eine Aktion teils mehrere Files geändert werden, hilft das natürlich nicht – solches weiß man aber, wenn man derartige Software nutzt, und macht das Backup dieser Daten mit den dafür vorgesehenen Werkzeugen. Snapshots sind eine prima Sache – man sollte allerdings nicht auf die Idee kommen, sie selbst als Backup zu betrachten, sondern zu dem Zweck den Inhalt auf herkömmliche Weise sichern.
A. K. schrieb: > Speichert der alle Attribute von Files, also > inklusive ACL, SELinux etc, mit Namen jeder Länge, die in Filesystemen > vorkommen kann? man tar
Beitrag #6419193 wurde von einem Moderator gelöscht.
Zeno schrieb: > Jack V. schrieb: >> Wenn man unter Linux ein Backup anlegt (darauf deutet das FS hin), dann >> wird man mit hoher Wahrscheinlichkeit im Ernstfall auch unter Linux >> wieder daraus zurücksichern wollen. Warum sollte man in dem Fall >> Rücksicht drauf nehmen, ob irgendwelche anderen Systeme damit Probleme >> haben könnten? > > Für ein komplettes Systembackup ist das durchaus richtig, aber > Sicherungskopien von Daten würde ich so speicheren, das sie möglichst > von vielen Systemen gelesen werden können. In Praxis hat sich bewährt > und hat mir schon des öfteren weiter geholfen. > Das muß aber jeder für sich selbst entscheiden. Da ich privat mit 3 > System arbeite (Win, Mac, Linux) mache ich Sicherungskopien meiner Daten > auf einer USB-Platte mit mit FAT32, da dieses Filesystem von allen > Systemen die ich verwende gelesen werden kann. Akademisch stimmt das. Nur, es ist weder in der Breite der Benutzer üblich noch halten es die meisten Anwender so durch. Der aufgeklärte Otto-Normaluser sichert... - auf USB-Medien mit C&P - in die Cloud, wenn es vorher eingerichtet wurde - mit Kauf-Software (schon seltener) - mit Bordmitteln des OS (selten) Unsere lokale Admins arbeiten mit fertiger Business-Lösung. Und da ist schon einmal nicht sicher was nach Upgrades geht oder nicht geht - auch in der Windows-Welt. Frag‘ doch mal den Admin Deiner Wahl, wie die Daten aus TEAMS-Kanälen zurückgesichert werden... Ich wette das er nicht einmal weiß ob das überhaupt geht. Schnappschüsse sind DAS Mittel für 24x7 oder auch das Backup in der Mittagspause, ohne runterfahren des Systems. Windows Volumenschattenkopielässt grüßen. Rsync benutze ich sehr gerne, weil zuverlässig und schnell und mit allem was ich brauche und in vielen OS verfügbar.
Zeno schrieb: > Ich habe sogar noch einen Server mit angeschlossenen DAT-Laufwerk > stehen. Ganz wichtige Daten (Sourcecode, in einem meiner Projekt stecken > über 20 Jahre Arbeit drin) werden dann zusätzlich noch auf Band > gesichert. Dann kannste du auch gleich nach /dev/null sichern, das geht schneller.
Jack V. schrieb: > Gegen unsyncrone Files > etwa eines DBMS, bei dem für eine Aktion teils mehrere Files geändert > werden, hilft das natürlich nicht In Windows gibt es einen Mechanismus, über den das Snapshot-Verfahren des Systems solchen DBMS diese Intention mitteilen kann. Das DBMS kann dann temporär point-in-time consistency herstellen.
NACHTRAG: Die Sicherungen sollen i.d.R. kurzfristig/zeitnah funktionieren, deshalb ist eine Annahme wie „Einstellung des Produktes“ o.ä. praktisch von geringer Relevanz. Wer nur alle 2 Jahre sichert ist selbst das Problem, nicht die Softwareversion/Verfügbarkeit.
:
Bearbeitet durch User
A. K. schrieb: > Jack V. schrieb: >> Gegen unsyncrone Files >> etwa eines DBMS, bei dem für eine Aktion teils mehrere Files geändert >> werden, hilft das natürlich nicht > > In Windows gibt es einen Mechanismus, über den das Snapshot-Verfahren > des Systems solchen DBMS diese Intention mitteilen kann. Das DBMS kann > dann temporär point-in-time consistency herstellen. Dafür verwendet der geneigte Nutzer die geeignete Software. Und das passiert beim Otto-Normalverbraucher eher nicht, dass da eine 500GB große SQL-DB produktiv werkelt...
Uwe D. schrieb: > Schnappschüsse sind DAS Mittel für 24x7 oder auch das Backup in der > Mittagspause, ohne runterfahren des Systems. Was man auf geeigneten Systemen auch alle 15 Minuten machen kann. Aber das ist derzeit noch nichts für Tante Erna, weil der Unterbau nicht wirklich reif ist. In FreeNAS gehts schon eine Weile, da hat man ZFS zur Verfügung. Bei Linux auf dem Desktop käme nur BTRFS in Frage, und da gibts wohl keine Distro, die das schlüsselfertig anbietet.
A. K. schrieb: > In Windows gibt es einen Mechanismus, über den das Snapshot-Verfahren > des Systems solchen DBMS diese Intention mitteilen kann. Das DBMS kann > dann temporär point-in-time consistency herstellen. Die Sache mit den DBMS ist aber auch: es kann durchaus passieren, dass ein dateibasiertes Backup einer älteren Version mit einer aktuellen Version des DBMS nicht mehr kompatibel ist (aka „die Daten aus der Datenbank haben wir ewig nicht gebraucht, irgendwann im letzten Jahr muss sie aus dem System verschwunden sein – ich gehe und hole das LTO-Band mit den Files aus dem Safe …“). Mit dem mitgelieferten Werkzeug ist das hingegen kein Problem, damit kann man sich beim Restore auch genau die Datenbanken oder gar Tabellen raussuchen, die man wirklich wiederherstellen will. Meine Erfahrung beschränkt sich hier aber zugegebenermaßen auf MySQL/MariaDB – mag sein, dass es mit anderen Produkten weniger problematisch ist.
A. K. schrieb: > Bei Linux auf dem Desktop käme nur BTRFS in Frage, und da > gibts wohl keine Distro, die das schlüsselfertig anbietet. Unter den von mir genutzten /Distro/bitionen … ähm /Distri/butionen ist’s kein Problem, BTRFS zu nutzen. Ebensowenig, ZFS herzunehmen (einige User schwören drauf …). Und nicht zuletzt kann man ja noch LVM drunterlegen, das bringt dann dateisystemunabhängig Snapshots mit.
:
Bearbeitet durch User
Jack V. schrieb: > Die Sache mit den DBMS ist aber auch: es kann durchaus passieren, dass > ein dateibasiertes Backup einer älteren Version mit einer aktuellen > Version des DBMS nicht mehr kompatibel ist Es ist generell kein Nachteil, wenn man weiss, was man tut. Was sich besonders bei DBMS empfiehlt. ;-)
A. K. schrieb: > Bei Linux auf dem Desktop käme nur BTRFS in Frage, und da > gibts wohl keine Distro, die das schlüsselfertig anbietet. Nur ist BTRFS eher ne frühe Beta, wer mit solchem halbfertigen Müll "Backups" macht hat nicht mehr alle Tassen im Schrank. Der Dreck kann ja bis heute nicht zuverlässig den freien Speicher melden, wenn es vollläuft riskiert man ein geschrottetes FS. Meine Tests mit BTRFS waren vernichtend.
Jack V. schrieb: > Unter den von mir genutzten /Distro/bitionen … ähm /Distri/butionen > ist’s kein Problem, BTRFS zu nutzen. Ich erwähnte in diesem Zusammenhang nicht zufällig Tante Erna...
Zeno schrieb: > Für so eine Sicherungskopie würde ich ein Format wählen, > welches von möglichst vielen OS zumindest lesbar ist. > Gleiches gilt für das Komprimierverfahren. Ich benutze auf meinen externen Destplatten NTFS. Dazu ein Programm, dass meine Dateien einfach nur kopiert und identische Dateien mit einander verlinkt. Komprimieren bringt mir derzeit nicht viel, da die größten Dateien (Bilder, Videos, Java Bibliotheken) sowieso schon komprimiert sind. Wenn ich komprimieren würde, dann mit einem gängigen Format. ZIP wäre da mein bevorzugter Kandidat, dicht gefolgt von tar.gz. Mir ist es wichtig, dass ich meine Backups nach einem OS oder Programmwechsel notfalls mit anderer Software wieder einlesen kann. Deswegen mag ich Tools, die auf Standard-Verfahren (wie ZIP) aufbauen und ihre Meta-Informationen in einer Maschinen+Menschen lesbarer Form drumherum bauen. Für diese Flexibilität nehme ich in Kauf, einige Informationen vom Linux Dateisystem (z.B. Zugriffsrechte) zu verlieren. Die wäre für mich nur von Interesse, wenn ich das ganze OS sichern würde. Aber das mache ich ohnehin nicht. Ich sichere nur meine persönlichen Dateien und die von mir geänderten Konfigurationsdateien aus /etc (das sind nicht einmal 10 Dateien).
A. K. schrieb: > Was man auf geeigneten Systemen auch alle 15 Minuten machen kann. Aber > das ist derzeit noch nichts für Tante Erna, weil der Unterbau nicht > wirklich reif ist. In FreeNAS gehts schon eine Weile, da hat man ZFS zur > Verfügung. Bei Linux auf dem Desktop käme nur BTRFS in Frage, und da > gibts wohl keine Distro, die das schlüsselfertig anbietet. IMHO kann Ubuntu von einem ZFS-Snapshot booten und richtet für jeden Update einen Snapshot ein.
Jack V. schrieb: > Tatsächlich ist’s so, dass es derzeit verschiedene Varianten gibt, die > in Details voneinander abweichen (GNU tar und BSD tar) Das ist richtig, da aber tar dazu konzipiert wurde die Daten Bit für Bit schön hintereinander auf ein Tape zu schreiben wir und kann sich an dem Datenformat nichts ändern. tar ist mittlerweile so ein Unixurgestein das es auch keiner mehr anfassen wird. Wichtig bei der Benutzung von tar ist z.B. auch das man keine Schalter benutzt die nur ein bestimmtes tar kennt. Klassisches Beispiel dafür ist der bei GNU tar vorhandene Schalter -z mit dem das Archiv gleich zip-komprimiert wird. tar von HP-UX kennt diesen Schalter nicht. Also schreibe ich beim Erstellen des Archives nicht tar cfz backup.tar.gz /home/* sondern tar cf - /home/* |gzip > backup.tar.gz. Vielleicht ist das ja auch etwas paranoid, aber für den 2.Fall weis ich das die eigentlich jedes unixoide System lesen kann, während ich beim ersten mir da nicht so sicher bin. Mit anderen Worten ich versuche möglichst den Standard zu verwenden, weil man nur da relativ sicher sein kann das er von vielen Sytemen unterstützt wird. Wie gesagt vielleicht etwas paranoid, aber bei Backups von Daten vertraue ich lieber den Standards und setze nicht auf irgendwelche Sondersachen, an dieser Stelle steht Sicherheit ein Back auch wieder lesen zu können vor Effizienz und Komfort.
Zeno schrieb: > Klassisches Beispiel dafür ist > der bei GNU tar vorhandene Schalter -z mit dem das Archiv gleich > zip-komprimiert wird. tar von HP-UX kennt diesen Schalter nicht. Also > schreibe ich beim Erstellen des Archives nicht tar cfz backup.tar.gz > /home/* sondern tar cf - /home/* |gzip > backup.tar.gz. Vielleicht ist > das ja auch etwas paranoid, aber für den 2.Fall weis ich das die > eigentlich jedes unixoide System lesen kann, während ich beim ersten mir > da nicht so sicher bin. Soweit mir bekannt ist, sind diese beiden Kommandos im Resultat identisch - also 100% kompatibel.
Computerbildleser schrieb: > Dann kannste du auch gleich nach /dev/null sichern, das geht schneller. Bist halt ein typischer Computerbildleser - keine Ahnung von nix. Bänder gehören immer noch zu den sichersten Backupmedien und werden immer noch im professionellen Umfeld eingesetzt. Magnetische Datenspeicher haben immer noch die höchste Lebensdauer (s. hier https://blog.storagecraft.com/de/lebensdauer-der-datenspeicher/), was ich auch bestätigen kann. Ich habe selbst noch einige alte Bänder die immer noch lesbar sind, hingegen haben da gleich alte CD's schon Aussetzer und werden teilweise gar nicht mehr gelesen. Es gibt da sicher auch bei CD/DVD Ausnahmen, aber man kann sich eben nicht darauf verlassen. DAT ist auch ein Kompromiss, es gibt Besseres aber das ist auch noch heute (für privat) unbezahlbar. Gebrauchte DAT bekommt man heute zu bezahlbaren Preisen. Die klassischen Laufwerke benötigen in aller Regel aber einen SCSI Anschluß, so das man da eine spezielle Controllerkarte braucht. Die scheint es aber noch bei Amazon zu geben - im örtlichen Mediamarkt, wo Du einkaufst, aber ganz bestimmt nicht.
Zeno schrieb: > Vielleicht ist > das ja auch etwas paranoid, aber für den 2.Fall weis ich das die > eigentlich jedes unixoide System lesen kann, während ich beim ersten mir > da nicht so sicher bin. Weil ja andere unices so wichtig sind wenn man daheim linux nutzt. Dein Allerwetlsformat kann man auch unter Windows entpacken. Wer mit tar + gzip verwendet hat ganz andere Probleme und ist sehr mutig.
Zeno schrieb: > ist halt ein typischer Computerbildleser - keine Ahnung von nix. > Bänder gehören immer noch zu den sichersten Backupmedien und werden > immer noch im professionellen Umfeld eingesetzt. Aber nicht dein DDS-Schrott. Das sollte man mittlerweile mal mitbekommen haben, wir haben 2020. Den Müll setzt man auch aus ganz anderen Gründen heute nicht mehr ein.
Zeno schrieb: > bezahlbaren Preisen. Die klassischen Laufwerke benötigen in aller Regel > aber einen SCSI Anschluß, so das man da eine spezielle Controllerkarte > braucht. Die scheint es aber noch bei Amazon zu geben - im örtlichen > Mediamarkt, wo Du einkaufst, aber ganz bestimmt nicht. Im Gegensatz zu dir Vollexperten weiss ich dass es sogar DDS-Laufwerke mit USB-Anschluss gibt. DDS und sicher mein Gott du lebst hinterm Mond. Wenn dir dein Laufwerk verreckt wirst du den Grossteil deiner Bänder in einem anderen definitiv nicht mehr lesen können. Ich habe hier noch ne Kiste voller DDS-Laufwerk in diversen Level (diverse HPs, Quantum/Seagate, von DDS-2 bis DAT72), welches Laufwerk da was von andern lesen kann ist die reinste Glückssache. Das ist der unzuverlässigste Schrott der jemals produziert wurde.
Stefan ⛄ F. schrieb: > Dazu ein Programm, > dass meine Dateien einfach nur kopiert und identische Dateien mit > einander verlinkt. Für Datensicherungen, also Dokumente, Bilder, Sourcecode etc. ist einfaches Kopieren eigentlich immer noch 1.Wahl. Unkompriemiert geht bei den heutigen Datengrößen schon fast nicht mehr. Der Umfang eines größeren C# Projektes ist schon beträchtlich, da geht es ohne komprimieren eigentlich nicht mehr. tar nehme ich halt gerne weil das ohne große Verrenkungen halt auch die Unterverzeichnisse mit sichert. Bei zip muß es meistens dem Paker noch per Schalter mitteilen, das er rekursiv sichern soll. Ich hatte auch schon mal einen ZIP-Packer der hatte mit größeren Verzeichnisbäumen Probleme und die Sicherungskopien waren dann schlichtweg unbrauchbar, weil unvollständig. Stefan ⛄ F. schrieb: > Ich benutze auf meinen externen Destplatten NTFS. Dazu ein Programm, > dass meine Dateien einfach nur kopiert und identische Dateien mit > einander verlinkt. NTFS ist an und für sich schon ein recht gutes Dateisystem - auch wenn's von MS ist - ich kann mich aber noch erinnern das es mal Linuxdistris gab die damit nicht richtig umgehen konnten. Aus diesem Grund benutze ich lieber FAT32 weil dort die Kompatibilität besser ist, auch zu MS eigenen BS wie z.B. Win98.
Stefan ⛄ F. schrieb: > Für diese Flexibilität nehme ich in Kauf, einige Informationen vom Linux > Dateisystem (z.B. Zugriffsrechte) zu verlieren. Die wäre für mich nur > von Interesse, wenn ich das ganze OS sichern würde. Aber das mache ich > ohnehin nicht. Ich sichere nur meine persönlichen Dateien und die von > mir geänderten Konfigurationsdateien aus /etc (das sind nicht einmal 10 > Dateien). SEhe ich genau so - habe ich ja auch schon geschrieben.
Zeno schrieb: > ich kann mich aber noch erinnern das es mal Linuxdistris > gab die damit nicht richtig umgehen konnten. Ich auch. Das ist zum Glück verbessert worden.
Computerbildleser schrieb: > Im Gegensatz zu dir Vollexperten Als Vollexperte hast eben Du Dich mit Deinem ersten Post geoutet. Ich habe mittlerweile seit gut 30 Jahren mit HP-UX inclusive den zu den Workstations gehörigen DAT-Laufwerken zu tun und da kann ich nur sagen das die bisher sehr zuverlässig waren. Hardwareausfälle kann ich in den 30 Jahren an einer Hand abzählen und die brauch ich noch nicht mal vollständig dazu. Dabei stehen die in teilweise recht rauher Produktionsumgebung. Computerbildleser schrieb: > Wenn dir dein Laufwerk verreckt wirst du den Grossteil deiner Bänder in > einem anderen definitiv nicht mehr lesen können. Da ich 3 gleichartige Laufwerke habe mache ich mir da sehr wenig Sorgen. Selbst wenn da mal eines verrecken sollte ist das kein Beinbruch. Da das bisher noch nicht vorgekommen ist, gehe ich davon aus das ich da zu Lebzeiten nicht im Regen stehen werde. Desweiteren habe ich wichtige Daten auf verschiedenen Medien gesichert, so das ich das Ganze sehr entspannt angehe.
Computerbildleser schrieb: > Dein > Allerwetlsformat kann man auch unter Windows entpacken. Richtig! Und jetzt benutze mal Dein Hirn warum ich eben genau diese Allerweltsformat gern nutze. Computerbildleser schrieb: > Weil ja andere unices so wichtig sind wenn man daheim linux nutzt Hatte ich nicht geschrieben, das LX nur eines unter mehreren Systemen ist, die ich zu Verfügung habe? Computerbildleser schrieb: > Wer mit tar + gzip verwendet hat ganz andere Probleme und ist sehr > mutig. Bisher hat sich dieser Mut bewährt und ich habe keine Gründe davon abzugehen. PS: Arbeite mal an Deine Rechtschreibung, gerade der Post den ich hier zitiert habe ist schwierig zu lesen.
Stefan ⛄ F. schrieb: > Soweit mir bekannt ist, sind diese beiden Kommandos im Resultat > identisch - also 100% kompatibel. Sind sie. Da passiert intern auch nichts anderes.
Computerbildleser schrieb: > Wer mit tar + gzip verwendet hat ganz andere Probleme und ist sehr > mutig. Wieder so eine steile Behauptung ohne Belege.
.tar.gz ist das Standardformat für Verteilung von Filebündeln in Linux/Unix. Sehr viel häufiger als .zip.
Tarpit schrieb: > Computerbildleser schrieb: > >> Wer mit tar + gzip verwendet hat ganz andere Probleme und ist sehr >> mutig. > > Wieder so eine steile Behauptung ohne Belege. Ja, das dachte ich auch gerade als Du diese These aufgestellt hast. Welche, konkret werden bitte...
Wenn tar.gz kein allgemeiner langzeit-stabiler Standard ist, dann ist es ASCII auch nicht. Der Einzige, der dieses Format immer noch nicht implementiert hat, ist (tadaaaa!) Microsoft. Aber das wundert niemanden. Microsoft hat nämlich schon immer alles so lange anders gemacht, bis die Leute dies als den neuen Standard akzeptieren. Bestes Beispiel ist ihre Umsetzung der OpenDocument Formate und diese beschissene ssh.exe, mit der man neuerdings zwangsbeglückt wird. Vor nicht allzu langer Zeit hatte MS auch eine ganz eigene Vorstellung davon, wie Webseiten zu funktionieren haben. Gottseidank ist wenigstens das vorbei.
Zeno schrieb: > Das ist richtig, da aber tar dazu konzipiert wurde die Daten Bit für Bit > schön hintereinander auf ein Tape zu schreiben wir und kann sich an dem > Datenformat nichts ändern. Das ist ja alles schön und gut, aber erlaube mir drei Fragen: 1) wenn du es sowieso nicht auf ein Tape schreiben willst, warum verpackst du es vorher noch mit tar? Wie gesagt, ich fahre mit meiner dateibasierten Sicherung mit rsync ziemlich gut – prüfen, ob’s Backup geklappt hat? Mit diff kein Problem. Selektives Rücksichern, ohne dass ein Programm erstmal den ganzen tarball durchrödeln muss? Mit cp kein Problem. Nur die tastächlich geänderten Files wegsichern? Mit rsync kein Problem. Dateirechte? Sowieso kein Problem. 2) wenn jemand, warum auch immer, sein Pseudoimage haben will, das Clonezilla erzeugt, was spricht denn nun dagegen? Clonezilla ist offen, wird also nicht von heute auf morgen verschwinden, oder so umgebaut, dass es mit alten Daten nicht mehr klarkommt. Und es gibt ein Livesystem extra dafür (wobei andere Systeme das ebenfalls mitbringen, so dass das nicht mal erforderlich ist – grml, etwa), wodurch es vom eigentlichen System unabhängig ist. 3) wenn ich nur Linuxmaschinen habe, und alle meine Kisten zudem von USB booten können, ein Livesystem also ohne irgendein Problem zum Einsatz kommen kann – warum sollte ich ein Dateisystem mit in diesem Szenario nennenswerten Nachteilen nutzen wollen, nur, damit ein nicht mal vorhandenes Windows darauf zugreifen könnte?
Jack V. schrieb: > 1) wenn du es sowieso nicht auf ein Tape schreiben willst, warum > verpackst du es vorher noch mit tar? Ich sichere meine Dateien ohne Kompression. Die Kompression (als *.tar.gz) spart Speicherplatz und damit Geld. Da kann die Backup-Platte schon mal 20€ billiger werden, oder man gibt das gesparte Geld für (hoffentlich) mehr Qualität aus. Ich kann das schon nachvollziehen. Ich hatte mal ein Backup Programm (unter Windows), das scheinbar ganz normale ZIP Archive erstellte. Doch bei einem späteren Test stellte sich heraus, dass alle meine ZIP Tools nur die ersten 80% davon lesen konnten. Nur dieses eine Backup Programm konnte alles lesen. Wenn einem so etwas zu spät auffällt, hat man unter Umständen ein ernsthaftes Problem. Da nützt es einem gar nichts, die Schuld auf ein Programm zu schieben.
Stefan ⛄ F. schrieb: > Die Kompression (als *.tar.gz) spart Speicherplatz und damit Geld. Wenn ich eines beim Backup nicht machen würde, dann, es zu komprimieren – während ein gekipptes Bit unkomprimiert maximal eine Datei unbrauchbar macht, kann dieses eine gekippte Bit in einem komprimierten Archiv erheblich mehr in den Abgrund reißen. Da ich, wie geschrieben, inkrementell sichere, sind mir die paar Prozent, die ich mir damit erkaufen würde, auch potentiell egal. Wenn meine 1TB-Platten irgendwann in vielen Jahren wirklich voll sein sollten, dann werde ich die paar Münzen für neue Platten wohl auch auftreiben können. Meine Frage zielte darauf ab: Wenn ich nun also ohne Komprimierung sichere, warum sollte ich dann nicht auch direkt tar weglassen? Seinen einzigen Vorteil in dem Kontext würde ich sehen, wenn jemand große Files, etwa Videos, auf sowas wie FAT32 sichern möchte – da kann man tar anweisen, handliche Stücke draus zu machen. Da ich aber mangels ernsthaft genutztem Windows sowieso keinen Bedarf sehe, das Backup auf ein solches Dateisystem zu schreiben, fällt auch der Punkt weg. Was also wäre der Vorteil von tar?
Jack V. schrieb: > Meine Frage zielte darauf ab: Wenn ich nun also ohne Komprimierung > sichere, warum sollte ich dann nicht auch direkt tar weglassen? Solltest du. Ich sehe keinen Sinn darin, die Festplatte zum Bandlaufwerk zu degradieren. > Da ich, wie geschrieben, inkrementell sichere Guck dir mal an, wie "Back In Time" das macht. Damit erstellst du komplette Schnappschüsse. Aber bei Dateien, die nicht verändert wurden, verweist der Eintrag im Inhaltsverzeichnis einfach auf die alte Datei. So wird vermieden, Duplikate zu speichern. Das Verfahren ist super einfach und doch effizient. (FAT32 kann das nicht, wohl aber NTFS und alle Unix/Linux Formate). Am Ende hast du auf deiner Backup Platte für jeden Schnappschuss einen kompletten Verzeichnisbaum, auf den du ganz normal mit dem Dateimanager zugreifen kannst. Beim Benutzen des Sicherungskopie entfällt somit die Notwendigkeit, erst die Komplettsicherung zu nehmen und danach in inkrementellen Änderungen. Du hast alle Dateien sofort präsent, in jeder beliebigen Schappschuss-Version. Du musst sie nicht einmal zurück kopieren.
Stefan ⛄ F. schrieb: > Jack V. schrieb: >> 1) wenn du es sowieso nicht auf ein Tape schreiben willst, warum >> verpackst du es vorher noch mit tar? > > Ich sichere meine Dateien ohne Kompression. > > Die Kompression (als *.tar.gz) spart Speicherplatz und damit Geld. Da > kann die Backup-Platte schon mal 20€ billiger werden, oder man gibt das > gesparte Geld für (hoffentlich) mehr Qualität aus. > > Ich kann das schon nachvollziehen. > > Ich hatte mal ein Backup Programm (unter Windows), das scheinbar ganz > normale ZIP Archive erstellte. Doch bei einem späteren Test stellte sich > heraus, dass alle meine ZIP Tools nur die ersten 80% davon lesen > konnten. Nur dieses eine Backup Programm konnte alles lesen. > > Wenn einem so etwas zu spät auffällt, hat man unter Umständen ein > ernsthaftes Problem. Da nützt es einem gar nichts, die Schuld auf ein > Programm zu schieben. tar kann alle Dateiattribute aufnehmen, ein einfaches zip nicht. gz, bzip2, xy ist diesbezüglich sekundär zip ist halt Standard auf Windows, jeder kann das lesen ohne weitere Software zu installieren. Daten weitergeben zip. 7z, rar, etc. muss halt wieder ein Stück Software installiert werden. Aber irgendwie kommts da auch nicht mehr drauf an. https://itsfoss.com/tar-vs-zip-vs-gz/ ... Whereas we cannot reject tradition as a motivation for still using tarballs, with this little example, you understand why there is still some (corner?) cases where tar cannot be replaced by zip. This is especially true when you want to preserve all standard file metadata....
Stefan ⛄ F. schrieb: > Aber bei Dateien, die nicht verändert wurden, > verweist der Eintrag im Inhaltsverzeichnis einfach auf die alte Datei. Klingt umständlich. Wenn ich sowas wollte, würde ich lieber Hardlinks nehmen. Y/n ... schrieb: > tar kann alle Dateiattribute aufnehmen, > ein einfaches zip nicht. Naja, die Frage war: warum die Daten überhaupt irgendwo reinstopfen? Ist doch nur eine weitere potentielle Fehlerquelle, zumindest aber unnötiger Aufwand?
:
Bearbeitet durch User
> Stefan ⛄ F. schrieb: >> Aber bei Dateien, die nicht verändert wurden, >> verweist der Eintrag im Inhaltsverzeichnis einfach auf die alte Datei. Jack V. schrieb: > Klingt umständlich. Wenn ich sowas wollte, würde ich lieber Hardlinks > nehmen Es sind Hardlinks. https://blog.bmarwell.de/backup-mit-back-in-time/#Hardlinks_statt_Dupletten Wobei ich zu diesem Aufsatz ergänzen möchte, dass auch Windows solche Hardlinks unterstützt. Das war dem Autor wohl nicht klar.
Jack V. schrieb: : > > Naja, die Frage war: warum die Daten überhaupt irgendwo reinstopfen? Ist Wenn der angedachte Speicherort genug Platz und das gleiche FS in der gleichen Revision hat braucht man das nicht, dann kriegt man sie so zurück wie man sie abgelegt hat, von ext2,3,4 auf NTFS u. dann zurück liefert ja nur den gestrippten Inhalt.
Y/n ... schrieb: > Wenn der angedachte Speicherort genug Platz und das gleiche FS in der > gleichen Revision hat braucht man das nicht, dann kriegt man sie so > zurück wie man sie abgelegt hat, von ext2,3,4 auf NTFS u. dann zurück > liefert ja nur den gestrippten Inhalt. Ja, genau das war doch die Frage: warum sollte ich für mein Backup nicht das passende Dateisystem nehmen, und die Daten einfach draufkopieren (was z.B. rsync macht), sondern ein unpassendes Dateisystem nehmen, und dann noch eine weitere Komplexitätsschicht wie tar hinzufügen?
Filebündel statt einzelner Files zu speichern kann bei vielen kleinen Files wesentlich schneller sein, als die Files einzeln zu verarbeiten. Sowohl schreibend, wie auch später löschend. Besonders dann, wenn das System entfernbare Medien so anspricht, dass die die Strukturen des Filesystems des Mediums eine vorzeitige Entfernung halbwegs unbeschadet überleben. Windows ist dafür bekannt, entfernbare Medien anders zu behandeln als fest installierte. Weil es davon ausgeht, dass Tante Erna nicht immer daran denkt, das USB-Medium abzumelden, bevor sie es rauszieht. Hintergrund sind primär die Metadaten-Operationen, wie Files und Directories anlegen und löschen. Die Integrität der Metadaten ist kritisch, entsprechend vorsichtig ist Windows in Standardeinstellung bei entfernbaren Medien. Linux ist rücksichtsloser, kann aber folglich auch effizienter mit solchen Medien umgehen. Files zu bündeln, ob in zip, tar, cpio oder andere Formaten, erspart solche Metadaten-Operationen für jedes einzelne File. Bei grossen Files spielen die anteilig keine Rolle. Bei vielen kleinen Files hingegen kann die Metadaten-Verarbeitung den grössten Teil der Arbeit des Backups darstellen.
:
Bearbeitet durch User
A. K. schrieb: > Windows ist dafür bekannt, entfernbare Medien anders zu behandeln als > fest installierte. Windows war hier eigentlich irrelevant. Und zumindest ich sehe bei mir im normalen Betrieb keinen nennenswerten Unterschied zwischen der Übertragungsgeschwindigkeit, wenn ich mein ~ einmal durch tar pipe, und einmal direkt auf den Zieldatenträger schreibe. Beim zweiten Backuplauf dann ist der Unterschied hingegen in der Tat beträchtlich: wenige Sekunden vs. mehrere Minuten. Allerdings ist Ersteres die Lösung mit den einzelnen Files im Ziel. Nein, tut mir leid – ich sehe bislang weder einen Grund, Backups auf ein FAT-FS zu schreiben, noch, eine zusätzliche Schicht Komplexität reinzustopfen, und die bisherigen Erläuterungen haben das nicht ändern können. Eine Ausnahme ist, wenn ich via Packet Write (also ohne den Zwischenschritt eines Images) auf BD-RE sichere – dort scheint der kontinuierliche Datenstrom eines tars erkennbare Vorteile zu bringen, aber beim Backup über USB oder über das Netz auf ein HDD oder SSD ist davon nichts mehr feststellbar.
Microsoft bzw. deren Einsatz von Produkten wie Windows, Office etc. im Bildungswesen wurde hier vermutlich auch schon angeschnitten. Hr. Kuketz hat hierzu vor kurzem einige meiner Meinung nach lesens- und bedenkenswerte Überlegungen angestellt, und 5 Mythen rund um den Microsoft-Einsatz durchleuchtet. https://www.kuketz-blog.de/bildungswesen-entlarvung-der-haeufigsten-microsoft-mythen/
:
Bearbeitet durch User
A. K. schrieb: >> Soweit mir bekannt ist, sind diese beiden Kommandos im Resultat >> identisch - also 100% kompatibel. > > Sind sie. Da passiert intern auch nichts anderes. Ich war mir da halt nicht sicher, weils es diesen Komprimierungsschalter bei HP-UX nicht gibt und bei anderen Implementationen von tar könnte dies ja ebenso gelagert sein. Deshalb bin ich halt lieber den Weg über das Konstrukt mit dem Pipe gegangen, da war ich mir sicher das es mit einer gwissen Kompatibilität funktioniert. Wenn beides identisch ist um so besser, schaden tut der andere Weg aber definitiv nicht.
Jack V. schrieb: > wenn du es sowieso nicht auf ein Tape schreiben willst, warum > verpackst du es vorher noch mit tar? Hatte ich doch ein paar Post's weiter vorn geschrieben, weil tar von Hause aus rekursiv einpackt und ich da keine Klimmzüge machen muß. Bei Zip bin ich da schon mal auf die Nase gefallen. Desweiteren schreibe ich ja ganz wichtige Daten auch noch auf Band, dann brauche ich dem Script halt nur das andere Zielangeben und der Rest läuft gleichartig ab. Beim auspacken ist es dann genauso, ich kann die Datei und das Band gleichartig verwenden. Und ganz bestimmt ist auch noch ein bissel Gewohnheit dabei.
Zeno schrieb: > A. K. schrieb: >>> Soweit mir bekannt ist, sind diese beiden Kommandos im Resultat >>> identisch - also 100% kompatibel. >> >> Sind sie. Da passiert intern auch nichts anderes. > > Ich war mir da halt nicht sicher, weils es diesen Komprimierungsschalter > bei HP-UX nicht gibt und bei anderen Implementationen von tar könnte > dies ja ebenso gelagert sein. Ist bei Solaris genau so. Man kann sich aber ein GNU Tool Package nachinstallieren bei dem dann die gewohnten Optionen verfügbar sind.
Zeno schrieb: > Hatte ich doch ein paar Post's weiter vorn geschrieben, weil tar von > Hause aus rekursiv einpackt und ich da keine Klimmzüge machen muß. Bei > Zip bin ich da schon mal auf die Nase gefallen. Eigentlich wollte ich gefragt haben (und im Grunde bin ich mir auch sicher, es getan zu haben): Warum hälst du es für einen Vorteil, die Daten überhaupt einzupacken? Warum ich es für einen Vorteil halte, genau das nicht zu tun, habe ich dargelegt – mich interessieren nun die Argumente dafür.
Jack V. schrieb: > wenn jemand, warum auch immer, sein Pseudoimage haben will, das > Clonezilla erzeugt, was spricht denn nun dagegen? Es verbietet Dir keiner Clonezilla. Ich mag generell keine Backuplösungen die auf eine spezielle Software setzen, unabhängig davon welches System das ist, weil ich eben dann von dieser Software abhängig bin. Ich versuche eigentlich immer den kleinsten gemeinsamen Nenner zu finden, weil ich das eben für wichtig halte mich nicht auf ein System fest zu nageln. Hängt vielleicht auch damit zusammen das ich beruflich mit verschiedenen Systemen zu tun habe. Da gibt es noch DOS, die komplette Windowspalette, HP-UX und Linux. DOS und UX wird zwar immer weniger und nur noch ganz wenige Kunden benutzen diese Systeme aber es gibt es eben noch - es gibt halt auch Kunden bei denen das Geld nicht so locker sitzt. Jack V. schrieb: > wenn ich nur Linuxmaschinen habe, und alle meine Kisten zudem von USB > booten können, ein Livesystem also ohne irgendein Problem zum Einsatz > kommen kann – warum sollte ich ein Dateisystem mit in diesem Szenario > nennenswerten Nachteilen nutzen wollen, nur, damit ein nicht mal > vorhandenes Windows darauf zugreifen könnte? Bei mir können halt nicht alle Maschinen von USB booten. Desweiteren schrieb ich ja das ich zu Hause auch viel mit Mac arbeite und Mac kann von Haus aus keine ext Dateisysteme von Linux mounten und damit weder lesen noch schreiben. Es gibt zwar Zusatzsoftware mit der das möglich sein soll, aber darauf vertraue ich nicht. Umgekehrt kann Linux per default auch kein HFS. Auch da gibt es ein Kernelmodul und diverse Software, ist aber eben auch kein Standard. FAT32 ist da eben der kleinste gemeinsame Nenner, da dieses Dateisystem von allen 3 System (Win, Linux, Mac) les- und schreibbar ist.
Jack V. schrieb: > Zeno schrieb: >> Hatte ich doch ein paar Post's weiter vorn geschrieben, weil tar von >> Hause aus rekursiv einpackt und ich da keine Klimmzüge machen muß. Bei >> Zip bin ich da schon mal auf die Nase gefallen. > > Eigentlich wollte ich gefragt haben (und im Grunde bin ich mir auch > sicher, es getan zu haben): Warum hälst du es für einen Vorteil, die > Daten überhaupt einzupacken? Warum ich es für einen Vorteil halte, > genau das nicht zu tun, habe ich dargelegt – mich interessieren nun die > Argumente dafür. Hast Du meinen zitierten Post vollständig gelesen? Da ist die Antwort auf Deine Frage eigentlich drin.
Zeno schrieb: > Hast Du meinen zitierten Post vollständig gelesen? Das Einzige, was da für tar sprechend drinstand, war, dass du z.T. auf Tape sicherst. Die Beiträge vorher lasen sich aber eher so, als würdest du generell a) ein Dateisystem empfehlen, das „von möglichst vielen Systemen gelesen“ werden könne, und b) die dadurch entstehenden Nachteile durch das Verpacken via tar kompensieren wollen. Dafür hätte ich Argumente lesen wollen, aber: Zeno schrieb: > Es verbietet Dir keiner Clonezilla. Leider scheinst du nicht zu lesen, was ich schreibe, denn ich habe mehrfach darauf aufmerksam gemacht, dass ich Clonezilla weder nutze, noch sonderlich toll finde. Insofern würde ich vorschlagen, wir belassen es dabei.
:
Bearbeitet durch User
Zurück zum Thema ;-) Gerade gesehen: "…and Linux finally wins the desktop wars, not by displacing Windows but by co-opting it. Perhaps this is always how it had to be." siehe: http://esr.ibiblio.org/?p=8764 und wird auf Slashdot diskutiert: https://linux.slashdot.org/story/20/09/27/193250/eric-s-raymond-is-microsoft-switching-to-a-linux-kernel-that-emulates-windows So wird's kommen :-) Gerhard
Naja, daß MS die Prio nicht mehr bei Windows sieht, war ja überhaupt erst der Grund, wieso MS die Windows-QA eingestampft hat. Die Profite mit Azure und MS' Verdreifachung des Börsenwertes geben Nadella insofern ja recht, auch wenn's für die Windowsnutzer bitter ist. Aber Chromedge als Testplattform für Linux zu sehen ist schon arg weit hergeholt. Ich habe hier Vivaldi unter Linux, was ja genau wie der jetztige Edge auf Chromium basiert. Das ist also von vornherein so portabel, daß es eben deswegen kaum als Testfall taugt.
A. K. schrieb: > Naja, tar heisst "tape archiver", dafür war er gebaut. Du, ich weiß was tar ist/war. Vermutlich habe ich zu meiner Studentenzeit mit dem Wiederaufrollen von Lochbändern mindestens 2x den Äquator umrundet (längenmäßig gesehen). 256x Leerlochung, dann der Header, den man damals direkt vom Lochband lesen konnte (so eingeübt mit oktal und ASCII war man damals), dann noch ein Stückchen Leerlochung und was dann kam, gehörte ein Stückchen vor die Abtastzeile, Klappe runter und es konnte losgehen. Kenn ich alles, dem weine ich aber keine Tränen nach. War genau so umständlich wie das Editieren von Lochband zu Lochband. Danke, genau wegen all dieser Erfahrungen bevorzuge ich ein grafisches UI und schreibe Batchdateien bloß, um mir make zu ersparen. Also laß mal. W.S.
Also wer glaubt, Windows würde ihren Kernel durch den Linux kernel ersetzen, muss schon arg was geraucht haben. Deren letzte Aktion mit den fragwürdigen DirectX wsl patches, die DirectX in WSL für Linuxanwendungen ermöglicht, aber nur in der WSL und nicht auf einem standalone linux, würde ich eher als Versuch betrachten, Linux Anwendungen zu Linux selbst inkompatibel zu machen, und nicht als indiz, dass MS was an Linux liegt.
Egon D. schrieb: >> Linus Thorvalds hatte überhaupt keinen Rückstand >> sondern einen etwa 20 jährigen Vorlauf, > > Das ist schlecht möglich -- Linus mag zwar ein Genie > sein, aber es ist nichts davon überliefert, dass er > bereits im zarten Alter von 2 Jahren Betriebssysteme > entwickelt hätte :) > > Soll heißen: Ich versteh, glaube ich, Deinen Gedanken, > bin aber der Meinung, dass Du ihn sinnwidrig anbringst. Es ist exakt so wie ich es schrieb. Unix lag allen Universitäten im Quelltext vor. Thorvald brauchte bloß in die Quellen zu schauen. Das Einzige, was er tatsächlich neu und selbst gemacht hatte, war der allererste Versuch, einen Scheduler für den 386 zu schreiben. Ja richtig, nicht für den 286, denn dessen protected Mode war zwar deutlich sicherer als der 32 Bit Modus, aber eben deshalb auch richtig lahmarschig - jedenfalls auf einem damaligen 286er mit stolzen 24 MHz Systemtakt. Also, Thorvalds hatte das gesamte Systemkonzept von Unix vorliegen, dazu sämtliche Quellen - er hatte 20 Jahre Vorlauf vor DOS/Windows, eben weil er nicht etwas wirklich neues gemacht hatte, sondern lediglich das bereits bekannte Unix ähem.. 'wiederverwendet' hatte. So war das nämlich - oder willst du die durchaus frappierenden Ähnlichkeiten zwischen Unix und Linux als reinen Zufall abtun? Egon D. schrieb: > Was Du m.E. außer Acht lässt, das ist die Tatsache, > dass Unix auf der einen und Einzelplatzsysteme wie > CP/M, MS-DOS und Konsorten auf der anderen Seite auf > ganz verschiedene Maschinenklassen und Anwenderkreise > zielten. CP/M hatte seine goldenen Jahre auf einem > Prozessor, der heutzutage sogar als Mikrocontroller > veraltet ist. > > Der moderne PC ist technisch ein Großrechner, > entwicklungsgeschichtlich aber ein programmierbarer > Tischrechner. Aus diesem Widerspruch resultiert > der ganze Ärger, über den wir diskutieren. Nein, ich habe hier garnichts außer Acht gelassen. MS-DOS hatte als einziges Vorbild CP/M, was aber schon für 16 Bit Prozessoren ein einfach zu kleines System war. Und Windows hatte überhaupt keine Vorläufer außer den nur quasi-grafischen Oberflächen diverser Programme, die es damals für den IBM-PC gab. Windows war tatsächlich eine genuine Entwicklung von Microsoft und die ersten zwei Versionen waren ungefähr so kümmerlich wie die allererste Version von Eagle. Aber man sehe mal, was daraus geworden war - weil damals die Fundamente für diese Software an den richtigen Stellen gelegt wurden. Und der moderne PC ist beileibe kein Großrechner, denn dessen Gesamtarchitektur ist völlig anders: Der Rechner als administriertes Ding ohne Zutritt durch User, abgesetzt davon User an Terminals. Eben deswegen auch ein OS, was diesen Umständen entspricht. Und die sind himmelweit entfernt von den Umständen am PC. Verrate mir doch mal, wieviele User an deinem PC zugleich arbeiten, also mit eigenem Bildschirm, eigener tastatur, Maus etc. Nein, ein PC ist durchweg ein Einmann-Rechner, war es schon immer und wird es auch bleiben. Eben ein persönlicher Rechner. Mit nur einem Stuhl davor. Der moderne PC kommt auch nicht von einem programmierbaren Tischrechner her. Das ist schlichtweg auch falsch. Selbst ein etwa zeitgleicher ZX-Spectrum war zu keiner Zeit ein programmierbarer Tischrechner. Der moderne PC ist eine Klasse von Geräten, die es vor dem ertsen IBM-PC nicht gegeben hatte: Ein Desktopgerät, was sowohl bürotauglich ist, als auch dank Erweiterbarkeit für Labor und Werkstatt geeignet. Zwar von einem Hersteller kommend, aber ausdrücklich für die weitere Ausstattung durch andere Firmen vorgesehen. Das hatte es zuvor schlichtweg noch nicht. Selbst die damaligen Osborne PC's waren geschlossene Konstrukte (und unverschämt teuer). W.S.
Jack V. schrieb: > Warum hälst du es für einen Vorteil, die > Daten überhaupt einzupacken? Packen hat den Vorteil, dass man nicht mit hunderttausenden Dateien hantieren muss, unabhängig von der Kompression. Viele Dateien sind schlicht unhandlich: Dateimanager mögen keine 20k Dateien in einem Ordner, das I/O-System wird strapaziert und die Performance auch bei SSDs leidet, und Netzwerkprotokolle verlieren auch deutlich an Effizienz. 🐧 DPA 🐧 schrieb: > Also wer glaubt, Windows würde ihren Kernel durch den Linux kernel > ersetzen, muss schon arg was geraucht haben. Es würde mich sehr wundern, wenn Microsoft darüber nicht gründlich nachgedacht hätte. Technisch ist das garnicht so furchtbar abwegig. Der Windows-Kernel hat eine stabile Treiber-API, die man in den Linux-Kernel integrieren kann (man denke an Projekte wie z.B. ndiswrapper). Die Anzahl der Anwendungen für den Windows-Kernel ist ebenfalls recht überschaubar - hauptsächlich die Win64- und Win32/WoW-Hosts. Der Linux-Kernel ist nachweislich stabil, skaliert deutlich besser und hat eine größere Entwicklergemeinschaft um sich herum. Portabilität ist bei beiden Kerneln gegeben, aber Linux existiert für so ziemlich jede Plattform auf dieser Welt. 🐧 DPA 🐧 schrieb: > und nicht als indiz, dass MS was an Linux liegt. Naja, Microsoft entwickelt sich zu einem ernstzunehmenden Linux-Contributor.
W.S. schrieb: > Es ist exakt so wie ich es schrieb. Unix lag allen Universitäten im > Quelltext vor. Thorvald brauchte bloß in die Quellen zu schauen. Was er weder konnte - weil er keinen Zugang dazu hatte - noch durfte - die BSDs sind aufgrund der rechtlichen Unsicherheit gescheitert, nicht weil sie untauglich waren. Was Torvalds hatte (und man schreibt ihn ohne 'h'), sind die Sourcen von Minix. Und Minix ist durch das Mikrokernel-Konzept vollständig anders aufgebaut, weswegen wir heute garantieren können, dass er es definitiv nicht abgeschrieben hat. > Das Einzige, was er tatsächlich neu und selbst gemacht hatte, > war der allererste Versuch, einen Scheduler für den 386 zu schreiben. Ich glaube, du unterschlägst hier sowohl 386BSD und DOS-Extender. Die gab es nämlich auch schon. Und selbst Windows 3.0 (Extended Mode) ist technisch äußerst interessant, weil es eigentlich nur ein Hypervisor für Windows 3.0 (Standard Mode) und Real Mode ist. Zwischen denen übrigens vollwertiges, präemptives(!) Multitasking existiert. > Ja richtig, nicht für den 286, denn dessen protected Mode > war zwar deutlich sicherer als der 32 Bit Modus, Hä? Erstens kann ein 286er keinen 32 Bit Modus, zweitens kann der 386er keinen 32 Bit Modus ohne Protected Mode... > aber eben deshalb auch richtig lahmarschig - jedenfalls auf > einem damaligen 286er mit stolzen 24 MHz Systemtakt. ... und drittens gab es keine 286er mit 24 MHz zu der Zeit. Schon garnicht von Intel. > So war das nämlich - oder willst du die durchaus frappierenden > Ähnlichkeiten zwischen Unix und Linux als reinen Zufall abtun? Du unterstellst ihm, dass er den UNIX-Code kopiert hat. Das ist nachweislich falsch. Und du verwechselst außerdem den UNIX-Kernel mit den UNIX-APIs (später als POSIX standardisiert), sowie die bereits existierenden Implementationen der ganzen UNIX-Tools aus dem GNU-Projekt und die grob kompatiblen Minix-Tools. Kurz: Da fehlt ein ganzer Haufen relevanter Details in deinem Text.
> 🐧 DPA 🐧 schrieb: >> und nicht als indiz, dass MS was an Linux liegt. > > Naja, Microsoft entwickelt sich zu einem ernstzunehmenden > Linux-Contributor. Hast du deren Mail auf der mailingliste gesehen? Viel mühe hat man sich da nicht gegeben. Zuerst der grosse Mediawirbel mit Blogpost, dann erst die mail... Reines Alibihelfen. Oder meinst du OSS allgemein? Ja, hab ich erlebt. Plötzlich war ein github Projekt zu dem ich schon beigetragen hatte unter der Microsoft Organisation, und wenn man was neues beitragen wollte, musste man plötzlich Microsofts CLA zustimmen, was aber nur Microsoft hilft, aber nicht anderen, die später das Projekt forken. Also nein, nicht mit mir. Und dann gabs mal noch ne geschichte in den News, wo sie von jemanden ein OSS Projekt angeschaut haben, den Author befragt, und dann kurzerhend das Projekt nachentwickelt haben, natürlich ohne den anderen auch nur zu erwähnen. Und die ganzen packet/software repos, die sie gerade übernehmen (z.B. NPM) oder anbieten, hinterlassen auch keinen guten nachgeschmack... Ok, ernstzunehmen sind sie, aber nicht unbedingt zum besten...
🐧 DPA 🐧 schrieb: > kurzerhend das Projekt nachentwickelt haben Das war AppGet, ist mir gerade wieder eingefallen.
🐧 DPA 🐧 schrieb: >> Naja, Microsoft entwickelt sich zu einem ernstzunehmenden >> Linux-Contributor. > Hast du deren Mail auf der mailingliste gesehen? Die um den Hypervisor-Support? Ja. 🐧 DPA 🐧 schrieb: > Oder meinst du OSS allgemein? Ja, hab ich erlebt. > Plötzlich war ein github Projekt zu dem ich schon > beigetragen hatte unter der Microsoft Organisation, ...und plötzlich war ganz Github ein Teil von Microsoft. :-) Fakt ist, dass Microsoft plötzlich begriffen hat, dass OSS eine günstige und gebrauchbare Basis für eigene Entwicklungen ist. Ideen wie das Rolling Release, semi-öffentliche Entwicklung (z.B. die Microsoft-Blogs zum Thema WSL etc.) oder die Adoption von Standards (ANSI-Support in cmd.exe) sprechen dafür. Was die CLAs betrifft, die kann ich aus Unternehmenssicht vollkommen nachvollziehen, auch wenn ich sie persönlich nicht mag. Andererseits schenken sich Microsoft, Canonical oder Google da absolut nichts. Immerhin führt das dazu, dass der Code öffentlich ist - und da wollten wir doch alle mal ursprünglich hin, oder? Soweit ich weiß, ging es bei OSS nicht vordergründig darum, die großen Konzerne zu zerschlagen. 🐧 DPA 🐧 schrieb: > Und dann gabs mal noch ne geschichte in den News, wo sie > von jemanden ein OSS Projekt angeschaut haben, den Author > befragt, und dann kurzerhend das Projekt nachentwickelt haben, > natürlich ohne den anderen auch nur zu erwähnen. Das klingt für mich eher nach Google als nach Microsoft. Die machen das nämlich auch sehr gerne.
:
Bearbeitet durch User
S. R. schrieb: > 🐧 DPA 🐧 schrieb: >>> Naja, Microsoft entwickelt sich zu einem ernstzunehmenden >>> Linux-Contributor. >> Hast du deren Mail auf der mailingliste gesehen? > > Die um den Hypervisor-Support? Ja. Nein, die davor, auf der dri-devel liste, zu DirectX. > Immerhin führt das dazu, dass der Code öffentlich ist - und da wollten > wir doch alle mal ursprünglich hin, oder? Soweit ich weiß, ging es bei > OSS nicht vordergründig darum, die großen Konzerne zu zerschlagen. Das ist nicht genug. Die Ursprünglichen freien Softwareentwickler, hatten gewisse Moralische/Ethische grundsätze, die von den Firmen in der Szene heutzutage einfach nicht geteilt werden. Bei denen gilt nur, haupsache, es macht sich gut in der Öffentlichkeit, oder spült Geld in die Tasche.
🐧 DPA 🐧 schrieb: >> Soweit ich weiß, ging es bei OSS nicht vordergründig >> darum, die großen Konzerne zu zerschlagen. > Das ist nicht genug. Das Zerschlagen der Konzerne ist nicht genug? Was würdest du denn noch alles zerschlagen wollen? Ich finde das Stallman'sche Extrem jetzt auch nicht unbedingt erstrebenswert... Nachtrag: Nein, die DirectX-Mails habe ich nicht gelesen.
:
Bearbeitet durch User
S. R. schrieb: > Das Zerschlagen der Konzerne ist nicht genug? Nein, nur das Veröffentlichen von code ist das, was nicht genug ist.
S. R. schrieb: >> Es ist exakt so wie ich es schrieb. Unix lag allen Universitäten im >> Quelltext vor. Thorvald brauchte bloß in die Quellen zu schauen. > > Was er weder konnte - weil er keinen Zugang dazu hatte - noch durfte Ob er Zugang dazu hatte weiss ich nicht, ich jedenfalls hatte. Denn der kommentierte Quellcode vom recht frühen Unix V6 war an Universitäten leicht aufzutreiben und wurde oft kopiert: https://de.wikipedia.org/wiki/Lions_Book W.S. schrieb: > So war das nämlich > - oder willst du die durchaus frappierenden Ähnlichkeiten zwischen Unix > und Linux als reinen Zufall abtun? Ein System, das den API von Unix mit einem monolithischen Kernel re-implementiert, sieht aus Sicht von Anwendungsprogrammen einem Unix frappierend ähnlich. Dazu muss es nicht abgeschrieben sein.
:
Bearbeitet durch User
W.S. schrieb: > Und Windows hatte überhaupt keine Vorläufer außer > den nur quasi-grafischen Oberflächen diverser Programme, die es damals > für den IBM-PC gab. Es besteht keine innere Ähnlichkeit zwischen dem auf DOS basierten frühen Windows 3.1 und dem Unterbau des vollkommen neu aufgesetzten Windows NT 3.1. Das neue System hatte zwar keinen nominellen Vorläufer, aber die Inspiration durch VMS hat Microsoft $150 Mio gekostet: https://de.wikipedia.org/wiki/Microsoft_Windows_NT
:
Bearbeitet durch User
herbert schrieb: > Unter Mint Mate war der Erstbenutzer der Ersteller der Installatoin "H" > von den Rechten her nicht definiert. Mit Sicherheit war er das, sonst hätte er sich nicht einmal einloggen können. > Das habe ich nachträglich auf > "Administrator" gesetzt. Mich hat eh schon gewundert warum ich für alle > anderen Aktionen immer mein Passwort das ich bei der Installation > vergeben habe eingeben musste. Wenn man weiß, wie es geht, dann muß man das natürlich nicht. > Unter Win gibt es das nicht Aber siehst Du, Herbert, genau das ist (wieder einmal) der Punkt. Du erwartest, daß Linux so funktioniert, wie Du es unter Windows gewöhnt bist. Das tut es aber nicht, und daran wird sich auch nichts ändern. Klügere Menschen, als ich es bin, und auch ich selbst haben es in diesem und anderen Threads schon abermillionen, wenn nicht gar -milliardenfach gesagt. Linux ist nicht das bessere Windows. Das will es auch nicht sein. Und das wird es auch nicht. Wer Linux benutzen will, muß sich darauf einlassen. (Das gilt übrigens genauso für jedes andere Betriebssystem, seien es Windows, MacOS, eines der *BSDs, Solaris, AIX oder HP-UX.) Daran führt kein Weg vorbei! (Exkurs: als ich vor Ewigkeiten einem Freund von mir, einem Grafikdesigner der sonst nur mit MacOS9 arbeitete, das Windows auf einem ausgemusterten P2/300 mit einem SuSE Linux ersetzt habe, rief er mich schon auf dem Heimweg triumphierend an, er habe es geschafft, Linux zum Abstürzen zu bringen. Da habe ich gelacht und ihn gefragt, was er denn getan habe. Er hatte die 3D-Grafiksuite Blender ausprobiert und damit eines der mitgelieferten Beispiele rendern wollen, jetzt könne er die Maus nur noch ganz ruckelnd bewegen und das ganze System fühle sich total zäh und langsam an. Deshalb habe ich ihn gebeten, das System einfach mal in Ruhe zu lassen und am nächsten Tag nochmal zu schauen, und siehe da: die Grafik war gerendert, und alles lief wieder flüssig und rund. Ich glaube, ich habe ihn nie so tief beeindruckt erlebt. Er nutzt Linux immer noch, mittlerweile allerdings Xubuntu.) Nun, wie dem auch sei, ich befürchtet, Deine Motivation ist die falsche. Du suchst einen Ersatz für Windows, aber den gibt es nicht. Linux ist keiner, und MacOS und die *BSDs sind es auch nicht. Natürlich, ist ja auch doof: da hat man sich in die "Benutzerkontensteuerung", die "Systemsteuerung", den "Gerätemanager", das (unter Windows durchaus komplizierte) Rechtesystem, die "Setup.exe" und die "MSI-Installer" und womöglich sogar in diese "Registry" hineingefuchst. Und dann probiert man etwas anderes, und plötzlich ist das ganze schöne und -- wahlweise in Form von Fachliteratur und reißerisch-buntem Computerpr0n, oder mit vielen bitteren Erfahrungen mit Trial, Error und diversen Neuinstallationen -- teuer erkaufte "Fachwissen" nichts mehr wert. Am Rande bemerkt habe ich die Erfahrung gemacht, daß sich Windows-Umsteiger nicht nur mit einem Linux, sondern auch mit MacOS und anderen Systemen oft viel schwerer tun als komplette Neueinsteiger. Ich persönlich erkläre mir das so, daß die Windows-Erfahrenen sich dermaßen an seine Marotten und Meriten gewöhnt haben, daß ihnen die Offenheit (und manchen vielleicht auch die Einsicht) fehlen, das aufwändig Erlernte und lange Gewohnte zu vergessen und mit etwas Neuem, Anderem zu beginnen. Klar, das ist doof. Und klar, mir geht es nicht anders, wenn ich mich mal mit einem Windows auseinandersetzen muß -- und das, obwohl ich vor Ewigkeiten mal ein großes Microsoft-Zertifikat für Windows NT4 gemacht habe. Es ist also nicht so, als würde ich das nicht durchaus verstehen. Jedesmal, wenn ich vor einem Windows sitzen muß, was -- glücklicherweise -- nur noch sehr selten der Fall ist, fühle ich mich wie jene berühmten drei Affen, nur daß der "Nichts sagen"-Affe durch einen ersetzt ist, der Tastatur und Maus mit dicken Polarfausthandschuhen bedienen muß. Aber mein Verständnis dafür ändert nichts an der Situation, und diese Situation ist, daß Linux nun einmal anders ist als Windows, und man sich darauf einlassen und Neues erlernen muß, wenn man denn umsteigen will. Ob Du ernsthaft bereit bist für einen Einstieg in Linux, oder vielleicht sogar für einen Umstieg, ist Deine Sache. In Wahrheit hat das aber gar nichts mit Linux zu tun, sondern einzig und alleine mit Dir selbst -- und Deiner Einstellung, genauer: Deiner Erwartung. Nebenbei bemerkt wird es Dir und auch sonst niemandem helfen, wenn Du Dich in einem Mikrocontroller- und Elektronikforum darüber beschwerst, daß dieses blöde Linux sich standhaft weigert, Deine unerfüllbaren Erwartungen zu erfüllen. Wie bereits gesagt, will und wird es das nicht tun, solange Du im Endeffekt ein besseres, kostenloses und ressourcenschonenderes Windows erwartest. Wenn Du ein anderes Betriebssystem erwartest, das kein Windows ist, deswegen anders funktioniert, das Dir neue, unbekannte Komfortfunktionen liefert, Ressourcen schont, flexibler, mächtiger, besser dokumentiert und deutlich vielseitiger ist als Windows, dann sei herzlich willkommen und hab' viel Freude und Vergnügen damit. Ich möchte Dir dann das Buch "Linux" von Michael Kofler empfehlen, und ansonsten das "Debian GNU/Linux Anwenderhandbuch" von Frank Ronneburg [1] sowie, wenn Du über die ersten Schritte hinaus bist und die Mächtigkeit von Linux erkunden willst, natürlich das "Debian Administrationshandbuch" von Raphaël Hertzog und Roland Mas [2], außerdem das Wiki des Projekts Arch Linux [3]. [1] https://www.debiananwenderhandbuch.de/ [2] https://debian-handbook.info/browse/de-DE/stable/ [3] https://wiki.archlinux.org/
herbert schrieb: > Ein Destopsystem muss jemand mit etwas Computererfahrung ohne > Informatikstudium oder 30 Jahre Linuxerfahrungen inkl. Unix.... aufsezen > können [...] Linux ist das Gegenteil und eigentlich > mehr Basis und selbstzweck eines Wissenden der natürlich nicht 30 Jahre > umsonst gelernt haben will. Zu meinen lustigsten Erfahrungen in diesem Thread gehört für mich, daß ich immer wieder etwas hinsichtlich Deines Hintergrundes, Deiner Erfahrungen und Deiner Erwartungen vermute, und Du meine Vermutungen dann umgehend bestätigst. Pardon, Du bist ein vielleicht ein Windows-Wissender. Aber das macht Dich noch lange nicht zu einem Wissenden, tut mir leid. Solange Du Deine 30 Jahre Windows-Erfahrungen nicht zumindest hinterfragen und erweitern möchtest, wird das mit Dir und Linux leider nichts werden. Das tut mir leid, ändert aber nichts an den Tatsachen. Nebenbei bemerkt, hast Du allerdings trotzdem eine Reihe sehr nützlicher Dinge unter Windows gelernt, wenn Du so viel Erfahrung hast, wie Du sagst. Zum Beispiel kennst Du vermutlich noch die Autoexec.bat und die Config.sys unter DOS-basierten Windowsen, womöglich hast Du sogar schon einmal eine .INI-Datei gesehen oder eventuell sogar editiert. Wenn das so ist, dann hast Du gelernt: ein Betriebssystem und die Programme kann man prima mit so Textdateien konfigurieren, in denen man sich nicht vertippen sollte, und nach Änderungen an solchen Dateien sollte man meistens die solcherart konfigurierte Software neu starten.
herbert schrieb: > 🐧 DPA 🐧 schrieb: >> Einige Player kommen nur mit Audio CDs klar, dort sind die Daten >> unkomprimiert drauf. Stelle sicher, dass K3b auch auf Audio CD >> eingestellt ist. Ausserdem empfehle ich, CD-RW zu verwenden, die kann >> man nämlich einige male wiederverwenden. > > Die Einstellung k3b war "clonen". Das ist eindeutig für die Software > und wenn ich eine Video DVD einlege zum "clonen" dann muss das das > Programm selber handeln. Ich will dann da nicht reinpfuschen müssen. Merkwürdig, mit der Einstellung "klonen" macht k3b eine bitweisen Kopie eines vorhandenen Mediums oder eines vorhandenen Image eines Mediums, sofern ebendieses keinen Kopierschutz hat. Aber nur, damit ich das richtig verstanden habe: Du hast eine Video-DVD eingelegt oder hattest ein Video-DVD-Image, und hast dann k3b aufgerufen und ihm gesagt, er soll Dein Quellmedium klonen? Und Du hast erwartet, daß eine Audio-CD oder -DVD herauskommt, die Deine Stereoanlage/Autoradio/whatever abspielen können soll? Und wo wir gerade bei Video-DVDs sind: hast Du die Bibliothek libdvdcss installiert, um den auf DVDs regelmäßig vorhandenen Kopierschutz "Content Scrambling System" CSS umgehen zu können? Diese Bibliothek wird aus rechtlichen Gründen meistens nicht mit installiert, kann in modernen Distributionen aber leicht nachinstalliert werden.
W.S. schrieb: > Nein, ein PC ist durchweg ein > Einmann-Rechner, war es schon immer und wird es auch bleiben. Man sollte zwischen Usern im Sinn der Kernels und vor dem Gerät sitzenden Anwendern unterscheiden (die auch weiblich sein dürfen ;-). Da mehrere Anwender nicht gleichzeitig vor dem gleichen PC sitzen können, muss es sich bei gleichzeitiger Nutzung zwangsläufig um Terminal-Betrieb handeln. Von Linux (nicht Unix) ist mir nicht bekannt, dass die Nutzung durch mehrere Anwender gleichzeitig nennenswert verbreitet war, wenngleich es technisch möglich ist und die von Unix übernommene X11-Technik es auch mit GUIs zulässt. Im Kern ist auch Windows ein Multiuser-System. Die GUI war auf eine parallele Nutzung durch mehrere Anwender jedoch anfangs nicht eingerichtet. Da half Citrix nach, was in Terminal Services mündete. Zumindest früher waren Windows Server auch als Multi-Anwender-Systeme verbreitet. Für Adminsitrationstätigkeit findet das auch heute noch statt. Technisch gibt es keinen wesentlichen Unterschied zwischen den Windows-Varianten von "Home" bis "Datacenter Server". Im direkten Vergleich beider Systeme war nur in Windows die gleichzeitige Nutzung durch mehrere Anwender in Unternehmen zeitweilig verbreitet. Unabhängig davon laufen in beiden Systemen stets Prozesse verschiedener User gleichzeitig, ob als Daemons in Linux oder als Services in Windows. Darunter sind auch Services mit GUI-Zugang (sichtbar im System Tray).
:
Bearbeitet durch User
Nop schrieb: > Sheeva P. schrieb: >> Dagegen hat Linux im Serverbereich schon längst gewonnen, auch wenn es >> zuerst die alten Platzhirsche wie SunOS/Solaris und in weiten Teilen >> auch AIX, HP-US und Co. verdrängt hat. > > Das lag jedoch vor allem daran, daß Linux auf billiger x86-Hardware lief > und die anderen nur auf teurer proprietärer. Ja, natürlich. Ich war viele Jahre bei Sun Microsystems und habe den Niedergang quasi live miterlebt, und manchmal blutet mir bis heute das Herz. Unsere Hardware war unfaßbar teuer, aber auch unfaßbar stabil und schnell, und aus Nostalgie steht hier immer noch eine Sun Ultra 1-Workstation auf dem verstaubten Rack. Und unsere Software war bis heute wegweisend. Aber so ist der Lauf der Welt: das Bessere frißt das Gute, und heutzutage erreichen billige x86-Server für 10k€ schon im Idlemode die Leistung, für die man damals eine Starfire Enterprise 10000 (E10k) für kommode 6-8 Millionen US-Dollar gebraucht hätte. ;-) > Sheeva P. schrieb: >> Und etwas Besseres als diese findest Du auch nicht im >> Windows-Umfeld, denn die Kosten von Support seitens Microsoft... sagen >> wir so: das kann die Telekom bezahlen, aber Du und ich mit sehr hoher >> Wahrscheinlichkeit eher... nicht. > > Ist man Privatnutzer ohne Supportvertrag, dann findet man in den > Linuxforen der genutzten Distri um Längen bessere Hilfestellungen als in > den MS-Hilfeforen, in denen zu 90% am Ende die Neuinstallation von > Windows empfohlen wird. Zweifellos, aber man muß halt mitarbeiten. Das muß man bei kommerziellem Support natürlich auch, aber... naja, sagen wir so: dann werde ich von jemandem bezahlt, damit ich mir seine Elogen anhören muß. ;-)
Gerhard schrieb: > Wen die häufige Passworteingabe beim Administrieren so stört, der meldet > sich halt als root entweder grafisch oder im Terminal an und hat Ruhe > davor. Wo ist das Problem? Vermutlich ein klassischer Fall von PEBKAC. ;-)
Le X. schrieb: > Cyblord -. schrieb: >> Es gibt keins. Ich habe nur widersprochen dass eine ständige lokale >> Passworteingabe sinnvoll ist. Ob und wie man das abschalten kann, war >> NICHT das Thema > > Halte ich auch für wenig sinnvoll. Es ist auch völliger Unfug, weil das so nämlich gar nicht läuft. sudo(8) merkt sich nämlich für einen konfigurierbaren Zeitraum -- standardmäßig fünf (5) Minusten, daß der User das Paßwort korrekt eingegeben hat, und fragt dann nicht mehr. Und wenn in diesen fünf Minuten der User am selben Controlling TTY wieder sudo(8) aufruft, dann verlängert sich die Ablaufzeit. Tippfaule können sudo(8) so einstellen, daß für bestimmte Kommandos keine Eingabe des Paßworte erforderlich ist. Berechtigte Kundige geben, wenn sie längere Admin-Sessions vorhaben, auch gerne mal "sudo su -" oder "sudo -i" ein, und bekommen dann eine echte Rootshell. Es ist sogar möglich, sudo(8) so einzustellen, daß ein Benutzer bestimmte Kommandos mit genau definierten Parametern aufrufen kann, ohne daß eine Paßworteingabe nötig ist, aber wenn andere Parameter eingegeben werden, dann schon. Man kann sudo auch so einstellen, daß bestimmte Benutzer gar keine Paßworteingabe brauchen, egal welches Kommando (und mit welchen Parametern) sie aufrufen. Dasselbe natürlich alles auch für Gruppen. sudo(8) ist ein sehr mächtiger Befehl, und was wer wann wie darf, ist extrem fein granuliert konfigurierbar. Man kann damit sogar -- in gewissem Umfang -- richtige Mandatory Access Control wie RSBAC, SE-Linux, AppArmor, oder Polkit nachbilden. Profitipp: zum Editieren der Konfigurationsdatei immer visudo(8) benutzen. Das sorgt dafür, daß die betreffende Konfigurationsdatei -- die ich hier nicht nennen möchte -- zumindest syntaktisch korrekt ist. Mit der Umgebungsvariablen EDITOR läßt sich dabei einstellen, ob als Editor vi, Emacs, Nano, Kate oder sonstwas benutzt wird.
Jay W. schrieb: > Will sagen, die Präferenz des Betriebssystems ist, ähnlich wie Religion > eine Sozialisierungsfrage. Die Diskussion hier zeigt das recht > eindrücklich. Keine Frage, aber das darf man nicht sagen. Wenn man es sagt, sind die Windowsuser angepieselt, weil sie sich dann als genau das Herdenvieh betrachtet sehen, das sie objektiv betrachtet sind -- wie wir alle. ;-)
W.S. schrieb: > Android IST Googles Kind und ein jeder weiß, daß Google auf jedes > irgendwie am Internet oder wenigstens an einem Telefonprovider hängende > Android-Gerät als root zugreifen kann - jederzeit. Lediglich der > Käufer/Benutzer kann explizit dies nicht. > > Und ebenso weiß jedermann, daß neben Google eigentlich auch alle > staatlichen Stellen der USA prinzipiell dort ebenfalls zugreifen können. > > Und jedermann weiß, daß ein Gleiches gilt für alle Produkte von Apple. Wenn ich mich recht entsinne, haben sich die Apfelleute doch vor einigen Jahren noch mit (IIRC) dem FBI angelegt, weil sie nicht verraten wollten, wie man die Äpfelchen knackt. > Und den Leuten ist das erstaunlicherweise absolut schnurz. Auch den > Linuxern, die ein Smartphone haben. Was, wenn ich nicht "die Leute" bin?
herbert schrieb: > Zum brennen braucht iman "Root Rechte" !!!!! Dein Imam vielleicht. Meiner nicht. "Three exclamation marks", he nodded, "the sure sign of a diseased mind." (Terry Pratchett)
Jack V. schrieb: > herbert schrieb: >> Zum brennen braucht iman "Root Rechte" !!!! > > Manchmal fragt man sich schon, wie manche Leute > überhaupt in der Lage sind, hier zu schreiben … Weil 30 Jahre Windows es möglich machen. ;-)
Zeno schrieb: > Glaubste mir nicht dann geh einfach mal nach /dev und mache ein > geschmeidiges ls -l. Und danach schauste in die /etc/group rein und > schon weist Du wer welches device benutzen darf. Wenn jemand wissen will, welchen Gruppen sie/er angehört, gibt es unter Linux die Kommandos id(1) oder groups(1). Nur so nebenbei.
Beitrag #6420252 wurde von einem Moderator gelöscht.
ACDC schrieb: > Ein normaler Windows User kennt kein Root oder sonst was. > Also wird er nur erkennen, dass er unter Linux nicht brennen kann. > > Was ist nun die Lösung? > Dem Windows User eine Schulung geben? Ja. Was sonst?
Beitrag #6420255 wurde von einem Moderator gelöscht.
Jack V. schrieb: > Rene schrieb im Beitrag #6416263: >> Windows ist dennoch auf den meisten Desktops zuhause. Aber ich verstehe >> schon, der Fakt passt gerade nicht in Dein Weltbild. > > An welcher Stelle glaubst du zu erkennen, dass ich der Meinung wäre, > dass das anders sei? Warum dichtest du dir Müll zusammen, und postest > das als Aussage Anderer? Hast du keinen Anstand? Naja, das sind diese "Most Valuable Professionals", die am MVP-Programm von Microsoft teilnehmen. Die bekommen Geld, Schulungen, verbilligte Lizenzen, und weitere Goodies, wenn sie Werbung für Microsoft-Produkte und ansonsten alles runtermachen.
Beitrag #6420257 wurde von einem Moderator gelöscht.
Zeno schrieb: > Egon D. schrieb: >> Ein normaler User, der Zugriff auf das CDROM-Laufwerk >> benötigt, sollte somit Mitglied der Gruppe "cdrom" sein - ja! >> Genau das ist die Logik dahinter! > Ja und genau das ist im privaten Desktopbereich Mist. Das wäre Mist, wenn es "im privaten Desktopbereich Mist" wäre. Ist es aber nicht. > Da ist der > Benutzer in aller Regel User und Admin in Personalunion Ja, super Idee. > und will mit > seinenm Rechner was machen z.B. auch mal ne CD brennen - ohne Frickeln. > Windows und MacOS beweisen das es geht. Ja, Linux auch. > Man könnte ja beim Anlegen eines neuen Users, diesen auch automatisch > z.B mit in die Gruppe cdrom aufnehmen, aber igitt das wäre ja > userfreudlich. Ja, und haargenau das machen ja auch alle mir bekannten Installer für den ersten User. Danach muß man das natürlich manüll angeben. Multiusersystem, klar. :-)
Egon D. schrieb: > Andreas schrieb: > >> Ist in dem Fall wohl wirklich ursächlich ein Problem >> eines ungeeigneten Rechtekonzepts [...] > > "Ungeeignet" würde ich jetzt nicht direkt sagen. > "Etwas schlicht gestrickt" trifft es m.E. besser. > > Man kann halt keine "Rechteprofile" erstellen, sondern > muss jedem User jede Geräteklasse einzeln erlauben > oder verbieten. Aber ja doch, sowas kann UNIX seit einer Zeit, als Linus noch nicht einmal geboren war und "Windows" Öffnungen nichts als in Mauern waren. Diese "Rechteprofile" werden unter UNIX üblicherweise als "Gruppen" bezeichnet. :-)
Beitrag #6420266 wurde von einem Moderator gelöscht.
Zeno schrieb: > Da kann man davon ausgehen das die passende Adminscripte haben die das > erledigen - egal ob Linux, Unix oder Windows. Profis scripten sowas nicht selbst. Ansible, Puppet, cfengine und Co. existieren.
S. R. schrieb: > Ich finde das Stallman'sche Extrem jetzt auch nicht unbedingt > erstrebenswert... Das derzeitige Copyright/Lizenz/Eigentums Regime ist nicht minder extrem.
Beitrag #6420271 wurde von einem Moderator gelöscht.
Beitrag #6420272 wurde von einem Moderator gelöscht.
Zeno schrieb: > Allerdings ist bei Ubuntu, Mint und Konsorten das Sicherheitskonzept von > Linux durch sudo eh schon aufgeweicht. Mit den passenden Eintragungen in > der /ezc/sudoers ist das Ding offen wie ein Scheunentor. Doof, daß es diese Eintragungen nicht gibt. Sonst könnte unser Herbie-Held ja locker und flockig auf seinen Brenner zugreifen, ne? Xenu, tust Du mir einen Gefallen? Ja? Bitte red' doch mal ausnahmsweise über etwas, von dem Du auch was verstehst. Lieben Dank.
Beitrag #6420274 wurde von einem Moderator gelöscht.
A.B. schrieb im Beitrag #6420272:
> Gleiches gilt mal mindestens für den aktuellen Datenschutz-Wahn.
Arbeitest du bei Cambridge Analytica?
Strebst du eine Plutokratie an?
Zeno schrieb: > Mit den passenden Eintragungen in > der /ezc/sudoers ist das Ding offen wie ein Scheunentor. Sollte es diese Möglichkeiten nicht geben? Willst du die totale Bevormundung durch den Hersteller?
W.S. schrieb: > Nein, ein PC ist durchweg ein > Einmann-Rechner, war es schon immer und wird es auch bleiben. Eben ein > persönlicher Rechner. Mit nur einem Stuhl davor. Auf dem Schreibtisch ja. Windows passt dazu. Mittlerweile werden PC aber auch als Server eingesetzt, und da sind 10 bis 1000 gleichzeitige User der Regelfall. Windows passt nicht dazu.
Sheeva P. schrieb: > Unsere Hardware war unfaßbar teuer, aber auch unfaßbar stabil und > schnell Angeblich konnte man in die Netra FT1800 eine Schraube werfen, ohne dass man den daraus resultierenden Defekt von außen bemerkte. Ich durfte das leider nicht ausprobieren.
Stefan ⛄ F. schrieb: > Mittlerweile werden PC aber auch als Server eingesetzt, und da sind 10 > bis 1000 gleichzeitige User der Regelfall. Windows passt nicht dazu. Inwiefern? Windows selbst scheint nicht zu wissen, dass das ein Problem sei. Windows ist zudem nicht erst "mittlerweile" ein funktionierender Server, sondern seit WinNT. Die x86 waren es z.B. unter Novell, OS/2 oder auch SCO Unix/Xenix schon vorher.
:
Bearbeitet durch User
A. K. schrieb: > Inwiefern? Windows verliert ständig Marktanteile im Server Umfeld. Das zeigt, dass die Zeit vom Windows zumindest dort allmählich zu Ende geht.
Stefan ⛄ F. schrieb: > Angeblich konnte man in die Netra FT1800 eine Schraube werfen, ohne dass > man den daraus resultierenden Defekt von außen bemerkte. Ich durfte das > leider nicht ausprobieren. Leider fing SUN irgendwann an wegen ECC-Fehlern Zicken zu machen, für das Geld was die bekommen haben hätte ich was anderes erwartet. Aber egal, der Laden ist Geschichte!
Stefan ⛄ F. schrieb: > Windows verliert ständig Marktanteile im Server Umfeld. Das zeigt, dass > die Zeit vom Windows zumindest dort allmählich zu Ende geht. Das heisst nicht, dass Windows prinzipiell ungeeignet sei, sondern das Linux (a) besser und (b) viel billiger ist. Bei Windows mit SQL-Server als Datenbank dahinter gibts beispielsweise lustige Lizenzfragen.
GPL-Nazi schrieb: > Leider fing SUN irgendwann an wegen ECC-Fehlern Zicken zu machen Das kann auch am Speicher selbst liegen. Wir hatten eine zweistellige Anzahl gleicher Dell-Server, deren Speichermodule nach ~5 Jahren reihum die Grätsche machten. Ersatz lief problemlos bis zur Ausmusterung.
:
Bearbeitet durch User
Sheeva P. schrieb: > Ja, natürlich. Ich war viele Jahre bei Sun Microsystems Ich mochte die Suns an der Uni lieber als die HP-Apollos. Sag mal, wie hieß der Sun-Desktop, welcher nicht CDE/Motif war? Das war ein tendentiell blaues Theme mit grauen Elementen und etwas rundlicher als CDE. Zeitindex wäre so Mitte der 90er Jahre. Ich suche das als Retro-Theme für Linux-DEs, weiß aber nichtmal, wonach ich googeln muß. Sheeva P. schrieb: > Nun, wie dem auch sei, ich befürchtet, Deine Motivation ist die falsche. > Du suchst einen Ersatz für Windows, aber den gibt es nicht. Wobei Linux je nach Distri durchaus auch als Windows-Ersatz taugt, das sehe ich ja in meiner Familie. Das sind aber auch keine "Windows-Experten", sondern die wollen einfach nur die Anwendungen nutzen. Der Browser ist da genauso ein Icon auf dem Desktop zum Doppelklicken wie unter Windows. Das Startmenü geht ähnlich, ist aber (bei Cinnamon) noch etwas besser organisiert. Updates machen sich mit nem Tray-Icon bemerkbar, wie unter Windows. Installation neuer Software ist deutlich anders, aber vom Smartphone her bekannt.
Hmmm. Was Windows ist weiß ich. Aber was ist eigendlich ein GPL-Nazi? mfg
~Mercedes~ . schrieb: > Aber was ist eigendlich ein GPL-Nazi? Eine offensichtlich traurige und tief frustrierte Persönlichkeit...
Sheeva P. schrieb: > Zeno schrieb: >> Allerdings ist bei Ubuntu, Mint und Konsorten das Sicherheitskonzept von >> Linux durch sudo eh schon aufgeweicht. Mit den passenden Eintragungen in >> der /ezc/sudoers ist das Ding offen wie ein Scheunentor. > > Doof, daß es diese Eintragungen nicht gibt. Sonst könnte unser > Herbie-Held ja locker und flockig auf seinen Brenner zugreifen, ne? > > Xenu, tust Du mir einen Gefallen? Ja? Bitte red' doch mal ausnahmsweise > über etwas, von dem Du auch was verstehst. Lieben Dank. Du widersprichst Dir höchst persönlich Sheeva P. schrieb: > Man kann sudo auch so einstellen, daß bestimmte Benutzer gar keine > Paßworteingabe brauchen, egal welches Kommando (und mit welchen > Parametern) sie aufrufen. > > Dasselbe natürlich alles auch für Gruppen. > > sudo(8) ist ein sehr mächtiger Befehl .... usw. Ich habe nichts anderes gesagt, einziger Unterschied Du schreibst wieder mal einen Roman zu einer Sache, die man mit 2 Sätzen abtun kann.
Sheeva P. schrieb: > Xenu, tust Du mir einen Gefallen? Ja? Bitte red' doch mal ausnahmsweise > über etwas, von dem Du auch was verstehst. Lieben Dank. Du hast mir hier gar nix vorzuschreiben. Laß Du mal lieber DFeine Oberlehrerhafte Art hier stecken.
Nop schrieb: > Ich mochte die Suns an der Uni lieber als die HP-Apollos. Sag mal, wie > hieß der Sun-Desktop, welcher nicht CDE/Motif war? Das war ein > tendentiell blaues Theme mit grauen Elementen und etwas rundlicher als > CDE. Zeitindex wäre so Mitte der 90er Jahre. Ich suche das als > Retro-Theme für Linux-DEs, weiß aber nichtmal, wonach ich googeln muß. Meinst Du das "Java Desktop System" (https://de.wikipedia.org/wiki/Sun_Java_Desktop), das war bei Solaris10 für Intel PC mit dabei. Ja das sieht schick aus, gefällt mir auch.
A. K. schrieb: > Das heisst nicht, dass Windows prinzipiell ungeeignet sei, ja das stimmt wohl, ich habe übertrieben.
Zeno schrieb: > Meinst Du das "Java Desktop System" Geil: "Die Idee hinter JDS war es, ein System für durchschnittliche Computeranwender zu erstellen" Also ob sich jemand eine Sun Workstation ins Wohnzimmer stellen würde. Hochmut kommt vor dem Fall. Auch Cool, dass sie es "Java Desktop" nannten, obwohl er mit Java fast nichts zu tun hatte. Hauptsache man trägt den Markennamen nochmal hoch, dann verkauft er sich vielleicht besser.
Zeno schrieb: > Meinst Du das "Java Desktop System" Nein, das paßt zeitlich nicht. JDS basiert auf Gnome 2, was erst 2002 erschien. Außerdem gab's für Solaris 8 eine Preview noch mit Gnome 1.4, aber Solaris 8 war 2000. Was ich meine, war noch früher, halt Mitte der 90er.
Stefan ⛄ F. schrieb: > Also ob sich jemand eine Sun Workstation ins Wohnzimmer stellen würde. In den 90ern waren Workstations als Arbeitsgeräte für nicht IT-ler durchaus relevant - beispielsweise SGIs unter Irix für CAD-Zwecke. Die wurden allerdings überrollt, weil auf x86 ein Kreislauf aus Spielen, beschleunigten Grafikkarten und anspruchsvolleren Spielen entstand. Da floß als Massenmarkt dermaßen Geld rein, daß dagegen kein Ankommen war.
warumNurImmer schrieb: > ~Mercedes~ . schrieb: >> Aber was ist eigendlich ein GPL-Nazi? > > Eine offensichtlich traurige und tief frustrierte Persönlichkeit... Nö, Windowsfrei und Spaß dabei.
Nop schrieb: > In den 90ern waren Workstations als Arbeitsgeräte für nicht IT-ler > durchaus relevant - beispielsweise SGIs unter Irix für CAD-Zwecke. Die > wurden allerdings überrollt, weil auf x86 ein Kreislauf aus Spielen, > beschleunigten Grafikkarten und anspruchsvolleren Spielen entstand. Da > floß als Massenmarkt dermaßen Geld rein, daß dagegen kein Ankommen war. Rate mal wo Nvidia das Know-How für 3D hergenommen hat.
Ich hab mal eine Frage an Leute die sich mit Windows auskennen. Vorgeschichte: Mir ist wieder einmal ein USB Stick verreckt - "Markenware" (Intenso), wenig gebraucht, vielleicht 2 Jahre alt, trotzdem kaputt. Ich hab mir nun neue Sticks bestellt, wieder "Markenware" (Samsung), und möchte testen wie weit und lange ich den Dingern wohl trauen kann. Da man in Werbung und Tests immer nur die Übertragungsraten, aber nie TBW (wie bei SSD's) findet, dachte ich mir ich schreibe ein kleines Script das einen Stick andauernd beschreibt und dabei logt. Die Idee ist 2 grosse Dateien abwechselnd auf den Stick zu schreiben, nach jedem schreiben den Dateisystemcache zu leeren um dann eine Checksumme von der geschriebenen Datei zu erzeugen - so lange bis ich keine Lust mehr habe, oder ein Schreibfehler auftritt. Unter Linux, meinem präferierten System kein Problem. Aber, um auf meine Eingangsfrage zu kommen, wie würde man sowas unter Windows machen? Ich hab ca um die Jartausendwende aufgehört Windows zu benutzen (ausser als Spieleplattform), und in der Zwischenzeit hat sich ja einiges getan - die Powershell zum Beispiel - wovon ich keine Ahnung habe.
1 | #!/bin/bash
|
2 | |
3 | PATHtoSTICK="$1" |
4 | TESTFILESIZE=500M |
5 | LOGFILE=/root/usbstick-writetest.log |
6 | |
7 | function cleanup { |
8 | echo -e "\nlösche...\n" |
9 | rm /tmp/testfile1 >/dev/null 2>&1 |
10 | rm /tmp/testfile2 >/dev/null 2>&1 |
11 | }
|
12 | trap cleanup SIGINT
|
13 | stty -echoctl |
14 | |
15 | shred --size=${TESTFILESIZE} - >/tmp/testfile1 |
16 | SHA_T1=$(sha1sum /tmp/testfile1 | awk '{print $1}') |
17 | shred --size=${TESTFILESIZE} - >/tmp/testfile2 |
18 | SHA_T2=$(sha1sum /tmp/testfile2 | awk '{print $1}') |
19 | |
20 | echo "testfile1 -> ${SHA_T1}" | tee -a ${LOGFILE} |
21 | echo "testfile2 -> ${SHA_T2}" | tee -a ${LOGFILE} |
22 | |
23 | while :
|
24 | do
|
25 | wtime=$(/usr/bin/time -f %E cp /tmp/testfile1 ${PATHtoSTICK}/. 2>&1) |
26 | for a in 1 2 3 ; do sync ; echo $a > /proc/sys/vm/drop_caches ; done |
27 | SHA_T1_temp=$(sha1sum ${PATHtoSTICK}/testfile1 | awk '{print $1}') |
28 | if [ "${SHA_T1}" != "${SHA_T1_temp}" ] |
29 | then
|
30 | echo "checksum fehler" >>${LOGFILE} |
31 | exit 1
|
32 | fi
|
33 | echo -e "'$(date --iso-8601)','$(date +%T)','${wtime}','testfile1','${SHA_T1_temp}'" | tee -a ${LOGFILE} |
34 | rm ${PATHtoSTICK}/testfile1 |
35 | |
36 | wtime=$(/usr/bin/time -f %E cp /tmp/testfile2 ${PATHtoSTICK}/. 2>&1) |
37 | for a in 1 2 3 ; do sync ; echo $a > /proc/sys/vm/drop_caches ; done |
38 | SHA_T2_temp=$(sha1sum ${PATHtoSTICK}/testfile2 | awk '{print $1}') |
39 | if [ "${SHA_T2}" != "${SHA_T2_temp}" ] |
40 | then
|
41 | echo "checksum fehler" >>${LOGFILE} |
42 | exit 1
|
43 | fi
|
44 | echo -e "'$(date --iso-8601)','$(date +%T)','${wtime}','testfile2','${SHA_T2_temp}'" | tee -a ${LOGFILE} |
45 | rm ${PATHtoSTICK}/testfile2 |
46 | done
|
Nop schrieb: > Nein, das paßt zeitlich nicht. JDS basiert auf Gnome 2, was erst 2002 > erschien. Außerdem gab's für Solaris 8 eine Preview noch mit Gnome 1.4, > aber Solaris 8 war 2000. > > Was ich meine, war noch früher, halt Mitte der 90er. Da gäbe es noch OpenLook (https://en.wikipedia.org/wiki/OPEN_LOOK)
Christobal M. schrieb: > Ich hab mir nun neue Sticks bestellt, wieder "Markenware" (Samsung), und > möchte testen wie weit und lange ich den Dingern wohl trauen kann. Dazu müsstest du sie mit zahlreichen Steckzyklen und Stromstößen stressen, bis sie kaputt gehen. Und das dann ganz oft machen, um eine Ausfallquote zu ermitteln. Du kannst den Sticks von außen nicht ansehen, wie robust sie sind. > dachte ich mir ich schreibe ein kleines > Script das einen Stick andauernd beschreibt und dabei logt. Damit testest du nur den Speicherchip - übrigens auch zerstörend. Meistens geht aber der Controller zwischen dem Speicher und dem Stecker kaputt.
Christobal M. schrieb: > Aber, um auf meine > Eingangsfrage zu kommen, wie würde man sowas unter Windows machen? Würde ich eines der vielen USB Testprogramme (c't-test fällt mir ad hoc ein) nehmen und startest über einen loop batch starten. Wie bereits geschrieben nützt das aber eher wenig. Wenn dir öfter mal USB Sticks abrauchen liegt das wohl eher an Hardware Problemen die du mit Software nicht raustesten kannst. Das ist übrigens OS-independend ;-).
Mit SW-Tests findest du nur Fake-Sticks raus. Die also falsche Größenangaben machen. USB-Sticks sind einfach kein Medium dem man groß vertrauen sollte. Die sind für den Datentransfer gedacht und dafür können sie genutzt werden. Nicht das längere Aufbewahren wichtiger Daten.
Stefan ⛄ F. schrieb: > Geil: "Die Idee hinter JDS war es, ein System für durchschnittliche > Computeranwender zu erstellen" > > Also ob sich jemand eine Sun Workstation ins Wohnzimmer stellen würde. > Hochmut kommt vor dem Fall. "Durchschnittliche" Computeranwender findet man ja nicht nur in Wohnzimmern, sondern bspw. auch in Sekretariaten, Verwaltungsbüros usw. Ich hatte mal bei einer französischen Firma zu tun, da standen in den meisten Büros Suns herum, nicht nur in den technischen Abteilungen. Und am Empfang wurden zwei Suns für die Registrierung von Besuchern eingesetzt. Generell ist man in Frankreich nicht ganz so sehr dem Windows-Wahn verfallen wie in Deutschland. Insbesondere Apple Macs haben dort einen vergleichsweise hohen Marktanteil. Wenn ein Franzose von einem "PC" (ohne Zusatz wie "Windows-", "compatible" o.ä.) spricht, meint er damit ganz allgemein einen "Personal Computer", was durchaus auch ein Mac sein kann.
In den 90ern stand eine zweistellige Anzahl IBM RS/6000 Clients mit IBMs Unix AIX im Unternehmen. Die Anwender waren von einer Berufsgruppe, die man weder damals noch heute auf dem Bürostuhl vor einem Computerbildschirm sucht.
:
Bearbeitet durch User
@ Sheeva P Du solltest nicht so lange mit alten Infos arbeiten sonder gelegentlich ein Update durchführen. Bei so vielen Beiträgen ist das allerdings Arbeit. Ich habe zueltzt geschrieben, dass K3b mitlerweile das tut was es soll,es dubliziert meine Musik CD- auf eine CD-R im Clon-Modus. Ich habe aktuell 3 Abspiel Geräte wo von ich nur zwei aktuell benutzen kann weil eines unter meinem Bett verpackt ist. Dieser von K3b erstellte Clon kann in meiner Steroanlage nicht gelesen werden , aber von einem portablen Gerät (Diskman ). Unter derselben Hardware und Windows xp ikl. xp bourner free geclonte gleiche Musik CD kann ich in beiden Playern abspielen. Die Roglinge sind gleich. Ergo muss unter k3b etwas anders ablaufen beim Clonen. Das einzige Setup unter k3b ist das vorgeben der Brenngeschwindigkeit. Sonst ändere ich nichts. Meine Info ist, dass älter Laufwerke keine Ordnerstruktur lesen können.Da der Discman neuer ist wird er das können ,das ist bei Mp3 Dateien ja üblich, wenn man keinen Wert auf guten Klang legt. Ich hab jetzt einige Tests gemacht aber die Scheiben von k3b laufen nur im Discman. Ich werde jetzt noch schauen ob ich noch andere Hardware ausprobieren kann um meine Erkenntnisse zu festigen.Probleme mit Kopierschutz hatte ich eigentlich noch nie. Bei mir unter Win wurde immer alles gebrannt.
Sheeva P. schrieb: > Man kann sudo auch so einstellen, daß... Merkst du eigentlich, daß du dich bereits ellenlang über die Befindlichkeiten von Administratoren ausläßt? Das ist genau DAS Zeugs, an dem ein PC-Benutzer aktiv desinteressiert ist. Der will, daß die Kiste das tut was er von ihr haben will - ohne all die fein granulierte Einstellbarkeit von sudo und Konsorten. W.S.
Sheeva P. schrieb: > Wenn ich mich recht entsinne, haben sich die Apfelleute doch vor einigen > Jahren noch mit (IIRC) dem FBI angelegt, weil sie nicht verraten > wollten, wie man die Äpfelchen knackt. Und? Das ändert nichts daran, daß Apple es kann - mit oder ohne FBI, NSA und Konsorten. Bewiesen haben sie es ja bereits einmal. >> Und den Leuten ist das erstaunlicherweise absolut schnurz. Auch den >> Linuxern, die ein Smartphone haben. > > Was, wenn ich nicht "die Leute" bin? Das ist genauso schnurz. W.S.
Sheeva P. schrieb: > Egon D. schrieb: > [...] >> Man kann halt keine "Rechteprofile" erstellen, sondern >> muss jedem User jede Geräteklasse einzeln erlauben >> oder verbieten. > > Aber ja doch, [...] Diese "Rechteprofile" werden > unter UNIX üblicherweise als "Gruppen" bezeichnet. :-) Nee. Ich weiss nicht, ob es theoretisch auch anders ginge -- aber ich kenne das nur so, dass jede Gruppe für genau EIN Recht steht. Das Rechte- PROFIL eines einzelnen Nutzers ergibt sich daraus, in welchen Gruppen er Mitglied ist -- das wird aber für jeden Nutzer immer wieder neu völlig wahlfrei festgelegt. Anders wäre es, wenn man "Gruppen von Gruppen" bilden könnte -- aber genau das geht mit den Standard-Unix-Rechten nicht.
S. R. schrieb: > Packen hat den Vorteil, dass man nicht mit hunderttausenden Dateien > hantieren muss, unabhängig von der Kompression. > > Viele Dateien sind schlicht unhandlich: Dateimanager mögen keine 20k > Dateien in einem Ordner, das I/O-System wird strapaziert und die > Performance auch bei SSDs leidet, und Netzwerkprotokolle verlieren auch > deutlich an Effizienz. Das ist in der Theorie durchaus richtig, in der Praxis einer üblichen Desktopkiste aber zu vernachlässigen – ich habe es verglichen. Außerdem wäre das nur genau beim ersten Backuplauf von Bedeutung. Schon beim Zweiten dauert’s nämlich erheblich länger, und erzeugt erheblich mehr Last, einen neuen Tarball zusammenzuschnüren, als die Handvoll Dateien zu übertragen, die sich seit dem letzten Backuplauf geändert haben.
Stefan ⛄ F. schrieb: > Auf dem Schreibtisch ja. Windows passt dazu. > > Mittlerweile werden PC aber auch als Server eingesetzt, und da sind 10 > bis 1000 gleichzeitige User der Regelfall. Windows passt nicht dazu. Ja. Hier wird allerdings die ganze Zeit über den Einsatz auf dem PC geredet (wo nur der eine Stuhl davor steht) und nicht über den Einsatz als Server. Am Server gibt es heutzutage keine User, die sitzen irgendwo an ihrem PC an einer anderen Strippe des Netzwerks und der Server "servt" dazu bloß. W.S.
W.S. schrieb: > auf dem PC geredet (wo nur der eine Stuhl davor > steht) Unter "PC" wird im deutschen Sprachraum üblicherweise ein "IBM-kompatibler Computer" verstanden und nicht ein "persönlicher Computer beliebigen Fabrikats". Es hilft nichts, wenn Du den Begriff zum persönlichen Gebrauch umdeutest. Ich muss auch mit "Kontrollstrukturen" und "Festplatten- kontrolle" leben -- wobei ich bei letzterer merkwürdige Bilder vor meinem geistigen Auge haben: "HALT! Fest- plattenkontrolle! Bitte nennen sie Login und Passwort und nehmen sie die Hände von der Tastatur!"
Christobal M. schrieb: > Die Idee ist 2 grosse Dateien abwechselnd auf den Stick zu schreiben, > nach jedem schreiben den Dateisystemcache zu leeren um dann eine > Checksumme von der geschriebenen Datei zu erzeugen - so lange bis ich > keine Lust mehr habe, oder ein Schreibfehler auftritt. Halte ich für eine miserable Idee. Solange das Wear-Leveling im Stick noch funktioniert, wird er dir keine Schreibfehler melden, sondern allmählich nur langsamer werden. Und das Schreiben einiger großer Dateien ist auch nicht das Problem dabei, sondern das Aktualisieren des Dateisystems. Sticks laufen normalerweise bei Windows als "surprise removal" oder so ähnlich und das heißt, Windows läßt ohnehin keine Reste in irgend einem Cache stehen, sondern schreibt sie (vermutlich nach ein paar Millisekunden) immer wieder zurück - eben um nicht durch ein unerwartetes Entfernen des Sticks überrascht zu werden. Wenn du da was testen willst, dann benenne deine Datei einfach alle 100 ms um. Das reicht, um den Stick zu ruinieren. Aber WOZU das ganze? Speichersticks enthalten heutzutage üblicherweise nur noch MLC Speicher und der altert eben ziemlich schnell, auch wenn der Stick nur in der Schublade liegt. Das kann dir mit Noname genauso passieren wie mit Markensticks. Nochwas: Die wearleveling-Routinen in Sticks und SD-Karten sind m.W. einigermaßen an das auf dem Medium bei Auslieferung vorhandene Dateisystem angepaßt. Wenn man die umformatiert, dann läuft man gefahr, daß das wear-leveling anschließend schlechter funktioniert und das Ding eben früher ausfällt. W.S.
Christobal M. schrieb: > Die Idee ist 2 grosse Dateien abwechselnd auf den Stick zu schreiben, .... > Unter Linux, meinem präferierten System kein Problem. ... > Aber, um auf meine > Eingangsfrage zu kommen, wie würde man sowas unter Windows machen? Gar Nicht. Man legt alles auf dem Netzlaufwerk ab und gut ist. Um den Rest (BackUps, Time Maschine...) kümmert sich der die IT.
W.S. schrieb: > Windows läßt ohnehin keine Reste in irgend einem Cache stehen, > sondern schreibt sie (vermutlich nach ein paar Millisekunden) immer > wieder zurück Windows wartet (mit den Default Settings) sogar nach jeder einzelnen Datei ab, bis sie auf den Stick übertragen ist. Erst danach wird die nächste Datei übertragen. Deswegen läuft das unter Windows so schnarch-langsam ab. Dafür aber deppensicher.
W.S. schrieb: >> Mittlerweile werden PC aber auch als Server eingesetzt, und da sind 10 >> bis 1000 gleichzeitige User der Regelfall. Windows passt nicht dazu. Ja klar. Und man verwendet einen Windows PC als Server für bis zu 1000 User. man oh man!
Werner P. schrieb: > Und man verwendet einen Windows PC als Server für bis zu 1000 > User. Einen normalen Anwender-PC sollte man nicht als Server für 1000 User verwenden, egal welches Betriebssystem drauf läuft. Für x86 Server sind 1000 User weder unter Linux noch unter Windows ein Problem. Er sollte natürlich für die zu erwartende Last ausgelegt sein. Aber die Anzahl User selbst stellt keine erhebliche Last dar.
:
Bearbeitet durch User
Zeno schrieb: > Da gäbe es noch OpenLook (https://en.wikipedia.org/wiki/OPEN_LOOK) Jaaa das isses! Da werden Erinnerungen wach! Danke! :-)
A. K. schrieb: > Werner P. schrieb: >> Und man verwendet einen Windows PC als Server für bis zu 1000 >> User. > > Einen normalen Anwender-PC sollte man nicht als Server für 1000 User > verwenden, egal welches Betriebssystem drauf läuft. > > Für x86 Server sind 1000 User weder unter Linux noch unter Windows ein > Problem. Er sollte natürlich für die zu erwartende Last ausgelegt sein. > Aber die Anzahl User selbst stellt keine wesentliche Last dar. Du hast das "Ja klar." vergessen zu zitieren ;-)
A. K. schrieb: > Einen normalen Anwender-PC sollte man nicht als Server für 1000 User > verwenden Der Spielecomputer von meinem Sohn packt das locker.
Stefan ⛄ F. schrieb: > W.S. schrieb: >> Windows läßt ohnehin keine Reste in irgend einem Cache stehen, >> sondern schreibt sie (vermutlich nach ein paar Millisekunden) immer >> wieder zurück > > Windows wartet (mit den Default Settings) sogar nach jeder einzelnen > Datei ab, bis sie auf den Stick übertragen ist. Erst danach wird die > nächste Datei übertragen. Deswegen läuft das unter Windows so > schnarch-langsam ab. Dafür aber deppensicher. Keine Ahnung wie das unter Windows funktioniert, aber unter Linux sind auch fertig geschriebene Daten noch im Cache - so kann man sie schneller lesen. Da ich aber sicher sein will keine Cache Daten zu checksummen, sage ich dem Kernel das er die Caches leeren soll, so das ich auf jeden Fall die Datei vom Datenträger lesen muss.
1 | root@node01:/media/DATEN/temp# time dd if=/dev/zero of=testfile bs=1G count=4 ; time sync |
2 | 4+0 Datensätze ein |
3 | 4+0 Datensätze aus |
4 | 4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 2,59281 s, 1,7 GB/s |
5 | |
6 | real 0m2,616s |
7 | user 0m0,000s |
8 | sys 0m2,613s |
9 | |
10 | real 0m30,421s |
11 | user 0m0,000s |
12 | sys 0m0,066s |
13 | root@node01:/media/DATEN/temp# time dd of=/dev/null if=testfile bs=1G count=4 |
14 | 4+0 Datensätze ein |
15 | 4+0 Datensätze aus |
16 | 4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 0,83928 s, 5,1 GB/s |
17 | |
18 | real 0m0,863s |
19 | user 0m0,000s |
20 | sys 0m0,861s |
21 | root@node01:/media/DATEN/temp# time dd of=/dev/null if=testfile bs=1G count=4 |
22 | 4+0 Datensätze ein |
23 | 4+0 Datensätze aus |
24 | 4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 0,897042 s, 4,8 GB/s |
25 | |
26 | real 0m0,920s |
27 | user 0m0,000s |
28 | sys 0m0,919s |
29 | root@node01:/media/DATEN/temp# for a in 1 2 3 ; do sync ; echo $a > /proc/sys/vm/drop_caches ; done |
30 | root@node01:/media/DATEN/temp# time dd of=/dev/null if=testfile bs=1G count=4 |
31 | 4+0 Datensätze ein |
32 | 4+0 Datensätze aus |
33 | 4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 29,8891 s, 144 MB/s |
34 | |
35 | real 0m29,965s |
36 | user 0m0,000s |
37 | sys 0m2,195s |
38 | root@node01:/media/camikusch/DATEN/temp# time dd of=/dev/null if=testfile bs=1G count=4 |
39 | 4+0 Datensätze ein |
40 | 4+0 Datensätze aus |
41 | 4294967296 Bytes (4,3 GB, 4,0 GiB) kopiert, 0,985637 s, 4,4 GB/s |
42 | |
43 | real 0m1,030s |
44 | user 0m0,000s |
45 | sys 0m1,027s |
W.S. schrieb: > Nochwas: Die wearleveling-Routinen in Sticks und SD-Karten sind m.W. > einigermaßen an das auf dem Medium bei Auslieferung vorhandene > Dateisystem angepaßt. Wenn man die umformatiert, dann läuft man gefahr, > daß das wear-leveling anschließend schlechter funktioniert und das Ding > eben früher ausfällt. Welches Wear Leveling? Selbst ein USB Stick Hersteller wie Samsung gibt bei seinen Sticks kein min TBW an, so wie es bei SSD's üblich ist. Oder ich bin zu doof die Specs auf Samsungs Seite zu lesen: https://www.samsung.com/de/memory-storage/usb-3-1-flash-drive-bar-silver-2020/MUF-64BE3APC/ Ich hab mir zu den normalen USB Sticks auch noch USB3.1/PCIe Gehäuse und passende PCIe SSD's gekauft - um etwas dickere aber zuverlässigere "USB Sticks" zu bauen. Bei diesen Flash Speichern ist in den Specs die Mindesthaltbarkeit in TBW angegeben (1,2EB beim 2TB Modell), siehe: https://www.samsung.com/de/memory-storage/970-evo-plus-nvme-m2-ssd/MZ-V7S2T0BW/ Ich schreib grad einen 4GB Stick den ich schon seit Jahren habe (Sandisk Ultra Cruzer Titanium) mit dem Script voll. Mal sehen wie lange der durchhält, und wie sich dann die neuen Samsung Sticks schlagen. Aber ich habe auf meine Frage eigentlich noch keine Antwort bekommen: Wie würde man sowas unter Windows machen? Der Sinn oder behauptete Unsinn war gar nicht das Thema.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.