Gottfried S. schrieb: > Und wie kann man einen Bootloader reparieren, wenn man nicht ins System > kommt? Mit jedem beliebigen Live-System. Knoppix gab’s schon, als Ubuntu aus den Löchern gekrochen kam Gottfried S. schrieb: > Oder weist du auswendig, wenn der Bootloader in der Boot-Shell startet, > wie du dann das System hochfährst? Nein, weil’s verschiedene Ursachen geben kann. Welche im konkreten Fall verantwortlich ist, sagt die Fehlermeldung. Damit kann man dann gucken, wie man vorgeht. Und wenn’s gar nicht gehen sollte, dann halt das oben erwähnte Livesystem starten, kaputtes System chrooten und den Fehler beheben. Gottfried S. schrieb: > Das > gilt auch für jede andere Distri. Nur für Leute, die sich standhaft weigern, sich einfach mal die Grundlagen anzulesen. Alle anderen beheben die meist trivialen Probleme recht unkompliziert. Fairerweise muss man sagen, dass gerade Buntu am Anfang sehr viele unnötige Fehler reingebaut hat, so dass eine Neuinstallation dort wohl tatsächlich oft schneller ging, als die nachträgliche Reparatur. Man sollte allerdings nicht den Fehler machen, Buntu als Referenz für irgendwas zu sehen. Wenn’s um das reibungslose Update über die Releases geht, wäre imho immer noch Debian die Referenz. Es existieren Systeme, die wurden als Potato aufgesetzt, und laufen jetzt als Buster.
:
Bearbeitet durch User
Wenn also Linux nur für den professionellen Einsatz ist, dann erübrigt sich die Frage vom Thread-Ersteller. "Welches Linux für professionellen Desktop-Einsatz" - somit hat er keine Ahnung was Linux ist, und ist somit kein Linux-Profi. Windows: wenn Festplatte ziemlich voll ist, kommt eine Benachrichtigung, dass die Platte voll ist und Updates werden nicht gestartet! Linux: Update wird auf jeden Fall gestartet, wenn die Platte voll ist, werden Dateien nicht mehr geschrieben und das komplette Paket-Management wird unbrauchbar. Und wenn man Ubuntu als Desktop hat mit einer LTS und die nächste LTS wurde released, dann wird der Anwender (nicht profi) ständig mit einer Messagebox daran erinnert das System upzudaten. Es sei denn man hat einen Mirror im Haus, der die Pakete intern verteilt. Dazu benötigt man einen 2. Mirror mit PCs, die die nächste LTS mirroren und ein paar Rechner, die den neuen Mirror benutzen, um festzustellen, ob die neue LTS ausgerollt werden kann. Also wenn man nun im Büro 100 Rechner hat, sollen nun alle 100 Rechner neu aufgesetzt werden, oder sollen diese womöglich mit neuen Rechnern alle 2 Jahre ausgetauscht werden? Seit dem Windows XP SP2 hatte ich noch nie probleme mit Updates Eigentlich ist ja auch "Linux nur für professionellen Einsatz" schon ein Widerspruch für sich, da Linux nicht professionell ist, die meisten professionellen Software ist für Windows. Wenn bei Windows eine Sicherheitslücke erkannt wird, wird sie in kürzester Zeit geschlossen. Bei Linux wird sie nur geschlossen, wenn der Entwickler davon etwas mitbekommt und wenn der Entwickler noch aktiv ist, ansonst wird das Paket beim nächsten Release entfernt. Wie war das doch noch mit der OpenSSL Heartbleed-Bug, da dauerte es mehr als 2 Jahre, bis die Sicherheitslücke geschlossen wurde. Ausserdem werden keine Viren oder Trojaner für Linux gemacht, da mit nur 4% Marktanteil im Desktop Bereich das völlig irrelevant ist und sich keiner die Mühe macht einen Virus für Linux zu schreiben, ausser vielleicht professionelle Vieren wie den Stuxnet (was ja kein Linux war, sondern eine SPS). Wenn Linux einen größeren Marktanteil bekommt, ist es viel einfacher das System zu infiltrieren, denn ein Benutzer heißt immer "root".
Gottfried S. schrieb: > Linux: Update wird auf jeden Fall gestartet, wenn die Platte voll ist, > werden Dateien nicht mehr geschrieben und das komplette Paket-Management > wird unbrauchbar. Bullshit. So ziemlich jedes Paketmanagement prüft heutzutage vorab, ob’s die Pakete laden und entpacken kann. Gottfried S. schrieb: > Wenn Linux einen größeren Marktanteil bekommt, ist es viel einfacher das > System zu infiltrieren, denn ein Benutzer heißt immer "root". Auch Bullshit. Man kann UID 0 nennen, wie man möchte. Und seit den MAC-Sachen (AppArmor et al) bedeutet UID 0 schon lange nicht mehr, dass der User auch alle Rechte hätte. Da braucht man auf den Rest dazwischen gar nicht erst einzugehen, wenn am Anfang und am Ende des Beitrags schon solche Märchen in den Raum gestellt werden. Man kann große Teile davon aber ebenfalls mit „Bullshit!“ umschreiben. Ich hab ja das Gefühl, dass du nur ein wenig trollen willst. Warum sonst sollte man so Halbwahrheiten und auch direkte Lügen so zu einem Beitrag zusammenstricken, dass garantiert jemand das Bedürfnis verspürt, den Stuss richtigzustellen? Bis hierhin war ich es, aber angesichts dieser plumpen Provokation bin ich dann auch mal raus. Zumal’s ja eh nix mehr mit dem Topic zu tun hat.
Gottfried S. schrieb: > Also wenn man mal Ubuntu XYZ LTS hat, dann auf keinem Fall LTS-Updates > durchführen. Mir scheint eine andere Strategie sinnvoller: Vor dem Upgrade einen Image-Backup zu ziehen. Oder einen Snapshot, wenn die Plattform das hergibt. Eine Linux-Version, die sich dem soundsovielten Upgrade widersetzte, hatte ich auch schon. Weil /boot voll lief.
:
Bearbeitet durch User
Gottfried S. schrieb: > Und wenn man Ubuntu als Desktop hat mit einer LTS und die nächste LTS > wurde released, dann wird der Anwender (nicht profi) ständig mit einer > Messagebox daran erinnert das System upzudaten. Hat MS bei Win7 genauso gemacht. > Also wenn man nun im Büro 100 Rechner hat, > sollen nun alle 100 Rechner neu aufgesetzt werden, oder sollen diese > womöglich mit neuen Rechnern alle 2 Jahre ausgetauscht werden? > Seit dem Windows XP SP2 hatte ich noch nie probleme mit Updates Bei meinem Win7 lief mal eins in Endlosschleife. Also wollte immer, hat irgendwann gemerkt, das es nicht geht, und beim nächsten Reboot das gleiche. > Wenn bei Windows eine > Sicherheitslücke erkannt wird, wird sie in kürzester Zeit geschlossen. Hihi. > Bei Linux wird sie nur geschlossen, wenn der Entwickler davon etwas > mitbekommt und wenn der Entwickler noch aktiv ist, ansonst wird das > Paket beim nächsten Release entfernt. Wie war das doch noch mit der > OpenSSL Heartbleed-Bug, da dauerte es mehr als 2 Jahre, bis die > Sicherheitslücke geschlossen wurde. Nein, sie bestand mehr als 2 Jahre. Vom Entdecken bis Flicken wars weniger. In Windows gibts sicher auch noch genug unentdeckte Lücken. > Ausserdem werden keine Viren oder Trojaner für Linux gemacht, da mit nur > 4% Marktanteil im Desktop Bereich das völlig irrelevant ist und sich > keiner die Mühe macht einen Virus für Linux zu schreiben, Riesen Vorteil. > Wenn Linux einen größeren Marktanteil bekommt, ist es viel einfacher das > System zu infiltrieren, denn ein Benutzer heißt immer "root". Warum macht das Bekanntsein des Nutzernames das infiltrieren leichter? Man, man, man.
Jack V. schrieb: > Gottfried S. schrieb: >> Und wie kann man einen Bootloader reparieren, wenn man nicht ins System >> kommt? > > Mit jedem beliebigen Live-System. Knoppix gab’s schon, als Ubuntu aus > den Löchern gekrochen kam Ein Netbook ohne CD/DVD-Laufwerk. SD-Bootimages oder USB-Bootlaufwerke gab es zu dieser Zeit auch noch nicht, die emulierten nur eine 5 1/4 Zoll Diskette. Installieren mit externem CD/DVD-Laufwerk, oder über das installierte Windows. Bei heutigen Rechner wäre das einfacher machbar mit einem Live-USB System, da die auch keine CD/DVD Laufwerke mehr haben, aber das mit den Speicherkarten Bootimages jetzt funktioniert. Mit dem Live-System ging das damals auch nicht, da er zwar bootete, aber durch das Update die LAN bzw. WLAN Treiber nicht mehr funktionierten. Somit musste ich das System per Hand wieder gängig machen, danach die Treiber der LAN udn WLAN wieder gängig machen und das dauerte Stunden oder auch Tage, da ich es in meiner Freizeit machte. Und warum wurde das nicht behoben, wenn es vor den LTS-Updates schon probleme gab, diese auch haufenweise reported wurden in den Bugtracker, dann aber bei der LTS-Update immer noch das selbe problem besteht? Das hatte ich damals noch akzeptiert und bin noch bei Ubuntu geblieben, aber die nächste LTS brachte wieder ein paar schöne überaschungen, von da an hab ich das deinstalliert und nicht mehr weiter verfolgt. Möglicherweise gibt es diese probleme nicht mehr, aber ich hab nicht Zeit um nach jedem Update zu testen, ob noch alles funktioniert. Ein System muss funktionieren!
Gottfried S. schrieb: > Ein Netbook ohne CD/DVD-Laufwerk. > SD-Bootimages oder USB-Bootlaufwerke gab es zu dieser Zeit auch noch > nicht, die emulierten nur eine 5 1/4 Zoll Diskette. > Installieren mit externem CD/DVD-Laufwerk, oder über das installierte > Windows. … du musst dir nun nix mehr aus den Fingern saugen. Deine Glaubwürdigkeit hat das Bodenniveau erreicht. Aber um dir noch ein letztes Mal den Gefallen zu tun, gehe ich auch darauf ein: a) da emulierte nix ’ne 5¼"-Diskette, sondern es waren 1.44MB-Images. Dafür gab es zum Beispiel eigens darauf abgestimmte Systeme, etwa DSL (Damn Small Linux) – damit hätte sich ganz ausgezeichnet via USB booten, in das System chrooten und der Fehler beheben lassen. b) besagtes Knoppix kam als ISO9660-Image, welches zum Schreiben auf ’ne CD vorgesehen war und auch von dort gebootet hat. Wenn du also ’n externes CD-Laufwerk hattest, von dem aus du installieren konntest, hätte es auch keinerlei Probleme gegeben, damit eines der ausgewachsenen Livesysteme zu starten. Gottfried S. schrieb: > Ein > System muss funktionieren! Joa … deswegen fahre ich seit zwanzig Jahren Linux. Funktioniert einfach, im Gegensatz zu anderen Systemen … Ist nun gut?
Gottfried S. schrieb: > Raspberry Pi mit Debian schreibt ständig auf die SD-Karte und läst sich > nicht deaktivieren (auch nach wochenlangen suchen und ändern von zig > Konfigurationsdateien) Nach 2 Jahren SD-Karte defekt. Natürlich läßt sich das Schreiben auf SD-Karte deaktivieren. Wo steht denn das das System auf einer SD sein muß? Die SD Karte braucht man eigentlich nur beim ersten Mal. Danach wandert alles auf eine SSD oder HD. Die SD Karte braucht es nur noch zum Booten, weil die Bootpartion auf der SD gesucht wird. Allerdings wird dort nichts geschrieben. Das die SD Karte defekt ist hat im Übrigen weder was mit dem RasPi noch mit Debian zu tun. Ein SD Karte ist generell nicht für übermäßig viele Schreibvorgänge ausgelegt und das ist völlig unabhängig vom Betriebssystem. Bei mir laufen derzeit 5 RasPi's im Dauereinsatz völlig problemlos. Allerdings werden die Daten auch nicht auf die SD geschrieben, sondern auf Netzlaufwerk oder eine angeschlossene HD/SSD.
Ja, und wo steht das geschrieben, dass man eine SSD, HD oder Netzlaufwerk installieren muss und die SD nur zum Booten verwendet werden soll? Ich hab auch noch ein BananaPi mit einer 512MB SD-Karte nur zum Booten und eine Festplatte mit rotierender Scheibe. Alle 8 Sekunden hört man den Kopf bewegen, ein Monitor zeigt an, dass auf die Platte geschrieben wird. Raspberry Pi nur von SD-Karte, alles deaktiviert, Kernel Logs und alle anderen Logs deaktiviert, Auslagerungsdatei deaktiviert und alles deaktiviert was logs schreibt, monitor zeigt alle 8 Sekunden, dass etwas auf die SD-Karte schreibt. SSD sind auch Flash Speicher, zwar haben die neueren auch Wear-Leveling, aber dennoch kann ein physischer Sektor nur 5000 bis 10000 mal beschrieben werden, somit ist es da auch nur eine frage der Zeit, bis die kaputt gehen. Ich bin auch zufrieden mit meinem Debian als Server, der ist denke ich debian 6 drauf und wird nicht upgedated. Neuere hab ich ein paar mal an einer anderen Maschine installiert, aber es fehlten einige Funktionen, die beim 6er vorhanden sind, aber bei den neueren nicht mehr da sind oder nicht mehr funktionieren.
Gottfried S. schrieb: > Ja, und wo steht das geschrieben, dass man eine SSD, HD oder > Netzlaufwerk installieren muss und die SD nur zum Booten verwendet > werden soll? Nennt sich Wissen/Erfahrung. > SSD sind auch Flash Speicher, zwar haben die neueren auch Wear-Leveling, > aber dennoch kann ein physischer Sektor nur 5000 bis 10000 mal > beschrieben werden, somit ist es da auch nur eine frage der Zeit, bis > die kaputt gehen. Ja klar, genauso wie normale HDD. https://heise.de/-3755009
Gottfried S. schrieb: > SSD sind auch Flash Speicher, zwar haben die neueren auch Wear-Leveling, Die älteren auch. > aber dennoch kann ein physischer Sektor nur 5000 bis 10000 mal > beschrieben werden, somit ist es da auch nur eine frage der Zeit, bis > die kaputt gehen. Eine SSD verbraucht zu bekommen, indem alle 8 Sekunden ein paar kB geschrieben werden, erinnert an Grimms Definition von Ewigkeit. https://www.grimmstories.com/de/grimm_maerchen/das_hirtenbueblein
:
Bearbeitet durch User
A. K. schrieb: > Eine SSD verbraucht zu bekommen, indem alle 8 Sekunden ein paar kB > geschrieben werden, erinnert an Grimms Definition von Ewigkeit. Nun, zumindest wird empfohlen beim Firefox auf SSD das Backup-Interval browser.sessionstore.interval hochzusetzen. Zugegeben schreibt der Firefox auch mehr als ein paar kB auf die Festplatte.
Eine überwiegend am Arbeitsplatz eingesetzte Crucial M4 von 2011 hat nach 37.000 POHs eine Restlebensdauer von 98% (smart 202). Die danach überwiegend am Arbeitsplatz eingesetzte Kingston KC400 hat nach 18.000 POHs bereits 5% ihrer Lebensdauer hinter sich (gplog04) und 100% noch vor sich (smart 231). Browser sind permanenter Teil der Arbeit, oft mehrere verschiedene gleichzeitig. Sollte ich mir bei solchen Werten Sorgen machen? ;-)
:
Bearbeitet durch User
Aber eine Micro-SD mit wear leveling hab ich bisher noch keine einzige gesehen. Sogar die SanDisk haben bei den Micro-SD keine. Jedenfalls sobald nur ein Sektor kaputt ist, ist die ganze Karte kaputt, da es für Linux keine "einfache" Möglichkeit gibt, die fehlerhaften Sektoren zu markieren. Ausser man macht einen Handstand, 5 Purzelbäume und rennt 3-mal im Kreis. Der 2. Raspi läuft noch, aber ich denke der ist auch bald soweit. Ausserdem schließt der Satz bei der Anmeldung "ABSOLUTELY NO WARRANTY" den Einsatz für "professionellen Einsatz" damit aus.
:
Bearbeitet durch User
Gottfried S. schrieb: > Aber eine Micro-SD mit wear leveling hab ich bisher noch keine einzige > gesehen. Eine feste 1:1 Abbildung von Blöcken normaler nicht für Flash-Medien entwickelter Filesysteme auf Flash-Positionen ist auch bei günstigen Medien nicht praktikabel. Bei normalen Filesystemen wären die schon nach ein paar Tagen defekt, aufgrund ausgeprägter Hotspots fester logischer Position. Abgesehen davon ist das aufgrund der grossen erase blocks technisch auch kaum praktikabel. Unterschiede bestehen folglich in der Art, wie gut oder schlecht eine dynamische Abbildung der Filesystem-Blöcke auf Flash-Positionen erfolgt. Nicht aber, ob dies überhaupt erfolgt. Schlechte Algorithmen nutzen bei der Auswahl lediglich freiwerdende erase blocks aus und lassen statische Daten ad infinitum in ihren kaum geschriebenen blocks liegen. Gute Algorithmen verlagern statische Daten irgendwann in schon deutlich abgenutzte blocks.
:
Bearbeitet durch User
Gottfried S. schrieb: > Ausserdem schließt der Satz bei der Anmeldung "ABSOLUTELY NO WARRANTY" > den Einsatz für "professionellen Einsatz" damit aus. Nur zur Erinnerung: Die Frage war nicht "Ist Linux für professionellen Einsatz geeignet?". Die Antwort "Ja" auf diese Frage hatte der TE offenbar bereits impliziert.
Gottfried S. schrieb: > da es für Linux keine "einfache" Möglichkeit gibt, die fehlerhaften > Sektoren zu markieren. Einerseits gibt es die, die ist allerdings b) bei Flash-Speichern unsinnig, weil ein Block, der dem OS gegenüber mit fester Adresse erscheint, intern im konkreten Speicher unterschiedliche Positionen haben kann. Statt nämlich einen Block zu lesen, die Daten zu ändern und den Block an diese Adresse zurückzuschreiben, wird der Block gelesen, die Daten geändert und der Block an einer anderen Stelle im Speicher wieder geschrieben. Völlig unabhängig vom verwendeten OS. Und völlig unabhängig vom verwendeten OS sind SD-Karten auch nie als Systemdatenträger gedacht gewesen, so dass eine solche Nutzung ohne weitere Anpassungen sie verhältnismäßig schnell verschleißen lässt. Jemand, der sich auch nur im Ansatz mal damit beschäftigt hat, statt sich krampfhaft Geschichten aus den Fingern zu saugen, warum ein bestimmtes OS schlecht sein soll – was umso lächerlicher wirkt, als dass er dabei keinerlei Rücksicht auf die Realität nimmt und ziemlich klar wird, dass seine Probleme allesamt auf eigene Defizite zurückzuführen sind, sollte davon gehört haben. Neuerdings gibt es auch SD-Karten, die für häufiges Überschreiben konzipiert sind. Haben dann oft was wie „Endurance“ im Namen. Wenn irgendwann mal eine Karte von einem meiner RPis aussteigen sollte, werde ich mal eine davon probieren. Also in fünf bis zehn Jahren … Ist nun gut?
Gottfried S. schrieb: > Ja, und wo steht das geschrieben, dass man eine SSD, HD oder > Netzlaufwerk installieren muss und die SD nur zum Booten verwendet > werden soll? Hirn benutzen! Jedem hier im Forum dürfte klar sein das eine SD nicht zum dauerhaften Schreiben geeignet ist - aus physikalischen Gründen. Nach einigen tausend Schreibvorgängen ist eben Schluß. Schau Dir den Aufbau solch einer Speicherzelle an und dann weißt Du warum. Gottfried S. schrieb: > SSD sind auch Flash Speicher, zwar haben die neueren auch Wear-Leveling, > aber dennoch kann ein physischer Sektor nur 5000 bis 10000 mal > beschrieben werden, somit ist es da auch nur eine frage der Zeit, bis > die kaputt gehen. ... richtig und zwar völlig unabhängig vom OS welches darauf werkelt. Gottfried S. schrieb: > Raspberry Pi nur von SD-Karte, alles deaktiviert, Kernel Logs und alle > anderen Logs deaktiviert, Auslagerungsdatei deaktiviert und alles > deaktiviert was logs schreibt, monitor zeigt alle 8 Sekunden, dass etwas > auf die SD-Karte schreibt. Wenn man das mit der externen Platte richtig macht, wird definitiv nichts auf SD geschrieben, weil man das root-System auf die HD/SSD legt. Als aktive Partition auf der SD bleibt dann nur die /boot Partition übrig und da wird im Normalfall nichts geschrieben - es sei denn Du passt alle 8s die Konfiguration an. Gottfried S. schrieb: > Aber eine Micro-SD mit wear leveling hab ich bisher noch keine einzige > gesehen. > Sogar die SanDisk haben bei den Micro-SD keine Ja eben genau deshalb sind SD Karten für ein Betriebssystem mehr als ungeeignet. Dafür sind sie schlichtweg auch nicht gebaut worden. Bei uns haben auch mal so BWL Fuzzis festgelegt aus Kostengründen auf die HD/SSD in den Steuerungen (Intel Inustrie-PC mit RTOS) zu verzichten und statt dessen Memorysticks (sind physikalisch auch SD) zu benutzen. Ging auch erst mal 2 Monate gut bis bei einem großen deutschen Automobilhersteller reihenweise die Anlagen ausgefallen sind. Das hat man erst mal versucht mit besseren Sticks zu lösen was auf Dauer auch nicht funktioniert hat. Dann hat man in der FW die Schreibzugriffe drastisch reduziert auf das absolut notwendige (bei uns wurde alle 3s ins Log geschrieben, für den Service eine super Sache weil man Fehler zurückverfolgen konnte). Das Minimieren der Logs hat dann auch dazu geführt, das wir dem Kunden keine Kollosionen mehr nachweisen konnten und deshalb mehrfach Baugruppen von einigen tausend € auf Kulanz getauscht werden mußten. Mittlerweile hat man daraus gelernt und man baut wieder SSD ein. Merkste was? DEfekte SD ist kein Alleinstellungsmerkmal von Linux. Gottfried S. schrieb: > Jedenfalls sobald nur ein Sektor kaputt ist, ist die ganze Karte kaputt, > da es für Linux keine "einfache" Möglichkeit gibt, die fehlerhaften > Sektoren zu markieren. Die gibt es bei SD auch nicht für Windows. Gottfried S. schrieb: > Ausser man macht einen Handstand, 5 Purzelbäume > und rennt 3-mal im Kreis. Nö derartig sportlich mußte ich mich da noch nie betätigen. Bei mir rennt nur der RasPi und das 24/7/365 seit gut 5 Jahren - gerade mal auf meine Wetterdaten und die Satellitenbilder geschaut - rennt.
Konstruktiver Kritiker schrieb: > Sheeva P. schrieb: >> Banking geht ganz prima mit Linux > > Stimmt. > Arch (*) hat es immerhin, nach gut über einem Viertel Jahr geschafft, > aktuelle Versionen von aqbanking und GnuCash vorzuhalten. > > Seit der Umstellung auf PSD2 war Onlinebanking mit den Versionen in den > Repos nämlich nicht mehr möglich. > Ich habe mir, nachdem ich endlich gemerkt habe an was es liegt einen > nightly-build von aqbanking installiert und ein Flatpak mit einem > aktuellen GnuCash. > > Also ja, geht prima. > > * wir erinnern uns: das ist diese bleeding-edge, alles-ganz-neu-Distri Ein paar Wochen lief jetzt wieder alles rund. Nach einem Full-Upgrade vermisse ich in meinem Gnucash aber jetzt alle Dialoge die irgendwas mit Onlinebanking zu tun haben. Auf der Kommandozeile ist mittels aqbanking der Abruf aller Transactionen weiterhin möglich. Da ich nicht glaube dass dieses Feature entfernt wurde vermute ich dass Gnucash nicht mit der verwendeten aqbanking-Version zurecht kommt. Aber keine Ahnung. Mir fehlt die Muse mich jetzt damit tiefergehend zu beschäftigen. Ich wart mal 2-3 Wochen ob's dann wieder klappt. Das ist halt genau das was man als kleiner Anwender haben will. Nicht.
Konstruktiver Kritiker schrieb: > Ein paar Wochen lief jetzt wieder alles rund. > Nach einem Full-Upgrade vermisse ich in meinem Gnucash aber jetzt alle > Dialoge die irgendwas mit Onlinebanking zu tun haben. > Auf der Kommandozeile ist mittels aqbanking der Abruf aller > Transactionen weiterhin möglich. > > Da ich nicht glaube dass dieses Feature entfernt wurde vermute ich dass > Gnucash nicht mit der verwendeten aqbanking-Version zurecht kommt. > Aber keine Ahnung. Mir fehlt die Muse mich jetzt damit tiefergehend zu > beschäftigen. Ich wart mal 2-3 Wochen ob's dann wieder klappt. > > Das ist halt genau das was man als kleiner Anwender haben will. > Nicht. Sag ich doch, bei jedem Update eine Überraschung. Vermutlich hat der Entwickler auf eine neuere Lib umgestellt, wo er sein Projekt großflächig umbauen musste, da lässt man gerne "unwichtige" Sachen mal links liegen. Hatte auch das selbe Problem mit dem svn-Integration im Datei Manager, als sie die subversion erneuerten, nach einigen Distri-Updates ging es immer noch nicht, ob es jetzt funktioniert oder nicht, da hab ich keine Ahnung, da ich Ubuntu nicht mehr verwende. Und ja, warum nimmst du nicht "git"? - Ganz einfach, da es zu der Zeit was völlig neues war und man noch nicht absehen konnte, ob es sich auch hält und nicht nach ein paar Jahren wieder eingestampft wird. Die Tortoise-SVN Integration im Windows Explorer ist zig mal besser, auch mit Tortoise-git und Tortoise-HG kann man bequemer arbeiten, als mit der Shell, da kann man sich sehr viel Zeit sparen.
Reinhard S. schrieb: > Gottfried S. schrieb: >> Wenn bei Windows eine >> Sicherheitslücke erkannt wird, wird sie in kürzester Zeit geschlossen. > > Hihi. > >> Bei Linux wird sie nur geschlossen, wenn der Entwickler davon etwas >> mitbekommt und wenn der Entwickler noch aktiv ist, ansonst wird das >> Paket beim nächsten Release entfernt. Wie war das doch noch mit der >> OpenSSL Heartbleed-Bug, da dauerte es mehr als 2 Jahre, bis die >> Sicherheitslücke geschlossen wurde. > > Nein, sie bestand mehr als 2 Jahre. Vom Entdecken bis Flicken wars > weniger. > In Windows gibts sicher auch noch genug unentdeckte Lücken. Das ist die ofizielle Version. Was haben die die 2 Jahre gemacht? Haben sie das nicht getestet?
Gottfried S. schrieb: > Das ist die ofizielle Version. > Was haben die die 2 Jahre gemacht? Haben sie das nicht getestet? Wenn du auf jeden möglichen Fehler testen würdest/könntest gäbe es keine fehlerhafte Software. Also?
Gottfried S. schrieb: > Haben sie das nicht getestet? das frag ich mich auch jedesmal, wenn nach nem Windows-Update mal wieder irgendwas nicht funktioniert ... Sorry, aber dieses Missionieren hin zu M$ geht mir maximal auf den Keks. Komplexe System haben ihre Probleme. Das sieht man regelmäßig bei Windows, bei Linux und auch gerade wieder bei MacOS. Ich finde es immer amüsant wenn irgendein Fanboy was anderes behauptet. Wenn Du Windows bevorzugst, dann tue das, hindert Dich niemand dran. Andere Leute haben gute Gründe warum sie einen Unix-Clone nutzen wollen. Was stört Dich das?
Gottfried S. schrieb: > Wie war das doch noch mit der >>> OpenSSL Heartbleed-Bug, da dauerte es mehr als 2 Jahre, bis die >>> Sicherheitslücke geschlossen wurde. >> >> Nein, sie bestand mehr als 2 Jahre. Vom Entdecken bis Flicken wars >> weniger. >> In Windows gibts sicher auch noch genug unentdeckte Lücken. > > Das ist die ofizielle Version. > Was haben die die 2 Jahre gemacht? Haben sie das nicht getestet? Soweit mir bekannt war der "Bug" ein Feature, dass von Entwicklern eingepflegt wurde die auf entsprechenden Gehaltslisten interessierter Kreise standen. War halt blöd, dass es Open Source ist und es jemand gemerkt hat. MS und Apple führen brav die Daten ab.
Beitrag #6229111 wurde von einem Moderator gelöscht.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.