ich dachte, ich könnte eine kleine Notebookfestplatte mit an das Stromkabel der großen Festplatte anschließen. Laufen tat es, es gab auch nur 2 Stromkabel für 2 Festplatten aber 3(4) Sata-Festplatten Anschlüsse. Einige Zeit (Gewitter) später versagte das Keyboard (Roccat Suora, braucht wohl einen besonderen Treiber von online, lädt nur im Roccat "swarm"-Programm), ein normales Keyboard funktionierte aber. Windows7 fing dann selbst an Harddisk Überprüfugen zu starten, sfc, und stellte viele verlorene dateien fest, reparierte, fand wieder, ... . Dummerweise auf allen Festplatten (3). Dann ging es weiter, daß Windows nicht mehr hochfuhr, abgesichert auch nicht, also heftiger Datenverlust. Ok, Stromdieb abgemacht, Kopien auf die Datenfestplatte gezogen und die Systemfestplatte mit neuem Windows7 bespielt. Läuft wieder. Der Datenverlust stellt sich aber nun so dar, daß das Meiste seit dem letzten Backup (1 Jahr her) fehlerhaft, fehlend oder eben unklar ist, ältere Dateien vor dem Backup sind meist ok. Nun frage ich (mich): Wieso nur das Neue auf beiden Festplatten ? Vorher waren diese neuen Dateien ja auch schon geschrieben und wurden auch benutzt, dh fehlerfrei eingelesen. Wieso geht Das denn kaputt wenn es doch gar nicht in Benutzung war. ist es besser den Festplattencache abzustellen ? Und ich frage nach der Datensicherheit bei Programmen, überprüfen die Programmierer (mittels checksum-prüfung ?) die Vollständigkeit ihrer Programmdatei vor der installation ? ist es sicher noch zu installieren ? Bislang habe ich die Dateisätze mit "Winmerge" verlichen , den Freecommander hätte ich auch noch. Uups, da kriege ich gerade einen Fehler 0x8007045D Kopiervorgang wegen eines E/A-Gerätefehlers abgebrochen. Hmm, Festplatte gibt auf, oder was ?
Plenk Ja nun, da liegen super viele Bits auf nur sehr wenigen Quadrartmetern herum. Da kann schon mal eines umkippen. Vernünftige Dateisysteme machen daher über jeden Block eine Checksumme und können daher auch überprüfen ob etwas kaputtgegangen ist. Wenn man dann auch noch Redundanz einschaltet oder einbaut, dann ist man schon auf der sichereren Seite. Ein Backup das stromlos ist und noch besser an einem anderen Ort liegt ist dann eine weitere Stufe besser. Und wenn man dann auch weiß und am Besten sogar getestet hat, dass man das Backup wiederherstellen kann, dann ist man am Ziel. Bei dir ist recht viel unklar. Vielleicht liefert dein Netzteil zu wenig Strom für meherere Laufwerke an einem Kabel? Vielleicht sitzt ein Stecker locker? Carypt C. schrieb: > Und ich frage nach der Datensicherheit bei Programmen, überprüfen die > Programmierer (mittels checksum-prüfung ?) die Vollständigkeit ihrer > Programmdatei vor der installation ? Mal ja, mal nein. Was ich auch nicht weiß ist an welchen Stellen ein normales Windows Daten auf Korrektheit überprüft. Jetzt würde ich erstmal eine neue Plastte kaufen, und dann von den alten Platten jeweils ein 1:1 Abbild lesen und davon dann versuchen meine Daten zu retten. Deinen jetzigen Platten würde ich nie wieder vertrauen. Die kannst du ins Regal legen falls du später noch was davon brauchen solltest, aber zu mehr taugen die nicht. Die haben ihr Vertrauen verspielt. (Ja, auch wenn die Platten vielleicht OK sind. Platten sind günstig und ein Datenverlust ist das Risiko einfach nicht wert.)
Carypt C. schrieb: > Ok, Stromdieb abgemacht oww, ich glaub: Da lag der Fehler. Stromdiebe nutzt man nicht.
Carypt C. schrieb: > Nun frage ich (mich): Wieso nur das Neue auf beiden Festplatten ? Vorher > waren diese neuen Dateien ja auch schon geschrieben und wurden auch > benutzt, dh fehlerfrei eingelesen. Wieso geht Das denn kaputt wenn es > doch gar nicht in Benutzung war. Die Datenstruktur auf der Platte ist komplex. Sie ist immer in Benutzung, und es kann da auch Teile geben die zu alten und neuen Dateien gehören. > ist es besser den Festplattencache abzustellen ? Wann? Jetzt? Nein, nicht unnötig am kranken System rumfummeln. > ist es sicher noch zu installieren Oberste Grundregel: Auf eine möglicherweise defekte Platte installiert/kopiert man grundsätzlich nichts, und man startet von dort auch nichts. > Uups, da kriege ich gerade einen Fehler 0x8007045D Kopiervorgang wegen > eines E/A-Gerätefehlers abgebrochen. Hmm, Festplatte gibt auf, oder was > ? Oder der PC hat einen Defekt. Um das sicher festzustellen, gibt es nur einen Weg. Bau eine (neue) Platte ein, von der man annehmen kann, dass sie ok ist. Dann starte von einem Stick ein Stand-alone-Plattentestprogramm für diese Platte. > Und ich frage nach der Datensicherheit bei Programmen, überprüfen die > Programmierer (mittels checksum-prüfung ?) die Vollständigkeit ihrer > Programmdatei vor der installation ? Das tun AFAIK nur Hersteller von Backup- oder Virenscanner-Programmen.
:
Bearbeitet durch User
Bei MS-DOS und den DOS-basierten Windows-Versionen musste man "VERIFY = ON" in die AUTOEXEC.BAT schreiben, dann haben die nach dem Schreiben gegengelesen. Ansonsten machten sie fire&forget. W10/W11 braucht dafür vermutlich einen Registry-Eintrag. Ich nutze für meine Backups TeraCopy. Das macht nach dem Kopieren/Verschieben einen CRC-Vergleich der Daten. Grundsätzlich fangen Festplatten keinen Schreibvorgang an, wenn die Betriebsspannung außerhalb der Spec ist, und sie haben genügend Puffer um einen laufenden Schreibvorgang zu beenden. D.h. mit Wackelkontakt im Kabel bekommst Du vielleicht vom Betriebssystem Fehler zurückgemeldet (Gerät nicht bereit), aber keine korrupten Daten auf der Platte. Wenn ein Schreibvorgang mit Fehlermeldung abbricht, ist die zuletzt geschriebene Datei mit großer Wahrscheinlichkeit kaputt, aber darauf hat man Dich ja hingewiesen. Die anderen Daten auf der Platte werden nicht beeinträchtigt.
Soul E. schrieb: > Die anderen Daten auf der Platte werden nicht > beeinträchtigt. Klar, wenn beim Schreiben der FAT was schiefgeht, ist nur die letzte veränderte Datei betroffen ... Weia.
Harald K. schrieb: > Soul E. schrieb: >> Die anderen Daten auf der Platte werden nicht >> beeinträchtigt. > > Klar, wenn beim Schreiben der FAT was schiefgeht, ist nur die letzte > veränderte Datei betroffen ... Der letzte geschriebene Sektor. In diesem Fall die FAT. Alle anderen Sektoren, insbesondere auf anderen Spuren der Platte, werden nicht beeinträchtigt. Insbesondere können durch Stromausfall bei einem Schreibzugriff nicht an anderer Stelle auf der Platte befindliche Daten zufällige Bitkipper haben.
Soul E. schrieb: > Alle anderen > Sektoren, insbesondere auf anderen Spuren der Platte, werden nicht > beeinträchtigt. Was Du so alles glaubst. Schon mal mit 'ner SMR-Platte zu tun gehabt? Die schreibt durchaus 'ne ganze Latte Sektoren auf einmal.
Soul E. schrieb: > Insbesondere können durch Stromausfall bei einem Schreibzugriff nicht an > anderer Stelle auf der Platte befindliche Daten zufällige Bitkipper > haben. Du hast gerade die komischvergessene Alzheimerstrahlung (=: https://www.forschung-und-wissen.de/nachrichten/technik/kosmische-strahlung-aendert-bits-in-digitalen-codes-13372443 https://www.scinexx.de/news/technik/weltraumteilchen-stoeren-unsere-elektronik/ Myonenpower ist listig und Alzheimerstrahlung ist lustig ;) Vor allem sorgt sie für die Evolution aller Mutanten - überlebenswichtig.
Beitrag #7682519 wurde von einem Moderator gelöscht.
ich hatte Windows7 nochmals neu installiert, es läuft auch alles gut. Nur beim Podcastprogramm gpodder fehlt wie immer, vorher auch schon die Datei api-ms-win-core-path-l1-1-0.dll, irgendeine c-Bibliothek, nebensächlich, habe ich nachkopiert, funktioniert trotzdem nicht, vielleicht muß ich noch den Defender o Firewall abstellen oder so, egal. Es gibt einen Appcrash. Auf jeden Fall ergibt das Festplattenüberprüfung-tool keine Fehler, aber jedesmal(3x) wenn ich sfc/scannow laufen lasse, wird irgendetwas vermisst, fehlerhaft, ersetzt. Nun könnte ich mir denken, ich müßte das Netzteil überprüfen, aber auch mit Gaming gibts ja keine Probleme und andere Dateioperationen waren eigentlich fehlerfrei, oder ich versuche eine andere Festplatte. Letzteres mache ich dann wohl. Nur zur information (vertraulicher Gebrauch)
So, neu auf einer Notebookfestplatte Win7 installiert, läuft, sfc/scannow ergibt keine Fehler. Supi. Trotzdem werde ich viele Dateien händisch überprüfen, nachladen müssen. Besonders ärgerlich finde ich den Verlust meiner Browser-lesezeichen, die ich eigentlich immer wieder ge-safed habe, doch leider sind diese Dateien futschi-kato. Wenn ich so überlege aus einem der vorhergehenden Beiträge (danke), daß eine Festplatte nur dann die Operationen ausführt, wenn genügend Strom eingelagert wurde, dann könnte ein schwaches Netzteil ja zu einer Verlangsamung des Systemes führen.
Carypt C. schrieb: > daß eine Festplatte nur dann die Operationen ausführt, > wenn genügend Strom eingelagert wurde Du hast sehr putzige Vorstellungen davon, was Festplatten machen.
Nun, habe ich bei sfc/scanow wieder jedesmal Dateireparaturmaßnahmen und ca 4000 Zeilen Log. ich würde mal sagen, an der Festplatte liegt es nicht. Die Datenträgerfehlerüberprüfung ergibt keine Probleme. ich überlege da noch weiter, was es jetzt sein könnte, wenn es nicht an einem zu schwachen Netzteil läge. Außerdem müssten zusätztlich angesteckte usb-Festplatten das Problem noch verschärfen. An der Betriebssystemsoberfläche sieht man keine Einbrüche. Die 5v Leitung des Satasteckers einer 3-5"-Festplatte zeigt keinen Spannungsabfall (5,06V), auch nicht beim Betrieb 2-er weiterer usb-Festplatten.
Ich glaube Du verwechselst das mit chkdsk. sfc /scannow tut nichts weiter als den dllcache synchronisieren.
Nein, ich benutze doch beide , sfc und chkdsk, sfc checkt die Systemdateien und repariert auch.
Avira Rescue System findet keine Bedrohungen, - obwohl: veraltete Virusdefinition. Vielleicht schaue ich nochmal mit aktuellem System nach (1,8gb later). sehe mich gezwungen rechnerplattform (mainboard) zu wechseln.
Auf dem anderen Rechner (hp280) sehe ich nach Neuinstallation Win7 mit allen Updates (wie vorher auch) wieder in sfc/scannow Dateireparaturen. ist das jetzt so ein running gag von Windows ständig kaputte Systemdateien zu generieren ? Es ist zwar die alte Festplatte, der ich aber durchaus vertraue. ich kann ja jetzt nur schließen, daß es entweder eine Gewitterüberspannung den Rechner aus dem Konzept gebracht hatte, aber dannach normales Funktionieren erlaubte, oder aber ich habe mein Karmakonto aufgebraucht und auch Microsofts Funktionsversprechen diesen meinen Fall nicht mehr gegen Hexerei abdeckt. Also noch eine andere (gute ?) Festplatte ausprobieren. pff
ich denke, ein Gewitter-bedingter mini-Stromausfall hat meinen PC befallen, als deren Festplatten mit Defragmentierung beschäftigt waren, oder die $Mft ntfs-masterfiletable in Bearbeitung war, oä. Da der Schreibcache aktiviert war, waren wohl Teile der Festplatteninformation in den flüchtigen Schreibcache verlegt worden und haben den Stromausfall nicht unbeschadet überstanden. Das müßte den Datenverlust erklären. Es steht sogar beim Schreibcache dabei, daß es bei Stromausfällen zu größeren Datenverlusten kommen kann. Da werde ich, solange ich mir keine USV (unterbrechungsfreie Stromversorgung) zulege, lieber den Schreibcache auf den Festplatten deaktivieren. Die Festplatten müßten eigentlich noch zuverlässig funktionieren. OK
:
Bearbeitet durch User
Man kann den Schreibcache aktivieren bei Win7 zwar ändern, aber das stellt sich bei jedem Reboot wieder zurück. (Gruppenrichtlinie ?). ich kann also den heftigen Datenverlust nicht so einfach unterbinden.
Carypt C. schrieb: > ich denke, ein Gewitter-bedingter mini-Stromausfall hat meinen PC > befallen, als deren Festplatten mit Defragmentierung beschäftigt waren, > oder die $Mft ntfs-masterfiletable in Bearbeitung war, oä. Da der > Schreibcache aktiviert war, waren wohl Teile der Festplatteninformation > in den flüchtigen Schreibcache verlegt worden und haben den Stromausfall > nicht unbeschadet überstanden. Das müßte den Datenverlust erklären. Nur wenn du die Platte als FAT formatiert hast, aber da gibt's keine $MFT. NTFS ist ein journalling filesystem, da macht ein Stromausfall beim Defragmentieren oder sonstwann der MFT nichts aus. Die MFT kriegst du mit kaputtem RAM beschädigt (random Bitfehler), oder wenn deine Platte eins der historischen Modelle ist, deren Firmware das "Write Barrier"-Kommando im Zusammenspiel mit NCQ nicht richtig implementiert hatten.
Danke. ich weiß nicht, was da passiert, ich sehe, da ich meist durch Hibernation ausschalte, daß sich der Ram von 1-2 gB sich nach längerer Zeit auf 7 von 8 gB füllt, ohne große Programme. Wenn ich Chrome ganz aus mache, werden nur 500 MB frei. Hiberfil und Pagefil sind 9 und 13gb groß. Was mir beim Kontrollieren der Dateien auffällt ist, daß meist Dateien von Beschädigung betroffen sind, die öfter oder kürzlich aufgerufen wurden, aber dennoch schon längere Zeit auf dem Festplatte vorhanden waren.
Carypt C. schrieb: > ich weiß nicht, was da passiert, ich sehe, da ich meist durch > Hibernation ausschalte, daß sich der Ram von 1-2 gB sich nach längerer > Zeit auf 7 von 8 gB füllt, ohne große Programme. Das ist normal. Unbenutzter RAM wird als Disk-Cache verwendet. Geld zurück für unbelegten RAM gibt's nicht, also warum nicht verwenden?
Εrnst B. schrieb: > NTFS ist ein journalling filesystem, da macht ein Stromausfall > beim Defragmentieren oder sonstwann der MFT nichts aus. Praktisch geht es fast immer gut, ja. Aber ganz sicher kann man dennoch nie sein, einfach weil die Hardware eines Laufwerks nicht selbst sämtliche ihrer Komponenten so überwachen kann, dass jede Art von Stromausfall korrekt behandelt wird. Es ist ja nicht immer so, dass der Strom sauber und definiert abgeschaltet wird. Man muss auch bedenken, dass es wenig oder keinen Schutz gegen Dinge gibt, die auf höherer Ebene passieren. Oberhalb des Dateisystems gibt es ja in der Regel (Datenbanken ausgenommen) kein Journalling.
Εrnst B. schrieb: >> ich weiß nicht, was da passiert, ich sehe, da ich meist durch >> Hibernation ausschalte, daß sich der Ram von 1-2 gB sich nach längerer >> Zeit auf 7 von 8 gB füllt, ohne große Programme. > > Das ist normal. Unbenutzter RAM wird als Disk-Cache verwendet. Geld > zurück für unbelegten RAM gibt's nicht, also warum nicht verwenden? Allerdings kann das Volllaufen des Speichers auch durch ein Software-Speicherleck verursacht werden. Manche Programme sind dafür prinzipiell anfällig, z. B. solche, die mit Garbage Collection arbeiten (z. B. bei den .NET-Sprachen), da hat der Programmierer es schwer, das Problem zu lokalisieren.
Rolf schrieb: > Aber ganz sicher kann man dennoch > nie sein, einfach weil die Hardware eines Laufwerks nicht selbst > sämtliche ihrer Komponenten so überwachen kann, dass jede Art von > Stromausfall korrekt behandelt wird. Es ist ja nicht immer so, dass der > Strom sauber und definiert abgeschaltet wird. Bei drehendem Spindelmotor wird dieser bei Stromausfall als Generator genutzt, um das abzufangen. Das genügt auch, um die Festplattenköpfe zu "parken", d.h. um den Kopfträger entweder aus der Spindel auszuschwenken, oder aber auf eine definierte (und speziell oberflächenbehandelte) Parkzone zu bewegen. Bei nicht drehendem Spindelmotor sollte man annehmen können, daß etwaige Schreibcaches des Festplattencontroller inaktiv sind. Festplattenhersteller mögen zwar "altes Eisen" produzieren, aber komplett verblödet sind sie auch nicht.
Danke für die infos. Ok , ich habe jetzt herausgefunden, daß Windows7 meine Einstellungen zum Festplatten-cache bei jedem Neustart, auch aus dem Ruhezustand, vielleicht sogar bei jeder Änderung des Energiesparmodusses überschreibt und ignoriert. Das wird wohl an einer übergeordneten Gruppenrichtlinie liegen. Start - Hilfe : "Gruppenrichtlinie" gibt informationen , dort "Gruppenrichtlinenverwaltung für iT-Spezialisten" : dort "Editor für lokale Gruppenrichtlinien". Man gibt also Start - Ausführen : "gpedit.msc" ein und gelangt in den Editor für lokale Gruppenrichtlinen. Nach etwas Suchen finde ich unter Computerkonfiguration - Adminstrative Vorlagen - System - permanenter Festplattencache endlich 4 Einstellungsrichtlinien ; zu 1) Start- und Fortsetzungsoptimierung, 2) Cache-Energiesparmodus, 3) Permanentem Cache, 4) Solid State Modus. Also kann ich die Systemstartbeschleunigung ausmachen, die Schreibvorgänge gegen die Energiespareinstellung durchsetzen und auch SolidStateFestplatten SSD beschreiben anstatt offline zu besitzen. Mein Problem war ja der Datenverlust möglicherweise durch den Festplattencache bei Stromünterbrechung. Die Frage ist, ob ich den permanten Cache global ausschalte, oder nur die Energiespareinstellung des Permanenten Caches, die versucht, die Festplatte solange wie möglich offline zu halten. ich will auf alle Fälle eine Datenfestplatte direkt fertiggeschrieben haben, die Systemplatte kann von mir aus mit Cache laufen. Könnte auch sein, daß der Speicher von Windows nicht so voll gemacht wird. Aber es wird Energie mehrverbrauchen. ich versuche erstmal Startbeschleunigungscache aus und Energiecache aus, ist nicht wirklich langsamer. Nachtrag : diese Seite gibt die Registry-änderungen bei ändern der Gruppenrichtlinie an : https://www.der-windows-papst.de/2015/06/02/harddisk-write-cache-festplatte-schreibcache-richtlinie/
:
Bearbeitet durch User
Hallo, nur zur Info. Ich hatte mal ein ähnliches Problem, allerdings unter dem Pinguin. fsck meldet Fehler -> repariert. Kurz darauf waren die Fehler wieder da. Das ein paar mal. Dann einfach mal memtest386 ausgeführt -> Speicherriegel defekt, gewechselt -> alles wieder OK. Jogibär
Ach Je, die Computerverwaltung ist meine Stärke nicht, meine Einstellungen in der Lokalen Gruppenrichtlinie werden nicht befolgt. ich muß mich wohl erst in die Mircosoft Management Console MMC einarbeiten, oder herausfinden wie man sich Administratorenrechte auf dem Rechner verschafft. Win7 Pro. Früher habe ich manche Sachen im Abgesicherten Modus Start gemacht, ob das hier hilft muß ich ausprobieren. Das Windowsspeicherdiagnosetool "mdsched" hat keine Fehler im Ram gefunden. mehrfach. 8gb.
:
Bearbeitet durch User
Nein, nein, nein, jedesmal wenn ich den Diskcache deaktiviere, wird der Diskcache von Windows wieder eingeschaltet, obwohl dies Datenverlust bei Stromausfall bedeuten wird. Es ist als wenn Windows meine Daten mit voller Absicht auf die Straße schmeißt. Meine Änderungen an den Gruppenrichtlinien haben wohl keine Bedeutung. Ahnung davon habe ich eigentlich nicht. Was muß ich machen, damit ich das Verhalten von Windows ändern kann ? Habe ich etwas Grundlegendes übersprungen ? in der Group-Policy-Konsole gpedit.msc kann man außerdem einstellen, daß der Virtuelle Speicher Auslagerungsspeicher bei jedem Neustart wirklich gelöscht wird (Computerkonfiguration/Windows-Einstellungen/Sicherheitseinstellungen/Lo kale Richtlinien/Sicherheitsoptionen. im Eintrag "Herunterfahren: Auslagerungsdatei des virtuellen Arbeitsspeichers löschen") ich hätte ja angenommen, dies wäre standardmäßig. Wie man sich täuschen kann.
:
Bearbeitet durch User
Beitrag #7698936 wurde von einem Moderator gelöscht.
Carypt C. schrieb: > wird der > Diskcache von Windows wieder eingeschaltet, obwohl dies Datenverlust bei > Stromausfall bedeuten wird. Wie geschrieben: Bei NTFS geht das Dateisystem selber nicht kaputt, es gehen evtl. die zuletzt geschriebenen Datei-Inhalte verloren. Dabei aber meistens so, dass einfach die letzte Version der Datei erhalten bleibt, also auch kein Totalverlust. Der Schreibcache wird sofort weggeschrieben, so schnell die Platte das erlaubt. Sobald der Block auf der Platte ist, wird der entsprechende Cache-Block zu einem Lese-Cache-Block. d.H. allein an der RAM-Menge die als Cache verwendet wird kannst du nicht feststellen, wieviel davon Lese-Cache ist, und wieviel davon "dirty" Write-Cache. Das Problem was du oben beschreibst, hat nichts mit dem Cache von Windows zu tun. Wenn es dir ein "gutes Gefühl" gibt, kannst du natürlich an den Cache-Settings rumspielen. Hilft nur nix. Genausogut kannst du auch einen feinstofflichen Skalarwellen-Sortierer an dein PC-Gehäuse kleben. Carypt C. schrieb: > Auslagerungsdatei des virtuellen > Arbeitsspeichers löschen") ich hätte ja angenommen, dies wäre > standardmäßig. Wie man sich täuschen kann. Was versprichst du dir davon? Wenn nachts DIE geheimen Geheimagenten kommen um Löcher in deinen Aluhut zu bohren, und DIE deine Festplatte mitnehmen, können DIE die Auslagerungsdatei nicht mehr auswerten? Auch hier: Dein Lösungsweg bringt nix. Festplattenverschlüsselung würde was bringen.
Εrnst B. schrieb: > Das Problem was du oben beschreibst, hat nichts mit dem Cache von > Windows zu tun. Das ist das bekannte PEBKAC-Problem.
Harald K. schrieb: > Das ist das bekannte PEBKAC-Problem. Bei Dir wohl auch. Guten Morgen. Was verspreche ich mir davon ? Die Energiesparoption verzögert das Niederschreiben von Daten solange wie möglich, also Cache. Cache ist Stromausfall-empfindlich. ich will nicht dass bereits geschriebene Dateien durch verzögerte Defragmentation oder sonstige Optimierungen einem Stromausfall zum Opfer fallen können. Ausweg offensichtlich nur USV oder Laptop mit Batterie. ich kann es nicht fassen, dass Windows so Stromausfall-vakant mit den Dateien umgeht. Etwas Einführung bei der Administration am Computer fände ich auch nett.
die lokalen Richtlinien können von Gruppenrichtlinien übergangen werden
Carypt C. schrieb: > Die Energiesparoption verzögert das > Niederschreiben von Daten solange wie möglich, also Cache. Wie kommst du auf diese seltsame Theorie? Carypt C. schrieb: > ich kann es nicht fassen, dass Windows so > Stromausfall-vakant mit den Dateien umgeht. Das Gegenteil ist der Fall. Windows/NTFS ist extrem resistent gegen plötzliche Stromausfälle. Auch für Anwendungssoftware, solange diese korrekt implementiert ist, und z.B. kritische Schreiboperationen an Datenbank-Files als "WriteThrough" ausführen lässt. Wenn dein Windows sich exakt gegensätzlich zu dem verhält, was bei 99.999% der Anwender normal ist, solltest du überlegen ob vielleicht ein "Optimierungsversuch" von dir in der Vergangenheit da was kaputtkonfiguriert hat. Grundlagen, halbwegs Anfängerfreundlich aufbereitet: https://learn.microsoft.com/en-us/windows/win32/fileio/file-caching
:
Bearbeitet durch User
Εrnst B. schrieb: > Wie kommst du auf diese seltsame Theorie? Wie Du im Bildanhang sehen kannst, gibt es diese Erklärung in der gpedit-Konsole. Aber zu 99,9999% habe ich auch kein Problem damit gehabt. Nun nervt es mich, daß ich den Diskcache deaktivieren nicht durchsetzen kann, klicki-bunti-häkchen in pilli-palli-windi. @alecxs, muß ich das Adminstrator-konto erst aktivieren ? oder was
:
Bearbeitet durch User
Carypt C. schrieb: > Wie Du im Bildanhang sehen kannst, gibt es diese Erklärung in der > gpedit-Konsole. Hast du denn eine Hybrid-Festplatte? SSHDs waren nur eine sehr kurze Zeit "in Mode". Wenn du keine hast: Warum erwartest du, dass eine Windows-Einstellung für Hybrid-Festplatten deine normale Festplatte beeinflusst?
:
Bearbeitet durch User
Es sind ganz normale Festplatten, Stichwort Rotation. ich gehe mal davon aus unter Hybridfestplatte auch eine normale Festplatte zu verstehen sein kann (etwas Speicherriegel haben die ja meist). Außerdem ist ja die übergeornete Zusammenfassung als "permanenter Festplattencache" bezeichnet. Bist Du sicher ich wäre falsch ? besides: Muss ich Umgebungsvariablen ändern damit was funktioniert ?
:
Bearbeitet durch User
Carypt C. schrieb: > aus unter Hybridfestplatte auch eine normale Festplatte zu verstehen > sein kann Nein. Bei der Hybrid-Festplatte ist sozusagen eine sehr kleine SSD zusätzlich verbaut. Also Flash-Speicher, der auch einen Stromausfall übersteht. Die Windows-Einstellungen, die du gefunden hast, kontrollieren, ob dieser Flash-Speicher zum Teil als persistenter Schreib-Cache (zusätzlich zum Schreib-Cache im RAM) verwendet werden darf, um Platten-Spin-Ups zu vermeiden. Bringt eher weniger Datensicherheit, wenn du das abstellst (UND eine SSHD besitzt), weil der Schreib-Cache im RAM viel schneller in den SSD-Teil der Platte geschrieben werden kann als in den HDD Teil. Nach einem Stromausfall konnte Windows den Flash-Cache-Inhalt wieder lesen und zurück auf die Platte schreiben. Die Option stammt aus der Zeit, als SSDs&SSHDs noch Neu waren und es bei den Anwendern wenig Erfahrung damit gab. Wenn du damals Angst vor plötzlichem Flash-Chip-Tod durch zuviele Schreibzyklen hattest, konntest du die Verwendung als Schreib-Cache abschalten.
Carypt C. schrieb: > @alecxs, muß ich das Adminstrator-konto erst aktivieren ? oder was Nein, es reicht normalerweise ein Rechtsklick und als Administrator ausführen.
Ok, aha, gut, danke. Dann habe ich mich da wohl vergallopiert und fehlinterpretiert. Richtig glauben kann ich meinen irrtum nicht. Dennoch hatten meine Einstellungen in der Konsole ja manchmal anfänglich eine Wirkung.? ich will aber trotzdem dauerhaft den Schreibcache der normalen Festplatten auschalten, oder gibt es den jetzt plötzlich auch nicht mehr. Es stellt sich dauernd zurück. Naja, ich kann mich auch geschlagen geben. nachtrag: https://superuser.com/questions/1423464/turn-disk-write-caching-on-or-off-in-windows-10-8-7-with-a-reg-key-command-lin (klappt wohl auch nicht)
:
Bearbeitet durch User
Carypt C. schrieb: > ich will aber trotzdem dauerhaft den Schreibcache der normalen > Festplatten auschalten Warum eigentlich? Hast Du alle fünf Minuten einen Stromausfall?
Mutti klickt 22:00 Uhr die Sicherung runter
Was wäre wenn es denn alle 5 Minuten Stromausfall gäbe, Kann man dann Computern vergessen ? Wikipedia offline lesen, vergessen ? weil gleich Korrupte daten. super. Nun habe ich im Abgesiccherten Modus die Schreibcache-settings vorgenommen, Aha , dann dauerte es seeehr lange herunter zu fahren, da habe ich den Schreibcache doch lieber wieder angemacht. Pfff sry. Ja, es scheint als würde im Abgesichtern Modus die Einstellung behalten. Super, gefunden. Also die Systemfestplatte Schreibcache an, und die Datenfestplatte lieber Schreibcache aus. Das war ja schwierig. Die Einstellung mit dem Pagefile zu leeren beim herunterfahren benötigt zum Herunterfahren auch normal deutlich länger. ich Danke für die Hilfe und Aufmerksamkeit
:
Bearbeitet durch User
Ich glaub die Fritzbox braucht schon 5 min für den Verbindungsaufbau.
in the middle of the night hem se uns dat licht utdraiht
Carypt C. schrieb: > Das war ja schwierig. Vor allem bringt es nur was, wenn du deinem Stromausfall beibringst, solange zu warten bis die Festplatten-Leuchtdiode ausgeht. Musst den Rechner so stellen, dass das Gewitter durch das Fenster beobachten kann, wann so ein Blitz ohne Datenverlust möglich ist... Carypt C. schrieb: > Die Einstellung mit dem Pagefile zu leeren beim herunterfahren Ist ja auch eine reichlich Sinnbefreite Option... Wenn ein Angreifer soweit auf deinen ausgeschalteten Rechner zugreifen kann, dass er die Auslagerungsdatei lesen könnte (und exakt für dieses Angriffszenario hilft das Pagefile-Löschen) dann kann der dir auch eine Rootkit-Spionage-Überwachungssoftware auf den Rechner spielen, und kriegt damit dauerhaft mehr Daten frei Haus geliefert als er jemals aus der geklauten pagefile.sys auslesen könnte...
Harald K. schrieb: > Carypt C. schrieb: >> ich will aber trotzdem dauerhaft den Schreibcache der normalen >> Festplatten auschalten > > Warum eigentlich? Hast Du alle fünf Minuten einen Stromausfall? das ist garnicht so weit hergeholt. In einer Region Deutschlands wohnend, in der ständig an den Stromnetzen gebastelt* wird, kommen Stromausfälle doch recht häufg vor. *Anschaltungen von neuen Windparks, Solarfeldern etcpp. Dann werden neue Trasse gezogen und wat nich' alles.
:
Bearbeitet durch User
Carypt C. schrieb: > Was wäre wenn es denn alle 5 Minuten Stromausfall gäbe, Kann man dann > Computern vergessen ? Wikipedia offline lesen, vergessen ? weil gleich > Korrupte daten. super. Im Garten was machen, wie z.B. Unkraut zupfen, das könnte entspannender sein. Anderes, was mit Technik zu tun hat, bereitet Dir offenkundig heftige Sorgen, und das schlägt auf Dauer nicht nur auf die Psyche, sondern auch auf den Magen. Und das ist ungesund. Übrigens plenkst Du immer noch.
man kann Seiten auch speichern und offline lesen.
●DesIntegrator ●. schrieb: > man kann Seiten auch speichern und offline lesen. s/speichern/ausdrucken/ Sonst wird das mit dem Stromausfall nichts, an den man anscheinend glauben muss, wenn man zur Flatterstromdunkelflautenprepperfraktion gehört.
Auch die im Abgesicherten Modus gemachten Einstellungen wurden vom System wieder geändert, dh der Schreibcache benutzen ist wieder aktiv und wartet auf einen Stromausfall. ist wohl ein one-way-button zum Wohlfühlen. Übrigens, herr Duda, eine Planke hätte ich da. liegt gut in der Hand. Und es war ja nicht mein Problem, daß das Windows plötzlich nicht mehr startete und eine unbekannte Anzahl von Dateien verschwinden oder verändern ließ. sondern ?
Carypt C. schrieb: > Und es war ja nicht mein Problem, daß das Windows plötzlich nicht mehr > startete und eine unbekannte Anzahl von Dateien verschwinden oder > verändern ließ. sondern ? Das war ganz sicher die große Schreibcacheverschwörung. Aber pass' auf, sonst kommen SIE vorbei und lassen Dich spurlos verschwinden, wenn Du weiter solche Dinge aufdeckst. Denn SIE wollen natürlich, daß Deine Daten verschwinden. Weil das ja klar ist.
Carypt C. schrieb: > daß das Windows plötzlich nicht mehr > startete und eine unbekannte Anzahl von Dateien verschwinden oder > verändern ließ. Das liegt übrigens nicht am Schreibcache, sondern an ZENSIERT. DIE wollen aber dass du weiter in die falsche Richtung schaust, damit DEREN geheimer Plan weiterhin verborgen bleibt. Also, schraub' ruhig weiter am Schreibcache herum, das lenkt dich von der WAHRHEIT ab.
Also: a) Du hast einen Schreibcache. Windows meldet ok, und schreibt in Ruhe die Datei weg. Man kann die Maus schon wieder bewegen obwohl die Festplattenlampe noch flackert. b) Du hast keinen Schreibcache. Windows zeigt Dir die Sanduhr, bis die Festplattenlampe aus ist. Beide Vorgänge dauern ungefähr gleich lange. Nur dass Du im zweiten Fall währenddessen keine Eingaben tätigen kannst. Die Chance, dass der Strom ausfällt und Deine Datei kaputtmacht, ist in beiden Fällen gleich groß. Im zweiten Fall kannst Du aber währenddessen nichts neues anfangen, was dann ebenfalls kaputt wäre. Das ist der einzige Benefit, oder übersehe ich da was?
Soul E. schrieb: > a) Du hast einen Schreibcache. Windows meldet ok, und schreibt in Ruhe > die Datei weg. Windows könnte aber auch warten, ob sich die Daten nochmal ändern, die Datei noch grösser wird, die Systemlast kleiner wird oder... Ich glaube, Linux wartet bis zu 30 Sekunden.
Soul E. schrieb: > a) Du hast einen Schreibcache. Windows meldet ok, und schreibt in Ruhe > die Datei weg. Man kann die Maus schon wieder bewegen obwohl die > Festplattenlampe noch flackert. > > b) Du hast keinen Schreibcache. Windows zeigt Dir die Sanduhr, bis die > Festplattenlampe aus ist. In dem Zusammenhang würde mich dann doch interessieren, warum Windows nur einen einzigen von X Kernen benutzen würde und dann auch noch blockierend schriebe. Macht es natürlich nicht… Insofern ist die getätigte Sanduhr-Aussage eher für den 1. April geeignet. Bauform B. schrieb: > Windows könnte aber auch warten, ob sich die Daten nochmal ändern, die > Datei noch grösser wird, die Systemlast kleiner wird oder... Ich glaube, > Linux wartet bis zu 30 Sekunden. Kann man konfigurieren! Und noch vieles mehr. Interessanterweise bleiben diese Einstellungen dann auch erhalten. ;-)
Norbert schrieb: > In dem Zusammenhang würde mich dann doch interessieren, warum Windows > nur einen einzigen von X Kernen benutzen würde und dann auch noch > blockierend schriebe. Natürlich hast Du heute Multithreading. Und die Platte hat einen internen Cache. Und mit NCQ legt sie sich die Daten sogar intern so hin, dass sie diese mit einem Rutsch wegschreiben kann, auch wenn der Host die Blöcke in der falschen Reihenfolge anliefert. Daher die Frage: verkürzt ein Abschalten des Schreibcache tatsächlich nennenswert die Zeit, bis die Daten auf der Magnetscheibe oder im NAND-Flash angekommen sind?
:
Bearbeitet durch User
Soul E. schrieb: > Daher die Frage: verkürzt ein Abschalten des Schreibcache tatsächlich > nennenswert die Zeit, bis die Daten auf der Magnetscheibe oder im > NAND-Flash angekommen sind? Filesysteme und Anwendungen, die Konsistenz mindestens der Metadaten, aber auch der Inhalte sicherstellen sollen, sind darauf angewiesen, zu wissen, wann die Daten gesichert persistent sind. Entweder verzichtet man auf einen Schreibcache, oder man macht diesen persistent, oder man sieht entsprechende Signalisierungen als Teil des Protokolls von Schreiboperationen vor.
(prx) A. K. schrieb: > oder man > sieht entsprechende Signalisierungen als Teil des Protokolls von > Schreiboperationen vor ist ja gegeben. Unter Windows die Datei mit Flag "NO_BUFFERING" oder "WRITE_THROUGH" aufmachen, oder zu passenden Zeitpunkten ein FlushFileBuffers auf das Handle... Und auf tieferer Ebene kann das OS der Platte per "Write Barrier" mitteilen, wo kritische Zeitpunkte liegen über die Schreiboperationen eben nicht durch NCQ verschoben werden dürfen. Aber unabhängig davon: Das Ursprungsproblem war ja, das irgendwelche Betriebsystemdateien, die vermutlich seit Installation unverändert auf der Platte liegen und immer nur gelesen werden, plötzlich fehlten oder fehlerhaft waren, genau wie seit langem unveränderte Datendateien. Wie man bei diesem Fehlerbild überhaupt auf die Idee kommen kann, dass da der Schreibcache irgendwie schuld ist, ohne einen Hardwaredefekt auch nur in Betracht zu ziehen, ist für mich unverständlich.
:
Bearbeitet durch User
Es war dann wohl sfc, das falsch und kaputt repariert hat, aber ja erst nachdem Windows Treiber fehlten. Es mag nicht der Schreibcache sein, der hier ursächlich ist, aber ich wollte doch zumindest etwas an der Sicherheit schrauben, es geht bloß gar nicht. Dann müßte man auch Defragmentierung, Startoptimierung und Auslagerungsdatei(pagefile) (ich benutze eigentlich immer Ruhezustand (echte Hibernation) hiberfil (dabei Systemdateien ausgeblendet)) unterbinden können. ich Danke für das interesse.
Carypt C. schrieb: > Dann müßte man auch Defragmentierung, Startoptimierung und > Auslagerungsdatei(pagefile) Dafür gibt es den Devicetreiber tinfoilhat.sys, den kann man im Internet finden.
> internen Cache. Und mit NCQ legt sie sich die Daten sogar intern so hin, > dass sie diese mit einem Rutsch wegschreiben kann, auch wenn der Host > die Blöcke in der falschen Reihenfolge anliefert. Ich glaube bei SCSI so ab 1995 eingefuehrt oder? .-) > Daher die Frage: verkürzt ein Abschalten des Schreibcache tatsächlich > nennenswert die Zeit, bis die Daten auf der Magnetscheibe oder im > NAND-Flash angekommen sind? Ich denke nicht das sich dies so einfach beantworten laesst weil das vom Betriebsystem, dem Filesystem, vielleicht auch Patchlevel, eventuell auch Formatierungs/mount-flags und eventuell sogar noch was genau auf dem System laeuft und welche Hardware drin steckt. Und vielleicht sogar noch von der Firmware auf der SSD. Die Gleichung hat einfach zuviele Variablen. Vanye
Oh..und noch ganz vergessen. Aktuelle Billig-SSDs sind ja mittlerweile QLC(palmface). Die sind also megaschnarchlangsam und damit das keiner merkt haben die intern einen kleinen bereich als SLC. Also kopiert die Platte irgendwann von SLC nach QLC um wenn sie meint nix zutun zu haben. Ja, hoffentlich verkraftet die dann immer einen Zusammenbruch der Spannung. Naja wenn nicht gibts es halt ein Firmwareupdate. :-D Vanye
Vanye R. schrieb: > Oh..und noch ganz vergessen. Aktuelle Billig-SSDs sind ja mittlerweile > QLC(palmface). Die sind also megaschnarchlangsam und damit das keiner > merkt haben die intern einen kleinen bereich als SLC. Wie soll ich's erklären...? Ein Freund hat eine QVO 1TB in seinem System. Das Ding liest mit vollen 550MB/s. Und das Ding schreibt mit > 500MB/s. (Zumindest während der ersten 40000 MegaByte am Stück) Da er sein Leben nicht damit verbringt, ständig und fortlaufen mehr als 40000 MegaByte auf das Ding zu schreiben**, kann er absolut keinen Unterschied zu einem SLC/MLC/TLC Drive erkennen. **Das mag anders sein, wenn man in großem Maßstab Videobearbeitung macht. Allerdings weiß man dann auch was man tut.
:
Bearbeitet durch User
Vanye R. schrieb: > QLC(palmface). Die sind also megaschnarchlangsam Es gibt einen Unterschied zwischen SSD-Benchmarks und normaler Nutzung auf dem Home/Office-PC. Wer traut sich zu, mit seiner üblichen Arbeit auf einem PC derart viele Requests gleichzeitig durchzuführen, wie das die Benchmarker tun, um an bestimmte Grenzen zu kommen?
:
Bearbeitet durch User
Norbert schrieb: > Da er sein Leben nicht damit verbringt, ständig und fortlaufen mehr als > 40000 MegaByte auf das Ding zu schreiben Da ist er dann aber kein Poweruser, Leistungsträger und High-Performer. Und das traut er sich einfach so zuzugeben? Respekt. Ein normaler Mensch.
Εrnst B. schrieb: > solltest du überlegen ob vielleicht ein > "Optimierungsversuch" von dir in der Vergangenheit da was > kaputtkonfiguriert hat. So etwas ähnliches hatte ich gestern auch gedacht. Allerdings eher so, dass es bei diesem Problem hier schwierig ist, von außen zu analysieren. Man müsste sich das Dilemma vor Ort ansehen. So kann man nur Vermutungen anstellen. Tatsächliche Zusammenhänge werden hier nicht offengelegt. Es sieht auch so aus, dass hier die üblichen Analysewerkzeuge, die man so nimmt, gar nicht parat liegen. Bei Windows ME war das mal so, dass Grafiktreiberreste, die sich nicht löschen ließen irgendwann irgendwie (per Morrowind-Absturz) die Maussteuerung vermurkst hatten, von da aus dann ins Rechnernirwana-Rechneraus + Startprobleme-bzw. Startverweigerung, wobei damals auch noch ein Bildschirm kaputt gegangen ist. Die tollen Windowswerkzeuge hatten auch nicht mehr geholfen - und da lang dann eine Neuinstallation von ME nahe. Ein wenig Durcheinander hatte ich noch drin, weil gewisse Norton-Tools ihre DOS-Partition haben wollten. Das Defragmentieren in ME hatte auch eine Macke, da brauchte man einen Fix von Außen.
Rbx schrieb: > Bei Windows ME war das mal so Das war ja auch DOS-basierter Frickeldreck. Mit ernstgemeintem Windows hat das noch nie etwas zu tun gehabt. Nein, auch wenn manch einer so etwas glaubt, "Windows 2000" ist kein Nachfolger von Windows Me.
> Wie soll ich's erklären...?
Du musst nichts erklaeren. Du brauchst erstmal Lesekompetenz.
Es ist natuerlich vollkommen klar das so eine QLC SSD nach aussen
im normalen Userbetrieb gleichschnell einer anderen SSD ist weil,
wie ich ja schrieb, sie die Daten erstmal im SLC zwischenspeichert.
Erst spaeter wenn man glaubt das sie nix macht kopiert sie die
Daten erneut um. Das kann einem egal sein, aber wenn man sich
sorgen macht wann wie und wieso ein Schreibcache seines BS
auf seiner Platte landet und welche Sorgen man sich da machen
oder nicht machen muss, dann koennte das doch auch mal
bedenkenswert sein oder nicht?
Vanye
Vanye R. schrieb: > Du musst nichts erklaeren. Du brauchst erstmal (sic) Lesekompetenz. Tja, bei dir fehlt's halt an Sozialkompetenz. Aber deine Erwiderung gebe ich dir trotzdem gerne direkt einmal zurück. In den SLC Bereich einer QVO 1TB passen über 40GB. Die werden mit >500MB/s auf den Datenträger geschrieben. Wie bei einer SLC über SATAIII, wie bei einer MLC über SATAIII, wie bei einer TLC über SATAIII. Dann, wenn etwas Atempause ist, sortiert das Laufwerk die Daten im Hintergrund um. Und selbstverständlich macht es das nicht auf die blödest und unsicherst mögliche Art und Weise. Wenn man jedoch mehr als 40GB am Stück (beim nächst größeren Laufwerk schon >80GB) produziert, dann kann der Datenverlust bei Stromausfall ebenso im RAM-Cache des PCs erfolgen, ebenso bei der Übertragung erfolgen, ebenso bei der Finalisierung erfolgen. Und zwar mit SLC, MLC, TLC und QLC. Im Übrigen bezog sich meine Anmerkung auf deine in höchstem Maße unpassende Aussage: Vanye R. schrieb: > Aktuelle Billig-SSDs sind ja mittlerweile > QLC(palmface). Die sind also megaschnarchlangsam Das … ist … einfach … nicht … korrekt!
Harald K. schrieb: > Nein, auch wenn manch einer so etwas glaubt, "Windows 2000" ist kein > Nachfolger von Windows Me. Wunder hier nicht rum, Windows NT gab es schon seit Anfang der 90er, praktisch noch vor Windows 95. Hinsichtlich der Schadsoftware, die man bei so XP-Kisten finden konnte, würde man vermuten, XP ist der direkte Nachfolger von Windows 95 - was aber auch nicht so stimmt. Das mit dem Windows/DOS = "Frickeldreck" hatten sowieso viele gesagt, das war die (technische) Mainstream-Meinung. Nichtsdestotrotz hatte mir das Quake Spielen recht viel Spaß gemacht.
Rbx schrieb: > Wunder hier nicht rum, Windows NT gab es schon seit Anfang der 90er, > praktisch noch vor Windows 95. Mir musst Du das nicht sagen, ich nutze NT seit dem Beta-Programm (1992) und habe Windows 95 & Co. nur mit 'ner spitzen Zange angefasst. Rbx schrieb: > Hinsichtlich der Schadsoftware, die man bei so XP-Kisten finden konnte Das lag wohl auch daran, daß XP in einer ganz bestimmten Variante die meistgeklaute Windows-Version überhaupt war, und genau diese Variante kaum jemand im Original in die Hände bekam, und deshalb auf mehr oder weniger obskure mit mehr oder weniger "interessanen" Zusatzfunktionen angereicherte Versionen aus irgendwelchen Klaubörsen zurückgreifen musste. Das war die Volumenlizenzversion, die nicht "aktiviert" werden musste, in den entsprechenden Kreisen aus irgendwelchen Gründen als "corporate" bezeichet.
Soul E. schrieb: > Daher die Frage: verkürzt ein Abschalten des Schreibcache tatsächlich > nennenswert die Zeit, bis die Daten auf der Magnetscheibe oder im > NAND-Flash angekommen sind? Egal, wie intelligent das Laufwerk intern arbeitet: Ein abgeschalteter Cache ist gleichbedeutend mit einem, der zu klein ist und deshalb manchmal/immer vollläuft. Sobald er vollläuft, kann die volle Schreibrate auf der Schnittstelle nicht mehr erreicht werden. Es hängt also alles davon ab, wie schnell du wieviel Daten anliefern willst. Für deine Frage gibt es also keine Antwort.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.