Ein T. schrieb: > Wenn ich mir die Gegenfrage erlauben darf: > hast Du denn gesehen, daß es hier ausweislich der Beiträge des TO um > Win11 auf HDD geht, und Gerhards HDD-Setup jenem des TO ähnelt? Na klar ist Deine Gegenfrage erlaubt. Gerhard berichtet in der Tat von ähnlichen Erfahrungen mit Windows auf einer HDD wie der TO. Hier stellt sich für mich die Frage, weshalb beide es nicht einfach mit einer zeitgemäßen SSD probieren, wie es hier vielfach vorgeschlagen wurde. Gerhard O. schrieb: > Ob eine > SDD diesbezüglich Abhilfe schaffen könnte, müsste man ausprobieren. Von meinen eigenen Erfahrungen habe ich berichtet. Ich war nach der Umstellung auf SSD wirklich verblüfft. Die Investition von 55,00 Euro war es mir wert und sie sollte im Budget der meisten von uns vorhanden und machbar sein. Die SSD ist nicht nur deutlich schneller, es entfallen auch solche Dinge wie Defragmentierung. Übrigens eine weitere Ursache für langes Rödeln, ist hier aber vermutlich schon erwähnt worden.
Also, ein PC hat erst einmal nach der Bootphase tot zu sein und nur auf Anforderungen des Users tätig zu werden. Ungefragt selber zu tätig zu werden ist ein absolutes NoGo!
Schlaumaier schrieb: > Ohne Werbung zu machen. > > Ne 1 TB SSD kostet aktuell bei Saturn o. Pearl 59 Euro. > > Da würde ich die Motor-Platte allein schon deshalb tauschen. Das ist maximal Symptombehandlung aber nicht Ursachenbehebung. Und zum Thema Daten(wiederherstellungs)sicherheit gibt's hier aktuell noch einen anderen Thread, gutes Negativbeispiel weshalb ich maximal Windows auf eine SSD installieren würde, aber meine Daten immer auf der HDD bleiben werden.
Don ki Schote schrieb: > Also, ein PC hat erst einmal nach der Bootphase tot zu sein und nur auf > Anforderungen des Users tätig zu werden. Der könnte dann nicht einmal die aktuelle Uhrzeit anzeigen. ;-)
Der Rechner ist zur Ruhe gekommen, seit ich im Edge alle möglichen "im voraus Laden" Einstellungen deaktiviert habe. Selbst jetzt wo ich den Edge gestartet habe um diesen Beitrag zu schreiben, höre ich die Festplatte kaum noch und der Rechner reagiert deutlich fluffiger. Ich denke, dass wir Hardware defekte, Treiberprobleme und Trojaner ausschließen können. Es ist wohl wirklich das Windows, was sich so viel mit sich selbst beschäftigt hat. Ich werde das jetzt ein paar Tage beobachten und dann als Gegentest schrittweise wieder alles ein schalten. Das wird lange dauern.
(prx) A. K. schrieb: > Don ki Schote schrieb: >> Also, ein PC hat erst einmal nach der Bootphase tot zu sein und nur auf >> Anforderungen des Users tätig zu werden. > > Der könnte dann nicht einmal die aktuelle Uhrzeit anzeigen. ;-) Braucht man ja auch nicht, mit Apfelwatsch hast du ja am Mann. Das würde dich nur irritieren….
Don ki Schote schrieb: > Es hilft alles nichts, ein Programm muß her das diese Aktivitäten > während des Hochlaufs aufzeichnet. Gibt es bestimmt schon, nur wie heißt > es? Schau dir Process Monitor von Sysinternals an. > Nach dem booten im Taskmanager oder im Ressourcenmonitor herum zu > klickern macht ja keinen Sinn. Deswegen gibt es ja auch den Process Monitor. Der Process Monitor hilft bei Dingen, bei denen der Process Explorer und Task Manager nicht mehr helfen können.
Rainer Z. schrieb: > Aber wahrscheinlich ist der Horrorzyklus auch gar nicht unterbrochen > worden, denn Win11 scheint nur ein Win10 in neuen Gewändern zu sein, > weil z.B. alle Win10-Treiber 100%ig funktionieren. Für nur neue Kleider > spricht auch, dass etwa die Systemsteuerung noch immer enthalten ist. > Also nix komplette Neuentwicklung. Hast du ernsthaft geglaubt, dass Win11 eine Neuentwicklung sei? Der Code von Win11 basiert auf allen vorherigen Windows Versionen der NT Linie, das reicht zurück bis zu Windows NT 3.1 das am 26. Juli 1993 released wurde. Man kann das auch gut an der Buildnummer erkennen, die wird mit jeder Windowsversion größer und das liegt eben genau daran, weil sie auf dem bestehenden Code aufbaut, der immer weiter entwickelt wird.
Gibt es eigentlich eine Dokumentation, was Windows so im Hintergrund alles treibt? Wenn ich danach suche finde ich immer nur Anleitung, wie man fremde (!) Programme identifiziert, die auffällig viel aktiv sind. Die interessieren mich aber nicht, sondern Windows und dessen Standard Komponenten.
Ich habe nur das gefunden, keine Ahnung ob es eine Dokumentation gibt. Beitrag "Re: Windows 10 plötzlich langsam beim Hochlauf"
Sooo, Update: bei mir haben die in diesem Post erwähnten Schritte das Problem scheinbar gelöst. Mit den folgenden Schritten gibt meine Platte nun Ruhe:
1 | FIXED with the following method: |
2 | |
3 | We need to change "AHCI Link Power Management", a hidden setting in Power Management. To show it, open up Registry Editor and change the following settings: |
4 | |
5 | HKLM\SYSTEM\CurrentControlSet\Control\Power\PowerSettings\0012ee47-9041-4b5d-9b77-535fba8b1442\0b2d69d7-a2a1-449c-9680-f91c70521c60 |
6 | Change value from 1 to 2 |
7 | |
8 | HKLM\SYSTEM\CurrentControlSet\Control\Power\PowerSettings\0012ee47-9041-4b5d-9b77-535fba8b1442\dab60367-53fe-4fbc-825e-521d069d2456 |
9 | Change value from 1 to 2 |
10 | |
11 | Now go to Control Panel > System and Security > Power Options, click on "Change plan settings", then click on "Change advanced power settings". |
12 | |
13 | Under "Hard disk", you should have AHCI Link Power Management - HIPM/DIPM and AHCI Link Power Management - Adaptive options. |
14 | |
15 | Change the HIPM/DIPM setting to "Active", which means there is no power management for AHCI. Finally, change Adaptive to 0 milliseconds (although if you enabled "Active" above, this option has no effect except as a failsafe). |
16 | |
17 | Finally, under "PCI Express", change Link State Power Management to "Off". Reboot. |
Quelle:https://www.reddit.com/r/techsupport/comments/6ciyje/disk_activity_on_ssd_spikes_to_100_and_freezes_at/
Stefan F. schrieb: > er Rechner ist zur Ruhe gekommen, seit ich im Edge alle möglichen "im > voraus Laden" Einstellungen deaktiviert habe. Selbst jetzt wo ich den > Edge gestartet habe um diesen Beitrag zu schreiben, höre ich die > Festplatte kaum noch und der Rechner reagiert deutlich fluffiger. Mit "autoruns" kannst Du noch viel mehr deaktiveren was beim Start nicht unbedingt erforderlich ist. Auch im Taskmanager kann man so einiges vom Autostart lösen. Aber auch in "services.msc" kann man manche erforderlichen Dienst auf "Manuell" setzen, dann werden sie nur nach Anforderung gestartet. Ein paar Dienste kann man sogar gefahrlos deaktivieren. Oder auch im Aufgabenplaner schauen was da sonst noch so alles automatisch startet. Man sollte aber wie immer wissen was man tut.
:
Bearbeitet durch User
René H. schrieb: > Mit "autoruns" kannst Du noch viel mehr deaktiveren was beim Start nicht > unbedingt erforderlich ist. Auch im Taskmanager kann man so einiges vom > Autostart lösen. Aber auch in "services.msc" kann man manche > erforderlichen Dienst auf "Manuell" setzen, dann werden sie nur nach > Anforderung gestartet. Ein paar Dienste kann man sogar gefahrlos > deaktivieren. Man sollte aber wie immer wissen was man tut. Nützt bei Win11 nur nicht mehr viel. Die meisten Sachen sind in die Aufgabenplanung gewandert, damit Volldoddeln wie der TE nicht dran rumpfuschen...
Udo K. schrieb: > René H. schrieb: >> Mit "autoruns" kannst Du noch viel mehr deaktiveren was beim Start nicht >> unbedingt erforderlich ist. Auch im Taskmanager kann man so einiges vom >> Autostart lösen. Aber auch in "services.msc" kann man manche >> erforderlichen Dienst auf "Manuell" setzen, dann werden sie nur nach >> Anforderung gestartet. Ein paar Dienste kann man sogar gefahrlos >> deaktivieren. Man sollte aber wie immer wissen was man tut. > > Nützt bei Win11 nur nicht mehr viel. Die meisten Sachen sind in die > Aufgabenplanung gewandert, damit Volldoddeln wie der TE nicht dran > rumpfuschen... Da kann man immernoch genug rumpfuschen. 😉
Alexander schrieb: > weshalb ich maximal Windows auf > eine SSD installieren würde, aber meine Daten immer auf der HDD bleiben > werden. Ich speichere ALLE meine Daten in einen Verzeichnis "0-Daten". 0- deshalb damit es im Total-Commander immer schön oben angezeigt wird. ;) Pos-1 und ich bin da ;) Dieses Verzeichnis wird sehr regelmässig (außerhalb der üblichen Vollbackup-Phase) auf eine externe Platte kopiert. Der Mist in "eigenen Dateien" kann ruhig verloren gehen ;) Ich traue SSD auch nicht wirklich, aber der Speed-Gewinn ist gigantisch. Und es ist in 30 Jahren Windows die preiswerteste und effektivste Methode Windows + Linux zu pimpen. ;) Mal sehn wann MS das merkt und sein OS noch lahmer macht, damit man neue Hardware kauft. Die aktuelle Methode ist ja nicht so wirklich effektiv für die Schaffung von Elektroschrott. Was den TO angeht. Schade das er keine Platte von ca. 1995 hat. ;) Dann würde er HÖREN ob die Platte am Anfang eines Schaden steht. Aber alternativ würde ich mir mal eines der S.M.A.R.T auslese Programme installieren und gucken was die sagen.
Schlaumaier schrieb: > Ich traue SSD auch nicht wirklich, aber der Speed-Gewinn ist gigantisch. Mir sind schon mehrere HDDs verreckt, da habe ich an SSDs keine höheren Anforderungen. Backup und/oder Datensicherung lässt mich ruhig schlafen.
Nachtrag: Es ist eine schlechte Angewohnheit von neueren Windows-Versionen (ab inkl. Win-7) vieles von Programmen in DIENSTE zu verlegen. Ich würde also mal schauen welcher Dienst da unnütz ist. Und dann die miese Angewohnheit (haben sie beim Handy abgeschaut) das jeder ein Dienst braucht, um ein mit unnützen Infos zu füttern. Und damit das keiner so schnell merkt, hat man dann das Icon in der Taksleiste (rechte Seite) auf "ausblenden" gestellt. Ich habe neulich bei einen Freund ein Rechner wieder "Beschleunigt". Da habe ich fast 20 "Dienste" abgeschaltet. Den Autosstart gereinigt, und eine Dinge richtig eingestellt. Die Kiste rannte danach fast wie neu. Temp-Verzeichnisse von HAND leeren, Schauen ob das Printer-Spooler-Verz. leer ist, und so weiter. Man. JEDE Maschine braucht wartung. Wieso also so ein Mist wie Windows nicht auch. ?!!?
Don ki Schote schrieb: > (prx) A. K. schrieb: >> Don ki Schote schrieb: >>> Also, ein PC hat erst einmal nach der Bootphase tot zu sein und nur auf >>> Anforderungen des Users tätig zu werden. >> >> Der könnte dann nicht einmal die aktuelle Uhrzeit anzeigen. ;-) > > Braucht man ja auch nicht, mit Apfelwatsch hast du ja am Mann. Das würde > dich nur irritieren…. Also der Computer soll dumm sein wie ein Stein und garnichts machen ohne den fast noch dümmeren Anwender. Aber die Apfeluhr am Handgelenk überträgt alles von Herzfrequenz bis Masturbationszyklus an Apfel, die Hausautomation schalten fröhlich selber geräte ein, die Heizungsthermostate senden GB Weise Daten an die Herstellercloud und Amazon hört jedes Wort. Irgendwie läuft da was falsch. Warum darf Apfel, Google, Facebook, Amazon alles von dir Wissen, inkl der wirklich kritischen Gesundheitsdaten und Bewegungsprofile, aber der PC darf sich nicht mal selber mit Updates versorgen und ein wenig Telemetrie mit MS machen.
Beitrag #7246774 wurde von einem Moderator gelöscht.
Beitrag #7246775 wurde von einem Moderator gelöscht.
Hallo, da bin ich doch wegen des Threads hier auf die Idee gekommen mal zu schauen, ob mein HP Tablet ein Update auf Win11 kann. Erstmal nein, CPU i5-7Y57 nicht kompatibel. Allzuviele haben es auf den Tablet wohl auch nicht probiert. Also RegKey gesetzt um den CPU-Test abzuschalten. Image gemacht für den Rückweg und MediaCreatinTool W11 runtergladen. USB-Stick erstellt. Bis hier waren rund 2 Sunden vergangen, davon war aber das Tablet mit Image, Updates runterladen usw. bechäftigt. Gegen 12 Uhr dann aus Win10 das setup auf dem Stick gestartet, leif ca. 1,5h. Bisherige Erkenntnis: es läuft noch (fast) alles eigentlich unverändert wie unter Win10. Ist nun eben ein Win11 pro/64 mit lokalem Konto drauf. Ungereimtheiten für mich im Moment: Kontextmenü bei Datei im Explorer - da brauche ich vorrangig Kopieren/Ausschneiden/Einfügen/Löschen und nicht den Quatsch der mir da jetzt angezeigt wird. Startmenü: keine Guppierung der Icons mit Trenner und Bschriftung möglich? Irgendwelche Ungereimtheiten bei der Auslastung sind mir bisher nicht aufgefallen, ich lasse es erstmal drauf und beobachte es. Platzbedarf auf C:\ sieht komischweise etwas geringer aus wenn ich die rund 28GB Windows.old abziehe? Gruß aus Berlin Michael
Schlaumaier schrieb: > Ohne Werbung zu machen. > > Ne 1 TB SSD kostet aktuell bei Saturn o. Pearl 59 Euro. > > Da würde ich die Motor-Platte allein schon deshalb tauschen. Off Topic die Antwort, egal.
Rainer Z. schrieb: > Ein T. schrieb: >> Wenn ich mir die Gegenfrage erlauben darf: >> hast Du denn gesehen, daß es hier ausweislich der Beiträge des TO um >> Win11 auf HDD geht, und Gerhards HDD-Setup jenem des TO ähnelt? > > Na klar ist Deine Gegenfrage erlaubt. Gerhard berichtet in der Tat von > ähnlichen Erfahrungen mit Windows auf einer HDD wie der TO. Hier stellt > sich für mich die Frage, weshalb beide es nicht einfach mit einer > zeitgemäßen SSD probieren, wie es hier vielfach vorgeschlagen wurde. Das ist für Dich eine durchaus valide Frage und womöglich auch für den TO eine sinnvolle Anregung, aber keine Lösung für das eigentliche Problem des TO. Denn bei ihm geht es ja gerade nicht um Win11 auf einer SSD, sondern darum, wie sich das System auf einer HDD verhält -- und die Erfahrungen, die Gerhard schildert, legen ja zumindest nahe, daß die Probleme des TO kein Einzelfall, sondern systematisch zu sein scheinen.
Schlaumaier schrieb: > Ich habe neulich bei einen Freund ein Rechner wieder "Beschleunigt". Da > habe ich fast 20 "Dienste" abgeschaltet. Den Autosstart gereinigt, und > eine Dinge richtig eingestellt. > > Die Kiste rannte danach fast wie neu. > > Temp-Verzeichnisse von HAND leeren, Schauen ob das Printer-Spooler-Verz. > leer ist, und so weiter. Man sollte ab und an Bereinigen/Systemdaten Bereinigen machen. Schlaumaier schrieb: > Was den TO angeht. Schade das er keine Platte von ca. 1995 hat. ;) Dann > würde er HÖREN ob die Platte am Anfang eines Schaden steht. Meine Platte hier höre ich auch im Betrieb. Waren mal 3Stck. in einem preiswerten HD-Paket von Itsco. WD 1600HLFS VelociRaptor. Feines Teil, bin zufrieden!
Rainer Z. schrieb: > Aber wahrscheinlich ist der Horrorzyklus auch gar nicht unterbrochen > worden, denn Win11 scheint nur ein Win10 in neuen Gewändern zu sein, > weil z.B. alle Win10-Treiber 100%ig funktionieren. Für nur neue Kleider > spricht auch, dass etwa die Systemsteuerung noch immer enthalten ist. > Also nix komplette Neuentwicklung. Win10 war doch auch schon keine Neuentwicklung, sondern "nur" ein zusätzlicher Layer über alten Win7-Dialogen. Für viele Einstellungen muss man bei Win10 ein paar Mal öfter klicken um dann denselben Dialog zu finden wie unter Win7. Dessen Größe kann man dann, aus unerfindlichen Gründen, noch immer nicht in der Größe verändern, o.ä.
Micha schrieb: > Dessen Größe kann man dann, aus unerfindlichen > Gründen, noch immer nicht verändern Was daran liegt, dass diese Dialoge noch viel älter sind, nämlich aus der Windows 95 Zeit stammen, wo alles eine feste Größe in Pixeln hatte.
Stefan F. schrieb: > Was daran liegt, dass diese Dialoge noch viel älter sind, nämlich aus > der Windows 95 Zeit stammen, wo alles eine feste Größe in Pixeln hatte. Das ist bei jedem OS so, das Teile des Sourcecodes bis in das Pleistozän zurückreichen. Daraus bezieht es ja seine Zuverlässigkeit. WIN11 soll 3.300 Milliarden Zeilen Code enthalten. Selbstverständlich ist das meiste davon nur aktualisierter alter Code bzw. noch genau das was seit 10 Versionen einfach nur läuft und seinen Job macht. Und selbstverständlich wirkt jeder User der immer den letzen heißen Scheiß als Erster haben muss ganz wesentlich an der Entwicklung mit. Indem er all die Probleme hat, die spätere Nutzer nicht mehr haben, weil das OS reift. Und wenn es ausgereift ist wird was neues auf den Markt geworfen, denn was sollen sonst die 100.000 Entwickler tun, die bei bzw. für MS arbeiten?
Wenn man bedenkt das der Source-Code von Win-2000 irgendwo in den weiten des Internet ist, brauch man sich auch nicht zu wundern wenn die es nicht schaffen das OS sicher zu machen, besonders nicht wenn man uraltes Zeug drin hat.
So Leute, ich habe einen gut versteckten Dienst ausfindig gemacht, der einen ganz erheblichen Anteil an der Rödelei hat. Er heißt "Superfetch", nennt sich in der Dienste Verwaltung jedoch "SysMain" und in der Prozessliste taucht er als "svchost (LocalSystemNetworkRestricted -p)" auf. In meinen vorherigen Screenshots war er oft zu sehen. Der Dienst lädt Dateien in den Cache, wo Windows der Meinung ist, dass man sie vielleicht demnächst gut gebrauchen könnte. Wenn sich das mit einem Update, Virenscan oder Index-Lauf auf einer HDD überlappt (worauf Windows leider keine Rücksicht nimmt), dann wird der Rechner auffällig lahm. Man kann ihn einfach deaktivieren. Programme starten dann beim ersten mal etwas langsamer, aber das Arbeiten mit ihm fühlt sich deutlich flüssiger an.
Stefan F. schrieb: > Programme starten dann beim ersten > mal etwas langsamer, aber das Arbeiten mit ihm fühlt sich deutlich > flüssiger an. Würde mich mit eines SDD nicht wirklich jucken. Davon abgesehen braucht mein Super-Voller Rechner eh 4-5 Minuten bis er anständig DA ist. Weshalb ich ich fast nur schlafen lege. Win-10 + 11 hat diesen Modus sogar wesentlich verbessert. Ist noch ein Überbleibsel seiner Fantasie ein Tablett-OS zu werden. Also leg ihn einfach in diesen Modus dann ist das Problem auch nicht mehr so schlimm. Wenn du ihn in den "Ram-to-Disk"Modus legst, dann kopiert er den Speicher zur Platte und geht ECHT aus. Du darfst ihn dann auch den Strom wegnehmen. Je nach vollgestopften Rechner ist das ein echter Zeitvorteil. Kostet aber extra Plattenplatz und muss einmalig angemeldet werden.
Schlaumaier schrieb: > Also leg ihn einfach in diesen (schlaf) Modus dann ist das Problem > auch nicht mehr so schlimm. Geht nicht, weil ich Windows nur selten benutze. Ich boote normalerweise Linux. > Wenn du ihn in den "Ram-to-Disk"Modus legst, dann kopiert > er den Speicher zur Platte und geht ECHT aus. Das soll äußerst riskant sein, wenn man zwischendurch ein andere Betriebssystem startet. Ich mache das lieber nicht, habe die Hibernate Funktion daher deaktiviert. > Würde mich mit eines SDD nicht wirklich jucken. Das war ja auch der Konsens dieser Diskussion. Die von mir beobachteten Performance Engpässe treten bei SSD nicht auf. Bei Verwendung einer HDD stehen sich die zahlreichen gleichzeitig aktiven Hintergrundprozesse gegenseitig im Weg. Falls es jemand interessiert, habe ich mal meine aktuelle Liste der Gegenmaßnahmen angehängt. Ich nehme an, dass sie ebenso auf Windows 10 zutrifft.
Stefan F. schrieb: > Geht nicht, weil ich Windows nur selten benutze. Ich boote normalerweise > Linux. Würde mich nicht jucken, da ich den "BIOS-Boot-Manager" nutze. Also den Bios sage von welcher Platte er booten soll. Ist für mich die einzige Alternative die ich Stressfrei mag. Und da mein Rechner ein Externen Sata-Schacht" hat. Kann ich da einfach ne kleine degradierte ;) SSD reinstecken. Anmachen, F-10 drücken, die Platte auswählen und alles ist gut. Dann ist die Windows-Platte scheintod, wenn ich sie in Linux "ausbuche".
Schlaumaier schrieb: > Wenn du ihn in den "Ram-to-Disk"Modus legst, dann kopiert er den > Speicher zur Platte und geht ECHT aus. Bei einer HDD mit 120 MB/s und bescheidenen 8 GB RAM ist das rein rechnerisch für 70 Sekunden gut. Ob das wohl schlau ist? Sowas ist heute allenfalls als Notfallmassnahme bei Laptops sinnvoll, denen der Akku leerläuft, u.U. automatisch.
:
Bearbeitet durch User
Don ki Schote schrieb: > Da war Siemens wenigstens noch Siemens! Hast du mal in BS 2000 programmiert oder gedebuggt?
Schlaumaier schrieb: > brauch man sich auch nicht zu wundern wenn die es > nicht schaffen das OS sicher zu machen Security through obscurity meinst Du? Eine moderne SW kann den code offenlegen ohne dadurch nur einen deut unsicherer zu werden. Und wie kommst Du darauf das Win nicht sicher ist? Nach meinen Informationen hat Win10 bereits eines der modernsten Sicherheitskonzepte. Der größte Unsicherheitsfaktor ist der Typ der vor dem Monitor sitzt, mit Admin Rechten willenlos auf alles clickt und jede Sicherheitsfrage abgestellt hat oder mit 'mach doch' beantwortet.
Max M. schrieb: > Eine moderne SW kann den code offenlegen ohne dadurch nur einen deut > unsicherer zu werden. Wobei "modern" mindestens seit 1991 gilt, da wurde Linux veröffentlicht.
Stefan F. schrieb: > Wenn sich das mit > einem Update, Virenscan oder Index-Lauf auf einer HDD überlappt (worauf > Windows leider keine Rücksicht nimmt), dann wird der Rechner auffällig > lahm. Aber wir wollen ja nicht erneut die SSD Diskussion führen 😂😂😂 Mit Bandspeicher Laufwerk würdest Du das hektische hin und herspulen sehen 😉 Ich finde es übrigend völlig okay das ein neues OS im Jahre 2022 einen Sch... darauf gibt die Dinge für eine HDD zu optimieren und eine SSD vorraussetzt. Mal ohne Spott: Auch unter Linux würdest Du die SSD sehr positiv merken. Du sagts zwar es ist doch alles flüssig, aber mit SSD fühlt sich das noch deuzlich schneller an. Unmöglich für weniger Geld sovie extra Speed zu bekommen.
Max M. schrieb: > Auch unter Linux würdest Du die SSD sehr positiv merken. Nutze ich ja auch. Nochmal für dich, weil du es immer noch ignorierst bzw nicht begriffen hast: Ich will den Rechner nicht schneller machen. Sondern ich will heraus finden, was da alles im Hintergrund läuft und signifikant Last erzeugt.
Stefan F. schrieb: > So Leute, ich habe einen gut versteckten Dienst ausfindig gemacht, der > einen ganz erheblichen Anteil an der Rödelei hat. > > Er heißt "Superfetch", nennt sich in der Dienste Verwaltung jedoch > "SysMain" und in der Prozessliste taucht er als "svchost > (LocalSystemNetworkRestricted -p)" auf. In meinen vorherigen Screenshots > war er oft zu sehen. So gut versteckt ist der auch wieder nicht. Ist schon ein alter Hut. 😉
René H. schrieb: > So gut versteckt ist der auch wieder nicht. Ist schon ein alter Hut. Und doch wurde er unter so vielen Antworten von keinem genannt. Wenn man weiß wonach man suchen muss, dann findet man es natürlich schnell. Dass der Dienst unter drei unterschiedlichen Namen angezeigt wird, halte ich aber für bösartig. So etwas kenne ich sonst nur von Trojanern.
Stefan F. schrieb: > Und doch wurde er unter so vielen Antworten von keinem genannt. Die meisten verwenden sicherlich seit Jahren eine SSD. ;-)
(prx) A. K. schrieb: > Die meisten verwenden sicherlich seit Jahren eine SSD Und hinterfragen nicht mehr, was ihr OS so treibt.
Stefan F. schrieb: > Dass der Dienst unter drei unterschiedlichen Namen angezeigt wird, > halte ich aber für bösartig. Dann bitte schnellstens Finger weg von Windows, und zwar für immer, auch nicht sporadisch nutzen. Sonst endest du noch in der Klapse. Windows ist voll davon. Allein schon das Filesystem mit Namen wie "Programme" vs "Program Files" und Schönheiten wie "Program Data".
:
Bearbeitet durch User
(prx) A. K. schrieb: > Windows ist > voll davon. Allein schon das Filesystem mit Namen wie "Programme" vs > "Program Files" und Schönheiten wie "Program Data". Kann ich auch nicht leiden. Du siehst, ich habe Gründe, warum ich normalerweise unter Linux arbeite.
Stefan F. schrieb: > Und hinterfragen nicht mehr, was ihr OS so treibt. Es gab eine Zeit, da konnte man die Funktionen und Tätigkeiten mancher praktisch genutzter Betriebssysteme vollständig erfassen. Weil einfach gestrickt, mit wenig Funktionen und Diensten. Dass ist aber schon ziemlich lange her. Heute ist das sinnlos geworden. Man nutzt sie und kümmert sich um andere Dinge. Ist bei Autos nicht anders. Die noch vollständig mechanisch arbeitenden Autos vor 50 Jahren konnte ein Automechaniker vollständig erfassen. Heute, mit einer Unzahl von Steuergeräten jeder Leistungsklasse und Unmengen an Software ist das unmöglich geworden. Der Automechaniker versteht auch nicht mehr viel davon, schliesst sein Diagnosegerät an, liefert die Daten in die Zentrale, und kriegt von dort Anweisungen. Man liegt nicht mehr die halbe Zeit drunter, macht die Wartung seines Teslas nicht selbst als Hobby, sondern fährt damit. Die Welt wird nicht immer nur schlechter, aber immer ändert sie sich. Du hast die Wahl, damit zu leben, oder lauthals zu wehklagen.
Stefan F. schrieb: > Kann ich auch nicht leiden. Du siehst, ich habe Gründe, warum ich > normalerweise unter Linux arbeite. Also DA muss ich windows loben. Unter Linux suche ich mich tot. Und wenn einer mal ein ein Programm schreibt mit den man das System vernünftig einstellen kann ist der mein Held. Allein schon das mit den komischen Datentypen und das komplizierte "ausführen machen von Desktop". Oder ein Gerät (z.b. das USB-Arduino geraffele) vernünftig !!! mit Klick o. modern Spracheeingabe Rechte zu vergeben wäre mal was sinnvolles. Ich wussel mir jedesmal ein ab bei der Textdatei-Tipperei. P.s.: Ich gebe auch keine SMS per tippen ein, nur Spracherkennung.
Schlaumaier schrieb: > F-10 drücken, die > Platte auswählen und alles ist gut. So umständlich? Es gibt mittlerweile Bootmanager (außer Grub), die sich ausschließlich im MBR einnisten und mit dennen man praktisch jedes OS starten kann. Der den ich benutzte kann Windows von einer beliebigen Platte starten und die primäre Partition(en) des nicht benutzten Windows verstecken, die Partition(en) ist dann quasi nicht vorhanden. Einrichten läßt sich das Ding per GUI über Windows. Das Ding bringt auch noch einige andere Schmankerln mit. Der Notnagel mit dem Auswählen der Bootplatte via BIOS Bootmenü habe ich schon viele Jahre nicht mehr gebraucht.
Zeno schrieb: > Es gibt mittlerweile Bootmanager (außer Grub), die sich > ausschließlich im MBR einnisten und mit dennen man praktisch jedes OS > starten kann. Respekt. Das alles in den 512 Bytes des MBR, in dem ausserdem noch die Partitionstabelle liegt! Ganz sicher, dass dort kein sekundärer Bootmanager gestartet wird, der natürlich nicht im MBR liegt? Sondern beispielsweise direkt dahinter, vor der ersten Partition.
:
Bearbeitet durch User
Zeno schrieb: > die sich > ausschließlich im MBR einnisten und mit dennen man praktisch jedes OS > starten kann. Das setzt aber voraus das ich diese Platte immer drin habe. Ich bevorzuge ein flexibleres System. Wobei ich zweifele das der klein MBR das alles aufnehmen kann. Immerhin kann ich mit meiner Methode jede Menge OS starten. Nochmal ich habe ein S-Ata-Wechselschacht oben in meinen Destop. Die Platte/ssd Steht da drin. !!!
Schlaumaier schrieb: > P.s.: Ich gebe auch keine SMS per tippen ein, nur Spracherkennung. Du redest so, wie Du schreibst? OMG
(prx) A. K. schrieb: > Respekt. Das alles in den 512 Bytes des MBR, in dem ausserdem noch die > Partitionstabelle liegt! > > Ganz sicher, dass dort kein sekundärer Bootmanager gestartet wird, der > natürlich nicht im MBR liegt? Nein da wird kein sekundärer Bootmanager gestartet. Das Programm ist zweigeteilt. Es gibt ein Konfigurationsprogramm, welches unter Windows läuft und sich demzufolge auf einer Partition befindet. Der zweite Programmteil ist der eigentliche Bootmanager. Der kann an verschiedenen Orten u.a. auch im MBR installiert werden. Bei Installation im MBR sind einige Features, wie z.B. ein Hintergrundbild, der aktuellen Version aus Platzgründen natürlich nicht nutzbar. Man kann den Manager auch auf Diskette (sofern vorhanden) installieren und, in der aktuellen Version, auch ein bootfähiges CD-ISO anfertigen. Zwei meiner PC's verfügen noch über ein Disklaufwerk und da habe ich mir auch die Disketten erstellen lassen - hat mir schon mal den Kopf gerettet. Meine Version ist zwar noch etwas älter und kann deshalb z.B. kein UEFI, brauche ich allerdings auch nicht auf den PC's wo das Teil läuft. Mir reicht da die ganz einfache Textvariante. Wenn Du magst, kannst Du Dir das https://www.boot-us.de/manual_ger.pdf ja gern mal durchlesen. Ich benutze diesen Manager bestimmt schon seit 20 Jahren und finde das das Programm sehr gut durchdacht ist.
Danke Stefan, hab mich gleich mal dran gemacht und deine Liste umgesetzt. Hab nämlich auch noch einen alten Dell mit HDD.
(prx) A. K. schrieb: > Sondern beispielsweise direkt dahinter, > vor der ersten Partition. Ja er benutzt die Spur 0. Ist aber für den Anwender eher unerheblich.
Stefan F. schrieb: > Ich will den Rechner nicht schneller machen. Sondern ich will > heraus finden, was da alles im Hintergrund läuft und signifikant Last > erzeugt. Hm, eigentlich hatte ich das Gefühl Du willst heulen und wehklagen was MS doch für ein verabscheuungswürdiger Laden ist. Das Du überhaupt an einer Problemlösung interessiert bist hast Du erst sehr spät durchblicken lassen. Und der Tipp mit der SSD kam sehr früh und sehr vehement und der hätte Dein Problem gelöst. Du eierst wahlfrei rum und eigentlich ist Dir alles recht um WIN11 zu dissen. Nur das das eigentliche Problem eben vor dem Monitor sitzt. Stefan F. schrieb: > Und hinterfragen nicht mehr, was ihr OS so treibt. Machst Du das bei Android bzw. IOS? Es interessiert mich einen DRECK was mein OS da im Hintergrund so treibt. MS ist ein vertrauenswürdiger Laden, was nicht mehr heißt als das sie ihre Erkenntnisse mit staatlichen Stellen teilen, aber nicht auf Facebook posten. Und staatliche Stellen bekommen eh die Infos die sie wollen. Wenn ich 100% Sicherheit will, dann würde ich egal welches System nur isoliert betreiben, also was ist eigentlich Dein Problem? Du kannst Dich ja gerne einnässen über jedes Datenpaket das an MS rausgeht, aber bei Google Suchanfragen, FB Posts, Dein Geleide hier im Forum und den Bewegungsdaten Deines Smartphones generierst Du jeden Tag sehr viel mehr kritische Daten und was aus denen wird kümmert dich nicht die Bohne. Deine Angst ist höchst selektiv und dient eigentlich nur dazu win doof zu finden. Wenn man Win benutzt, dann ist man sich im klaren was das bedeutet. Alle, nur Du nicht. Du meinst Du kannst mit Deiner 'Linux macht das aber anders und ohnehin viel besser, mimimi' Einstellung an Win rangehen und dich dann ausmähren wie furchtbar doch alles ist. Dann lass es doch! Zwingt Dich doch keiner Win zu benutzen und wenn es Dein Job ist das zu tun dann verhalte dich professionell und lass dieses mimimi weg. Dein ganzes Problem rührte im Endeffekt daher das Du ein brandneues OS auf einem ollen Rechner installiert hast und Dich geweigert hast den mit minimalem finanziellen Einsatz auf einen akzeptablen Stand zu heben. Und Du bist in ein Problem gelaufen das für MS nicht relevant ist weil HDD nicht mehr relevant sind. Und nun soll MS daran schuld sein das Du ein sturer Hammel mit Linux Brille bist. Und es waren KOMPFORTFEATURES die Deine HDD wegen der prähistorischen Beschränkungen einer HDD zu Kotzen gebracht haben. Keine Teuflische MS verschwörung Dich auszuspionieren weil Du so wahnsinnig interessant bist.
Alexander schrieb: > Danke Stefan, hab mich gleich mal dran gemacht und deine Liste > umgesetzt. Hab nämlich auch noch einen alten Dell mit HDD. Wobei das Deaktivieren des Defenders natürlich mit Vorsicht zu genießen ist. Den lässt du vielleicht besser doch an, sofern du damit ins Internet gehst.
Auf dem Laptop ist nur Xentry und Vediamo drauf, sogar Teamviewer mit Remotezugriff nach China, und wird auch für nix anderes benutzt.
Zeno schrieb: > Nein da wird kein sekundärer Bootmanager gestartet. Zeno schrieb: > Ja er benutzt die Spur 0. Das BIOS läd den ersten Block und führt das Programm darin aus, den MBR Boot Code. Damit stehen zunächst nur 446 Bytes vor der Partitionstabelle zur Verfügung. Wenn dieser Code nun den Bootmanager aus dem Rest der Spur 0 läd und ausführt, dann ist der Bootmanager selbst bereits jener sekundäre Teil. Der primäre ist der Boot Code im MBR. Bei diesem Verfahren ist also der eigentliche Bootmanager nicht im MBR, sondern im MBR ist ein Bootloader, der den Bootmanager läd und startet. Das kann man aus Anwendersicht als eine Einheit sehen, aus verfahrenstechnischer Sicht aber getrennt. Danach geht es in der Boot-Kette ohnehin erst einmal weiter, denn die zu startende Partition hat ebenfalls irgendwelchen Real Mode Code, der vom Bootmanager gestartet wird, und irgendwann das eigentliche Betriebssystem läd und startet.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Danach geht es in der Boot-Kette ohnehin erst einmal weiter, denn die zu > startende Partition hat ebenfalls irgendwelchen Real Mode Code, der vom > Bootmanager gestartet wird, und irgendwann das eigentliche > Betriebssystem läd und startet. Deshalb mag ich mein Schacht. Ich drücke f-11, aktuell 6 x pfeil nach unten und dann Return. ALLE Probleme gelöst. Ich habe sogar noch ne Win-xp Platte. ;) Und meine relativ moderne Grafikkarte lässt sich sogar ansteuern. War aber mehr ein Geck.
Schlaumaier schrieb: > Deshalb mag ich mein Schacht. Und ich seit über 2 Jahrzehnten mein VMware. ;-) > Ich habe sogar noch ne Win-xp Platte. Yep, ein altes XP mit einem alten Atmel Studio. Aber eben als VM. Der ist es völlig schnuppe, ob der Host darunter irgendwann wechselt.
:
Bearbeitet durch User
Schlaumaier schrieb: > War aber mehr ein Geck. Eine weitere Perle generiert von Handy auto-completion?
Mark S. schrieb: > Eine weitere Perle generiert von Handy auto-completion? Nö. Ihr seid mir kein Handy-Traffic wert. Erst recht wo ich nur 400 MB im Monat habe.
Schlaumaier schrieb: > Mark S. schrieb: >> Eine weitere Perle generiert von Handy auto-completion? > > Nö. Ihr seid mir kein Handy-Traffic wert. Erst recht wo ich nur 400 MB > im Monat habe. Dann fällt die Peinlichkeit voll und ganz auf Dich zurück. Wenn Dir das lieber ist...
(prx) A. K. schrieb: > Bei diesem Verfahren ist also der eigentliche Bootmanager nicht im MBR, > sondern im MBR ist ein Bootloader, der den Bootmanager läd und startet. > Das kann man aus Anwendersicht als eine Einheit sehen, aus > verfahrenstechnischer Sicht aber getrennt. Ja, wenn man das aufdröselt hast Du natürlich Recht. Für den (normalen) Anwender ist das aber, wie ich schon schrieb unerheblich, da ja diese Spur 0 für ihn nicht sichtbar und mit Standardtools auch nicht zugänglich ist. I.d.R. ist diese Spur ja auch leer undf unbenutzt. Allerdings weist der Auto des Programmes in seiner Anleitung ja auch darauf hin, das es durchaus Programme geben kann die Daten in der Spur 0 ablegen. Er empfiehlt ja deshalb auch von ddieser Spur 0 ein Backup anzulegen bevor man den Manager im MBR/Spur 0 installiert. Die GUI des Programmpaketes hält ja die dafür notwendigen Funktionen bereit. Man kann/sollte sich die zum Programm gehörige Doku durchlesen, wenn man Näheres zu den einzelnen Bootmechanismen wissen möchte. Ich meine er erklärt es ganz gut und auch verständlich. Ich bin bisher mit dem Programm gut gefahren. Es ermöglicht mehrere Windowsinstallationen, was zum Testen von SW recht nützlich ist. Als ich mit dem Programm angefangen habe, war Virtualisierung noch nicht wirklich in dem Topf wo es kocht. Da meine SW auf eine spezielle SW meiner Firma zugreifen kann, die reale HW erfordert schied auch schon aus diesem Grund Virtualisierung aus. Schlaumaier schrieb: > Deshalb mag ich mein Schacht. > > Ich drücke f-11, aktuell 6 x pfeil nach unten und dann Return. ALLE > Probleme gelöst. "Schacht" braucht man mit dem von mir genannten Bootmanager wirklich nicht mehr, da er mehrere Windowsinstallationen problemlos verwalten kann. Die Anzahl ist letztendlich nur von der Anzahl der möglichen primären Partitionen und der Anzahl der möglichen HDD/SSD begrenzt. Bei der klassischen Aufteilung mit MBR-Tabelle wären das also max. 4 primäre Partitionen. 4 Platten werden von den meisten Mainboards unterstützt, so daß man da auf insgesamt 16 primäre Partitionen kommt. Damit könnte man 16 OS benutzen die eine primäre Partition benötigen. Sieht man auf jeder der 4 Platten nur 3 primäre und je eine logische Partition, die man weiter unterteilen kann, vor, dann hat man immer noch die Möglichkeit 12 Systeme zu installieren die eine primäre Partition erfordern. In den logischen Partitionen könnte man weitere Partitionen erstellen, die diverse Linuxinstallationen aufnehmen können. Technisch ist das alles kein Problem und auch der genannte Bootmanager hat mit so einer Konfiguration kein Problem, braucht man aber nicht wirklich. Und wenn man nicht auf reale HW für seine Systeme Wert legt oder dies auch nicht braucht dann nimmt man heutzutage VM's. Wechselplatten muß man sich heutzutage wirklich nicht mehr antun.
Stefan F. schrieb: > Schlaumaier schrieb: >> Also leg ihn einfach in diesen (schlaf) Modus dann ist das Problem >> auch nicht mehr so schlimm. > > Geht nicht, weil ich Windows nur selten benutze. Ich boote normalerweise > Linux. Geht auch nicht für LINUX, wenn du dahinter WIN startest. Der RAM ist da auch weg. (prx) A. K. schrieb: > Bei diesem Verfahren ist also der eigentliche Bootmanager nicht im MBR, > sondern im MBR ist ein Bootloader, der den Bootmanager läd und startet. > Das kann man aus Anwendersicht als eine Einheit sehen, aus > verfahrenstechnischer Sicht aber getrennt. Ich habe hier ein altes Win. Und verpasst, bei der Partitionierung den MBR zurückzusetzen. Erst startet der LINUX Bootlader, danach der von WIN. Nicht schön, aber ich rühre da nicht drin rum.
Wo habt ihr Probleme mit dem Bootloader bei UEFI. Einfach eine eigene Plaate für das jeweilig OS und dann konnt ihr für den Crossboot noch einen Eintrag auf die andere Platte machen. Manchmal wird es passieren das der Crossboot in der Windows Platte verschwindet. Mit Uefi ist das aber egal, einfach beim Booten die passende Taste drücken und dann die gewünschte Platte auswählen. Nur schnell boot oder ähnliches sollte abgeschaltet werden.
Schlaumaier schrieb: > Davon abgesehen braucht mein Super-Voller Rechner eh 4-5 Minuten bis er > anständig DA ist. samma... mit wat für Krücken ochst Ihr Euch eigentlich ab? Windows brauchte bei mir selten länger als 40sek, auf Drehscheiben. Und das fand ich schon viel. Auf SSD dann 25sek und ein Ubuntu kommt jetzt in 13 sek hoch (Rechner = Bj 2014 / 8GB RAM) Herunterfahren klappt in 3sek
Windows 10x gebootet inclusive PC off/on und immer andere Zufallswerte! Es ist zum Kot…!
Hallo, Don ki Schote schrieb: > Windows 10x gebootet inclusive PC off/on und immer andere Zufallswerte! hmmm... bringt mich auf eine unnütze Idee: hier hängt ja ein ESP8266 am USB für eine Spielerei. Ich werde dem mal beibringen, daß er beim PowerOn eine MQTT-Message schickt. Dem PC beibringen eine Message zu schicken wenn er oben ist sollte auch machbar sein. Das schicke ich dann noch zu ThinkSpeak und gebe es frei. Dann kann jeder selber schauen wie lange mein PC so braucht. Als Diagramm mit Verlauf kann ich es da dann auch anzeigen lassen. Gruß aus Berlin Michael
michael_ schrieb: > Erst startet der LINUX Bootlader, danach der von WIN. Ich starte meine Windows ME Kiste mit einer Linux CD (https://remnux.org) Das hatte bisher eigentlich Glück gebracht.
Michael U. schrieb: > Dann kann jeder selber schauen wie lange mein PC so braucht. Ich wäre viel mehr an Daten von deiner Klospülung interessiert.
Beitrag #7248456 wurde vom Autor gelöscht.
●DesIntegrator ●. schrieb: > Windows brauchte bei mir selten länger als 40sek, auf Drehscheiben. > Und das fand ich schon viel. > Auf SSD dann 25sek Dann fahre Windows mal komplett herunter (**shutdown.exe /s /t 0**), und schaue ob es dann beim Neustart immernoch so schnell geht.
Lasst euch nicht provozieren. Ab und zu geben Leute mit ihren schnellen Boot-Zeiten an, die kaum jemand reproduzieren kann. Na und? Wenn ich einen Rechner haben wollte, der in soundso vielen Sekunden booten kann, dann hätte ich beim Kauf darauf geachtet. Habe ich aber nicht. Wichtiger ist doch, ob man danach anständig arbeiten kann. Das ist schließlich ein PC, keine Backofensteuerung.
Hallo, René H. schrieb: > Dann fahre Windows mal komplett herunter (**shutdown.exe /s /t 0**), und > schaue ob es dann beim Neustart immernoch so schnell geht. bei meinem macht es keinen Unterschied, sind keinerlei Schnellstartoptionen aktiv. ca. 1:15 bis er komplett oben ist incl. einiger Sachen die ich mitstarte. @Stefan F. (stefanus): ist mir der Aufwand zu groß: Kontakt o.ä. anbauen, schauen, ob ich die Ista Wasseruhr empfangen kann usw... Gruß aus Berlin Michael
Michael U. schrieb: > @Stefan F. (stefanus): ist mir der Aufwand zu groß: Kontakt o.ä. > anbauen, schauen, ob ich die Ista Wasseruhr empfangen kann usw... Das war auch mehr als Scherz gemeint, um zu verdeutlichen, wie wenig ich mit diesen Daten anfangen kann.
Stefan F. schrieb: > Ab und zu geben Leute mit ihren schnellen > Boot-Zeiten an, die kaum jemand reproduzieren kann. Na und? Ergänzung: Komischerweise habe ich noch nie gesehen, dass die Zeit für das Herunterfahren diskutiert wird. Ich will jetzt nicht damit angeben, welche OS da die Nase vorn hat, aber .... (ich tue es doch) Wenn ich auf Shutdown klicke, mir die Jacke anziehe, den Tisch aufräume, das Fenster schließe, die Heizung runter drehe und er ist dann immer noch nicht aus, dann nervt mich das schon ein bisschen. Denn ich darf dann noch nicht nach Hause gehen. Gut dass ich mich darüber nicht ärgern muss.
Hallo, Stefan F. schrieb: > Wenn ich auf Shutdown klicke, mir die Jacke anziehe, den Tisch aufräume, > das Fenster schließe, die Heizung runter drehe und er ist dann immer > noch nicht aus, dann nervt mich das schon ein bisschen. ich kann mich nur an einmal erinnern: runterfahren -> "Windows wird heruntergefahren" -> Monitor ausgemacht und Richtung Schlafzimmer. Am nächsten morgen: warum läuft eigentlich der PC? Monitor an -> "Windows wird heruntergefahren"... Half nur Powertaste festhalten, keine Ahnung was er hatte. Gruß aus Berlin Michael
Windows startet wegen Updates manchmal erneut durch anstatt direkt aus zu gehen. Wenn er dann am Ende doch aus geht wäre alles OK, aber da wir ein Verschlüsselungsprogramm nutzen müssen, das vor dem Booten ein Passwort abfragt, bleiben die Rechner an dieser Stelle hängen und dann die ganze Nacht (oder Wochenende) an.
Stefan F. schrieb: > bleiben die Rechner an dieser Stelle hängen und dann > die ganze Nacht (oder Wochenende) an. Da bin ich mittlerweile schmerzfrei, zumindest was das vom AG gestellten Gerät betrifft. Ich klicke "herunterfahren" und verdufte. Wenn der PC am nächsten Tag noch rödelt ist das nicht mein Problem. Auch was Restart-Orgien beim Installieren von Updates betrifft. Dann holt man sich halt nen Kaffee, surft am Handy oder ratscht mit irgendwem. Der Vollständigkeithalber sei erwähnt, auch unter Linuxoiden habe ich gelegentlich, sowohl beim Starten als auch beim Herunterfahren, das Problem das irgendein Dienst nicht reagiert und gewartet werden muss. systemd gönnt sich dann gerne 1:30min pro Dienst um zu warten.
Hallo, Win10 meldet ja manchmal, daß Programm xy den Neustart verhindert mit Button Trotzdem oder Zurück. Soweit durchuas ok. Auf einem Rechner, die ich etwas pflege, läuft die Agenda-Steuersoftware. Die startet automatisch mit Win, ist auch so gewollt. Bei einem Update von Win kommt besagtes Fenster aber nicht. Bildschirm wird schwarz und xx Sekunden später steht er mit dem Hintergrundbild für die Anmeldung dumm da. Man muß die Agenda zwingend vor her beenden.Das Verhalten finde ich irritierend, obwohl es wohl mehr an der Agenda-Software als an Windows liegt. Gruß aus Berlin Michael
René H. schrieb: > Dann fahre Windows mal komplett herunter (**shutdown.exe /s /t 0**), und > schaue ob es dann beim Neustart immernoch so schnell geht. Obige 55 Sekunden für den Opa waren bereits ohne Schnellstart. Mit sind es 35 Sekunden. Übrigens sollte man zwischen Neustart und Aus/Einschalten unterscheiden. Windows tut es nämlich auch. Den Schnellstart gibts nur bei aus/ein, nicht bei reboot. Stefan F. schrieb: > Komischerweise habe ich noch nie gesehen, dass die Zeit für > das Herunterfahren diskutiert wird. Um diesem traurigen Umstand abzuhelfen: Der Opa braucht dafür 13 Sekunden. Die Windows-VMs auf einem viel schnelleren Rechner auch. Und beim dessen Linux sind es 14 Sekunden. Interessant. ;-) Ich hatte allerdings mal einen Desktop in der Firma, auch mit SSD der mitunter arg lang benötigte. Seit ich den bei jedem Feierabend neu starte, statt nur wenn sachlich geboten. zickt er nicht mehr.
:
Bearbeitet durch User
Mein Rechner mit Windows 10 fährt aus Kaltstart in ca. 10 Sekunden hoch bis zum Login. Nach dem Login kann ich direkt Programme starten und muss eigentlich auf nix warten. NVME SSD sei Dank. PS: Nen Linux-Rechner hab ich noch nicht gesehen der das kann. :)
Diek schrieb: > Nen Linux-Rechner hab ich noch nicht gesehen der das kann. Hat Linux überhaupt irgendwelche Maßnahmen, die den Start beschleunigen (verglichen mit einem herkömmlichen Bootvorgang)? Nicht dass ich wüsste.
Keine Ahnung. Solche Dinge wie Hibernate oder Suspend oder was weiß ich nutze ich eh nie. Ich fahr immer komplett runter.
Stefan F. schrieb: > Hat Linux überhaupt irgendwelche Maßnahmen, die den Start beschleunigen > (verglichen mit einem herkömmlichen Bootvorgang)? Aber man kann bremsen. Mit eingeschaltetem Konsolprotokoll beispielsweise. Man sollte bei "meiner startet schneller" Wettbewerben auch mit einrechnen, dass es BIOS Einstellungen gibt, die die Zeit zwischen Einschalten und Bootvorgang beeinflussen.
Diek schrieb: > Mein Rechner mit Windows 10 fährt aus Kaltstart in ca. 10 Sekunden hoch > bis zum Login. > > PS: Nen Linux-Rechner hab ich noch nicht gesehen der das kann. :) Debian 11 VM: 12 Sekunden inklusive 5 Sekunden Wartezeit vom grub. Ohne irgendeine Bootoptimierung. Kompletter Reboot 13 Sekunden.
:
Bearbeitet durch User
Diek schrieb: > NVME SSD sei Dank. Ich habe bei meinem T420 das nutzlose Mobilfunkmodem rausgeworfen und an den Steckplatz eine NVM SSD eingesteckt. Der HDD Schacht ist frei. Könnte ich benutzen, aber wozu? 500GB NVM für 50€ (jetzt 40€) reichen mir. Prozessor Intel(R) Core(TM) i7-2620M CPU @ 2.70GHz, 2701 MHz, 2 Kern(e), 4 logische(r) Prozessor(en) Installierter physischer Speicher (RAM) 8,00 GB Win10 pro Ich würde ja aufrüsten, weil die Kiste wirklich alt ist und ein 70€ Ebay Kauf war, weil ich einen robusten unterwegs Lappi zum Spaß haben wollte, aber die neue SSD und die 8GB aus der Notebook Bastelschrottkiste haben den Opa so schnell gemacht das ich einfach keinen logischen Grund finde. Der neue 35€ Ebay Akku mit deutlich mehr Kapazität als das Original hat den wieder Mobil gemacht und die Tastatur gehört zum besten was ich bei Notebooks kenne. Selbst das Touchpad ist sehr benutzbar wenn man den Gumminippel Trackpad nicht mag. Nur wenn ich Freecad mal eine große Step Datei rechnen lasse merkt man das dem alten Knaben wirklich Rechenpower fehlt. Der Sprung von der HDD zur SSD war enorm. Von einem zähen System mit kurzen Bedenkpausen zu flüssig und freudvoll. Aber ist schon echt teuflisch dieses MS, das es einen zwingt sich mit 50€ für ne SSD finanziel vollkommen zu verausgaben 😂😂
Max M. schrieb: > Aber ist schon echt teuflisch dieses MS, das es einen zwingt sich mit > 50€ für ne SSD finanziel vollkommen zu verausgaben 😂😂 Max ist gut, wir haben dich alle schon beim ersten Beitrag verstanden. Du musst das jetzt nicht noch 100 mal wiederholen.
Le X. schrieb: > systemd gönnt sich dann gerne 1:30min pro Dienst um zu warten. Besonders perfide sind Services, die sich nach diesen 1:30 auf 2:00 verlängern, dann auf 2:30, dann ... Macht er gerne bei NFS-Mounts, die sich partout nicht unmounten lassen. Muss man dann in den Einstellungen graben und das Verhalten anpassen.
Mein Linux PC fährt gar nicht runter, der ist in 0 Sekunden aus!
Alexander schrieb: > Mein Linux PC fährt gar nicht runter, der ist in 0 Sekunden aus! Stopp die Zeit bitte nochmal beim Laptop nach. ;-)
René H. schrieb: > ●DesIntegrator ●. schrieb: >> Windows brauchte bei mir selten länger als 40sek, auf Drehscheiben. >> Und das fand ich schon viel. >> Auf SSD dann 25sek > > Dann fahre Windows mal komplett herunter (**shutdown.exe /s /t 0**), und > schaue ob es dann beim Neustart immernoch so schnell geht. hab kein Windows mehr
Also ich habe (in der Firma) weit mehr als 2000 Installationen gemacht. Angefangen mit NT4.0 XP w7 / W10. Das beschriebene Verhalten ist nie vorgekommen. Ausnahme 2 Serverboards waren defekt - aber dann war das delay auf BIOS-Ebene. Vermutung liegt also auf pebcak...
Stefan F. schrieb: > aber da wir > ein Verschlüsselungsprogramm nutzen müssen, das vor dem Booten ein > Passwort abfragt Bitlocker? Der schaltet aber den PC wieder aus, wenn man nicht rechtzeitig das Paßwort eingibt...
Alexander schrieb: > Mein Linux PC fährt gar nicht runter, der ist in 0 Sekunden aus! Bei Windows sollte man nicht einfach den Strom wegnehmen, da ist herunterfahren zu empfehlen.
René H. schrieb: > Bei Windows sollte man nicht einfach den Strom wegnehmen, da ist > herunterfahren zu empfehlen. AUch bei Linux kann das problematisch werden.
●DesIntegrator ●. schrieb: > samma... mit wat für Krücken ochst Ihr Euch eigentlich ab? Win-7, ca. 9 Jahre alt, 8-kerne cpu, 32 GB-Ram. 2 SSD + 1 HDD. Das Problem ist Windows selbst. ER zieht sich jede Menge Treiber rein. Allein 4 Drucker sind im System, jede Menge Spezial-Hardware etc, 2 komplette Netzwerke, und verknüpfte Verbindungen zu 4 Rechnern die meist NICHT unter Strom sind. Das braucht halt alles seine Zeit. Allein das Ini des Kaspersky und die Netzwerkfreigabe dauert i.d.R. 1-2 Min. Und da ich wie gesagt 32 GB Ram habe, hat sich Windows alles was es für wichtig hält auch noch in den Ram. Meine Auslagerungsdatei ist 1 GB groß. Win-7 ist langsamer ohne. ;) Und was euer "40 Sek" Start angeht. Der ist gefakt. Geht bei euren Win-10/11 mal auf AUSSCHALTEN und neu startet. Das wird i.d.R. nur ausgelöst wenn Win sich Updates rein zieht. Dann war es das mit den 40 sek. aber. Ab Win-10 wird Win wie ein Tablett ausgeschaltet. Alexander schrieb: > Mein Linux PC fährt gar nicht runter, der ist in 0 Sekunden aus! Das habe ich 1x in der VMM gemacht. NIE WIEDER. Hätte Linux neu installieren müssen. G.s.D. hatte ich die VMM-HD vorher verlegt und die alte noch nicht gelöscht.
Hallo, habe jetzt mal mit meinem HP-Tablet-Win11-Testgerät rumgespielt. Autologon aktiviert, geht zumindest wie bei Win10: RegKey anpassen, netplwiz aufrufen und Haken rausnehmen. Bei Kaltstart: 1:20, davon braucht BIOS und HP Sure Start schon 20s. Könnte ich bei dem Tablett eigentlich auch abschalten... Ansonsten: per Einschaltaste schlafen schicken unter 1s, per Einschaltaste aufwecken 2s bis mein FF mit der Seite zu sehen ist. Da steht manchmal noch nicht einmal die WLAN-Verbindung. Gruß aus Berlin Michael
Schlaumaier schrieb: > Und was euer "40 Sek" Start angeht. Der ist gefakt. Das nennt man gemessen, nicht gefaked. Allenfalls noch gefaktet. > Win-10/11 mal auf AUSSCHALTEN und neu startet. Das wird i.d.R. nur > ausgelöst wenn Win sich Updates rein zieht. Es gibt den "Schnellstart" zur Optimierung, damit kommt der Opa von 55 auf 35 Sekunden. Allerdings pflege ich das nicht zu nutzen. Und bin bei meinem Hauptrechner und einer Windows 10 VM mit Autologon trotzdem bei 26 Sekunden zum Desktop. Das Windows ist noch nicht einmal frisch, sondern kam vor über 10 Jahren auf Blech zur Welt, erlebte einen Update von Win7, viele Installationen und Deinstallationen usw. Es gibt natürlich allerlei Faktoren, die bremsen können. Startet ein NVidia/AMD-Grafiktreiber mit allerlei Zusatzprogrammen, dann tut der das nicht folgenlos. Hängt ein Rattenschwanz an USB-Gerätschaft dran, dann kann auch das Konsequenzen haben. Vielleicht hat man irgendwelche App-Preloader drin, damit die App nachher schnell startet.
:
Bearbeitet durch User
Mal eine Frage Wann ist bei euch Windows "gestartet". ??? Wenn ihr den Desktop seht. ?? Das ist keine Kunst. Dann ist mein Rechner auch in 60% der Zeit da. ABER, dann muss noch ne Menge anderes geladen werden. Und vorher ist der Rechner lahm wie ein Taschenrechner. Wenn ich ihn 3 Minuten in Ruhe lasse wenn ich den Desktop sehe rennt er.
Schlaumaier schrieb: > Wenn ihr den Desktop seht. ?? Kennst du einen anderen sinnvollen Zeitpunkt, der sich für eine Messung mit der Stoppuhr eignet? Subjektive Eindrücke lassen sich schlecht stoppen. > Wenn ich ihn 3 Minuten in Ruhe lasse wenn ich den Desktop sehe rennt er. Man könnte natürlich alternativ messen, wie lange er für die 3 Minuten benötigt. ;-) Das ist nicht nur ironisch gemeint, sondern hat einen konkreten Hintergrund. Services können so eingestellt sein, dass sie nicht sofort, sondern verzögert starten. Wenn du das abwartest, hast du ein festes Delay drin.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Kennst du einen anderen sinnvollen Zeitpunkt, der sich für eine Messung > mit der Stoppuhr eignet? JA. Meinen. Ich starte eh automatisch den Taskmanager. Dann schaue ich mir die Prozesse an, und warte bis da Ruhe eingekehrt ist. Allein schon das MS-SQL-System mit seinen Diensten ist ein "Nachzügler". Kaspersky ebenfalls, dazu noch einige Dienste, Das Hilfs-Prg. für den mini-scanner und was mir sonst gerade nicht einfällt. Wenn das Zappelt im Taskmanager aufhört weiß ich, Die Kiste ist da.
(prx) A. K. schrieb: > Services können so eingestellt sein, dass sie nicht sofort, > sondern verzögert starten. Die meisten sind eh deaktiviert, bzw. auf "manuell". Was bedeutet wenn sie angefordert werden.
Beitrag #7248769 wurde vom Autor gelöscht.
Schlaumaier schrieb: > Wenn das Zappelt im Taskmanager aufhört weiß ich, Die Kiste ist da. Dann hast du den normalerweise auf 2 Minuten eingestellten Wert des verzögerten Starts mancher Services mit drin. Wenn die wiederum auf manuell eingestellte Services starten, sind es effektiv mehr, als es den Anschein hat. Manche Services fahren auch wieder runter, laufen nicht durch, weshalb das nicht statisch ist. Kannst den Wert ja mal runterdrehen, vielleicht bringt es etwas.
:
Bearbeitet durch User
Schlaumaier schrieb: > (prx) A. K. schrieb: >> Kennst du einen anderen sinnvollen Zeitpunkt, der sich für eine Messung >> mit der Stoppuhr eignet? > > JA. > > Meinen. Dann hängt die Zeit, bis der Rechner benutzbar ist, also nicht nur vom Rechner und von Microsoft ab, sondern ganz entscheidend auch von dir selbst. Umso pingeliger du bist, umso langsamer startet er. ;-)
:
Bearbeitet durch User
Schlaumaier schrieb: > Allein schon das MS-SQL-System Da sollte man abprüfen ob man das wirklich braucht. Ich hab den SQL-Kram deaktiviert - das hat den Start und auch den Shutdown ordentlich beschleunigt. Vermisst habe ich das bisher nicht. Den SQL Kram hat nur eine spezielle Firmen-SW benötigt, da ich quasi im Ruhestand bin brauche ich das nicht mehr und sollte ich es doch mal brauchen wird es halt manuell aktiviert. Ansonsten ist es schon erstaunlich wie man sich an Start- bzw. Shutdownzeiten aufgeilen kann. Ist mir persönlich eigentlich so ziemlich Rille, wie lange der für's Hochfahren braucht - man hat nebenher immer noch was zu tun, was man in dieser Zeit erledigen kann und wenn's das Holen einer Tasse Kaffee ist. Stunden hat bei mir noch kein PC dafür gebraucht, allenfalls mal 5 Minuten - OK das können natürlich auch Stunden sein wenn man davor sitzt und nichts zu tun hat.
Beitrag #7248813 wurde von einem Moderator gelöscht.
Beitrag #7248828 wurde von einem Moderator gelöscht.
Schlaumaier schrieb: > Und was euer "40 Sek" Start angeht. Der ist gefakt. Geht bei euren > Win-10/11 mal auf AUSSCHALTEN und neu startet. Das wird i.d.R. nur > ausgelöst wenn Win sich Updates rein zieht. Dann war es das mit den 40 > sek. Stimmt, mit Kaltstart braucht mein T420 Opa mit SSD keine 40sek bis zur Passworteingabe.
Irgendwie habe ich den Eindruck, daß W10 Starten nicht unbedingt ganz vom BS abhängig ist. Ich habe einen Dell CoreDuo LT hier im Betrieb mit 4GB DRAM und SSD und W10X32 Home. Zeit vom Einschalten bis zum Logon Bildschirm sind rund 20s. Mein Haupt PC mit W10X64 und SSD braucht auch dieselbe Zeit oder sogar ein wenig mehr. Da ich den Dell nur selten verwende, verbringt er die erste Zeit nach dem Hochfahren meist um sich mit den in der Regel immer ausständigen Updates zu versorgen. Danach funktioniert er eigentlich relativ zügig und ist für normale Aufgaben durchaus noch nützlich. (Kompilieren eines Arduino Programs dauert auch nicht viel länger als auf dem X64). Ein Optiplex 745 CoreDuo funktioniert mit W10X32Pro + SSD auch noch recht brauchbar. Die CoreDuos scheinen durchaus noch nützlich zu sein, wenn man sie noch hat. Meine Erfahrung ist, daß genug RAM und SSD den alten Schinken durchaus noch mit etwas Elan verhilft.
:
Bearbeitet durch User
Schlaumaier schrieb: > Das habe ich 1x in der VMM gemacht. NIE WIEDER. Hätte Linux neu > installieren müssen. G.s.D. hatte ich die VMM-HD vorher verlegt und die > alte noch nicht gelöscht. Das hängt massgeblich davon ab, ob das Speichermedium sich zerlegt, wenn es mitten im Schreibvorgang erwischt wird. Wenn du arges Pech hast, und es die Metadaten einer SSD dabei zerlegt, dann wars das, aber das ist unabhängig vom Betriebssystem, glücklicherweise sehr selten und auch von deren innerer Arbeitsweise abhängig. Jenseits solcher Spässe gibt es Filesysteme, die gegen derlei Unbill dem Prinzip nach ziemlich gut gewappnet sein sollten. Denn das Checkpointing von Copy-on-Write Filesystemen stellt sicher, dass es immer einen konsistenten Stand gibt. Was davor geschrieben wurde, ist drauf, was in den Sekunden danach kam, ist weg. Und die gibts für Windows m.W. nicht, dafür aber für Linux.
:
Bearbeitet durch User
Stefan F. schrieb: > Das ist schließlich ein PC, keine Backofensteuerung. Die haben aufgeholt. Nach dem Einschalten 2 Minuten bis zum Firmenemblem, und dann noch drei bis er startfähig ist. Schwer zu sagen ob der Programierer Vollhonk ist oder das Ding mit Win 10 fährt. (Also wirklich Vollhonk) Vermutlich wollen die keine Aufträge mehr, so sieht man "Wir sind die Firma die das nicht auf die Reihe kriegen" Der analoge daneben hat in den 5 Minuten schon fast Arbeitstemperatur :-)
A. H. schrieb: > Die haben aufgeholt. Nach dem Einschalten 2 Minuten bis zum > Firmenemblem, und dann noch drei bis er startfähig ist. Sowas? Vernetzte KI im Backofen und App fürs Küchentablet. https://www.bosch.com/de/stories/smarter-backofen/
:
Bearbeitet durch User
Max M. schrieb: > Ich finde es übrigend völlig okay das ein neues OS im Jahre 2022 einen > Sch... darauf gibt die Dinge für eine HDD zu optimieren und eine SSD > vorraussetzt. Ich nicht, aber ich kenne mich ja auch aus. Beispiel: Wenn du mit einem Dateimanager Dateien kopierst, dann wird ein gescheiter Dateimanager diese in eine Abarbeitungsliste einfügen und der Reihe nach Datei für Datei kopieren. Das hat den Vorteil, dass so bei Festplatten der Dateizugriff linear abgearbeitet werden kann und die Festplatte nicht durch ständiges hin und herfahren des Schreib-/Lesekopfes ausgebremst wird. Der Kopiervorgang kann so somit maximal schnell ausgeführt werden, weil bei Festplatten der lineare Lese- und Schreibzugriff den höchsten Durchsatz hat. Das gilt erst recht, wenn zwei Festplatten im Spiel sind, bei der die eine linear liest und die andere linear schreibt. Bei einer SSD ist das egal, man verliert bei einer SSD durch einen gescheiten Dateimanager nichts. Man hat dadurch mit einer SSD aber auch keine Nachteile. Und durch einen schlechten Dateimanager, der das nicht so macht, hat man bei einer SSD dann auch keine Vorteile, der Dateimanager ist dann schlichtweg nur schlecht programmiert. Und ich finde es nicht okay, wenn man solche Features, die bei HDs viel bringen dann wegen unfähigen Programmierern, die auf HDs keine Rücksicht nehmen dann verliert, nur weil es die SSD erlaubt schlampig zu programmieren. Außerdem werden Festplatten ja durchaus noch bei dem ein oder anderen als Datenplatte verwendet und auch da ist es dann wichtig, dass der Dateimanager etwas taugt.
Nano schrieb: > Bei einer SSD ist das egal, man verliert bei einer SSD durch einen > gescheiten Dateimanager nichts. Man hat dadurch mit einer SSD aber auch > keine Nachteile. Doch, natürlich verliert man dadurch. Um eine SSD auszulasten, musst du viele Transaktionen parallel ausführen. Im Gänsemarsch kommst du nicht annähernd an die Lastgrenze einer SSD ran. Ausgenommen bei sehr grossen Files.
Stefan F. schrieb: > (prx) A. K. schrieb: >> Windows ist >> voll davon. Allein schon das Filesystem mit Namen wie "Programme" vs >> "Program Files" und Schönheiten wie "Program Data". > > Kann ich auch nicht leiden. Du siehst, ich habe Gründe, warum ich > normalerweise unter Linux arbeite. Da gibt es auch unter Linux Software Leichen im Keller die es nicht richtig entsprechend der XDG Specification machen: Liste mit Programmen die noch nicht Spec konform sind oder deren Entwickler es schnuppe ist: https://wiki.archlinux.org/title/XDG_Base_Directory#Hardcoded Spec: https://specifications.freedesktop.org/basedir-spec/basedir-spec-latest.html
Nano schrieb: > Und ich finde es nicht okay, wenn man solche Features, die bei HDs viel > bringen dann wegen unfähigen Programmierern, die auf HDs keine Rücksicht > nehmen dann verliert, nur weil es die SSD erlaubt schlampig zu > programmieren. Keine Angst... Win11 unterstützt ja eh noch HDDs. Genau das ist ja eines der Feature, die der TE abgedreht hat, weil es beim erstem Mal Starten die Sektoren so anordnet, dass die Programme schneller starten... Der PC ist aber einfach im Arsch - wir werden nie erfahren was da genau das Problem ist, falls es ihn überhaupt gibt. Der TE wird es uns nicht sagen, er braucht einfach etwas Zuspruch und Unterhaltung... das kann hier noch Tagelang so gehen...
(prx) A. K. schrieb: > Nano schrieb: >> Bei einer SSD ist das egal, man verliert bei einer SSD durch einen >> gescheiten Dateimanager nichts. Man hat dadurch mit einer SSD aber auch >> keine Nachteile. > > Doch, natürlich verliert man dadurch. Um eine SSD auszulasten, musst du > viele Transaktionen parallel ausführen. Im Gänsemarsch kommst du nicht > annähernd an die Lastgrenze einer SSD ran. Ausgenommen bei sehr grossen > Files. Eine SSD hat in der Regel eine höhere Leserate als Schreibrate. D.h. selbst wenn die Dateien linear eingelesen werden, werden sie entsprechend der Schreibrate sofort wieder auf die SSD geschrieben. Du verlierst durch den linearen Zugriff also überhaupt gar nichts, weil bereits eine Datei den Schreibzugriff maximal auslastet, da diese Datei ja auch schneller gelesen werden kann.
Nano schrieb: > Eine SSD hat in der Regel eine höhere Leserate als Schreibrate. Interessanterweise nicht. Das Schreiben geht üblicherweise erst mal in den DRAM Cache (sowohl Windows als auch die SSD haben sowas), das ist noch mal deutlich schneller als das lesen. Beim Lesen muss die SSD die Daten erst mal von der Platte (ähhh Flash) kratzen... Im Bild sieht man schön, dass die Abhängigkeit der Leserate von der Anzahl der Queues (Q) und der Threads. Gerade Random Lesen bricht auch bei der SSD grausam ein, wenn nicht massiv parallel gearbeitet wird...
:
Bearbeitet durch User
Udo K. schrieb: > Nano schrieb: >> Eine SSD hat in der Regel eine höhere Leserate als Schreibrate. > > Interessanterweise nicht. Das Schreiben geht üblicherweise erst mal in > den DRAM Cache (sowohl Windows als auch die SSD haben sowas), das ist > noch mal deutlich schneller als das lesen. Beim Lesen muss die SSD die > Daten erst mal von der Platte (ähhh Flash) kratzen... Gut, wenn aber der Cache voll ist bzw. die Dateien größer werden, sieht's anders aus. Da gehen SSD für gewöhnlich dann in die Knie. Bei billigem Flashspeicher, wie er bei USB Sticks und SD Cards verbaut wird, wird das noch deutlicher.
Nano schrieb: > Du verlierst durch den linearen Zugriff also überhaupt gar nichts, weil > bereits eine Datei den Schreibzugriff maximal auslastet, Das wird sie nur, wenn sie ausreichend gross ist, um alle Flash-Kanäle parallel ausreichend auszulasten. Sind die Dateien dafür zu klein, klappt das nur mit parallelen Fileoperationen. Ausserdem hast du es auch mit Metadatenoperationen des Filesystems zu tun - je kleiner die Files, desto signifikanter.
:
Bearbeitet durch User
Nano schrieb: > Gut, wenn aber der Cache voll ist bzw. die Dateien größer werden, > sieht's anders aus. Natürlich, aber was macht Windows wohl mit den 16 GB Ram, wenn ein einfaches Programm davon gerade mal 2-20 MB braucht (die Shared DLLs nicht mitgerechnet). Die Daten gehen erst mal ins Ram, und werden dann gemütlich auf die Disk geschrieben. Beim Lesen müssen sie auch nur aus dem RAM geholt werden. > Da gehen SSD für gewöhnlich dann in die Knie. Bei billigem > Flashspeicher, wie er bei USB Sticks und SD Cards verbaut wird, wird das > noch deutlicher. Die USB Sticks haben den Write Cache ausgeschaltet. Ist besser so...
Udo K. schrieb: > Interessanterweise nicht. Die Flash-Chips von SSDs sind über etliche Kanäle parallel am Controller angebunden. Bei teilbestückten SSDs eine Baureihe sind das entsprechend weniger, was man auch spürt. Und diese Kanäle muss man erst einmal ausnutzen können.
Udo K. schrieb: > Im Bild sieht man schön, dass die Abhängigkeit der Leserate von der > Anzahl der Queues (Q) und der Threads. Gerade Random Lesen bricht auch > bei der SSD grausam ein, wenn nicht massiv parallel gearbeitet wird... Sollte paralleles abarbeiten etwas bringen soll, dann doch eigentlich nur, wenn die Flashchips vom Flashcontroller der SSD getrennt angesteuert werden und entsprechend Daten kopiert bzw. verschoben werden können. Also so, als hätte man einen SCSI Controller und 7 Festplatten hinter einer einzigen SSD. Gut, wenn das so ist, kann ein paralleler Zugriff dann natürlich von Vorteil sein, gesetzt denn Fall, die Daten liegen dann auch getrennt auf den einzelnen Flashchips und nicht alle auf dem gleichen. Trotzdem halte ich eine Warteliste in einem Dateimanager wegen den HDs immer noch für ein wichtiges Feature. Es spricht ja nichts dagegen, für SSDs einen anderen Betriebsmodus einzuführen, der dann mehrere Wartelisten parallel abarbeiten kann.
Beispiel für 16 Kanäle: https://www.electronicsweekly.com/news/business/ssd-nand-controller-16-channels-2020-11/
(prx) A. K. schrieb: > Beispiel für 16 Kanäle: > https://www.electronicsweekly.com/news/business/ssd-nand-controller-16-channels-2020-11/ Der SSD Controller könnte die bspw. 4K Blöcke für eine einzige Datei natürlich auch auf alle 16 Kanäle verteilen, dann wäre es wieder egal, wenn von Dateimanagerseite aus der Zugriff linear erfolgt, weil der SSD Controller das intern dann sowieso aufteilt.
Nano schrieb: > gesetzt denn Fall, die Daten liegen dann auch getrennt auf > den einzelnen Flashchips und nicht alle auf dem gleichen. Wenn der SSD-Controller 100 Request auf Halde liegen hat, werden sich mit Sicherheit genug Requests für jeden der 16 Kanäle finden. Der muss ja keine Reihenfolge einhalten. Wahrscheinlich kommt da noch irgendwelches Pipelining in der Bearbeitung oben drauf, weshalb man durchaus noch höher gehen kann.
Max M. schrieb: > Ich finde es übrigend völlig okay das ein neues OS im Jahre 2022 einen > Sch... darauf gibt die Dinge für eine HDD zu optimieren und eine SSD > vorraussetzt. FALSCH. Es OS sollte auch auf einer HDD sauber und relativ schnell laufen. Die SSD ist Bonus. Wenn man sie als Standard nimmt, kommt es zum üblichen Effekt. = Ich habs ja, wieso soll ich optimieren. Dann haut man was dabei und schon lahmt die Kiste noch mehr. Das Spiel machen die doch seit 30 Jahren. Die Hardware rennt der Software hinterher. Linux ist da bedeutet optimierter als das völlig aufgeblähte Windows. Und damit meine ich Seit 3.1 JEDE VERSION. Bloß Windows hat es bis heute noch nicht geschafft eine vernünftige RAM-Speicher-Verwaltung zu schaffen. Ich habe 32 GB RAM. Wenn ich die Auslagerungsdatei abschaltet läuft mein Windows 30-40% langsamer. Wenn ich (wie aktuell) die Auslagerungsdatei auf 1 GB stelle, rennt es prima. 33 GB braucht es aber bei 32 GB verzweifelt es. ?!? Leute das mach 0,nix Sinn. In meine Augen ist das ein Problem was schon Win-3.1 hatte und in die Folgen der Aussage von Bill-Gates ist "bei 1 MB (Megabytes) braucht kein Mensch". Weshalb das OS halt mit viel Ram nix anfangen kann. Und das ist halt empirisch gewachsen. Und heute kommen sie aus der Falle nicht mehr raus. Weil sonst würden 95% der Programme nicht mehr laufen. Das einzige was ich Apple mal loben muss. Die sind da halt viel Knall-härter.
Nano schrieb: > Der SSD Controller könnte die bspw. 4K Blöcke für eine einzige Datei > natürlich auch auf alle 16 Kanäle verteilen Hier wirds undurchsichtig und eine Frage der Strategie der SSD_Firmware. Denn du musst nicht nur die kleinen Flash-Blöcke betrachten, die man schreibt und liest, sondern auch die grossen, die man löscht. Ob es sinnvoll ist, einen 64KB Request in 16 4K-Requests aufzuteilen, um die in 16 gleichzeitig offene Lösch-Blöcke zu schreiben? Neben Fragen der Transfers stellen sich dann auch Fragen der internen Verwaltungsdaten der SSD.
Udo K. schrieb: > erst mal in den DRAM Cache (sowohl Windows als auch die > SSD haben sowas) DRAM auf SSDs dient m.W. der Speicherung von deren Metadaten. Sofern überhaupt vorhanden, denn billige SATA-SSDs haben heute kein grösseres DRAM und manche NVMe-SSDs klauen sich dafür ein Stück aus dem Hauptspeicher des Rechners, auf den sie ja per DMA zugreifen.
:
Bearbeitet durch User
Nano schrieb: > Der SSD Controller könnte die bspw. 4K Blöcke für eine einzige Datei > natürlich auch auf alle 16 Kanäle verteilen, dann wäre es wieder egal, > wenn von Dateimanagerseite aus der Zugriff linear erfolgt, weil der SSD > Controller das intern dann sowieso aufteilt. Das ist in Wirklichkeit noch mal deutlich komplizierter. - Die SSDs haben DDRAM Cache, der wird als erstes befüllt. - Die 3-Bit Flash Zellen können üblicherweise bei Bedarf in schnellere 1-Bit Zellen umkonfiguriert werden. Die sind viel robuster und schneller. Nur ist die SSD dann nur mehr 1/8 so gross... - Dann hat ein Flashblock intern > 254 kByte, wenns es bei modernem Flash nicht schon MegaBytes sind. Um einen 4k Block zu schreiben, muss erst mal der gesamte Flashblock gelesen werden, dann muss der 4k Block ausgetauscht werden, dann muss der Flashblock wieder geschrieben werden. Das will man vermeiden, indem man 4k Blöcke zusammenlegt. Ist eine eigene Wissenschaft. Und wenn nicht jeder Block regelmässig alle paar Monate gelesen wird, verliert er Daten... ohne Fehlerkorrektur geht da gar nichts.
Schlaumaier schrieb: > Das Spiel machen die doch seit 30 Jahren. Die Hardware rennt der > Software hinterher. Linux ist da bedeutet optimierter als das völlig > aufgeblähte Windows. Eigentlich ist es umgekehrt. Die SW rennt der HW hinterher. Und Linux ist heute genauso aufgebläht wie Windows. Ich sehe da keinen grossen Unterschied. Nur das Leute mit 0 Ahnung wie der TE das Klientel von Windows sind. Bei Linux gibt es die überheblichen Supernerds, die eh alles wissen. Und wenn nicht, dann können sie wenigstens googeln...
(prx) A. K. schrieb: >> erst mal in den DRAM Cache (sowohl Windows als auch die >> SSD haben sowas) > > DRAM auf SSDs dient m.W. der Speicherung von deren Metadaten. Sofern > überhaupt vorhanden, denn billige SATA-SSDs haben heute kein grösseres > DRAM und manche NVMe-SSDs klauen sich dafür ein Stück aus dem > Hauptspeicher des Rechners, auf den sie ja per DMA zugreifen. Nein. Gerade die Metadaten werden so schnell wie möglich geschrieben. PCIe-4.0 hat so eine hohe Datenrate, dass sich modernen SSDs den Hauptspeicher als Cache ausborgen. Das macht die deutlich billiger.
Udo K. schrieb: > erst mal der gesamte Flashblock gelesen werden, dann muss der 4k Block > ausgetauscht werden, dann muss der Flashblock wieder geschrieben Diese grossen Blöcke sind die Einheit, in der gelöscht wird. Ich denke aber nicht, dass nur in diesen grossen Einheiten gelesen und geschrieben wird. Andernfalls wäre bei random write die write amplification 1000fach und eine Datenbank-SSD alsbald abgenudelt. Ich tippe auf eine etwas andere Arbeitsweise: Der Controller hat einige "offene" Lösch-Blöcke parat, mindestens einen pro Flash-Chip. Alles, was geschrieben wird, landet dort, diesen Lösch-Block allmählich auffüllend. Dann ändert sich das Mapping, welche logischen Blöcke an welcher physikalischen Position liegen. Die SSD-Metadaten. PS: Es gibt bei den Chips eine andere Nomenklatur für Blocke, Sektoren und Wassweissich. Hab sie nur gerade nicht parat.
Udo K. schrieb: > Nein. Gerade die Metadaten werden so schnell wie möglich geschrieben. > PCIe-4.0 hat so eine hohe Datenrate, dass sich modernen SSDs den > Hauptspeicher als Cache ausborgen. Das macht die deutlich billiger. Metadaten werden nicht nur geschrieben, sondern auch gelesen. Und da ist DRAM immer noch schneller im Zugriff als das Flash. Also DRAM als read cache für die Metadaten. Egal ob auf der SSD oder im RAM des Rechners. Es gibt aber m.W. auch billige SATA-SSDs ohne solchen Metadaten-Cache. Und da gibts kein PCIe zum klauen vom Rechner-RAM. Merkt man dann auch.
Hallo, Schlaumaier schrieb: > Ich habe 32 GB RAM. Wenn ich die Auslagerungsdatei abschaltet läuft mein > Windows 30-40% langsamer. Wenn ich (wie aktuell) die Auslagerungsdatei > auf 1 GB stelle, rennt es prima. 33 GB braucht es aber bei 32 GB > verzweifelt es. ?!? Leute das mach 0,nix Sinn. Hier auch 32GB Ram. Augelagert laut Taskmanager 436MB. Steht immer und ewig da, ich nutze wohl kein Programm, daß die 32GB überhaupt nutzen will. Hab gerade mal die Neuindizierung der JTL-Wawi meiner Testinstallation angestoßen. Maximun waren 17,3 GB Ram und 30% CPU-Last. Dateien kopieren: bei einer HD bremst es merklich wenn eine große Datei auf eine ziemlich fragmentierte HD geschrieben wird. Bei vielen relativ kleinen Dateien bricht HD genauso wie SSD ein weil die Verwaltungsgeschichten da wohl mehr bremsen. Ist mir mal aufgefallen: kopieren einer großen Datei von NVME auf ext. USB3 HD nahezu konstant 150MB/s. Kopieren über GB-LAN auf mein NAS relativ konstant 70-80MB/s. Diese beiden Sachen parallel machen aus dem LAN-Transder eine Zick-Zack-Linie runter bis 4MB/s. Der USB3-Host stört also den LAN-Chip da erheblich. Gruß aus Berlin Mchael
Schlaumaier schrieb: > > Das Spiel machen die doch seit 30 Jahren. Die Hardware rennt der > Software hinterher. Linux ist da bedeutet optimierter als das völlig > aufgeblähte Windows. > > Und damit meine ich Seit 3.1 JEDE VERSION. > > Bloß Windows hat es bis heute noch nicht geschafft eine vernünftige > RAM-Speicher-Verwaltung zu schaffen. Das glaube ich eigentlich nicht! Bei mir funktionierten Win95, Win98, WinXP, Win7 und Win10 eigentlich immer flüssig, und kommt auch mit grausamen Test Szenarien (die auf einer Entwicklermaschine schon mal absichtlich auftreten) ganz gut zurecht. Was aber nicht so das gelbe von Ei ist, sind die modernen Windows Anwendungen inklusive dem Desktop Manager. Der Explorer, na ja... Die laufen nur gut, wenn richtig viel Ram da ist, sonst kracht es. Die werden zu wenig getestet, das gilt auch für viele Anwenderprogramme. Was aber bei den heutigen SW Preisen auch nicht gross wundert. Teilweise hat auch die Usability gelitten, oder zumindest geht es anders als früher. Aber der Windows Kernel hat die RAM Verwaltung sehr gut im Griff. Windows 3.1 war für die damalige HW super optimiert. Da wurde kein Byte und kein CPU Takt verschwendet! Ging ja auch gar nicht anders... und die Entwickler kannten auch jedes Bit der HW. Windows NT ging deutlich verschwenderischer mit der HW um, aber die HW wurde damals auch rasant schneller. Und der Bonus war eine sehr gute Abstraktion der HW. Der Source Code ist sehr gut geschrieben und gut dokumentiert. Zwar deutlich abstrakter und weiter weg von der HW als Win3.1/95 aber man sieht sofort, die Leute hatten ein brauchbares Konzept und verstanden ihr Handwerk. Wenn es dich interessiert, den gibt es irgendwo zum runterladen. > Ich habe 32 GB RAM. Wenn ich die Auslagerungsdatei abschaltet läuft mein > Windows 30-40% langsamer. Wenn ich (wie aktuell) die Auslagerungsdatei > auf 1 GB stelle, rennt es prima. 33 GB braucht es aber bei 32 GB > verzweifelt es. ?!? Leute das mach 0,nix Sinn. Kann ich nicht bestätigen. Ich habe die Auslagerungsdatei früher immer abgeschaltet, weil ich wenig Plattenplatz hatte. Lief genauso. Nur mit den Unterscheid, das Apps crashen, wenn der RAM voll ist. Sonst ist mir nichts aufgefallen. > In meine Augen ist das ein Problem was schon Win-3.1 hatte und in die > Folgen der Aussage von Bill-Gates ist "bei 1 MB (Megabytes) braucht kein > Mensch". Weshalb das OS halt mit viel Ram nix anfangen kann. Das halt ich für Blödsinn. Du kannst Win 3.1 natürlich nicht mit einem heutigen Rechner vergleichen. Und Gates hat das auch nie gesagt. > Und das ist halt empirisch gewachsen. Und heute kommen sie aus der Falle > nicht mehr raus. Weil sonst würden 95% der Programme nicht mehr laufen. > Das einzige was ich Apple mal loben muss. Die sind da halt viel > Knall-härter. Apple hat vor allem geniales Marketing und richtig strikte Kundenbindung. Aus einem Gulag kommst du leichter wieder raus... Das Problem von MS ist, dass ca. 2005 die guten SW Entwickler nichts mehr zu entscheiden hatten. Die haben sich dann auch in die verdiente Rente zurückgezogen, und das Ruder wurde immer mehr von Managern übernommen, die wenig Bodenhaftung hatten. Aber heute gibt es wieder richtig frischen Wind bei MS. Da ist eine neue Riege von guten Entwicklern, die einiges weiterbringen, und auch motiviert sind. Dazu zahlt sich die Couldstrategie finanziell für MS richtig aus. Und vergiss nicht das MS Klientel hat sich massiv geändert. Inzwischen verlernen die Leute das lesen... aber ein Tablet/Notebook können sie trotzdem bedienen... du passt da mit deinen Vorstellungen nicht mehr rein.
Udo K. schrieb: > Ich habe die Auslagerungsdatei früher immer > abgeschaltet, weil ich wenig Plattenplatz hatte. Zumindest früher waren Elemente interner Ressourcenverwaltung daran gekoppelt, weshalb es zu Abbrüchen aufgrund angeblicher Ressourcenknappheit kommen konnte, obwohl genug vorhanden war. Mit Pagingfile ging es, vorzugsweise automatisch alloziert, ohne nicht, obwohl kaum etwas davon verwendet wurde.
:
Bearbeitet durch User
Udo K. schrieb: > du passt da mit > deinen Vorstellungen nicht mehr rein. Da gebe ich dir bedauerlicherweise sogar Recht. (prx) A. K. schrieb: > Mit Pagespace ging es, ohne nicht, obwohl kaum etwas davon verwendet wurde. Auch da muss ich Recht geben. Aber ich gehöre noch zu den Nutzer der "1. Stunde". Ich habbe noch Windows 2.0 (zwei) von 5 1/4 Zoll Disketten auf eine 20 MB Platte installiert. Hat aber 0 getaucht. War nur Spielerei. Auf den Selben PC habe ich zu selben Zeit COBOL gelernt. Ich habe also genug Erfahrung mit Windows. Und ich weiß wovon ich rede. Fakt ist einfach. Das OS ist für moderne PC's einfach nicht geeignet. Das ist wie ein Netzwerk-Raum in einer Firma. In jeden Schrank hängen 200 Kabel, keiner weiß was wohin gehört und der neue IT-Admin geht jeden morgen zu Arbeit mit den frommen Wunsch "Lass alles laufen und ich keine Hardware austauschen". "Empirisch gewachsen" nennt man so was in der Fachsprache. Einfacher gesagt. Man hat / will kein Geld für eine saubere Neuentwicklung ausgeben. Ist aktuell in der Auto-Branche ein Problem. Die müssen Milliarden an Kohle investieren für die E-Autos weil sie sonst den Laden dicht machen müssen. Das machen sie nicht weil es chic ist, sondern weil Tesla u. Co. ihn sonst die Marktanteile weg nehmen. Was aktuell bereits passiert. Die Firmen bekommen erst den Arsch hoch wenn es ein andere ihn vormacht. Beispiel gibt es genug. Sieh NOKIA z.b. "wer will schon Smartphones" kischer
Von Windows 10 erwarte ich noch, dass es sowohl auf SSD als auch HDD gut läuft, denn es wurde mit solchen Rechnern verkauft. Bei Windows 11 kann Microsoft meiner Meinung nach gerne eine SSD voraussetzen, sollte das aber auch klar kommunizieren. Allerdings sollte es für zusätzliche Speichermedien weiterhin auch HDD gut unterstützen. Die sind noch lange nicht ausgestorben.
(prx) A. K. schrieb: > Zumindest früher waren Elemente interner Ressourcenverwaltung daran > gekoppelt, weshalb es zu Abbrüchen aufgrund angeblicher > Ressourcenknappheit kommen konnte, obwohl genug vorhanden war. Mit > Pagespace ging es, ohne nicht, obwohl kaum etwas davon verwendet wurde. Ja, kann sein. Ich kann mich erinnern, mal was darüber gelesen zu haben. Aber bei mir waren es schon richtig grosse Programme, die mit dem Ram am Limit waren. Wenn dann keine Auslagerungsdatei da ist, dann kracht es halt.
Stefan F. schrieb: > Bei Windows 11 kann Microsoft meiner Meinung nach gerne eine SSD > voraussetzen, sollte das aber auch klar kommunizieren. Allerdings sollte > es für zusätzliche Speichermedien weiterhin auch HDD gut unterstützen. > Die sind noch lange nicht ausgestorben. Eigentlich nicht. Ich habe mich erst gestern nach einer 20 TB HDD umgeschaut... Die Daten werden auch grösser, und SSDs sind dafür die falsche Wahl, auch wenn die Systemplatte eine SSD ist. Und Windows ist bei mir auch immer gut mit HDDs zurechtgekommen. Solche angeblichen HDD Orgien, die der TE beschreibt, habe ich nie erlebt.
Stefan F. schrieb: > Von Windows 10 erwarte ich noch, dass es sowohl auf SSD als auch HDD gut > läuft, denn es wurde mit solchen Rechnern verkauft. > > Bei Windows 11 kann Microsoft meiner Meinung nach gerne eine SSD > voraussetzen, sollte das aber auch klar kommunizieren. Allerdings sollte > es für zusätzliche Speichermedien weiterhin auch HDD gut unterstützen. > Die sind noch lange nicht ausgestorben. Niemand zwingt Dich, Windows auf HDD zu installieren. Nachdem SSD wirklich erschwinglich geworden sind, sind sie das Mittel der Wahl. HDDs sind in der Tat längst nicht ausgestorben, aber wer sich damit quält, möge sich nicht beschweren. Benutze HDDs als Datengrab oder als Speicher für Backups. Dafür eignen sie sich tatsächlich vorzüglich.
Rainer Z. schrieb: > Benutze HDDs als Datengrab oder als Speicher für Backups. Dafür eignen > sie sich tatsächlich vorzüglich. In Storage-Netzen aus dem Enterprise-Umfeld sieht das entsprechend aus. Die arbeitenden Daten liegen auf Primärsystemen mit SSDs und replizieren auf Sekundär- und Archivsysteme mit SATA HDDs.
Schlaumaier schrieb: > Fakt ist einfach. Das OS ist für moderne PC's einfach nicht geeignet. > Das ist wie ein Netzwerk-Raum in einer Firma. In jeden Schrank hängen > 200 Kabel, keiner weiß was wohin gehört und der neue IT-Admin geht jeden > morgen zu Arbeit mit den frommen Wunsch "Lass alles laufen und ich keine > Hardware austauschen". > > "Empirisch gewachsen" nennt man so was in der Fachsprache. > > Einfacher gesagt. Man hat / will kein Geld für eine saubere > Neuentwicklung ausgeben. Da komme ich nicht mit, Windows läuft auf 75% der Rechner weltweit... Wenn da keine ordentliche Struktur da wäre, dann wäre der Laden längst abgesoffen. Ich glaube, die haben intern eine gute Struktur und auch gute Leute (neben vielen nicht so guten). Aber an der Kommunikation nach außen mangelt es. Das finden dann technisch Interessierte ziemlich frustrierend... Wenn du mehr über die Gründe wissen willst, warum Windows so ist, gibt es hier Lesestoff: https://devblogs.microsoft.com/oldnewthing/author/oldnewthing
Einen Nachteil von Primärsystemen auf SSD-Basis gibt es aber: Während frühere Speichersysteme mit SAS-Disks noch lange nach der geplanten Lebensdauer in weniger zentraler Funktion weiterverwendet werden können, sind die SSDs dann messbar ausgelutscht und die Kiste landet im Müll.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Einen Nachteil von Primärsystemen auf SSD-Basis gibt es aber: Während > frühere Speichersysteme mit SAS-Disks noch lange nach der geplanten > Lebensdauer in weniger zentraler Funktion weiterverwendet werden können, > sind die SSDs dann messbar ausgelutscht und die Kiste landet im Müll. Interessant! Ich quäle meine SSD schon ziemlich... wie merke ich ob die am Ende sind? Health Status auslesen? Da ich auf der Suche nach einer richtig grossen Platte bin mit > 40 TB (also 3-4 12-18 TB Platten): Hast du da einen Tipp? Auf was muss man da achten?
:
Bearbeitet durch User
Udo K. schrieb: > Health Status auslesen? Ja. Die Laufwerke erfassen üblicherweise ihren Verschleißgrad. > Da ich auf der Suche nach einer richtig grossen Platte bin... > Auf was muss man da achten? Dass sie deine Anforderungen erfüllt. Ich weis nicht, was du damit machen willst, was du brauchst und was du darüber hinaus bezahlen möchtest.
Udo K. schrieb: > Interessant! Ich quäle meine SSD schon ziemlich... wie merke ich ob die > am Ende sind? Health Status auslesen? Genau das. SATA SSDs liefern meist einen Abnutzungsgrad per S.M.A.R.T., via smartctl auslesbar (Linux). Allerdings macht das jeder ein wenig anders und nicht immer leicht lesbar. Bei NMVe läuft das deutlich lesbarer über "nvme smart-log /dev/nvme0"
1 | ... |
2 | available_spare : 100% |
3 | available_spare_threshold : 10% |
4 | percentage_used : 0% |
5 | ... |
6 | media_errors : 0 |
7 | ... |
Eine Samsung 970 EVO Pro 1TB, seit 2 Jahren in Benutzung. Enterprise-Speichersysteme haben natürlich auch wieder ihre Methoden.
:
Bearbeitet durch User
Udo K. schrieb: > Da ich auf der Suche nach einer richtig grossen Platte bin mit > 40 TB > (also 3-4 12-18 TB Platten): Hast du da einen Tipp? Auf was muss man da > achten? Ich nehme an, dass du HDDs meinst. SSDs in der Kategorie sind noch etwas teuer. Ich habe keinen Überblick darüber. Wichtig ist aber der Unterschied zwischen normaler Aufzeichnungstechnik und SMR (shingled magnetic recording). Die SMR sind billiger. SMR-Disks sind durchaus verwendbar als Backup- und Archivdisks, nicht sinnvoll bei arbeitenden Daten und völlig unbrauchbar in RAID-Systemen. Leider ist es nicht immer einfach, den Herstellern diesen Typ zu entlocken. Es ist wohl auch schon mal vorgekommen, dass unter der gleichen Bezeichnung erst eine konventionelle Disk verkauft wurde, später aber eine SMR-Disk.
:
Bearbeitet durch User
Udo K. schrieb: > Die 3-Bit Flash Zellen können üblicherweise bei Bedarf in schnellere > 1-Bit Zellen umkonfiguriert werden. Bei TLC/QLC Flash werden einlaufende Daten erst als 1-Bit Zellen geschrieben, weil dieser Schreibvorgang sehr viel schneller ist. Wenn es dann etwas ruhiger zugeht, wird umkopiert. Wie gross der Bereich ist, ist völlig hersteller- und typabhängig, reduziert sich u.U. mit steigendem Nutzungsgrad. Den Unterschied in der Schreibrate kann man in jenen Benchmarks erkennen, in denen erhebliche Teile der Kapazität am Stück geschrieben werden. Dann bricht die Schreibrate drastisch ein. Manche Typen landen bei deutlich unter 100 MB/s, also langsamer als HDDs. Teils deshalb, teils aufgrund thermischer Belastung im USB-Gehäuse. Wer SSDs für Disk-Images verwenden will, z.B. als Backup, der sollte darauf achten, sonst gibts ein langes Gesicht.
:
Bearbeitet durch User
Udo K. schrieb: > Die 3-Bit Flash Zellen können üblicherweise bei Bedarf in schnellere > 1-Bit Zellen umkonfiguriert werden. Die sind viel robuster und > schneller. Nur ist die SSD dann nur mehr 1/8 so gross... 3-Bit Zellen codieren 3 Bits in 8 Pegeln, speichern daher nur 3mal so viel wie 1-Bit Zellen. :-)
:
Bearbeitet durch User
Schlaumaier schrieb: > Das Problem ist Windows selbst. ja, wenn man es machen lässt wie der Inverkehrbringer es gerne hätte. Gepaart mit dummen Usern davor...
Udo K. schrieb: > Aber der Windows Kernel hat die RAM Verwaltung sehr gut im Griff. > Windows 3.1 war für die damalige HW > super optimiert. Da wurde kein Byte und kein CPU Takt verschwendet! > Ging ja auch gar nicht anders... und die Entwickler kannten auch jedes > Bit der HW. > > Windows NT ging deutlich verschwenderischer mit der HW um, aber die HW > wurde damals > auch rasant schneller. Windows NT wurde in C programmiert, damit es leicht auf verschiedene Architekturen portiert werden kann. Die Entwicklung fing anfangs nicht einmal auf x86 Hardware statt. Außerdem braucht Windows NT wegen dem Paging der >= 386 CPU 4 MB RAM. Windows 3.1 dürfte in Teilen noch Assemblercode enthalten, aber genau weiß ich das nicht, das ist nur eine Vermutung von mir. Dazu kommt noch, dass gerade die früheren Windows 3.1 Anwendungen alles 16 Bit Programme sind, damit brauchen die natürlich auch weniger Platz für Adressangaben. > Das Problem von MS ist, dass ca. 2005 die guten SW Entwickler nichts > mehr zu entscheiden hatten. > Die haben sich dann auch in die verdiente Rente zurückgezogen, und das > Ruder wurde immer mehr von Managern > übernommen, die wenig Bodenhaftung hatten. Das kann ich so nicht bestätigen. Windows 7 war ein sehr gutes OS und erschient erst im Oktober 2009. Bei Windows 8 waren die Kacheln zwar grottig, aber dafür wurden viele Kernelseitige Verbesserungen die der Sicherheit dienen eingebaut. Für den Kernel brauchst du fähige Entwickler, die Microsoft natürlich sehr wohl kriegt, denn Geld haben die ja. Die Kacheln waren der Smartphoneentwicklung geschuldet. Microsoft wollte da halt mit einer Plattform die überall passen soll, Fuß fassen und auf dem Smartphone waren die Kacheln sogar richtig gut, nur war es halt nichts für den Desktop. > Aber heute gibt es wieder richtig frischen Wind bei MS. Da ist eine > neue Riege von guten Entwicklern, die einiges weiterbringen, und auch > motiviert sind. Das wäre? Windows 11 hat jetzt abgesehen von Direct Storage nichts, was mich jetzt irgendwie beeindrucken würde oder ich unbedingt haben müsste.
>> Aber heute gibt es wieder richtig frischen Wind bei MS. Da ist eine >> neue Riege von guten Entwicklern, die einiges weiterbringen, und auch >> motiviert sind. Nano schrieb: > Das wäre? Linux. SCNR
Udo K. schrieb: > Aber heute gibt es wieder richtig frischen Wind bei MS. Da ist eine > neue Riege von guten Entwicklern, die einiges weiterbringen, und auch > motiviert sind. Die hier? ;-) "The best part of Windows 11 is a revamped Windows Subsystem for Linux" https://arstechnica.com/gadgets/2021/10/the-best-part-of-windows-11-is-a-revamped-windows-subsystem-for-linux/
:
Bearbeitet durch User
Schlaumaier schrieb: > Fakt ist einfach. Das OS ist für moderne PC's einfach nicht geeignet. Welches Windows meinst du jetzt? Die Windows 3.x/9x Schiene? Da gebe ich dir recht. Bei der Windows NT Schiene sieht es aber ganz anders aus, denn Windows NT ist im Kern ein modernes Betriebssystem. Es war eine komplette Neuentwicklung für 32 Bit Rechner mit Kernel- und Userspace Trennung und bietet im Grunde alles, was ein modernes Betriebssystem können muss. Unschön sind allenfalls die Laufwerksbuchstaben, aber die hat man wohl wegen der Kompatibilität und den Nutzern beibehalten. Ebenso unschön ist der Wildwuchs im Homedirectory, da hat Windows es einfach versäumt klare Standards zu setzen. Aber das gilt für Linux ebenso, denn einen Ordner für Spielstände von Computerspielen hat man da in der XDG Spec schlichtweg auch vergessen. Und alte proprietäre Unix Software von damals kennt die XDG Spec auch nicht, weil die viel später kam. Das Open Source Software angepasst werden kann, ist ein Vorteil, aber selbst da gibt es noch Entwickler, die schlafen. > Einfacher gesagt. Man hat / will kein Geld für eine saubere > Neuentwicklung ausgeben. Microsoft lebt von der Abwärtskompatibilität zu alter Windows Software. Es wäre durch eine Neuentwicklung abgesehen von einer besseren Abschottung der Prozesse untereinander nichts gewonnen, die Kunden würde diese Neuentwicklung sehr wahrscheinlich auch nicht annehmen, da die alte Software, die die mal alle gekauft haben, darauf nicht laufen würde. > Beispiel gibt es genug. Sieh NOKIA z.b. "wer will schon Smartphones" > *kischer* Nokia war mit den Internet Tablets und dem daraus resultierenden ersten Handy mit Internet Tablet Funktion, dem N900 führend. Nur mangelte es an der Umsetzung auf der Softwareseite. Nokia hat dummerweise zu einem Display mit Stifteingabefunktion gegriffen, anstatt zu einem kapazitivem Touchscreen. Und die Mehrfingerbedingung hatten die auch noch nicht, die kam erst mit dem iPhone.
Rainer Z. schrieb: > Benutze HDDs als Datengrab oder als Speicher für Backups. Dafür eignen > sie sich tatsächlich vorzüglich. Und dafür sollte Windows immer noch geeignet bleiben. Siehe mein Punkt oben zum Dateimanager. Ja, man könnte das alles über Bord werfen und den Dateimanager neu schreiben, dann hast du aber genau das Problemszenario, das Max M. gut finden würde. Und darauf würde ich gerne verzichten.
(prx) A. K. schrieb: > Einen Nachteil von Primärsystemen auf SSD-Basis gibt es aber: Während > frühere Speichersysteme mit SAS-Disks noch lange nach der geplanten > Lebensdauer in weniger zentraler Funktion weiterverwendet werden können, > sind die SSDs dann messbar ausgelutscht und die Kiste landet im Müll. Wie sieht es eigentlich mit der Recyclingrate von Chips (hier Flashchips) aus, wenn sie geschreddert werden und es um die Rohstoffe geht? Weiß das jemand?
Beitrag #7249849 wurde von einem Moderator gelöscht.
Udo K. schrieb: > (prx) A. K. schrieb: >> Einen Nachteil von Primärsystemen auf SSD-Basis gibt es aber: Während >> frühere Speichersysteme mit SAS-Disks noch lange nach der geplanten >> Lebensdauer in weniger zentraler Funktion weiterverwendet werden können, >> sind die SSDs dann messbar ausgelutscht und die Kiste landet im Müll. > > Interessant! Ich quäle meine SSD schon ziemlich... wie merke ich ob die > am Ende sind? Health Status auslesen? Ich beziehe mich hier allerdings auf Enterprise Storage-Systeme, auf die die User grösserer Unternehmen nebst hunderter Server zugreifen und die für ~5 Jahre 24x7 heftigst mit den Disks blinken. Was du als "quälen" bezeichnest, dürfte da nicht annähernd heran kommen.
Beitrag #7249901 wurde von einem Moderator gelöscht.
(prx) A. K. schrieb: > Ich beziehe mich hier allerdings auf Enterprise Storage-Systeme, auf die > die User grösserer Unternehmen nebst hunderter Server zugreifen und die > für ~5 Jahre 24x7 heftigst mit den Disks blinken. Was du als "quälen" > bezeichnest, dürfte da nicht annähernd heran kommen. > Da hast du sicher recht. Vorallem habe ich wenig Filme, und mit normalen Entwickleraktivität kommst du auf viele kleine Files, aber nicht auf wirklich gigantische Datenmengen. Ich habe den SMART Wert ausgelesen, und liege gerade mal bei ca. 20 TB schreiben und 19 TB lesen bei ca. 6000 Betriebsstunden. Alles im grünen Bereich :-) Die grosse 40 TB HDD ist als Datengrab gedacht. Z-Library wurde ja kürzlich vom FBI einkassiert, aber es gibt noch ein paar Mirrors. Da war die Überlegung, die zu konservieren.
Nano schrieb: > Ebenso unschön ist der Wildwuchs im Homedirectory, da hat Windows es > einfach versäumt klare Standards zu setzen. Die Standard gibt es von MS. Nur halten sich die App Entwickler nicht dran. Irgendwann wird es dann ein de-fakto Standard. Ist halt leider so... wobei so schlimm finde ich es nicht.
(prx) A. K. schrieb: >> Aber heute gibt es wieder richtig frischen Wind bei MS. Da ist eine >> neue Riege von guten Entwicklern, die einiges weiterbringen, und auch >> motiviert sind. > > Die hier? ;-) > > "The best part of Windows 11 is a revamped Windows Subsystem for Linux" Schau dir mal die Aktivitäten um die (neue) UCRT Runtime an, oder die Bemühungen endlich wieder einheitliche GUI Bibliotheken zur Verfügung zu stellen, die mit den klassischen GUI Libs von Win32 in C/C++ verwendet werden können. Die Entwicklertools (Visual Studio) sind gratis verfügbar. Dazu das neue Terminal (super!), und sogar Notepad wurde verbessert. MS stellt sich nicht mehr quer wenn es um Kompatibilität mit anderen Systemen geht, man versucht miteinander auszukommen. Finde ich sehr gut. Der Edge Browser ist mein heimlicher Favorit geworden, besser als Chrome... und telefoniert auch weniger nach Hause. Das Linux Subsystem ermöglicht es unkompliziert Linux Anwendungen auf Win laufen zu lassen. Der Defender werkt die meiste Zeit unauffällig im Hintergrund, und verbessert die (gefühlte) Sicherheit deutlich, und wegen der guten Integration ins System auch die Performance. Und man ist nicht mehr von Anti-Viren Herstellern aus Russland abhängig... In Kürze soll ein CCleaner Clone rauskommen. Sehr sinnvolles Feature für Leute wie den TE, die die Finger nicht vom System lassen können (typische Linux Krankheit). Der Kernel wurde seit Win7 um viele sinnvolle Funktionen ergänzt. Auf Github tut sich wirklich viel, etliches an MS Source Code ist jetzt Open Source. Aber auch erstklassige Hardware kommt (wieder) von MS. Die kann ohneweiters mit Apple mithalten. Die SW ist generell viel stabiler geworden, ich habe hier in den letzten Jahren einen einzigen Bluescreen gehabt, mit einen dubiosen USB Treiber.
:
Bearbeitet durch User
Udo K. schrieb: > Wenn da keine ordentliche Struktur da wäre, dann wäre der Laden längst > abgesoffen. Falsch. Struktur hat NIX mit Funktion zu tun. Das Problem ist, das man wegen der "alten Sachen" das Teil immer mehr aufbläht. Dies führt zu immer mehr Speicherhunger und zu immer weniger Effizienz. Wie in meinen Beispiel erläutert wird es immer mehr verwusselt. Und nur wenn man ein alten 16 bzw. 32 Bit Source-Code mit der Einstellungen "mach 64 bit" neu durch den Compiler jagt, wird es nicht wirklich ein optimierter 64 bit Code. Er wird nur ca. 30% Größer. Aber den Code von Grund auf zu optimieren bzw. neu zu schreiben, kostet Geld und Zeit. Beides ist in der heutigen Wirtschaft nicht optimal wenn es auch anders geht. Und mal ehrlich. WAS ist wirklich NEU seit Windows 2000. ?!? Was kann Windows seit dem mehr + besser. Wenn der Wirtschaftskreislauf sich nicht drehen müsste, und alle Unternehmen jedes Jahr ihre Aktionäre glücklich machen müssen, würde man Win-2000 optimieren und alle wären auch zufrieden. Immerhin ist jedes OS das "Beste OS aller Zeiten" (Spruch von Win-XP beim Installieren). Fakt ist. Ich habe Win-7 und sehe 0 Grund es nicht weiter zu nutzen. Der Spruch mit den Sicherheitsupdates ist unsinn. Die Sicherheitslücken sind in Win-8, 10 + 11 auch drin. Da gibt es auch jeden 2 Di. im Monat Patchday. Ergo : same procedure as every time
Schlaumaier schrieb: > Falsch. > Struktur hat NIX mit Funktion zu tun. Das Problem ist, das man wegen der > "alten Sachen" das Teil immer mehr aufbläht. Dies führt zu immer mehr > Speicherhunger und zu immer weniger Effizienz. Die Kompatibilität ist da völlig vernachlässigbar. Das ist einfach ein Mythos, den jeder ohne sich auszukennen nachplappert. Der bei weitem grösste Brocken am "Speicherhunger" kommt von neuen Programmen. > > Und mal ehrlich. WAS ist wirklich NEU seit Windows 2000. ?!? Was kann > Windows seit dem mehr + besser. Installiere dir einfach zum Spass mal wieder Win2000 und schau, wie lange du es aushältst :-) > Wenn der Wirtschaftskreislauf sich nicht drehen müsste, und alle > Unternehmen jedes Jahr ihre Aktionäre glücklich machen müssen, würde man > Win-2000 optimieren und alle wären auch zufrieden. Immerhin ist jedes OS > das "Beste OS aller Zeiten" (Spruch von Win-XP beim Installieren). ...du musst mal an die frische Luft. > Fakt ist. Ich habe Win-7 und sehe 0 Grund es nicht weiter zu nutzen. Der > Spruch mit den Sicherheitsupdates ist unsinn. Die Sicherheitslücken sind > in Win-8, 10 + 11 auch drin. Da gibt es auch jeden 2 Di. im Monat > Patchday. Wenn du damit zufrieden bist ist es ja gut. Ich nehme auch nicht an, das es auf deinem Rechner viel Interessantes zum anschauen gibt.
Udo K. schrieb: > Der bei weitem grösste Brocken am "Speicherhunger" kommt von neuen > Programmen. Baukastenware. Man baut Programme, indem man auf etlichen Libraries und Subsystemen aufbaut. Da hat jemand eine simpel erscheinende Aufgabe, beispielsweise ein Verwaltungsprogramm für die Handys eines solchen Herstellers, und verwendet für die Kontakte die Embedded-Version eines Datenbanksystems. Oben drauf sitzt dann vielleicht ein für ganz andere Dimensionen konzipierter GUI-Builder für diese Datenbank. Und schon wirkt der Spruch von der Kanone und dem Spatzen geradezu harmlos. Aber wenn der Programmierer das Zeug kennt, und damit schneller zu Potte kommt, ist es für seinen Laden so günstiger.
:
Bearbeitet durch User
Michael U. schrieb: > Schlaumaier schrieb: >> Ich habe 32 GB RAM. Wenn ich die Auslagerungsdatei abschaltet läuft mein >> Windows 30-40% langsamer. Wenn ich (wie aktuell) die Auslagerungsdatei >> auf 1 GB stelle, rennt es prima. 33 GB braucht es aber bei 32 GB >> verzweifelt es. ?!? Leute das mach 0,nix Sinn. > > Hier auch 32GB Ram. Augelagert laut Taskmanager 436MB. Steht immer und > ewig da, ich nutze wohl kein Programm, daß die 32GB überhaupt nutzen > will. Mensch fragt sich natürlich was die Programmierer für einen shice zusammenprogrammieren. Ich hatte von Anfang an in meinem winXP 3GB Speicher eingebaut und dann kam Siedler 4 und meckerte rum das ich virt MEM ausgeschaltet hatte. Siedler 4 brauchte aber nie soviel Speicher, erst als ich virt MEM wieder eingeschaltet hatte lief Siedler4. In meiner Notlösung legte ich die Auslagertungsdatei auf eine 1GB Ramdisk. Hätten die Programmierer nicht mal den MEM abfragen können vor der blöden Meldung kein virtMEM?
:
Bearbeitet durch User
Udo K. schrieb: > Ich nehme auch nicht an, das es auf deinem Rechner viel Interessantes > zum anschauen gibt. hihi. für mich schon. Aber wieso hat dann Win-11 auch Sicherheitslücken. Ich habe doch nur die Wahl die Sicherheitslücken von Win-7 oder die von Win-11 zu akzeptieren. Und bei einen NICHT UEFI und überwachten Windows habe ich eher eine Chance mich zu wehren. Davon abgesehen, gibt es 2 Hardware-Schutzsysteme und eine Software-Variante. Bevor eine Bit meine Festplatte sieht. Der Rest fällt unter "Restrisiko". Und alle paar Minuten lese ich von ein Hackangriff auf Unternehmen etc. Also wer glaubt jetzt an die Werbung das Win-11 sicher ist. ?!!? ICH NICHT.
Schlaumaier schrieb: > Ich habe 32 GB RAM. Wenn ich die Auslagerungsdatei abschaltet läuft mein > Windows 30-40% langsamer. Wenn ich (wie aktuell) die Auslagerungsdatei > auf 1 GB stelle, rennt es prima. 33 GB braucht es aber bei 32 GB > verzweifelt es. ?!? Leute das mach 0,nix Sinn. Michael U. schrieb: > Hier auch 32GB Ram. Augelagert laut Taskmanager 436MB. Steht immer und > ewig da, ich nutze wohl kein Programm, daß die 32GB überhaupt nutzen > will. Joachim B. schrieb: > Mensch fragt sich natürlich was die Programmierer für einen shice > zusammenprogrammieren. > Ich hatte von Anfang an in meinem winXP 3GB Speicher eingebaut und dann > kam Siedler 4 und meckerte rum das ich virt MEM ausgeschaltet hatte. Das Problem besteht schon seit Windows 95, auch in Linux. Manche Programme funktionieren nicht ohne Auslagerungsspeicher, weil sie dessen Nutzung steuern wollen. Man hätte das trotzdem so programmieren können, dass es optional ist. Windows lagert relativ früh ungenutzte Programmteile aus, dazu zähen auch Bestandteile von Windows selbst. Daher kommt es, dass Auslagerungsspeicher trotz reichlich RAM schon belegt wird. Normalerweise ist das unkritisch, aber wenn die Disk lahm ist fällt es auf. Im Vergleich dazu kann Linux das auch, tut es aber in der Standard Konfiguration deutlich zögerlicher, wenn kaum noch RAM für Cache frei ist.
stefanus schrieb: > Bisher war ich gewohnt, dass die HDD des Rechners nach jedem Start etwa > 20 Minuten lang mit 100% Auslastung rödelt. Heute sind es schon 58 > Minuten. Es hakelt, es ruckelt. So kann man weder spielen noch arbeiten. Kenn ich, ich wollte ein Backup auf eine USB Platte machen. Der Defender hat 4 Stunden lang auf der Platte rumgerödelt und 6x100% CPU Zeit verbraucht, dann habe ich abgebrochen. Da der Rechner zentral von unseren IT Profis per Policies verwaltet wird, kann man bei der Defender Konfiguration auch nicht einfach einzelne Ordner vom Scan ausnehmen. Ja, der Rechner ist total sicher, nur leider unbrauchbar. Ein Backup kann ich jetzt nur noch auf leere Platten machen. Michael
Udo K. schrieb: > Auf Github tut sich wirklich viel, etliches an MS Source Code ist jetzt > Open Source. github ist nach der feindlichen Übernahme so Open wie die DMCA Takedown Policy der neuen Besitzerin (SymPy, youtube-dl, XSpotify)
Udo K. schrieb: > Nano schrieb: >> Ebenso unschön ist der Wildwuchs im Homedirectory, da hat Windows es >> einfach versäumt klare Standards zu setzen. > > Die Standard gibt es von MS. Nur halten sich die App Entwickler nicht > dran. Die gibt es heute, aber die kommen viel zu spät. Und vieles war nicht klar definiert. Das die App Entwickler noch ihren eigenen Mist dazu machen, kommt noch als Problem dazu.
Nano schrieb: > Die gibt es heute, aber die kommen viel zu spät. > Und vieles war nicht klar definiert. Was ist WAR. Das ist heute noch nicht sauber. Ich als Software-Entwickler hasse es, wenn ich Teile meiner Software in andere Verzeichnisse legen muss. Ich bin einer von der Art die Google aktuell praktiziert. = Meine Software - mein Verzeichnis - meine DLL. Nur die DLL des OS darf ich benutzen oder es lassen. Aber NICHT ändern. Meine Software bekommt keine Schreibrechte in irgend ein anderen Verzeichnis es sei den der User wird explizit gewarnt. Und selbst dann ist der Zugang zu vielen verzeichnissen verboten. Unter Windows mach ich was ich will. Ich kille ne DLL aus den System-Verzeichnis "weil ich es kann". Einfach so. Einzige Ausnahme : Sie ist im Zugriff. Windows ist ein Schrott-System. Und wie schon geschrieben oben. Empirisch gewachsen. Unter DOS + Win 3.1 gab es keine Zugangsrechte. Jedenfalls keine die man nicht kinderleicht umgehen konnte.
Schlaumaier schrieb: > Wie in meinen Beispiel erläutert wird es immer mehr verwusselt. Und nur > wenn man ein alten 16 bzw. 32 Bit Source-Code mit der Einstellungen > "mach 64 bit" neu durch den Compiler jagt, wird es nicht wirklich ein > optimierter 64 bit Code. Er wird nur ca. 30% Größer. Das ist falsch! Der Code liegt erst einmal als Hochsprache wie bspw. C oder C++ Code vor und ist damit, wenn keine besonderen Libs eingebunden werden, erstmal plattformunabhängig und Architekturunspezifisch. Der Compiler kann daraus jetzt 16 Bit, 32 Bit oder 64 Bit optimierte Binaries erzeugen. Die 64 Bit binaries sind dabei nicht nur einfach größer, sondern sie sind mit einem entsprechenden Compiler auf x86-x64 optimiert, denn x86-64 hat mehr Register als x86-32. Das kann der Compiler bei der Parameterübergabe bei Funktionsaufrufen nutzen, während das 32 Bit Binary noch mühsam einen Teil der Parameter auf den Stack schieben muss, passen sie bei x86-64 unter Umständen in die Register, sofern sich die Natur der Parameter für die Speicherung in Register eignet. Siehe: https://en.wikipedia.org/wiki/X86_calling_conventions#x86-64_calling_conventions > Aber den Code von Grund auf zu optimieren bzw. neu zu schreiben, kostet > Geld und Zeit. Standardkonformer Hochsprachencode ohne besondere Compilerdirektiven würde nicht wesentlich anders aussehen. > Und mal ehrlich. WAS ist wirklich NEU seit Windows 2000. ?!? Was kann > Windows seit dem mehr + besser. Tickless Kernel seit Win8 https://en.wikipedia.org/wiki/Tickless_kernel Timer Coalscing seit Win 7 https://en.wikipedia.org/wiki/Timer_coalescing Address space layout randomization seit Win Vista und ForceASLR und High Entropy ASLR seit Win 8 https://en.wikipedia.org/wiki/ForceASLR#Microsoft_Windows Data Execution Prevetion seit WinXP SP2 und DEP in Hardware mithilfe des NX Bit erzwungen seit Win8 https://en.wikipedia.org/wiki/Executable_space_protection#Windows Unterstützung von Supervisor Mode Execution Prevention seit Win8 (wird im Artikel zwar nicht bezüglich Win8 erwähnt, ist in Win8 aber drin) https://en.wikipedia.org/wiki/Supervisor_Mode_Access_Prevention Sowie noch ein paar andere Dinge, die auch mit Win8 kamen: https://arstechnica.com/information-technology/2012/10/better-on-the-inside-under-the-hood-of-windows-8/ Ansonsten kommt noch das übliche bekanntere Zeug dazu. Das wären: DirectX > 10 Support ab Win Vista Direct Storage ab Win11 virtuelle Arbeitsflächen von Haus aus vernünftig ohne 3rd party Tools integriert ab Win10. Bessere Abwärtskompatibilität zu Win9x Software ab WinXP. Wenn ich mich richtig erinnere auch die integrierte Windows Firewall ab WinXP SP3. GDI+ ab WinXP https://en.wikipedia.org/wiki/Graphics_Device_Interface#Windows_XP Desktop Window Manager ab Win Vista (nutzt viele Hardwarebeschleunigungsfunktionen moderner HW, das erlaubt bspw. so Sachen wie die Thumbnailvorschau in der Startleiste oder Transparenzeffekte alles HW beschleunigt) https://en.wikipedia.org/wiki/Desktop_Window_Manager Ein Dutzend neuerer besserer Protokolle, darunter auch SMB Version 2 seit Win Vista: https://en.wikipedia.org/wiki/Server_Message_Block#SMB_2.0 Fazit: Da ist also jede Menge neues seit Windows 2000 in die Windows NT Serie reingekommen und alle aufgezählten Features sind sehr nützlich. > Wenn der Wirtschaftskreislauf sich nicht drehen müsste, und alle > Unternehmen jedes Jahr ihre Aktionäre glücklich machen müssen, würde man > Win-2000 optimieren und alle wären auch zufrieden. Die Versionsnummer würde trotzdem hochgezählt werden. > Fakt ist. Ich habe Win-7 und sehe 0 Grund es nicht weiter zu nutzen. Der > Spruch mit den Sicherheitsupdates ist unsinn. Die Sicherheitslücken sind > in Win-8, 10 + 11 auch drin. Das ist kein Unsinn. Die bekannten Sicherheitslücken werden in Win 10 geschlossen, während sie in nicht mehr unterstützten Windows Versionen vorhanden bleiben. Bei Win10 reicht also ein passender Patch und dein System ist nicht mehr anfällig. Für die alten Windows Versionen gibt es keinen Patch, dein System gehört Dritten. > Da gibt es auch jeden 2 Di. im Monat > Patchday. Ja gibt es. Es werden ja auch hin und wieder neue Sicherheitslücken entdeckt, die bei unterstützten Versionen dann aber auch wieder geschlossen werden. Dafür ist der Patchday da.
Udo K. schrieb: > Nano schrieb: >> Ebenso unschön ist der Wildwuchs im Homedirectory, da hat Windows es >> einfach versäumt klare Standards zu setzen. > > Die Standard gibt es von MS. Nur halten sich die App Entwickler nicht > dran. > Am "Home Directory" soll der (unwissende) Anwender eh nicht rumpfuschen. Software wird installiert, und über das Startmenü oder über Verknüpfungen aufgerufen. Wo die Software installiert ist muss man nur wissen wenn mal etwas nicht läuft, aber das weiß dann (hoffentlich) der "Softwarespezialist" den man zuhilfe ruft.
:
Bearbeitet durch User
Udo K. schrieb: > Schlaumaier schrieb: >> Falsch. > > Struktur hat NIX mit Funktion zu tun. Das Problem ist, das man wegen > der >> "alten Sachen" das Teil immer mehr aufbläht. Dies führt zu immer mehr >> Speicherhunger und zu immer weniger Effizienz. > > Die Kompatibilität ist da völlig vernachlässigbar. > Das ist einfach ein Mythos, den jeder ohne sich auszukennen > nachplappert. > Der bei weitem grösste Brocken am "Speicherhunger" kommt von neuen > Programmen. Die Notwendigkeit der Kompatibilität bedingt, das alte DLLs und .NET RE auch noch dazu müssen. Dadurch braucht jede neue Windows Version mehr Speicherplatz auf dem Datenträger als seine Vorgänger. Das ist also kein Mythos, sondern Fakt. Würde man alles mit den neusten APIs und .NET RE bauen, dann wäre Win11++ super schlank, aber die Abwärtskompatibilität wäre dann auch nicht mehr gegeben. Die alte Software braucht halt die alten DLLs.
Nano schrieb: > Die alte Software braucht halt die alten DLLs. Vor allem wenn sie nicht mehr gewartet wird. Und für viele alte Sotware gibt es heute keine Alternativen mehr, schon garnicht mit der neuesten API.
Nano schrieb: > Die Notwendigkeit der Kompatibilität bedingt, das alte DLLs und .NET RE > auch noch dazu müssen. Völlig korrekt. Ich habe 3 (in Worten 3) Frameworks in der jeweils letzten aktuellen Version auf den Rechner. Grund: Einige Programme wollen noch MS-Framework 3.0 explizit haben. Andere unbedingt 4.0 Soviel zu den Gewussele. JAJA, MS ist der Superheld und die bösen Softwareentwickler sind schuld das sie pleite sind o. Tot. Oder was auch immer. Das macht die Software weder schlechter noch besser. Besonders dann nicht wenn sie sauber läuft. Wieso soll ich an ein gesundes Kind eine Gehirn-OP machen. Nur damit es Kohle bringt. Die Politik von MS ist so Krank wie unser Gesundheitssytem. Hauptsache es bringt Kohle und der Kurs steigt. Aber !! Entweder man sagt "Ab heute nur noch damit" oder man sagt "Wie sind abwärts kompatible bis zu Win *.* . Was die da machen ist gewussele. Nix halbes und nix ganzes.
Nano schrieb: >> Die Kompatibilität ist da völlig vernachlässigbar. >> Das ist einfach ein Mythos, den jeder ohne sich auszukennen >> nachplappert. >> Der bei weitem grösste Brocken am "Speicherhunger" kommt von neuen >> Programmen. > > Die Notwendigkeit der Kompatibilität bedingt, das alte DLLs und .NET RE > auch noch dazu müssen. Dadurch braucht jede neue Windows Version mehr > Speicherplatz auf dem Datenträger als seine Vorgänger. > Das ist also kein Mythos, sondern Fakt. Wenn du es so ausdrückst, dann stimmt das schon. Kompatibilität braucht etwas Speicher. Was ich aber meinte war, das der Speicherplatz für Kompatibilität vernachlässigbar ist im Vergleich zum Speicherplatz den aktuelle Anwendungen verbraten. Der Aufwand für Kompatibiltät ist gering. Man muss einfach nur die alten DLL unverändert mitliefern, und das alte Program damit starten. Das geht doch schon seit Urzeiten automatisch. Beispiel gefällig: Nur der MS Edge alleine braucht bei mir im Install Verzeichnis (ohne meine User Daten) 2.2 GB. Ich kann mich erinnern, dass ich XP in weniger als 1 GB installiert habe. Daraus folgere ich, dass der Overhead der Kompatibilität deutlich kleiner sein muss, als der Overhead aktueller Programme. Edge alleine braucht mehr Speicher, als das gesamte XP. Nachtrag zum Schmunzeln/Weinen: Der Installationsort von Edge ist im C:\Program Files (x86) Verzeichnis - das für 32 Bit Programme vorgesehen ist. Offensichtlich schafft es nicht mal MS ein 64 Bit Programm an die richtige Stelle zu installieren... Windows 10 selbst belegt ca. 41 GB, mit sicher schon 2-3 Major Updates. Dabei sind im System32 11 GB, und im System32 macht der DriverStore (Treiber Backup) 6.2 GB aus. NET macht noch mal ca. 6 GB aus... Installer Backup Files sind ca 9 GB, Kernel Report ca. 2 GB, der Patch Cache 3 GB, Sericing LCU 3 GB (was ist das?) Weitere Beispiele: Visual Studio 2022 9.3 GB, Altium6 2.9 GB, Altium-2022 braucht 4.7 GB. Solidworks gönnt sich 8.5 GB. Gimp2 420 MB, Calibre 360 MB. Dank 2 TB SSD ist das kein Problem. Die Hardware ist einfach so gut, das heute keiner mehr Programmieren lernen muss.
Schlaumaier schrieb: > Wieso soll ich an ein gesundes Kind eine Gehirn-OP machen. Nur damit es > Kohle bringt. Die Politik von MS ist so Krank wie unser > Gesundheitssytem. Hauptsache es bringt Kohle und der Kurs steigt. Reiss dich mal am Riemen. Deine Verallgemeinerungen nerven nur. Und der Informationsgehalt ist kleiner Null.
Hallo, Schlaumaier schrieb: > JAJA, MS ist der Superheld und die bösen Softwareentwickler sind schuld > das sie pleite sind o. Tot. Oder was auch immer. Das macht die Software > weder schlechter noch besser. Besonders dann nicht wenn sie sauber > läuft. ach weißt Du... Hier läuft VB6 völlig problemlos unter Win10 pro/64. MS hat es zwar als "nicht installierbar" gesetzt, aber das kann man ja abschalten. Gegenbeispiel: Agenda Steuersoftware - nach einem Wechsel der Datenbank auf postgreSQL meckerten mehrere wichtige Funktionen mit "zuwenig Speicher". 3 Wochen sporadische Mailwechsel der Buchhaltungsdame später habe ich dann zu den 32GB noch 64GB dazugesteckt. Hat am Problem nichts geändert, warum auch, gefordert werden 8GB, besser 16GB, der Rechner hatte vorher 32GB. Dann hat es nochmal gut 14 Tage gedauert bis es ernst genommen und gefixt wurde. Ich vermute, die EInstellungen der Datenbank waren unsinnig, die hat ja nie mehr als gut 8GB belegt. Ich frage mich da: sitzen da Programmierer oder Baukastenverwalter? Die Firma will ja eine Art Konkurenz zu Datev sein... Gruß aus Berlin Michael
Ich hatte mal ein Programm, das lief nur, wenn ich vorher ganz viel RAM mit anderen Programme belegt hatte. Zu viel freier Speicher hatte da wohl irgendeinen Überlauf ausgelöst.
Schlaumaier schrieb: > Windows ist ein Schrott-System. Und wie schon geschrieben oben. > Empirisch gewachsen. Unter DOS + Win 3.1 gab es keine Zugangsrechte. > Jedenfalls keine die man nicht kinderleicht umgehen konnte. Es zwingt Dich niemand das "Schrott-System" zu benutzen. Nimm einfach ein anderes System es gibt genug davon.
Michael U. schrieb: > ach weißt Du... Hier läuft VB6 völlig problemlos unter Win10 pro/64. Danke für diese durchaus wichtige Info. ;) Das sagt mir das meine vor Ewigkeiten geschriebene Software selbst auf diesen Kisten läuft. Und ich weiß auch wieso ich keine Rückmeldungen für ein Update bekomme. Udo K. schrieb: > Reiss dich mal am Riemen. Deine Verallgemeinerungen nerven nur. NEIN. Denn der Beitrag von Michael U. beweist das ich Recht habe. Meine Software war damals gesund. Und dank der Unterstützung von VB-6 läuft sie scheinbar auch da. Das Problem sind nur die lausigen Programmierer die irgendwelche Spielchen machen die dann das Programm zum absturz bringen. Haftung hat man eh keine. Die Leute für die ich geschrieben habe haben sich immer gewundert wieso ich bei Fehlern kostenlosen Support leisten wollte. Musste ich aber sehr selten. Ich halte mich an Regeln und spiele nicht mit undokumentierten Funktionen und dann läuft auch alles. Ich musste neulich mir ein ISO für Win-10 runterladen mit den neusten Patchzeug weil eine Nachbarin (die ich mag) ihren Bluescreen mit der Original-CD nicht beseitigt bekommen hat. Habe ich selbst getestet. Wir saßen zusammen. Und das nach einen Patchday update. Mal gucken wie viele Leute noch Probleme haben ein 0xc0000428 Fehler beim Start zu beseitigen. Steht sicher im Netz. Alles Frikelwerk. Der Patchday ist vorgeschrieben, und wenns dann nicht sauber fertig wird zum Termin, holt man sich entweder ein Anschiss oder liefert irgend was aus, und hofft die Frickelei hält bis zum nächste Patch. ;)
Hallo, Schlaumaier schrieb: > Ich musste neulich mir ein ISO für Win-10 runterladen mit den neusten > Patchzeug weil eine Nachbarin (die ich mag) ihren Bluescreen mit der > Original-CD nicht beseitigt bekommen hat. Habe ich selbst getestet. Wir > saßen zusammen. > > Und das nach einen Patchday update. Mal gucken wie viele Leute noch > Probleme haben ein 0xc0000428 Fehler beim Start zu beseitigen. Steht > sicher im Netz. das ist mir bisher noch nicht passiert, kenne ich nur vom Hören-Sagen. Allerdings hatte mein Win10 vor Ewigkeiten den Zustand, daß ein Update nicht installiert wurde und damit dann danach garkeins mehr. Ich habe von scratch installiert, das System hatte da aber auch schon einiges hinter sich, muß so vor 4 Jahren gewesen sein. Zu VB6: ich habe nur ein eigenes Projekt in VB6, eine LA-Software für einen Eigenbau damals, 80MHz/8Bit. War mehr Interesse ob der Kram noch läuft. Mehr zum Spaß: https://www.avr.roehres-home.de/logikanalyzer/index.html Gruß aus Berlin Michael
René H. schrieb: > Am "Home Directory" soll der (unwissende) Anwender eh nicht rumpfuschen. Das (userspezifische) Homedirectory ist eigentlich für User gedacht und da und nur da soll er rein schreiben. Normalweise kommen die Binaries, also das Programm selbst und die Programmteile (Dateien) die nicht verändert werden in ein Unterverzeichnis unter C:\Program Files. Anwendungsdaten und Konfigurationsdaten kommen in das Homeverzeichnis des Users ebenfalls in ein Unterverzeichnis, um sie vom Rest abzutrennen. So ist auch gewährleistet, das in Mehrbenutzersystemen jeder mit seiner eigenen Konfiguration und Daten arbeiten kann. Daten auf die alle Benutzer zugreifen dürfen kommen halt nach users\All Users, denn genau dieses Verzeichnis ist dafür von Microsoft vorgesehen. Und ja der User darf natürlich auch in andere Verzeichnisse schreiben, wenn ihm dies vom Admin gestattet wird. Am heimischen PC ist natürlich ein jeder sein eigener Admin und darf demzufolge auch alles.
Udo K. schrieb: > Dank 2 TB SSD ist das kein Problem. Die Hardware ist einfach so gut, > das heute keiner mehr Programmieren lernen muss. Daran ist auf manche Software bezogen etwas wahres dran. Angefangen hat es mit der 32 Bit Entwicklung, die hat all das ermöglicht.
Schlaumaier schrieb: > Das sagt mir das meine vor Ewigkeiten geschriebene Software selbst auf > diesen Kisten läuft. Und ich weiß auch wieso ich keine Rückmeldungen für > ein Update bekomme. Schlaumaier schrieb: > NEIN. Denn der Beitrag von Michael U. beweist das ich Recht habe. Meine > Software war damals gesund. Und dank der Unterstützung von VB-6 läuft > sie scheinbar auch da. Das ist doch wieder mal Käse. Das Deine Software heute noch läuft ist weniger Dein Verdienst und hat auch mit der Gesundheit selbiger nix zu tun. Das liegt ganz einfach an dem schrottigen Windows welches noch den alten Kram unterstützt. Die allerste DOS-Version meiner Software von 1995 im Realmode läuft auch heute noch im cmd-Fenster. Das ist weniger mein Verdienst als vielmehr der Verdienst des Compilers der halt validen Code erzeugt hat und es ist der Verdienst von Windows, weil es diesen alten Kram halt noch unterstützt. Mit Mac wären wir, also Du und ich, mit den alten Programmen schon lange auf die Schnauze gefallen, weil schlichtweg die alten Zöpfe abgeschnitten haben. Eine Weile unterstützen die ja immer noch den alten Kram, z.B. als die auf die x86 Architektur gewechselt haben. Da gab es ein Framework (Rosetta), mit dem es möglich war weiterhin die Power-PC-Programme auszuführen. Seit Mac OS 10.6 (Snowleopard) ist das Programm einfach weg gefallen, gehört also nicht mehr zum Standardlieferumfang des OS. Man soll es aber noch bekommen auch für 64Bit. Der nächste Cut war, als man vor 2-3 Jahren entgültig auf 64Bit umgestellt hat. 32 Bit-Programme laufen da einfach nicht mehr, auch wenn sie sehr gesund waren. Man hat halt einfach alte Zöpfe abgeschnitten. Mit der Einführung der neuen Armprozessoren wird der nächste Cut nicht lange auf sich warten lassen.
Stefan F. schrieb: > Ich hatte mal ein Programm, das lief nur, wenn ich vorher ganz viel RAM > mit anderen Programme belegt hatte. Zu viel freier Speicher hatte da > wohl irgendeinen Überlauf ausgelöst. Ich glaube nicht, dass das ein Überlauf war, sondern da machten eher höhere Adressbereiche Probleme. Das gilt insbesondere dann, wenn bestimmte Hardware und Treiber im Spiel sind. Die Audigy 2 Soundkarte hatte bspw. nur 31 Adressleitungen, die 32. Adressleitung hat man einfach weggelassen bzw. gab es der alte Soundchip Chip nicht her bzw. wurde kein korrigierter Chip hergestellt. Das funktionierte problemlos, solange der Rechner nicht mehr als 2^31-1 = 2 GiB RAM im Rechner hatte. Wenn man aber mehr RAM eingebaut hat, z.B. 4 GiB dann reservierte Windows für sich und die Treiber + Firmware die oberen Hälfte, also oberhalb der 2 GiB Bereich. Z.B. wurden da dann die Wavetable Soundfontdateien (für MIDI) abgelegt. Darauf konnte die HW aber nicht zugreifen, weil sie ja nur 31 Adressleitungen unterstützte. Die Soundfontdatei und alles was da irgendwie dazu gehört, hätte also in einen Adressbereich unterhalb von 2 GiB liegen müssen, wo bei der 4 Gib Installation der Userspacebereich war. Das funktionierte so also nicht. Glücklicherweise kann man mit BCDedit aber die RAM Größe und den Adressbereich, der Windows nach dem Booten zur Verfügung steht, begrenzen. Stellte man 2 GiB als Maximum ein, dann liegt auch der Adressberreich von Windows, die Treiber, Firmware, Soundfonts unterhalb dieser 2 GiB und die Hardware konnte somit wieder benutzt werden. https://learn.microsoft.com/en-us/windows-hardware/drivers/devtest/boot-parameters-to-manipulate-memory Anstatt das RAM mit Programmen voll zu machen, würde ich an deiner Stelle eher mal die BCDedit Option probieren und das max RAM beschränken.
Zeno schrieb: > Man hat halt einfach alte Zöpfe > abgeschnitten. Mit der Einführung der neuen Armprozessoren wird der > nächste Cut nicht lange auf sich warten lassen. Und das ist einer der Gründe warum ich Microsoft besser finde als Apple. Gekaufte Software hat auch dann, wenn sie noch alt ist, einen Wert. Und sei es nur der, sie noch benutzen zu können. Auf dem neuen Apple ARM Prozessor können die Applejünger dann sich mit Bochs und QEMU vertraut machen, nur damit sie ihre alte x86 Software wieder zum Laufen bekommen. Bochs und QEMU sind echte Emulatoren, wobei QEMU auch eine VM sein kann, wenn es die CPU erlaubt.
Zeno schrieb: > 32 Bit-Programme laufen da einfach nicht mehr, > auch wenn sie sehr gesund waren. Der Beweis das es auch schlechter geht als Windows. Je älter das Programm desto schneller läuft es. Ein System das (mühsam)Programmnierte oder teuer gekaufte Progamme nicht mehr unterstützt ist Schrott. Die waren entweder zu faul das zu implemetieren oder es wäre denen peinlich wie viel schneller die alten laufen würden.
A. H. schrieb: > es wäre denen > peinlich wie viel schneller die alten laufen würden. Ich habe vor einigen Jahren mal eine alte Dbase-4 Datenbank unter DBASE (Ja die Disketten hatte ich noch auf der Platte) zu bearbeiten mit jede Menge Formeln und Code. Also ich mal eben Dbase in einer VM installiert. Und dann losgelegt. Das waren ca. 500.000 Datensätze. So schnell wie der da durch gerannt ist, das schafft nicht mal ein modernen mysql. Von den (bei mir) lahmen MS-Sql will ich gar nicht reden. Und wie ich Comand&Conquest drossele weiß ich auch nicht. Die KI macht mich gnadenlos fertig.