Hallo, mein etwas betagter Bürorechner läuft mit Win7 (kein Net Framework installiert) von der Geschwindigkeit her ganz gut (schnelles Hochfahren, Firefox läuft ruckelfrei und die meisten anderen Anwendungen auch). Wenn nun Net-Framework 4.5 darauf installiert wird, wird der Rechner im normalen Betrieb dann deutlich langsamer? Wird das Framework bei jedem Hochfahren automatisch gestartet oder nur, wenn es von einer entsprechenden Anwendung benötigt wird?
Olli schrieb: > Wenn nun Net-Framework 4.5 darauf installiert wird, wird der Rechner im > normalen Betrieb dann deutlich langsamer? nein > Wird das Framework bei jedem Hochfahren automatisch gestartet nein > oder nur, > wenn es von einer entsprechenden Anwendung benötigt wird? ja Windows Updates werden langsamer, bei jedem Update von .net werden recht viele resourcen von .net neu compiliert.
Vielen herzlichen Dank Peter für die schnelle und ausführliche Antwort!
Olli schrieb: > Wenn nun Net-Framework 4.5 darauf installiert wird, wird der Rechner im > normalen Betrieb dann deutlich langsamer? Allgemein Ja. Stell es dir mal so vor: Du hast ein Auto und fährst immer mit einem komplett vollen Kofferraum rum. → viel mehr Last
Coder schrieb: > Allgemein Ja. Stell es dir mal so vor: Du hast ein Auto und fährst immer > mit einem komplett vollen Kofferraum rum. → viel mehr Last wenn es Ironie sein soll, dann sollte du es kennzeichnen. Wir dann Auto langsamer ob du einen volle oder leere Festplatte transportierst?
zumindest braucht das .net gewaltig viel Platz, müllt also die Festplatte voll und diemuss den ganzen Windows-Kram drumrum abspeichern damit steigen peu a peu die Zugriffszeiten für Windows selbst (bei HDD) denn die Windows-"Optimierung" optimiert höchstens das gute Gefühl, ne aufgeräumte Platte zu haben
:
Bearbeitet durch User
Nach der .net Installation und nach Updates läuft ein .net Optimierungs Dienst der viele Assemblies vorkompiliert, der macht sich schon bemerkbar. Aber wenn der durch ist dann ist Ruhe.
Mike B. schrieb: > zumindest braucht das .net gewaltig viel Platz, müllt also die > Festplatte voll und diemuss den ganzen Windows-Kram drumrum abspeichern > damit steigen peu a peu die Zugriffszeiten für Windows selbst (bei HDD) Wahnsinn 1,5GB braucht alles .net Versionen zusammen! Die Zugriffszeiten einer Festplatte hängen nicht vom Füllgrad ab.
Mike B. schrieb: > zumindest braucht das .net gewaltig viel Platz, müllt also die > Festplatte voll und diemuss den ganzen Windows-Kram drumrum abspeichern > damit steigen peu a peu die Zugriffszeiten für Windows selbst (bei HDD) > > denn die Windows-"Optimierung" optimiert höchstens das gute Gefühl, ne > aufgeräumte Platte zu haben Was ist mit richtiger Defragmentierung bzw. SSDs?
Peter II schrieb: > Wir dann Auto langsamer ob du einen volle oder leere Festplatte > transportierst? Braucht das Auto mehr Benzin wenn es voll beladen ist? Hier gehts um Geschwindigkeit und .NET belastet den Prozessor, RAM und die Festplattenzugriffe nun mal gerne.
Paul H. schrieb: > Was ist mit richtiger Defragmentierung die Windows Optimierung ist etwas mehr als nur die Defragmentierung. Es ordnet die Dateien so an, wie sie beim bootet benötigt werde. Wird wohl etwas bringen, aber die meisten haben so viel im Autostart drin das eh alle Vorteile vom schnellen Booten weg sind. > bzw. SSDs? bei SSD ist die Optimierung und Defragmentierung abgeschaltet.
Coder schrieb: > Hier gehts um Geschwindigkeit und .NET belastet den Prozessor, RAM und > die Festplattenzugriffe nun mal gerne. ein Programm was nicht gestartet wird, belastet keine Prozessor und nutzt auch kein Ram.
Peter II schrieb: > Die Zugriffszeiten einer Festplatte hängen nicht vom Füllgrad ab. doch wenn ein großer unbewegter Brocken .net und Programme hinter die Windows-Install geschrieben wurde wird jedes Windows Update auch teilweise hinter diesen Brocken geschrieben damit verlängern sich die Wege für die HDD-Köpfe und die Zugriffszeiten steigen das muss man SSD-verwöhnten Neuusern erstmal verklickern... pack mal einen großen Fäustling in deinen Schraubendreher-Kasten, da wirst du merken um weiviel mehr du jedesmal kramen musst veor du den richtigen Dreher findest
Peter II schrieb: > ein Programm was nicht gestartet wird, belastet keine Prozessor und > nutzt auch kein Ram. Witzbold. .NET wird doch schon teilweise beim Start in den RAM geladen und bleibt da solange der PC an ist.
Mike B. schrieb: > doch > wenn ein großer unbewegter Brocken .net und Programme hinter die > Windows-Install geschrieben wurde wird jedes Windows Update auch > teilweise hinter diesen Brocken geschrieben > damit verlängern sich die Wege für die HDD-Köpfe und die Zugriffszeiten > steigen 1,5GB sind kein großer Brocken. aber außen ist die Zugriffsgeschwindigkeit doch höher, weil die Relativgeschwindigkeit höher ist.
Coder schrieb: > Witzbold. .NET wird doch schon teilweise beim Start in den RAM geladen > und bleibt da solange der PC an ist. Warum sollte da so sein, bitte ein paar beweise für so eine Aussage. Java ist auch auf dem PC und wird nicht gestartet.
Paul H. schrieb: > Was ist mit richtiger Defragmentierung bzw. SSDs? ich schrieb nur von HDDs Defragmentierung packt Dateien nur zusammen, und zwar dorthin auf die Platte wo genügend Platz für die Gesamtdatei ist das kann auch ganz gerne mal hinten oder einfach mittendrin sein dann verringern sich die Anzahl der Zugriffe auf bestenfalls einen und die Platte kann die ganze Datei kann in einem stück gelesen werden aber mit Ordnung und Aufräumen hat das noch nich viel zu tun
Coder schrieb: > Witzbold. .NET wird doch schon teilweise beim Start in den RAM geladen > und bleibt da solange der PC an ist. Wie stellst du das fest?
Mike B. schrieb: > aber mit Ordnung und Aufräumen hat das noch nich viel zu tun weiter im Text: Optimierung kann z.B. OODefrag ganz gut, da kann man die Dateien nach letzten Zugriff sortieren lassen dann liegen alle oft benötigten D. nah beieinander und der ganze "tote" rest liegt iwo am Rand Das Gleiche was Windows zusätzlich mit Prefetch macht, nur das ist dann wieder ein Kopieren und nicht ein Verschieben der häufig benötigten Dateien an einen Ort. Oder auf nem Sicherungsserver alle Platten gleichen Typs, Datums o.ä. zusammen packen...
Mike B. schrieb: > dann liegen alle oft benötigten D. nah beieinander und der ganze "tote" > rest liegt iwo am Rand seht bestimmt im Prospekt von OODefrag. kein BS kennt noch dem physikalischen Ort wo die Daten liegen. Nur weil die Daten auf kleinen LBA-Adressen liegen, kann man nicht sagen das die zugriffe darauf optimal sind. Es könnte schon auf einen andere scheibe liegen und dann wieder ganz außen oder innen.
Peter II schrieb: > 1,5GB sind kein großer Brocken. 1,5GB sind 1,5 Milliarden Zeichen, gepackt Du darfst gerne mal als Anfang einen Roman mit 1,5 Milliarden Buchstaben verfassen. "Zu Zeiten der Schreibmaschine galten 30 Zeilen mit je 60 Zeichen (= 1.800 Zeichen inkl. Leerzeichen) als eine Standard-Manuskriptseite." na dann leg mal los hinterher weisst du was "groß" bedeutet und dann packen wir den Roman mit standardmäßigen Komprimieralgorhytmen und dann pinselst du die restlichen Zeichen auch noch hintendran Nur weil die Platten eine permanente Hyperinflation bei der Kapazität durchmachen und dann mit tausenden GigaPixel-Kamera-Bildchen vollgemüllt werden werden 1,5GB nicht weniger. Win3.1 brauchte <10MB komplett Win10 braucht 60GB Und was kann es mehr als Fensterln? Hübsch bunt rum-Appen! Suuuper!
Mike B. schrieb: > dann liegen alle oft benötigten D. nah beieinander und der ganze "tote" > rest liegt iwo am Rand Das hat vielleicht zu Zeiten der Trommelspeicher funktioniert, aber eine Cylinder/Head/Sector Adressierung gibt es achon lange nicht mehr. Bei FAT formattierten Platten wurden Dateizugriffe langsamer je mehr Dateien in einem Verzeichnis lagen, aber auch diese Tage sind lange her.
Mike B. schrieb: > Optimierung kann z.B. OODefrag ganz gut, da kann man die Dateien nach > letzten Zugriff sortieren lassen wie soll das gehen? Hast du dir mal die Zeitpunkte von "letzten Zugriff" von exe und dlls im Windows Verzeichnis angeschaut? Die ändert sich überhaupt nicht.
Peter II schrieb: > Mike B. schrieb: >> dann liegen alle oft benötigten D. nah beieinander und der ganze "tote" >> rest liegt iwo am Rand > > seht bestimmt im Prospekt von OODefrag. so zeigt es mir OO zumindest an, ich hab noch kein Programm geschrieben um das zu prüfen > kein BS kennt noch dem physikalischen Ort wo die Daten liegen. Nur weil > die Daten auf kleinen LBA-Adressen liegen, kann man nicht sagen das die > zugriffe darauf optimal sind. Es könnte schon auf einen andere scheibe > liegen und dann wieder ganz außen oder innen. wenn man den Platz von vorn nach hinten nacheinander leerräumt und beim Schreiben der gewünschten Dateireihenfolge dann davon ausgeht, dass der HD-Controller von selbst immer ganz innen anfängt zu schreiben und nach außen wandert ergibt sich von allein die gewünschte Ordnung bei 80GB pro Scheibe passt eine Windows-Partition inkl. Programme schon da drauf, da sind Sprünge auf andere Scheiben nur nötig wenn 10GB Auslagerungsdatei, die temporären und die eigenen Dateien und die Ruhezustandsdatei dümmlicherweise auch noch mit auf der Windowspartition liegen und 80GB pro Scheibe sind wohl auch schon von anno Tobak
Peter II schrieb: > wie soll das gehen? Hast du dir mal die Zeitpunkte von "letzten Zugriff" > von exe und dlls im Windows Verzeichnis angeschaut? Die ändert sich > überhaupt nicht. Hast du auch von "Geändert am" auf "letzten Zugriff" umgestellt? Hab selbst in der Tat noch nie gemacht und mal nachgeschaut. Aber das Merkmal wird ja unter NTFS nicht umsonst bei jeder Datei abgepeichert. edit: nein, in der Tat, "Letzter Zugriff" ist nicht das richtige Merkmal
:
Bearbeitet durch User
Mike B. schrieb: > wenn man den Platz von vorn nach hinten nacheinander leerräumt und beim > Schreiben der gewünschten Dateireihenfolge dann davon ausgeht, dass der > HD-Controller von selbst immer ganz innen anfängt zu schreiben und nach > außen wandert ergibt sich von allein die gewünschte Ordnung nur kann jeder Hersteller das machen wie er will. Sektor 1 kann auf Platte 1 liegen Sektor 2 auf Platte2. Mike B. schrieb: > Peter II schrieb: >> wie soll das gehen? Hast du dir mal die Zeitpunkte von "letzten Zugriff" >> von exe und dlls im Windows Verzeichnis angeschaut? Die ändert sich >> überhaupt nicht. > > Hast du auch von "Geändert am" auf "letzten Zugriff" umgestellt? > Hab selbst in der Tat noch nie gemacht und mal nachgeschaut. > Aber das Merkmal wird ja unter NTFS nicht umsonst bei jeder Datei > abgepeichert. ja, schau doch selber nach. Calc.exe "letzter Zugriff" 21.11.2010 obwohl ich ihn ständig nutze.
Mike B. schrieb: > Peter II schrieb: >> 1,5GB sind kein großer Brocken. > 1,5GB sind 1,5 Milliarden Zeichen, gepackt > Du darfst gerne mal als Anfang einen Roman mit 1,5 Milliarden Buchstaben > verfassen. ... die Begründung für die -1 würde mich mal ganz stark interessieren Weil das mit den 1,5 Milliarden nicht ganz mathematisch korrekt ist? Wie ich grad sehe findet es irgend ein Honk lustig, meine gesamten Beiträge negativ zu bewerten. Begründung?
:
Bearbeitet durch User
Mike B. schrieb: > Peter II schrieb: >> 1,5GB sind kein großer Brocken. > 1,5GB sind 1,5 Milliarden Zeichen, gepackt > Du darfst gerne mal als Anfang einen Roman mit 1,5 Milliarden Buchstaben > verfassen. > > "Zu Zeiten der Schreibmaschine galten 30 Zeilen mit je 60 Zeichen (= > 1.800 Zeichen inkl. Leerzeichen) als eine Standard-Manuskriptseite." > > na dann leg mal los > hinterher weisst du was "groß" bedeutet > > und dann packen wir den Roman mit standardmäßigen Komprimieralgorhytmen > und dann pinselst du die restlichen Zeichen auch noch hintendran > > Nur weil die Platten eine permanente Hyperinflation bei der Kapazität > durchmachen und dann mit tausenden GigaPixel-Kamera-Bildchen vollgemüllt > werden werden 1,5GB nicht weniger. > Win3.1 brauchte <10MB komplett > Win10 braucht 60GB Was soll das für eine Installation/Variante von W10 sein? Hier sind z.Z. 50 GB belegt. Davon 20 GB Windows, 15 GB Program Files (x86), 1.1 GB Program Files, 10 GB Users + 4 GB Swap (Hibernate etc. ist abgeschaltet). Installiert sind einige größere Brocken u.a. Visual Studio, Office, RAD Studio dazu div. SDKs, Frameworks (u.a. .NET 2.0, 3.0, 3.5, 4.0, 4.6 zusammen etwa 1 GB) etc. pp. Eine normale Installation dürfte ohne Swap und Hibernate bei 10 - 11 GB liegen, definitiv nicht bei 60 GB, selbst nicht wenn da nach einem Update Windows.Old noch auf der Platte liegt. Zudem wird standardmäßig noch pagefile.sys (zusätzlich zu hiberfil.sys und swapfile.sys) mit der Größe des Hauptspeichers angelegt. Und wer sich über .NET aufregt, darf auch nicht mit Qt arbeiten -> Download sind schon 1 GB, entpackt etwa 3 GB mit Quelltexten 4.6 GB oder div. Java-basierte IDEs benutzen, denn die bringen, aus gutem Grund, meist selbst nochmal ein JRE mit (auch jeweils ca. 200+ MB) Und zur Ausgangsfrage: Windows 7 enthält .NET: "Windows 7 (all editions) includes the .NET Framework 3.5.1 as an OS component. This means you will get the .NET Framework 2.0 SP2, 3.0 SP2 and 3.5 SP1 plus a few post 3.5 SP1 bug fixes. 3.0 SP2 and 3.5 SP1 can be added or removed via the Programs and Features control panel." https://blogs.msdn.microsoft.com/astebner/2007/03/14/mailbag-what-version-of-the-net-framework-is-included-in-what-version-of-the-os/
Olli schrieb: > mein etwas betagter Bürorechner läuft mit Win7 (kein Net Framework Ich denke ein Update auf Windows 10 wäre sinnvoll. Die Bootzeit ist drastisch kürzer als bei Windows 7 und es geht mit RAM schonender um und setzt effizientere Cache-Strategien ein.
Haben die Rentner heute schon wieder Ausgang ohne ihre Pillen zu nehmen?
Arc N. schrieb: >> Win3.1 brauchte <10MB komplett >> Win10 braucht 60GB > > Was soll das für eine Installation/Variante von W10 sein? > Hier sind z.Z. 50 GB belegt. Davon 20 GB Windows, 15 GB Program Files > (x86), 1.1 GB Program Files, 10 GB Users + 4 GB Swap (Hibernate etc. ist > abgeschaltet). Installiert sind einige größere Brocken u.a. Visual > Studio, Office, RAD Studio dazu div. SDKs, Frameworks (u.a. .NET 2.0, > 3.0, 3.5, 4.0, 4.6 zusammen etwa 1 GB) etc. pp. > Eine normale Installation dürfte ohne Swap und Hibernate bei 10 - 11 GB > liegen, definitiv nicht bei 60 GB, in der Tat war der Wert für Win10 geschätzt ich habe eine Dualboot mit Win8 und Win81 (Pro 64) auf zwei Partitionen a 40GB und obwohl ich alle Programme, die nicht unbedingt auf C landen müssen auf einem anderen laufwerk installiere und keine Hybernates und keine Auslagerungsdateien und möglichst keine temp-Dateien und möglichst keine Eigenen Dateien auf diesen Win-Parts draufhabe bin ich mit beiden Partitionen ständigen mit Platzproblemen am kämpfen die ganzen Sachen die unvermeidbar unter AppData abgelegt werden, die ganzen uralt-Kopien iwelcher Updates, tonnenweise .net und die ganzen Treiber-Dateien (z.B. Nvidia, da wird immer das ganze update mit 300MB vorrätig gehalten) und beide Installs sind ~5Jahre alt, also schön vollgesogen mit Ballast, da kannst du so viel aufräumen wie du willst Daher hatte ich für Win10 eine noch größere Partition mit +50% (= 60GB) als notwendig angenommen. Selbst wenn eine frische Win10-Install 10GB nimmt, ich meinte die gesamte Win-Partition inkl. Users, Programme und Recovery denn all dies wird von Win auf die Partition geknallt. Und dann reichen keine 10GB. Denn dann lass die erste Update-Orgie nach der frisch-Install drüberlaufen und die Sache sieht schon anders aus.
>Firma: Buchhaltung+Controlling > Win3.1 brauchte <10MB komplett Augenblick mal.... Wenn ich mich richtig erinnere, haben die Buchhalter an ihren Blockgrafik-DOS-Programmen festgehalten, solange es nur irgendwie ging. Erst als es keine für die alten Programme keine Drucker mehr mehr gab, konnten wir die Buchhalter zum Windows überreden. Kämst du wirklich aus Buchhaltung+Controlling, würdest du über den irrsinnigen Overhead schimpfen, den Win3.1 verursachte.
Noch einer schrieb: > Kämst du wirklich aus Buchhaltung+Controlling, würdest du über den > irrsinnigen Overhead schimpfen, den Win3.1 verursachte. wenn ich so alt wäre, diese Zeit als Buchhalter überhaupt miterlebt zu haben aber ich ich hab leider noch etliche Jahre bis zur Rente
Olli schrieb: > mein etwas betagter Bürorechner läuft mit Win7 (kein Net Framework > installiert) Falsch, W7 hat von Haus aus bereits ein dot-Net dabei. Mike B. schrieb: > zumindest braucht das .net gewaltig viel Platz, müllt also die > Festplatte voll und diemuss den ganzen Windows-Kram drumrum abspeichern > damit steigen peu a peu die Zugriffszeiten für Windows selbst (bei HDD) Herr, wirf Hirn vom Himmel!
Manfred schrieb: > Herr, wirf Hirn vom Himmel! beleidigen kann ich auch Erklär lieber was du sagen willst.
Mike B. schrieb: > die Begründung für die -1 würde mich mal ganz stark interessieren Ehrlich gesagt lesen sich deine Beiträge hier teilweise wie ComputerBild-Wissen, und damit erklärt sich für mich auch schon eine negative Bewertung.
Mike B. schrieb: >> Herr, wirf Hirn vom Himmel! > > beleidigen kann ich auch > Erklär lieber was du sagen willst. das die Aussage Unsinn ist, Zugriffszeiten sind nicht abhängig von Füllgrad der Festplatte.
Manfred schrieb: > Mike B. schrieb: >> zumindest braucht das .net gewaltig viel Platz, müllt also die >> Festplatte voll und diemuss den ganzen Windows-Kram drumrum abspeichern >> damit steigen peu a peu die Zugriffszeiten für Windows selbst (bei HDD) > Herr, wirf Hirn vom Himmel! Aber bitte genau zielen. Das "Argument" der zu vollen Platte und den damit steigenden Zugriffszeiten (eigentlich eher den sinkenden Transferraten) zieht bestenfalls ab ca. 50% Füllgrad der HDD. Wenn wir im schlimmsten Fall 50GB für OS + Software annehmen, ginge es um eine HDD der 100/120GB-Klasse. Die ist dann aber schon soooo alt und soooo langsam, da braucht man ohnehin nicht mehr drüber nachzudenken ;) Selbst die aktuell noch für viele BTO Büro-Kisten verfügbaren "modernen" 500er laufen Kreise um die steinzeitlichen 120er.
Jan Hansen > Ehrlich gesagt lesen sich deine Beiträge hier teilweise wie > ComputerBild-Wissen, und damit erklärt sich für mich auch schon eine > negative Bewertung. Manfred (Gast) > Herr, wirf Hirn vom Himmel! Peter II schrieb: > das die Aussage Unsinn ist, Zugriffszeiten sind nicht abhängig von > Füllgrad der Festplatte. ohne Beweise und ohne Fakten neumodern und postfaktisch NEIN sagen und beleidigen wow! Ihr seid Helden! Wenn ihr euer Wissen über modernes SSDs als Halbwissen über alle Speichermedien verallgemeinern wollt dann solltet ihr das besser im stillen Kämmerlein tun. Ja, bei SSDs spielt der Füllgrad keine Rolle für die Zugriffszeiten. Meine Posts bezogen sich aber ausdrücklich auf HDDs. Erst lesen, dann nachdenken und dann sich eine eigene Meinung bilden und nicht stumpf Mainstream nachquatschen. Jupp (Gast > Das "Argument" der zu vollen Platte und den damit steigenden > Zugriffszeiten (eigentlich eher den sinkenden Transferraten) zieht > bestenfalls ab ca. 50% Füllgrad der HDD. aha, wenigstens einer, der zumindest zur Hälfte begriffen hat worum es hier geht dass sinkende Transferraten nur eine Auswirkung steigender Zugriffszeiten sind, ist aber schon klar große Dateien, die fragmentiert quer über die Platte verstreut liegen, können nur langsam eingelesen werden, soweit richtig der zweite Teil ist jedoch auch, dass Windows extrem viele kleine Datei mit sich rumschleppt, und wenn die von Update zu Update, weil sie vielleicht 1kB größer geworden sind und damit nicht mehr in den bisherigen Block reinpassen werden sie iwo auf die Platte gepackt wo grad genug Platz ist für diese Datei und damit entsteht nach und nach ein herrliches Durcheinander, u.a. deswegen wird Windows mit der Zeit immer langsamer Jupp (Gast) > Wenn wir im schlimmsten Fall 50GB für OS + Software annehmen, > ginge es um eine HDD der 100/120GB-Klasse. Wie in den Posts oben zu lesen war bin ich von Platten mit 80GB/Scheibe ausgegangen. Eine 120GB Platte hatte damals *z.B.* 40GB pro Scheibe also drei Scheiben. z.B. nachzulesen hier https://de.wikipedia.org/wiki/Western_Digital_Raptor Jedoch machen sich nicht alle Leute die Mühe, selbst eine 1TB Platte in unterschiedliche Partitionen aufzutrennen sondern donnern alles auf C: Wenn z.B. täglich der Virenschutz, Steam, Games, Eagle, Spice, Windows und sonstewas irgendwelche Updates bekommen und täglich Cookies, temporäre Internetdateien, Bilder, Dokumente usw. usf. abgespeichert werden ist innerhalb einer Woche das Chaos perfekt auf der Platte. Eine SSD interessiert das nicht, richtig, eine HDD schon. Denn da muss physikalisch wie bei einer Schallplatte ein Arm mit einem (hier) Schreib/Lese-Kopf hin und her bewegt und dann auch noch jedesmal auf den "Vorbeiflug" des gewünschten Blocks gewartet werden. Techniken wie NCQ optimieren dies, trotzdem dauert es zwischen 3 und 20ms, je nach Platte und "Verschmutzungsgrad". Natürlich steigen die Speicherdichten moderner Platte enorm und die Wege für den Kopf werden immer kürzer und damit die Zugriffszeiten immer kürzer. Gegen Unordnung hilft jedoch immer nur Aufräumen, und zwar mit einem geeigneten Programm welches nicht nur die defragmentierten Dateien irgendwo auf die Platte packt wo gerade Platz für sie ist.
Mike B. schrieb: > Denn da muss physikalisch wie bei einer Schallplatte ein Arm mit einem > (hier) Schreib/Lese-Kopf hin und her bewegt und dann auch noch jedesmal > auf den "Vorbeiflug" des gewünschten Blocks gewartet werden. da du aber nicht weißt wo vorher der Kopf war, kann man darüber keine aussage treffen. Der Kopf geht doch nicht ständig zurück. Wenn du in einem Buch ein Kapitel ließt bist du auch nicht langsamer oder schneller nur weil das Buch mehr Seiten hat. Mike B. schrieb: >> das die Aussage Unsinn ist, Zugriffszeiten sind nicht abhängig von >> Füllgrad der Festplatte. > > ohne Beweise und ohne Fakten neumodern und postfaktisch NEIN sagen und > beleidigen man kann nicht beweisen was nicht vorhanden ist. Wenn dann müsstest du beweise das sie langsamer wird! Da meine erste Festplatte 20Mbyte war, kannst du davon ausgehen das schon etwas Erfahrung vorhanden ist. Dazu noch 10 Jahre als Admin.
Peter II schrieb: > Mike B. schrieb: >> Denn da muss physikalisch wie bei einer Schallplatte ein Arm mit einem >> (hier) Schreib/Lese-Kopf hin und her bewegt und dann auch noch jedesmal >> auf den "Vorbeiflug" des gewünschten Blocks gewartet werden. > > da du aber nicht weißt wo vorher der Kopf war, kann man darüber keine > aussage treffen. Der Kopf geht doch nicht ständig zurück. is das so schwer zu verstehen? Übertrieben: Ist nur ein frisches Windows drauf (vlt. 15GB) liegen die Dateien wahrscheinlich alle dicht gepackt beieinander, im besten Fall muss der Kopf dabei nur aus der Park-Posi auf die erste Spur fahren und kann den ganzen Tag dort bleiben. Kommt noch n Office dazu mit 2GB reicht vlt. die erste Spur nicht mehr und der Kopf muss ständig zwischen erster und zweiter Spur hin und her springen. Dann kommen Downloads und Updates, schöne viele bunte Urlaubsbildchen und die reichen schon bis in die Spur 4, also muss der Kopf noch mehr hin und her wandern. nächsten Tag Windows-Update reicht schon in Spur 5. Ein "kleines" Spielchen von Steam mit gerne mal 30GB sind wir schon auf Spur 8. Weiter aussen passen mehr auf die Spuren, is klar. also geht da noch die Hälfte vom nächsten Spielchen drauf und bisserl was auf Spur 9. und selbst wenn das überzeichnend beschrieben ist: Merkste was? Füllgrad und Zugriffszeiten?
:
Bearbeitet durch User
Mike B. schrieb: > aha, wenigstens einer, der zumindest zur Hälfte begriffen hat worum es > hier geht Nein, nicht zur Hälfte, sondern ganz gewiss weit darüber hinaus. Wenn du irgendwann mal Festplatten-Firmwares modifizierst und via Konsole mit Festplatten "sprichst", dann darfst du wiederkommen. Ich hatte dir die Rahmenbedingungen klar abgesteckt, und nur unter eben diesen könnte man deine "Argumentation" evtl. in Betracht ziehen. Allgemeine Regeln daraus zu machen verbietet sich schon ausgrund der unendlich vielen nicht-linearen Mechanismen, die beim Dateizugriff beteligt sind - z.B. Caching und Prefetching, um mal zwei prominente zu nennen. Alles andere ist dann doch eher CB aus 2000 - aber das hatte man dir ja schon gesagt.
Mike B. schrieb: > und selbst wenn das überzeichnend beschrieben ist: Merkste was? > Füllgrad und Zugriffszeiten? nein merke ich nicht. Weil du davon ausgehst das die Festplatte Linear von innen nach außen gefüllt wird. Das kann man aber überhaupt nicht pauschal sagen. Es könnte bei einigen Laufwerken der Fall sein, aber bestimmt nicht immer. Dann übersieht du auch das Problem der Sektoren, nur weil der Kopf schnell von Spur 1 zu spur 2 wechseln kann, muss er immer noch warten bis der Sektor vorbei kommt. In der Zeit hätte er auch bequem zu Spur 100 gehen können.
Mike B. schrieb: > und beide Installs sind ~5Jahre alt, also schön vollgesogen mit Ballast, > da kannst du so viel aufräumen wie du willst > > Daher hatte ich für Win10 eine noch größere Partition mit +50% (= 60GB) > als notwendig angenommen. > Selbst wenn eine frische Win10-Install 10GB nimmt, ich meinte die > gesamte Win-Partition inkl. Users, Programme und Recovery > denn all dies wird von Win auf die Partition geknallt. Mal eben hier als Test: W10 Pro 1607 (Anniversary 14393.0) in einer VM installiert: 10.5 GB belegt inkl. 1.7 GB pagefile.sys und 268 MB swapfile.sys inkl. VB Guest Additions. > Und dann reichen > keine 10GB. Denn dann lass die erste Update-Orgie nach der > frisch-Install drüberlaufen und die Sache sieht schon anders aus. Updates installiert 1607 14393.693: 14.5 GB belegt (keine Datenträgerbereinigung)
Mike B. schrieb: > Erklär lieber was du sagen willst. Moderne Dateisysteme funktionieren anders als FAT. Moderne Festplatten funktionieren anders als die 120 GB-Kategorie. Moderne Computer haben hinreichend (n GB) Plattencache. Solange ein Dateisystem nicht so voll ist, dass es die Daten unpassend breit verteilen muss (also deutlich mehr als 50~70% genutzt), wirken sich "mehr gespeicherte Bytes" nicht auf die Zugriffszeit aus. Auch NTFS hat in den letzten 25 Jahren einiges dazugelernt. Die Zugriffszeit in einer gut sortierten Garage ist auch unabhängig von der Menge der darin gespeicherten Gegenstände, solange die Garage nicht so voll ist, dass ständig was im Weg rumsteht, die Sicht versperrt und evtl. erst weggeräumt werden muss.
S. R. schrieb: > Die Zugriffszeit in einer gut sortierten Garage und wie kommst du zu einer gut sortierten Garage? - Durch Aufräumen. - Oder etwas gleich dorthin packen wo es hingehört. Was kein BS macht. (Sondern es wird dort hin gepackt wo gerade genug Platz ist, oder fragmentiert wenn kein zusammenhängend ausreichender Platz vorhanden ist. Also zwei Schachtel Schrauben hier ins Regal und die dritte auf die Werkbank.) Wenn es neu ist wird es am richtigen Ort mglw. noch keinen ausreichenden Platz haben. Dann müsste dort erst Platz gemacht werden. Auch das macht kein BS. Etwas verschieben um etwas neues dazugehöriges dort hinzupacken. (Ein Heimwerker schon, wenn er sich die Zeit nimmt. Wenn es schnell gehen muss wirds erstmal irgenwohin gelegt und später eingeräumt.) Für sowas braucht man entsprechende Programme die vernünftig Aufräumen. Und nicht nur alle Schraubenkistchen zusammensuchen und vorn neben die Eingangstür packen, nur weil dort gerade genug Platz ist. Und nur wenn etwas zusammengehöriges dicht beieinander gelegt wurde kann man bzw. das BS schnell drauf zugreifen. Zum Beispiel alles was beim Start von Win gebraucht wird, am besten in der richtigen Reihenfolge. Denn beim Boot von Win nützt dir der HD-Chache einen Dreck, der ist nämlich leer (zumindest beim Kalkstart). Und auch der Prefetch von Win ist nicht immer zusammenhängend gespeichert sondern fragmentiert.
:
Bearbeitet durch User
> Oder etwas gleich dorthin packen wo es hingehört. Was kein BS macht.
Also doch Computerbildwissen. Weltherrschaft mit FAT16 und Win95.
Ich gebe dir mal zwei kleine Hinweise:
(a) Wenn dein Schraubenkistchen groß genug ist, dann kommst du garnicht
erst in die Verlegenheit, die dritte Schraube woanders hinlegen zu
müssen.
(b) Eine "gute" Sortierung ist nicht nennenswert schlechter als eine
"perfekte" Sortierung.
Aufräumen heißt nicht, alle Gegenstände möglichst dicht in Kartons zu
stapeln.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.