Schönen guten Tag Freunde der Elektronik! Was ich nicht verstehe, Anfang der 90er Jahre reichten für eine grafische Oberfläche wie Windows 3.X und OS/2 4 Mb (nicht Gb!) RAM und ein Intel 386 mit müden 33 MHz Takt und 11,4 MIPS. Anders formuliert, man brauchte damals nur ein tausendstel des heutigen Speicherbedarfs (bei der Oberfläche GEM 1/4000), und einen etwa elftausend mal langsameren Prozessor (Bezug Intel Core i7 2600K, 3,4 GHz, 128.300 MIPS)(bei GEM ca. 121.000 Mal, Motorola 68000, 8 MHz, 1 Mips). Da ich mich nur mit hardwarenaher Programmierung und Hardware auskenne, kann mir einer mal erklären, wieso die heutigen grafischen Betriebsysteme wie Windows, Linux, MacOS drei bis vier Zehnerpotenzen mehr Ressourcen brauchen? Womit quälen sich die superskalaren Mehrkern CPUs rum, was es früher noch nicht gab? Ich spreche jetzt nur vom Ressourcenbedarf des nackten Betriebssystems! Daß es Applikationen gibt wie Transcoder, die wirklich extrem Power benötigen, ist unbestritten. Gruß Uwe
Drosius Ingolf schrieb: > Ich spreche jetzt nur vom Ressourcenbedarf des > nackten Betriebssystems! Also Linux ist in dieser Hinsicht doch sehr sparsam, denke z.B. an die kleinen RPi. Auch ich nutze gerade ein Ubuntu auf einem "alten" Intel Atom mit 2,6 GHz (1 Kern und HT) und 2GB RAM.
Wieso die OS selbst auch viel mehr Ressourcen brauchen, kann ich nicht beantworten, vermute aber mal dass auch dort die Komplexität gestiegen ist. Die Mindestvorraussetzungen die bei OS immer angegeben sind, beziehen sich aber übrigens tendenziell auf ein System auf dem dann auch Programme laufen. Ein Rechner wo nur das OS läuft nützt ja nicht so viel (ausser vielleicht beim cloudbasierten ChromeOS). Zum einen sind Programme heute durchaus um Zehnerpotenzen aufwendiger, zum anderen sind die Ressourcen einfach verfügbar, wodurch die Softwareentwickler nicht auf Leistungsefizienz optimieren, sondern auf Entwicklungsefizienz. Z.B. in JavaFX kann man Oberflächen mit einer Art html-ähnlichem System aufbauen (FXML) und mit CSS stylen. Das ist extrem flexibel und recht komfortabel zu entwickeln. Hat aber natürlich den Nachteil dass das einiges an Ressourcen braucht. Trotzdem siegt der komfort und grade für GUIs nimmt man meistens Skriptsprachen.
:
Bearbeitet durch User
GUI 1992 640x 480x 4bit farbe^-> 150 kbyte GUI heute 1920x1080+32bit Farbe ->8.3 Mbyte da ist schon mal Faktor 50 am Pixelspeicher zu bewegen. Wenn man darauf Software entwickelt also vornehmlich mit Texteditor und IDE-Verpackung umgeht ist die produktivität nicht viel anders, ebenso bei email etc. pp. ... aber die Hardwareindustrie freuts.
Was es auch zu Bedenken gibt: Die Leistungsfähigkeit braucht man teilweise für Anwendungen, CAD wäre ein ressourcenhungriges Beispiel, aber auch Browser sind "nicht ohne". Wenn die Ressourcen aber sowieso vorgehalten werden, kann sich das Betriebssystem derer auch bedienen, bspw. für schicke Graphiken/Klicki-Bunti. Das Rendern geht schnell (muss es, damit es nicht hakelig wirkt) und nimmt damit den Anwendungen, die die Ressourcen wirklich und auch langzeitig brauchen kaum Rechenzeit weg. Ist aber nur ein Teilaspekt.
Drosius Ingolf schrieb: > Womit quälen sich die superskalaren Mehrkern CPUs rum, was es > früher noch nicht gab? Mit Werbung. Wenn ich mit meinem Netbook auf einer Zeitungsseite unterwegs bin, ist ein Adblocker reine Notwehr, denn ohne ihn ist der Seitenaufbau quälend langsam. Mit eine aktuellen i7 gehts prima.
Mach schrieb: > kann sich das > Betriebssystem derer auch bedienen, bspw. für schicke > Graphiken/Klicki-Bunti. Warum ist man dann im Falle von W10 von bunter und plastisch aussehender Oberflächengestaltung zu flachen und einfarbigen Oberflächen übergegangen?
A. K. schrieb: > Wenn ich mit meinem Netbook auf einer Zeitungsseite > unterwegs bin, ist ein Adblocker reine Notwehr, denn ohne ihn ist der > Seitenaufbau quälend langsam. Das wirst du wohl kaum mit dem "nackten Betriebssystem" machen.
Erwin D. schrieb: > Mach schrieb: >> kann sich das >> Betriebssystem derer auch bedienen, bspw. für schicke >> Graphiken/Klicki-Bunti. > > Warum ist man dann im Falle von W10 von bunter und plastisch aussehender > Oberflächengestaltung zu flachen und einfarbigen Oberflächen > übergegangen? Damit es auch auf dem 386er wieder läuft! Oder damit mehr Rechenleistung für die Telemetrie bleibt.
Jan H. schrieb: > Das wirst du wohl kaum mit dem "nackten Betriebssystem" machen. Definiere "nacktes Betriebssystem". Ist das nur der reine Kernel, oder ist es das, was sich nach der Standardinstallation auf der Kiste befindet? In einer Standardinstallation von Windows und Raspbian ist ungefragt ein Browser schon enthalten, beim Raspi sogar eine komplette Office Suite. Mit dem reinen Kernel kommt man schon deshalb mit wenig Cores und wenig RAM aus, weil man mit ihm nichts anfangen kann. Dafür braucht es erst einmal Anwendungen - und dann siehe oben. Es gibt allerdings Mindestvoraussetzungen. Wenn das System in der Lage sein soll, auch heute noch mit 64MB Speicher arbeiten zu können, dann kann es Mechanismen, die nur ab 2GB RAM sinnvoll sind, nicht nutzen. Alle Szenarien seit 386 optimal zu unterstützen erhöht die Komplexität des Systems, und damit den Pflegeaufwand.
:
Bearbeitet durch User
Erwin D. schrieb: > Mach schrieb: >> kann sich das >> Betriebssystem derer auch bedienen, bspw. für schicke >> Graphiken/Klicki-Bunti. > > Warum ist man dann im Falle von W10 von bunter und plastisch aussehender > Oberflächengestaltung zu flachen und einfarbigen Oberflächen > übergegangen? Das war eine reine Design Entscheidung. Wenn ich mich recht erinnere hat man Studien durchgeführt die darauf hindeuteten, dass die Menschen schlichtere Oberflächen lieber hätten. Ressourcentechnisch hat das keinen Unterschied gemacht, denn die Elemente kamen auch früher schon aus einem Cache und wurden nicht in 3D gerendert oder so. Mit den bewegenden Kacheln und Slide Funktionen ist Win 10 eher etwas anspruchsvoller im Rendering als Win 7 aber das ist alles gut hardwarebeschleunigt.
:
Bearbeitet durch User
Was man wirklich braucht, sieht man, wenn man Knoppix o.ä. mit aktuellen Anwendungen auf uralter Hardware laufen läßt. Im wesentlichen fehlts dann an Multimedia- und besonders Grafikqualitäten aber ansonsten gehts noch.
Drosius Ingolf schrieb: > Womit quälen sich die superskalaren Mehrkern CPUs rum, was es > früher noch nicht gab? C++ (oder gleich Java oder Skriptsprachen wie Python). Diese Sprachen machen es leicht, den Überblick zu verlieren. Das Ergebnis sind Programme, die Module verwenden, die viel mehr tun, als nötig ist. Programmierer, die den Überblick verloren haben, schaffen es nicht mehr, offensichtliche Unsinnigkeiten zu beheben: manche Programme derzeit bauen ihren angezeigten Inhalt im Fenster mehrmals nacheinander auf bis es endlich richtig ist, weil es dem Programmierer nicht gelingt, überflüssige Zeichenroutinen abzuklemmen. Man sieht den mangelnden Überblick z.B. auch daran, wie wenige Programme es noch schaffen, einen ordentlichen Wait-Cursor zu zeigen. Und wenn, dann viel zu spät.
:
Bearbeitet durch User
Ein abgespeckter Kern eines aktuellen Betriebssystems lässt sich nachwievor auf vergleichsweise lahmer Hardware installieren. Auch einfach grafische Oberflächen lassen sich da nutzen. Aber für gewöhnlich macht ein modernes Betriebssystem heute ja weit mehr als die Varianten der 90er. Alleine die grafische Desktopumgebung ist weit aufwendiger. Das kann man sehr gut bei Linux sehen, wo bei gleicher Basis mit unterschiedichen Desktopumgebungen die Leistungsanforderungen doch stark voneinander abweichen. Ein LXDE mag auf einer uralten Maschine oder einem Raspberry passabel laufen. Setzt man KDE oder Gnome ein, braucht es schon deutlich mehr Power. Und da geht es nicht nur um die Desktopdarstellung. Mit den modernen Oberflächen komme ja auch gleich haufenweise Hintergrunddienste mit. Ob da nun Dateien indiziert werden, Thumbmails erstellt werden oder neue Hardware idealerweise ohne Nutzerinteraktion innerhalb von wenigen Sekunden eingebunden wird. Sowohl Windows als auch Linux kann man soweit abspecken, dass sie bezüglich der Hardwareanforderungen zumindest in die Nähe von Windows 3.1 kommen. Aber dann können sie halt auch nicht viel mehr. Für den Embedded-Bereich macht man das, aber als Desktop will man damit heute definitiv nicht mehr arbeiten.
Michael B. schrieb: > Drosius Ingolf schrieb: >> Womit quälen sich die superskalaren Mehrkern CPUs rum, was es >> früher noch nicht gab? > > C++ (oder gleich Java oder Skriptsprachen wie Python). > > Diese Sprachen machen es leicht, den Überblick zu verlieren. Das > Ergebnis sind Programme, die Module verwenden, die viel mehr tun, als > nötig ist. Naja... Die Sprache ist da aber ganz sicher nicht schuld. Oder was schlägst du als Alternative vor? Michael B. schrieb: > Programmierer, die den Überblick verloren haben, schaffen es nicht mehr, > offensichtliche Unsinnigkeiten zu beheben: manche Programme derzeit > bauen ihren angezeigten Inhalt im Fenster mehrmals nacheinander auf bis > es endlich richtig ist, weil es dem Programmierer nicht gelingt, > überflüssige Zeichenroutinen abzuklemmen. Da hast du durchaus Recht (kenn ich aus JFX), aber schau dir an wie komplex moderne GUIs sind. Das muss man solche Systeme verwenden weil sonst Mannjahre für das GUI draufgehen.
:
Bearbeitet durch User
Ein Weg zu hohem Ressourcenverbrauch ist wie erwähnt Modularisierung. Wenn man die komplette Software bis runter zum Kernel- und ältesten GUI-API vollständig neu schreibt, und das nicht zu blöd anstellt, kommt ein schlankes Programm bei raus. Allerdings kommt es ein paar Jahre zu spät und sieht wie aus der Zeit gefallen aus. Will man jedoch das Rad nicht neu erfinden, dann setzt man vielleicht auf DotNet auf, statt auf dem GUI-API. Und verwendet für die Adressdatenbank von 100 Einträgen jenes Datenbanksystem, das man sowie schon gut aus anderen Entwicklungen kennt. So kommt man dann zu einem recht einfach wirkenden Programm eines Handyherstellers zur Datenpflege, das knapp auf eine CD passt, 3 Services installiert und nicht unter 2 GB läuft. Aber relativ schnell fertig ist.
:
Bearbeitet durch User
Drosius Ingolf schrieb: > Schönen guten Tag Freunde der Elektronik! > > Was ich nicht verstehe, Anfang der 90er Jahre reichten für eine > grafische Oberfläche wie Windows 3.X und OS/2 4 Mb (nicht Gb!) RAM und > ein Intel 386 mit müden 33 MHz Takt und 11,4 MIPS. > > kann > mir einer mal erklären, wieso die heutigen grafischen Betriebsysteme wie > Windows, Linux, MacOS drei bis vier Zehnerpotenzen mehr Ressourcen > brauchen? > > Ich spreche jetzt nur vom Ressourcenbedarf des > nackten Betriebssystems! Daß es Applikationen gibt wie Transcoder, die > wirklich extrem Power benötigen, ist unbestritten. Danke für den Beitrag. Freu mich, dass das noch jemandem aufgefallen ist.
Michael B. schrieb: > Programmierer, die den Überblick verloren haben, schaffen es nicht mehr, > offensichtliche Unsinnigkeiten zu beheben: Das hat nichts mit der Programmiersprache zu tun, sondern mit den Arbeitsbedingungen und den Schwerpunkten, die in den entsprechenden Firmen gesetzt werden. Dazu kommt, daß mit der zunehmenden Komplexität von Systemen mehr Erfahrung nötig wird, um bestimmte Auswirkungen erahnen oder gar vermeiden zu können, in der Softwareentwicklung werden aber gerne billigere, d.h. jüngere und unerfahrene Entwickler beschäftigt.
A. K. schrieb: > Definiere "nacktes Betriebssystem". Fette, werbeverseuchte Webseiten gehören jedenfalls sicher nicht zum nackten OS.
Michael B. schrieb: > C++ (oder gleich Java oder Skriptsprachen wie Python). Wird tatsächlich eine gemächlich arbeitende Interpretersprache wie Python eingesetzt? Hoffentlich wird Java hier nicht auch durch einen Interpreter gequält? Modularisierung (durch Baukastensysteme?) ist auch ein interessanter Punkt. Und wenn man nicht mehr 640*400 Pixel zu 256 Farben hat (=256 kb), sondern 2 Millionen Pixel bei 32 Bit Farben, sprich man nun 8 Mb Bildschirmspeicher bearbeiten muss, sprich das 32 fache, dann ist das einzige akzeptable Argument, was logisch und verständlich ist. Hat man denn Windoof 3.X damals in Assembler programmiert? Wenn nein, sondern in C, ist die Codegröße bei C nicht in etwa die gleiche wie bei C++?
Hallo um es mal einfach zu sagen: Auf einem Computer läuft heute deutlich mehr und es gibt deutlich mehr kostenlose Software die sehr mächtig ist. Ein Bildbearbeitungsprogramm für Lau oder kleines Geld installiert und nutzt man auch wenn das Haupthobby nicht Fotografie ist und damit das Spaß macht genötigt es halt "Gigantische" Resourcen im Vergleich was zu beginn der 90er Jahre üblich war. (Die frühen und mittleren 90er sind schon teilweise über 25 Jahre her - ja gar nicht so einfach das als älterer "Knacker" auch vom Bauchgefühl her zu verstehen, das war doch irgendwie erst vorgestern, oder doch nicht...?!). Videobearbeitung und deren überhaupt Nutzung war zu beginn der 90er auch mehr ein Witz im Vergleich was heute so der Standard ist. Die Browser, bzw. das WWW waren auch noch deutlich schwachbrüstiger - doppelte ISDN Geschwindigkeit schon kaum bezahlbarer High Speed dementsprechend waren auch die Seiten aufgebaut und die Browser mussten somit kaum was leisten. Ein CAD Programm (Platinenlayout, Schaltplanentwurf, Simulation) war unbezahlbar und nur was für Profis die Geld damit machten - während es heute sehr mächtige Freeware (bitte jetzt nicht über die korrekte Bezeichnung streiten - ihr wisst genau was ich meine) auch in diesen Bereich gibt - also installiert man das auch für das Hobby oder nur mal um etwas damit zu Spielen. Und und wenn man mal beim Thema Spielen ist - sogar die Platzhirsche unter den Computergames waren selbst noch bis in die 2000er Jahre recht "Grafisch" und "Zeichentrickartig" und beanspruchten trotzdem damalige "High End" Computer. Ich bin nicht so der Spielefreak aber trotzdem bekommt man auch als mehr oder weniger Außenstehende mit was heute auf privat bezahlbaren Rechnern möglich ist - das wirkt bis auf wohl sehr schwer zu bewältigen "Kleinigkeiten" beim Menschlichen Gesicht schon sehr Realitätsnah... Und nicht zu vergessen: Es muss natürlich immer Angebot und Nachfrage generiert werden (zumindest bei den Wirtschaftssystem was nun mal weltweit so ist wie es ist, und wahrscheinlich tief im Menschen verwurzelt ist - wir sind halt alles letztendlich Egoisten die immer mehr haben wollen, bei manchen klar erkennbar bei so manch anderen halt etwas versteckter und "Gesellschaftlich korrekt" Aber selbst die größten Humanisten und Ressourcenschoner sind letztendlich auch typisch menschliche Egoisten ...). Abrababram
Jan H. schrieb: > A. K. schrieb: >> Definiere "nacktes Betriebssystem". > > Fette, werbeverseuchte Webseiten gehören jedenfalls sicher nicht zum > nackten OS. Keine einzige Webserseite gehört in ein OS. TCP/IP m.E. ja; httpd und Co IMHO nein.
Zugriffsrechte verwaltung scheint IMHI auch ein Teil des Übels zu sein. Unter Win3.1 konnte ja der einzige User alles sehen (filesystem) und machen, während Multiuser-Betriebssystem ständige checken wem ein file gehört und was damit geht. Speicherbereiche werden auch komplexer verwaltet, früher konnte schon mal ein prozess, die nackten Daten aus dem Framebuffer extrahieren und so DRM umgehen. Auch werden immer öfters "Wiederherstellungspunkte" und ähnliches gespeichert, firefox war sogar mal im Verdacht durch häufiges cachen ne SSD zu killen. Und schon mal gefragt, vorher der Browser weiss, welcher Link schon besucht wurde um ihn dann weniger blau zu markieren ??? ... richtig Programme speichern heutzutage eine detailierte benutzungshistorie und damit es schnell geht wird das im Speicher gehalten, klar das man mit 8 MB wie damals üblich , der SX konnte sogra nur 16 MB total addressieren, keinen Blumentopf mehr gewinnt.
Schöner Schotten schrieb: > Und schon mal gefragt, vorher der Browser weiss, welcher > Link schon besucht wurde um ihn dann weniger blau zu markieren ??? ... > richtig Programme speichern heutzutage eine detailierte > benutzungshistorie Das weniger-blau-markieren konnten aber auch schon Netscape 4, lange vor "Ressourcenwahnsinn".
Drosius Ingolf schrieb: > Anfang der 90er Jahre reichten für eine > grafische Oberfläche wie Windows 3.X und OS/2 4 Mb (nicht Gb!) RAM und > ein Intel 386 mit müden 33 MHz Takt und 11,4 MIPS. Ja da konnt man dann aber auch zugucken wie sich die GUI aufbaut beim Fensterwechsel.
Reinhard S. schrieb: > Schöner Schotten schrieb: >> Und schon mal gefragt, vorher der Browser weiss, welcher >> Link schon besucht wurde um ihn dann weniger blau zu markieren ??? ... >> richtig Programme speichern heutzutage eine detailierte >> benutzungshistorie > > Das weniger-blau-markieren konnten aber auch schon Netscape 4, lange vor > "Ressourcenwahnsinn". Na wenn das mal nicht der Anfang vom Wahnsinn war, die ersten 10 links fressen halt nur 10K, 100 Surfsessions später sinds ein Meg und damit 25% des Arbeitsspeicher ...
Mw E. schrieb: > Drosius Ingolf schrieb: >> Anfang der 90er Jahre reichten für eine >> grafische Oberfläche wie Windows 3.X und OS/2 4 Mb (nicht Gb!) RAM und >> ein Intel 386 mit müden 33 MHz Takt und 11,4 MIPS. > > Ja da konnt man dann aber auch zugucken wie sich die GUI aufbaut beim > Fensterwechsel. Das ist heute aber teilweise auch wieder so. Man schaue sich nur das moderne Outlook an. Lahm wie sau.
Man sollte mehr durch den Grafikprozessor abarbeiten lassen. Und das System auf flüssiges Arbeiten optimieren. Also bessere Systemskalierung und die Effekte optimieren danach. Multicoreoptimierung die Systempipeline scheint noch viele Entwicklungen offen zu haben. Die SW/HW Entwicklung muss wieder mehr miteinander verzahnt sein!
Schöner Schotten schrieb: > Zugriffsrechte verwaltung scheint IMHI auch ein Teil des Übels zu sein. > > Unter Win3.1 konnte ja der einzige User alles sehen (filesystem) und > machen, > während Multiuser-Betriebssystem ständige checken wem ein file gehört > und was damit geht. Win 3.1 ist hier kein guter Vergleich. Das konnte auch schon Windows NT 3.5 und OS/2 oder ganz klassisch ein Unix. Mit 16 MB RAM liefen alle 3 Systeme mit einer grafischen Oberfläche gut und man konnte noch Anwendungsprogramme darauf einsetzen. Die wesentliche Frage des Threads wäre also eher, was macht bspw. Windows 10 anders, als Windows NT 3.5. Die höheren Auflösungen, dutzende Icons in 32 Bit Farbtiefe, anstatt nur 256 Farben und diese dann vielleicht nicht einmal als Bitmap, sondern als Vektorgrafik, damit das ganze schön gut auf größeren Bildschirmen mit höheren Auflösungen skaliert. Dazu dutzende Dienste, die im Hintergrund werkeln und bei der GUI dann noch irgendwelche Effekte. Ein weitere Resourcenverbraucher ist dann sicher noch der ganze Ballast an alten und neuen Libs, die Win 10 mit sich herum schleppt. Für Win NT 3.5 wurde alles direkt für die WinAPI geschrieben. Bestenfalls kam noch MFC dazu, aber das eben alles in Version 1. In den späteren Versionen, brauchte die eine Software, die alte MFC Version und die nächste die neue. In Windows 10 hat man dann ein Sammelsurium an verschiedenen Libs und Anwendungen mit unterschiedlichem technischen Stand. Wann wurde der Taschenrechner oder Notepad zuletzt mal überarbeitet? Und wenn, wurde er dann neu geschrieben oder nur etwas hinzugefügt. Daraus ergibt sich dann der Resourcenverbrauch. Die ein oder andere Anwendung wird gar nicht mehr für die WinAPI in C geschrieben. Sondern benötigt .NET, ist in C# geschrieben und will Windows Forms.
Erwin D. schrieb: > Mach schrieb: >> kann sich das >> Betriebssystem derer auch bedienen, bspw. für schicke >> Graphiken/Klicki-Bunti. > > Warum ist man dann im Falle von W10 von bunter und plastisch aussehender > Oberflächengestaltung zu flachen und einfarbigen Oberflächen > übergegangen? Weil man die Oberfläche auch für Smarthones und Tablets brauchbar machen wollte. Die Kacheln sind für Smartphones übrigens das beste, was es gibt. Denn anders als statische Icons können Kacheln auch Informationen innerhalb der Kacheln anzeigen. Eine Wetterapp zeigt dir also nicht nur ein Icon mit ner Wolke und ner Sonne, damit man erkennt, dass es eine Wetterapp ist, sondern in der Kachel wird gleich angezeigt, welches Wetter gerade an dem Ort deiner Wahl ist. Microsoft wollte mit den Kacheln den Smartphonemarkt erobern und ist daran gescheitert, weil sie schlichtweg zu spät kamen und somit der Support seitens der Anwendungsentwickler aus blieb. Für Windows auf dem Desktop hat diese Entwicklung aber bedeutet, dass man die Kacheln auch auf dem Desktop haben möchte, um so eine einheitlichere Entwicklung mit geringeren Kosten zu haben. Nur deswegen gab es die Kacheln. Hätte es keine Smartphones und keine Tablets gegeben, dann sähe Windows 10 wahrscheinlich auch heute noch wie Windows 7 aus.
Nano schrieb: > Schöner Schotten schrieb: >> Zugriffsrechte verwaltung scheint IMHI auch ein Teil des Übels zu sein. >> >> Unter Win3.1 konnte ja der einzige User alles sehen (filesystem) und >> machen, >> während Multiuser-Betriebssystem ständige checken wem ein file gehört >> und was damit geht. > > Win 3.1 ist hier kein guter Vergleich. > Das konnte auch schon Windows NT 3.5 und OS/2 oder ganz klassisch ein > Unix. > > Mit 16 MB RAM liefen alle 3 Systeme mit einer grafischen Oberfläche gut > und man konnte noch Anwendungsprogramme darauf einsetzen. > > Die wesentliche Frage des Threads wäre also eher, was macht bspw. > Windows 10 anders, als Windows NT 3.5. Nein, der Dammbruch in Sachen RAM-resourcen trat IMHO früher ein (windows Vista?) und so ne richtige Begründung ist IMHO noch nicht genannte worden. Besonders grass finde ich den Vergleich, wenn man andere Systeme wie bspw. Commodore Amiga mit heranziehr. Der brachte Win 3.* vergleicbare GUI-funktionen mit und lief mit 512kbyte/1MByte. Für X-windows unter Linux musste ich schon meinen PC auf 8 MByte aufrüsten und dort arbeite ich am liebsten auf der Textkonsole. Also zwischewn AMIG GUI 1990 und PC-GUI 1995 besteht schon mal ein Unterschied um faktor ca. 10. Das war aber nichts zu Windows Vista das da schon 1GB wollte. also nochmal faktor 100 und das nur ca.10 Jahre später. Seitdem läuft es IMHO eher gemütlich mit den steigenden RAM-anforderungen, Also muss der Knall mit dem RAM-bedarf irgendwo zwischen Mitte Neunziger und Mitter Nuller eingetreten sein. Spontan fallen mir 2 Schlagworte aus dieser Zeit ein: "Servierdienste" und "ladbare Module". Ich seh aber weder das das nicht auch mit weniger RAM gehen sollte, noch das das dem Uer essentiale Vorteile an der GUI verschafft.
> Also muss der Knall mit dem RAM-bedarf irgendwo zwischen Mitte Neunziger > und Mitter Nuller eingetreten sein. Damals sind eine Menge Dinge gleichzeitig passiert: 1. Man hat angefangen in seinen Programmen immer mehr die ungepruefte Arbeit anderer Leute zu nutzen. Es wurden ploetzlich Libaries fuer alles moegliche verwendet. Mittlerweile braucht ein Programm hunderte von Libaries, oftmals sogar in bestimmten Versionstaenden. Keiner versteht mehr im Detail was da eigentlich abgeht. 2. Damals kam die zweite Generation von Programmierern in die Firmen und das noch in deutlich groesserer Zahl. Die waren etwas weniger faehig wie ihre Vorgaenger und hatten noch das Problem das sie nicht bei null anfangen konnten sondern auch noch alles alte lernen mussten. Das machte sie einfach schlechter. (im Mittel natuerlich) 3. Viele wichtige Designentscheidungen wurden nicht mehr von den Programmierern oder Hardwareentwicklern getroffen sondern wanderten jetzt ins BWL verseuchte Management. Nicht das ich grundsaetzlich ein Problem mit BWL habe, aber sobald die glauben Technik entscheiden zu koennen kommt da sehr oft Murks bei rum. 4. Firmen bekamen eine RIESEN Angst vor einzelnen Spezialisten die alleine Projekt entscheidend waren und manchmal die Firma gewechselt haben oder aus anderen Gruenden nicht mehr verfuegbar waren und haben die Arbeit auf 3-4Leute verteilt. Das sorgt auch manchmal fuer bizarre Ergebnisse. Besonders wenn das Management noch glaubt das ein Entwickler eine Resource ist die er je nach Bedarf ueberrall beliebig einsetzen kann. 5. Im Embedded-Bereich fand die Trennung von Hardware und Software statt. Vorher war das noch oft in Personalunion in einem Kopf. 6. Es war einfach moeglich schnelle Hardware mit riesigen Speicher fuer wenig Geld zu produzieren. Um mit weniger Resourcen auszukommen muesste ein Programmierer etwas laenger arbeiten. Das bezahlt aber dann der Hersteller und nicht der Kunde. Geht mal davon aus das man 90% der Software um den Faktor 2-10 schneller machen koennte wenn man es nur will. Ich bin mal auf die naechsten 10Jahre gespannt. Ich denke Software hat mittlerweile ein Komplexizitaetslevel erreicht das kaum noch beherrschbar ist. Olaf
Olaf schrieb: > Es war einfach moeglich schnelle Hardware mit riesigen Speicher fuer > wenig Geld zu produzieren. Um mit weniger Resourcen auszukommen muesste > ein Programmierer etwas laenger arbeiten. Das bezahlt aber dann der > Hersteller und nicht der Kunde. Geht mal davon aus das man 90% der > Software um den Faktor 2-10 schneller machen koennte wenn man es nur > will. Denke, das dürfte u.U. sogar der Hauptgrund sein, warum ständig mehr u. mehr nötig wird - leistungsfähigere HW ist wesentlich preiswerter zu haben, als früher, die HW-Hersteller liefern stets mehr wegen Wirtschaftswachstum (man will verkaufen) u. gleichzeitig soll das SW-Produkt immer schneller auf den Markt kommen - der Kreis schliesst sich u. die nächste HW-Generation wird fällig. Das Credo unseres Dozenten war - testen sie ihre SW auf der langsamsten HW, die sie haben - sind sie mit der Geschwindigkeit dort zufrieden, ist es der Kunde mit potenterer HW erst recht.
Olaf schrieb: >> Also muss der Knall mit dem RAM-bedarf irgendwo zwischen Mitte Neunziger >> und Mitter Nuller eingetreten sein. > > Damals sind eine Menge Dinge gleichzeitig passiert: > > 1. Man hat angefangen in seinen Programmen immer mehr die ungepruefte > Arbeit anderer Leute zu nutzen. > 2. Damals kam die zweite Generation von Programmierern in die Firmen und > das noch in deutlich groesserer Zahl. D > 3. Viele wichtige Designentscheidungen wurden nicht mehr von den > Programmierern oder Hardwareentwicklern getroffen > > 4. Firmen bekamen eine RIESEN Angst vor einzelnen Spezialisten die > 5. Im Embedded-Bereich fand die Trennung von Hardware und Software > 6. Es war einfach moeglich schnelle Hardware mit riesigen Speicher fuer In 10 Jahren passiert nichts unbedingt "gleichzeitig", nacheinander genügt fürs Chaos, aber ansonsten kann man dem weitgehend zustimmen. > > Ich bin mal auf die naechsten 10Jahre gespannt. Ich denke Software hat > mittlerweile ein Komplexizitaetslevel erreicht das kaum noch > beherrschbar ist. Nun es gibt immer noch Branchen, bei denen geringe Softwarekomplexität Hauptrichtung ist alles sicherheitsrelevante. Da scheint aber auch gehörig der Schlendrian ausgebrochen zu sein (Moeing MAX 737) und es wird an Features reingeklatscht was geht, auch wenn der Zugewinn an Nutzen mariginal ist oder schädlich ist. (ich stell mir grad einen Piloten vor, der die Schulung schwänzt, weil er ja im Notfall in der onlinehilfe der GUI nachschauen könnte ...). Aber so ist es eben, wenn der user nicht mehr die Bedienung der Software erlernen will muss halt die Software komplexer werden um die diffussen Wünsche des Users zu erraten, bevor dieser diese uberhaupt formuliert und "ausgesprochen" hat.
G. L. schrieb: > Das Credo unseres Dozenten war - testen sie ihre SW auf der langsamsten > HW, die sie haben - sind sie mit der Geschwindigkeit dort zufrieden, ist > es der Kunde mit potenterer HW erst recht. So die Theorie. In der Realität ist leider gerade das nächste Feature super wichtig, aber danach ist bestimmt Zeit für die Performance-Optimierung. Und die Doku.
Schöner Schotten schrieb: > Besonders grass finde ich den Vergleich, wenn man andere Systeme wie > bspw. Commodore Amiga mit heranziehr. Der brachte Win 3.* vergleicbare > GUI-funktionen mit und lief mit 512kbyte/1MByte. Nein, oder nur aus sehr großem Abstand betrachtet. Windows 3.1 kannte bereits skalierbare Schriften und --je nach Graphikhardware-- eine deutlich höhere Bildschirmauflösung. Windows 3.1 lief zwar nicht mehr im "real mode", sondern brauchte einen 286 als Mindest-CPU, aber es lief ab 1 MB RAM, was ein so großer Unterschied dann nun auch nicht ist. Die Rechenleistung früherer 286-Rechner lag in ähnlicher Größenordnung wie die des Amiga, wenn nicht sogar eher darunter. Hatte der Amiga eine standardisierte Treiberschnittstelle für Graphikkarten und Drucker?
Drosius Ingolf schrieb: > Was ich nicht verstehe, Anfang der 90er Jahre reichten für eine > grafische Oberfläche wie Windows 3.X und OS/2 4 Mb (nicht Gb!) RAM und > ein Intel 386 mit müden 33 MHz Takt und 11,4 MIPS. ... und schon vorher schaffte es Xerox, ein GUI mit noch weniger Ressourcen anzubieten. Aber das waren kaum Betriebssysteme, die heutigen Ansprüchen genügen würden. Windows 3.x wurde ja zu recht noch als "grafischer Betriebssystemaufsatz" verkauft. Man konnte zwar schon zwei oder drei Programme parallel laden und auch schon Daten über die Zwischenablage austauschen; von einem echten Multitasking, Sicherheitsaspekten, die erst mit NTFS Einzug hielten, oder einem Virenscanner, der heute im Hintergrund mitläuft, war man damals noch sehr weit entfernt. Verschlüsselung war damals generell noch ein Thema für Spezialisten. Ein Netzwerkstack musste noch separat eingebunden werden, Anpassungen für Drucker musste jeder Benutzer noch Byte für Byte in WordStar hineinhacken - eine echte Treiberarchitektur gab es noch nicht. Gerade Windows muss heute die Anforderungen eines sehr breiten Anwenderspektrums abdecken. Vom Zocker über den Büroanwender, vom Entwickler bis zum Leitrechner für die Fertigung wird es eingesetzt - einfach weil es im Großen und Ganzen gut funktioniert. Der Zocker benötigt dabei keine Enterprise-Funktionen, viele Büroanwender benötigen kein Hyper-V, der Leitrechner keinen Mediaplayer - insgesamt ist es aber einfacher und günstiger, ein System auszuliefern, dass auf alle gängigen Anforderungen vorbereitet ist als für jeden Bedarf etwas eigenes zusammenzustellen. Dafür werden Ressourcen benötigt. Sowohl CPU als auch RAM. Du kannst Dir bei einem frisch installierten Windwos einfach einmal die laufenden Dienste ansehen, dann bekommst Du einen Eindruck, was da schon alles Ressourcen benötigt.
Klaus P. schrieb: > ... und schon vorher schaffte es Xerox, ein GUI mit noch weniger > Ressourcen anzubieten. Das konnte aber in Relation zu späteren Implementierungen auch weniger. Nur weil es sich auch "GUI" nannte, ist es nicht vergleichbar. Ebensowenig wie z.B. die "GUI" des Atari ST oder des Amiga* mit der von Windows ab 3.0 vergleichbar war, ein wesentlicher Unterschied war bereits in der Textdarstellung zu finden - Windows verwendete besser lesbare Proportionalschriften, wie es auch das damalige MacOS tat. 3.0 konnte skalierbare Schriften nur mit Zusatzprogrammen wie dem ATM (Adobe Type Manager für Type1-Schriften) darstellen, 3.1 arbeitete nativ mit TrueType-Schriften. *) hier zumindest in der ursprünglich verkauften Variante.
Rufus Τ. F. schrieb: > Schöner Schotten schrieb: >> Besonders grass finde ich den Vergleich, wenn man andere Systeme wie >> bspw. Commodore Amiga mit heranziehr. Der brachte Win 3.* vergleicbare >> GUI-funktionen mit und lief mit 512kbyte/1MByte. > > Nein, oder nur aus sehr großem Abstand betrachtet. Windows 3.1 kannte > bereits skalierbare Schriften und --je nach Graphikhardware-- eine > deutlich höhere Bildschirmauflösung. Das konnten AmigaOS ab 2.0 1) und ST/GEM auch. Bitmap- wie Outline-Fonts. > Hatte der Amiga eine standardisierte Treiberschnittstelle für > Graphikkarten und Drucker? Jein, Drucker, ja bzw. reichten die Features 2), Im Grafikbereich hat's lange gedauert/wurde verschlafen 3) Auf dem Atari ST bzw. bei GEM sah das theoretisch besser aus: Da gab's das geräteabhängige Virtual Device Interface (VDI) und darauf aufsetzend das geräteunabhängige GDOS. Allerdings war das VDI im ROM des STs abgespeckt und GDOS langsam, wenn man nicht (spätere) GDOS/VDI-Alternativimplementation von anderen Anbietern genutzt hat... 1) https://wiki.amigaos.net/wiki/Graphics_Library_and_Text 2) https://wiki.amigaos.net/wiki/Printer_Device 3) https://en.wikipedia.org/wiki/Retargetable_graphics
Arc N. schrieb: > Das konnten AmigaOS ab 2.0 1) und ST/GEM auch. Bitmap- wie > Outline-Fonts. In der GUI selbst oder nur für spezielle Anwendungen für DTP o.ä.? Ich habe keinen GUI-Screenshot davon finden können; gearbeitet habe ich selbst mit keinem der Systeme.
Schöner Schotten schrieb: > Nein, der Dammbruch in Sachen RAM-resourcen trat IMHO früher ein > (windows Vista?) und so ne richtige Begründung ist IMHO noch nicht > genannte worden. Habe ich doch. Vereinfacht gesagt: Programm A aus Win NT Zeiten braucht DLL A, B, C und D und die dann in Version 1.0. Mit Programm meine ich hier wichtige Systemkomponenten die beim Start immer geladen werden, das könnten auch irgendwelche Dienste sein. Progammm B aus W95 Zeiten braucht mit Kompatibilitätsschicht DLL A, B, C und in Version 2.0 Programm C aus W2K Zeiten braucht DLL A, B, C und D in Version 3.0 Programm D aus WinXP Zeiten braucht DLL A, B, C und D in Version 4.0 Programm E aus WinXP Zeiten war eine .NET Entwicklung und braucht .Net in Verson 2. .Net braucht DLL A und B in Version 5. Programm F aus Vista Zeiten war auch eine .Net Entwicklung mit .Net Erweiterung XY Version 1. .Net war aber nicht Version 2, sondern Version 3.5. So und hier kürze ich jetzt ab und nehme anstatt Windows 10 jetzt Windows 7. Windows Vista muss jetzt laden: DLL A, B, C u. D in Version 1 DLL A, B, C u. D in Version 2 DLL A, B, C u. D in Version 3 DLL A, B, C u. D in Version 4 DLL A, B in Version 5 .Net in Version 2 .Net in Version 3.5 + dem ganzen Geraffel was jetzt in Windows 7 dazu kam. Der herausragenden Abwärtskompatibilität von Windows sei dank. Und dazu kommen dann natürlich noch die vielen anderen Sachen, die zuvor schon geannt wurden. Höhere Auflösung, höhere Farbtiefe, auch für Icons. Vektorgrafiken. Dazu eine Optimierung der Programmierung auf Geschwindigkeit und weniger auf Resourcenverbrauch. Sowie die Dutzenden Hintergrunddienste die dazu gekommen sind. Windows Vista habe ich damals übrigens mal versuchsweise auf einem alten Athlon mit AFAIK 1 GB RAM installiert. Das lief noch. > Besonders grass finde ich den Vergleich, wenn man andere Systeme wie > bspw. Commodore Amiga mit heranziehr. Da wurde alles ins ROM gesteckt und der Code war wahrscheinlich noch in Assembler geschrieben. So wie GEM bei DOS auch. > Der brachte Win 3.* vergleicbare > GUI-funktionen mit und lief mit 512kbyte/1MByte. Das ROM war so weit ich weiß keine Festplatte, sondern enthielt die Programminstruktionen die man direkt ausführen konnte. Man konnte darin lediglich nichts speichern. Das sparte natürlich RAM, wenn man auf ein ROM zugreifen kann. Bei Disketten und Festplatten ist das anders, da wird das Programm ins RAM geladen und daher braucht man auch Speicherplatz im RAM für das bloße Programm. > Für X-windows unter > Linux musste ich schon meinen PC auf 8 MByte aufrüsten und dort arbeite > ich am liebsten auf der Textkonsole. Also zwischewn AMIG GUI 1990 und > PC-GUI 1995 besteht schon mal ein Unterschied um faktor ca. 10. Falsch. GEM lief auch mit 1 MB. Und Win 3.1 war mit 4 MB zufrieden. Ältere Win Versionen benötigten noch weniger. > Also muss der Knall mit dem RAM-bedarf irgendwo zwischen Mitte Neunziger > und Mitter Nuller eingetreten sein. Spontan fallen mir 2 Schlagworte aus > dieser Zeit ein: "Servierdienste" und "ladbare Module". Ich seh aber > weder das das nicht auch mit weniger RAM gehen sollte, noch das das dem > Uer essentiale Vorteile an der GUI verschafft. Skriptengines, .Net Umgebung anstatt WinAPI usw. das kommt alles dazu.
Klaus P. schrieb: > Du kannst Dir bei einem frisch installierten Windwos einfach einmal die > laufenden Dienste ansehen, dann bekommst Du einen Eindruck, was da schon > alles Ressourcen benötigt. Da läuft aber auch viel, was der 0815-User schlichtweg nicht braucht und kann es auch nicht deinstallieren.
Klaus P. schrieb: > Du kannst Dir bei einem frisch installierten Windwos einfach einmal die > laufenden Dienste ansehen, dann bekommst Du einen Eindruck, was da schon > alles Ressourcen benötigt. Interessant wäre es doch mal alle Dienste bei einem modernen Windows abzuschalten, die man zum Starten eines alten Programms nicht benötigt. Dann hätte man ohne dieses Programm den ungefähren Speicherbedarf eines Modernen Windows ohne die zusätzlichen Dienste, die ein modernes Windows so mit sich bringt. Man kann z.B. den Kryptodienst und den Updatedienst abschalten, schon sind es zwei weniger, die ein Win NT 3.5 noch nicht hatte. Was man auch noch beachten muss ist, dass Win 3.1 auf dem 286 er laufen musste. Die Zeigeradressen sind also nur 16 Bit groß, das speichert ein klein wenig RAM. Gleiches Spiel bei 32 Bit vs. 64 Bit.
Nano schrieb: > Windows Vista muss jetzt laden: > DLL A, B, C u. D in Version 1 > DLL A, B, C u. D in Version 2 > DLL A, B, C u. D in Version 3 > DLL A, B, C u. D in Version 4 > DLL A, B in Version 5 > .Net in Version 2 > .Net in Version 3.5 > > + dem ganzen Geraffel was jetzt in Windows 7 dazu kam. Da hat sich bei mir ein kleiner Fehler eingeschlichen, ich meinte natürlich Windows 7 muss jetzt laden. Die ganzen Änderungen in der Entwicklungsphilosophie, die jemand schon genannt hat, die kommen natürlich auch noch dazu.
Rufus Τ. F. schrieb: > Arc N. schrieb: >> Das konnten AmigaOS ab 2.0 1) und ST/GEM auch. Bitmap- wie >> Outline-Fonts. > > In der GUI selbst oder nur für spezielle Anwendungen für DTP o.ä.? Ich > habe keinen GUI-Screenshot davon finden können; gearbeitet habe ich > selbst mit keinem der Systeme. In der GUI selbst http://meicky-soft.de/a/magazin/a01-03/fonts/index.html bzw. siehe Screenshot
Arc N. schrieb: > siehe Screenshot Das ist Version 3.1, und damit erst nach Windows 3.0 herausgekommen. Tatsächlich ist das sogar jünger als die gleichnamige erste Version von Windows NT.
Rufus Τ. F. schrieb: > Arc N. schrieb: >> siehe Screenshot > > Das ist Version 3.1, und damit erst nach Windows 3.0 herausgekommen. > > Tatsächlich ist das sogar jünger als die gleichnamige erste Version von > Windows NT. Ja. Vor mir aus setze ich auch noch ein 2.0-ROM auf, das das auch schon konnte. https://wiki.amigaos.net/wiki/AmigaOS_Manual:_Workbench_Fonts#Using_Outline_Fonts
Scheint nur nicht in der GUI selbst verwendet worden zu sein, denn sonst sähen die Screenshots irgendwie anders aus, die man von den diversen Amiga-Systemen so findet. Daß Leute freiwillig aus ästhetischen Gründen einen Monospace-8x8-Pixelfont verwendet haben, mag ich so recht nicht glauben. Ist aber im Grunde genommen auch wurscht - klar ist, daß die GUI des Amiga nicht der von Windows 3.x überlegen war. Klar ist allerdings auch, daß der Vergleich einer über 25 Jahre alten GUI mit einem aktuellen System zur Erklärung eines "Ressourcenwahnsinnes" nichts taugt. Windows 3.x kannte noch nicht mal richtige Dateinamen, sondern nur die 8.3-Kürzel aus DOS-Zeiten (Ausnahme: Windows NT, das kannte schon immer richtige Dateinamen). Heutige Systeme booten trotz des Ressourcenwahnsinns schneller als ein XT von 1981, und mehr Strom verbrauchen sie auch nicht.
Rufus Τ. F. schrieb: > Heutige Systeme booten trotz des Ressourcenwahnsinns schneller als ein > XT von 1981, und mehr Strom verbrauchen sie auch nicht. Ich trauer immer noch etwas meinem WinME auf Siemens-Nixdorf P233 hinterher. Das war beim Herunterfahren bisher das schnellste, was mir untergekommen ist. Hochfahren würd ich jetzt (gefühlt) auch nicht langsamer einschätzen als mein Thinkpad T420 mit SSD und Win7. Aber vielleicht täucht mich da auch meine Erinnerung.
Reinhard S. schrieb: > Das war beim Herunterfahren bisher das schnellste, was mir > untergekommen ist. Interessantes Kriterium. Gibts dafür irgendwo Vergleichstests? ;-)
Meine Theorie: Softwareentwickler verhalten sich wie ideale Gase, sie füllen den vorhandenen Raum zu 100% aus. Das ist nicht von mir, aber wo ich es her habe, weiß ich auch nicht mehr. Und das ist wirklich so. Es wird nur soweit optimiert, wie es nötig ist. Und das ist heute gar nicht mehr, weil die Hardware so potent ist. Da wird einfach irgendwas aus Libraries zusammengepappt um Zeit zu sparen, mehr schlecht als recht, und solange die Geschwindigkeit und der Speicherverbrauch "erträglich" sind, wird das akzeptiert. Der Rest besorgen Dinge wie wie C# und Java. Ich habe ein PC-Programm für einen Bootloader auf meinen µC geschrieben. Einmal in C, die neue Version in C#. Es lädt ein intel-hex-File und schreibt das über eine UART in den µC. Sie tun grob das Gleiche, bis auf den Umstand, dass das C#-Teil ein paar Buttons hat. Die C-Version benötigt um die 200kBytes Ram, die C#-Version 40MBytes. Mich hat das echt vom Hocker gehauen, andererseits hat mein PC 8GByte RAM - das Programm benötigt gerade ein mal 0,5% davon... Und da sieht man schon das Problem - ich habe keinen Sinn darin gesehen, die Kommandozeilenversion für 0,5% Einsparung beim RAM weiterzupflegen. Es lohnt sich schlicht nicht.
Abrababram schrieb: > wir sind halt alles letztendlich Egoisten die immer > mehr haben wollen, bei manchen klar erkennbar bei so manch anderen halt > etwas versteckter und "Gesellschaftlich korrekt" > Aber selbst die größten Humanisten und Ressourcenschoner sind > letztendlich auch typisch menschliche Egoisten ...). Was für ein Schwachsinn. Schließe nicht von dir auf andere. Diese primitiven Eigenschaften die du da beschreibst werden uns irgendwann ins Verderben führen.
soso... schrieb: > die C#-Version 40MBytes. Das hat nichts zu sagen. .NET-Programmen wird erst einmal sehr großzügig Speicher zugeteilt, falls viel freier Speicher vorhanden ist. Der wird aber ebenso großzügig wieder freigegeben, wenn vom System anderweitig benötigt.
Fluppdiwupp schrieb: > soso... schrieb: >> die C#-Version 40MBytes. > > Das hat nichts zu sagen. .NET-Programmen wird erst einmal sehr großzügig > Speicher zugeteilt, falls viel freier Speicher vorhanden ist. Der wird > aber ebenso großzügig wieder freigegeben, wenn vom System anderweitig > benötigt. Der Garbage Kollektor braucht wohl so viel Platz um halbwegs brauchbar zu funktionieren.
Nano schrieb: > Fluppdiwupp schrieb: >> soso... schrieb: >>> die C#-Version 40MBytes. >> >> Das hat nichts zu sagen. .NET-Programmen wird erst einmal sehr großzügig >> Speicher zugeteilt, falls viel freier Speicher vorhanden ist. Der wird >> aber ebenso großzügig wieder freigegeben, wenn vom System anderweitig >> benötigt. > > Der Garbage Kollektor braucht wohl so viel Platz um halbwegs brauchbar > zu funktionieren. Nicht der Garbage collector, sondern das Speicherverwaltungssystem an sich. Durch das Vorhalten von Speicher kann solcher schneller umgeschichtet und flexibel genutzt werden. Durch solche Tricks ist die eigentliche Ausführung von Java und C# nicht sooo langsam wie man manchmal denkt. Sollte man aber nicht mit Python verwechseln. Dort hat man aus Prinzip auf viele Optimierungen verzichtet. Sogar zum Großteil auf Caching (ein volatile gibst da nicht; bei Java und C# schon) damit das Programmverhalten so vorhersagbar wie möglich ist. Darum ist Python an sich deutlich langsamer - bei rechenintensiven Aufgaben ist es aber auch dafür gedacht nur externe, native Libraries zu steuern -> Skriptsprache.
:
Bearbeitet durch User
Nano schrieb: > Eine Wetterapp zeigt dir also nicht nur ein Icon mit ner Wolke und ner > Sonne, damit man erkennt, dass es eine Wetterapp ist, sondern in der > Kachel wird gleich angezeigt, welches Wetter gerade an dem Ort deiner > Wahl ist. Nun die Nutzungsweise eines Desktop unterscheidet sich immer noch grundsätzlich von der eines Smartphones. Wenn ich mit Altium ein Layout erstelle, muß ich nicht sekündlich das Wetter wissen. Im Gegenteil, die Überladung mit unnützen Informationen würde nur ablenken und die Produktivität hemmen. Nano schrieb: > Hätte es keine Smartphones und keine Tablets gegeben, dann sähe Windows > 10 wahrscheinlich auch heute noch wie Windows 7 aus. W8 habe ich nicht kennen gelernt, aber W10 sieht ja wieder genau so aus, wie W7 (nur Aero fehlt leider). Man kann wohl unter W10 Kacheln einrichten, aber ich wüßte nicht, wozu.
Peter D. schrieb: > aber W10 sieht ja wieder genau so aus, wie W7 Aus sehr großem Abstand betrachtet vielleicht. Das "Startmenü" ist mit selbstaktualisierenden Reklamekacheln befüllt, die Systemsteuerung führt jetzt ein Zwitterdasein mit einem Kachelding, und mit jedem Punkt-Upgrade von Windows 10 wandern Funktionen/Einstellungen munter vom einen ins andere. Die "intelligente" Netzwerkerkennung löst Flüche aus, die ganze Bibliotheken füllen können; es kann passieren, daß Windows behauptet, überhaupt keine Netzwerkverbindung zu haben, aber auf genau diesem Windows kann man problemlos mit dem Netzwerk arbeiten ... man darf es halt nur nicht danach fragen. Das Startmenü kann man glücklicherweise immer noch durch ClassicShell ersetzen, an den Konfigurationswirrwarr muss man sich gewöhnen ... aber dafür gibt es auch ein paar erfreuliche Neuerungen, insbesondere die Konsole (was manche ewiggestrige immer noch fälschlicherweise "DOS-Fenster" nennen) hat deutlich zugelegt. Und sogar Notepad, der Primitiv-Editor, kann seit 1809 auch mit auf Linux-System vergurkten Zeilenumbrüchen umgehen. Die ärgerlichste Funktion des Explorers, das "Ausblenden von Dateinamenerweiterungen", ist zwar immer noch per Default aktiv, aber sie lässt sich jetzt mit einer im "Ribbon" untergebrachten Checkbox abschalten, statt daß man sie in einer langen Listbox in einem Optionsdialog suchen muss.
Rufus Τ. F. schrieb: > Und sogar Notepad, der Primitiv-Editor, kann seit 1809 auch mit auf > Linux-System vergurkten Zeilenumbrüchen umgehen. Wow! Kann W10 jetzt endlich Groß- und Kleinschreibung unterscheiden?
Rufus Τ. F. schrieb: > Das Startmenü kann man glücklicherweise immer noch durch ClassicShell Die wurde 2017 eingestellt und gibts nun als Open Source "Open Start". https://github.com/Open-Shell/Open-Shell-Menu Im Server 2016 hatte ich allerdings gelegentlich Ärger mit der ClassicShell.
A. K. schrieb: > Die wurde 2017 eingestellt Ist mir bekannt, die letzte Variante aber lässt sich auch unter 1809 noch verwenden. Ob sie unter 1903 funktioniert, entzieht sich meiner Kenntnis. > und gibts nun als Open Source "Open Start". Hat sich also mittlerweile ein "Maintainer" dafür gefunden. Schön. > Im Server 2016 hatte ich allerdings gelegentlich Ärger mit der > ClassicShell. Welcher Art? Ich verwende von ClassicShell ausschließlich das Startmenü, die Explorer- bzw. IE-Erweiterungen nicht.
Rufus Τ. F. schrieb: > Welcher Art? In Server 2012(R2) wars ok, in 2016 gab es gelegentlich Hänger. Habs deshalb runtergeworfen, ist beim Server zwar nett aber nicht entscheidend.
:
Bearbeitet durch User
Rufus Τ. F. schrieb: > Windows NT du weisst aber was das hiess? NT nice try :) Ich halte windows langsam für unwartbar, deswegen die vielen "Problemchen"
:
Bearbeitet durch User
Fluppdiwupp schrieb: > soso... schrieb: >> die C#-Version 40MBytes. > > Das hat nichts zu sagen. .NET-Programmen wird erst einmal sehr großzügig > Speicher zugeteilt, falls viel freier Speicher vorhanden ist. Der wird > aber ebenso großzügig wieder freigegeben, wenn vom System anderweitig > benötigt. Schon möglich. Trotzdem ist das um mindestens 4 Größenordnungen mehr, als das C-Programm mit gleicher Funktion braucht. Faktor 10000(!). Das ist so signifikant, dass Ausreden wie "das wird wieder freigegeben" für mich nicht ziehen. Ich sehe das so aber auch bei vielen in C# erstellten Testtools in der Firma. Die tun etwas mehr, aber nicht viel, und benötigen mehrere MBytes, wenn sie laufen. Niemand kann mir erzählen, dass das notwendig ist, weil C-Progamme unter den gleichen Betribssystemen mit den gleichen Funktionen dieses Problem so nicht haben. Irgenwo in dem ganzen C#-Wust an Libraries ist etwas sehr ineffizient. Java ist noch schlimmer. Man erkennt Java-Programme immer sofort an der trägeen Reaktion auf Benutzereingaben. Auf einer Maschine mit 8 Kernen zu je 3 GHz. Natürlich ist das ein subjektiver Eindruck, aber einer, den viele teilen. Man sollte natürlich nicht vergessen, das Entwicklung in C aufwändiger ist (insbesondere für Programme mit GUI). Für die erwähnten Testtools gilt daher, dass die Hardware billiger ist, als der zusätzliche Entwicklungsaufwand. Trotzdem ist das ein Problem, weil viel Strom verschwendet wird.
soso... schrieb: > Schon möglich. Trotzdem ist das um mindestens 4 Größenordnungen mehr, > als das C-Programm mit gleicher Funktion braucht. Faktor 10000(!). Das > ist so signifikant, dass Ausreden wie "das wird wieder freigegeben" für > mich nicht ziehen. Uuuaah, der Kaffe wirkt noch nicht. 200kBytes -> 40MBytes sind Faktor 200, nicht 10000. Am Grundsätzlichn Umstand ändert das nichts, denn Faktor 200 ist schon eine Hausnummer, aber trotzdem, mit falschen Zahlen sollte man nicht operieren... Sorry :-(
soso... schrieb: > Java ist noch schlimmer. Man erkennt Java-Programme immer sofort an der > trägeen Reaktion auf Benutzereingaben. Und daran, dass der Start des Servers 5-10 Minuten dauert (VMware vCenter).
Joachim B. schrieb: > NT nice try :) Sehr flacher Witz. Breitgetreten gerne von Leuten, die gar nicht verstanden haben, was das tatsächlich besondere an NT im Vergleich zu den anderen damals existierenden Systemen war. Aber darüber müssen wir hier nicht diskutieren.
Drosius Ingolf schrieb: > man brauchte damals nur ein tausendstel des heutigen Speicherbedarfs > (bei der Oberfläche GEM 1/4000), und einen etwa elftausend mal > langsameren Prozessor Hört sich viel an aber was kann man damit tatsächlich elftausendmal schneller machen? Vielleicht Primzahlen berechnen aber wer macht das schon. Es geht heute hauptsächlich um Massendaten-Durchsatz und da zählt eher der Speichertakt. Der hat sich am Prozessor aber schon viel weniger dramatisch verändert.
Rufus Τ. F. schrieb: > Das "Startmenü" ist mit selbstaktualisierenden Reklamekacheln befüllt Mir ist keinerlei Werbung aufgefallen. Kann es sein, daß das an ein Microsoft-Konto gebunden ist, denn das habe ich nicht eingerichtet (benutze keine Cortana Spracherkennung). Die default Kacheln im Startmenü hatte ich sofort gelöscht.
Rufus Τ. F. schrieb: > Sehr flacher Witz. Breitgetreten gerne von Leuten, die gar nicht > verstanden haben, was das tatsächlich besondere an NT im Vergleich zu > den anderen damals existierenden Systemen war. Das war einfach zu verstehen. Statt kluger Programmierung wie beim originalen Windows kam plötzlich Cutler von DEC und hat sein VMS als instabilen Unterbau unter ein Windows GUI hingepfuscht. Es passte weder architektonisch (DLL Code musste nun mehrmsls geladen werden) noch funktional (viele Betriebssystemfunktionen hatten unbenutze überflüssige Parameter, Überbleibsel vom VMS) und war einfach übelst zusammengehackt (die Fehleranzahl schnellte in die Höhe, von 6 nachgewiesenen Fehlern in Win31 (ohne Treibercode) zu über 65000 in Windows XP). David Cutler war und ist die Ursache für drn defekten Code den wir heute für normal halten.
Peter D. schrieb: > Mir ist keinerlei Werbung aufgefallen. Kann es sein, daß das an ein > Microsoft-Konto gebunden ist, Nein, so einen Unfug nutze ich auch nicht. Vielleicht bin ich auch etwas zu ... scharf in meiner Bezeichnung "Reklame", aber so einen Dreck wie "Candy Crush" will ich da ebensowenig sehen wie irgendwelche "Microsoft Store"-Dinge oder einen nutzlosen 3D-Editor. MaWin schrieb: > Statt kluger Programmierung wie beim originalen Windows Bitte, tu mir einen Gefallen: Schreib sowas nicht ohne Vorwarnung. Ich musste gerade meine Monitore vom Kaffee befreien.
Ich verstehe nicht, was das Gejammere soll. Mein Windows 10 ist super, schlank und effizient. Keine Abstürze, bootet in gefühlt 3 Sekunden und fährt in 1 Sekunde runter (Laptop Deckel einfach zuklappen). Mein Windows 10 Taskmanager zeigt eine CPU Auslastung von gerade mal 1% an. Wobei die CPU mit nur 1.2 GHz läuft, möglich wären ca. 4 x 3 GHz. Im Hintergrund werkeln gerade mal 129 Prozesse mit 1348 Threads. 43414 Handles sind offen. Da sind einige Entwicklerprogramme, wie Visual Studio, offen. Die meiste CPU Zeit braucht nicht etwa Firefox sondern der beschissene Maus/Touchpad Treiber von HP. Vom Arbeitsspeicher sind gerade mal 12% belegt, wobei ich vermute, das das halt nur belegt ist, damit etwas angezeigt wird. Der einzige Speicherfresser ist Firefox mit über 500 MByte aufgeteilt auf vier Prozesse, eine typische 2019'er Opensource Bloatware.
Udo K. schrieb: > Keine Abstürze, bootet in gefühlt 3 Sekunden und fährt in 1 Sekunde > runter. Das ist kein Booten..
MaWin schrieb: > und war einfach übelst zusammengehackt (die > Fehleranzahl schnellte in die Höhe, von 6 nachgewiesenen Fehlern in > Win31 (ohne Treibercode) zu über 65000 in Windows XP). Also sorry - Win311 war mit der übelste OS Schrott, der jemals verkauft wurde! Ich erinne nur an den fehlerhaften TCP/IP Stack
:
Wiederhergestellt durch Moderator
Rufus Τ. F. schrieb: > Windows 3.1 lief zwar nicht mehr im "real mode", sondern brauchte einen > 286 als Mindest-CPU, aber es lief ab 1 MB RAM, was ein so großer > Unterschied dann nun auch nicht ist. Real dürfte aber keiner einen alten 286-er für W3.1 benutzt haben, viel mehr als Tetris spielen war da kaum möglich. Und bis einschließlich W98 gab es nichtmal echtes Multitasking. Ich hatte man in Debug.exe ein kleines Assemblerprogramm eingetippt, Interrupt sperren + Endlosschleife. Der Doppelklick darauf war das Letze, was die CPU noch ausführte.
Peter D. schrieb: > Und bis einschließlich W98 gab es nichtmal echtes Multitasking. Auf 386ern schon, sogar schon mit Windows 2.0/386. Das konnte eine DOS-Task im Hintergrund ausführen und im Vordergrund die Windows-GUI anzeigen. Ich habe das mit Windows 3.0 genutzt und einen "Devicetreiber" gefrickelt, um mit einem Windows-Programm Daten mit der im Hintergrund laufenden DOS-Task auszutauschen. Die DOS-Task kommunizierte über eine serielle Schnittstelle mit einem Feldbus, das Windows-Programm hat dann eingesammelte Daten angezeigt bzw. auch die Möglichkeit gegeben, Daten aufzubereiten, um sie dann von der DOS-Task auf den Feldbus ausgeben zu lassen. Daß Dein Programm bei gesperrten Interrupts natürlich das Multitasking abklemmt, sollte Dir eigentlich klar gewesen sein.
Rufus Τ. F. schrieb: >> Und bis einschließlich W98 gab es nichtmal echtes Multitasking. > > Auf 386ern schon, sogar schon mit Windows 2.0/386. Das konnte eine > DOS-Task im Hintergrund ausführen und im Vordergrund die Windows-GUI > anzeigen. DOS Multitasking ging schon vorher ganz ohne Windows mit DESQview 386: https://en.wikipedia.org/wiki/DESQview
Peter D. schrieb: > Nano schrieb: >> Eine Wetterapp zeigt dir also nicht nur ein Icon mit ner Wolke und ner >> Sonne, damit man erkennt, dass es eine Wetterapp ist, sondern in der >> Kachel wird gleich angezeigt, welches Wetter gerade an dem Ort deiner >> Wahl ist. > > Nun die Nutzungsweise eines Desktop unterscheidet sich immer noch > grundsätzlich von der eines Smartphones. Das habe ich nirgends bestritten. Ich sagte nur, warum die Kacheln eingeführt wurden und welche Zielgruppe Microsoft damit im Auge hatte und warum für die Zielgruppe diese Kacheln super sind. > Nano schrieb: >> Hätte es keine Smartphones und keine Tablets gegeben, dann sähe Windows >> 10 wahrscheinlich auch heute noch wie Windows 7 aus. > > W8 habe ich nicht kennen gelernt, aber W10 sieht ja wieder genau so aus, > wie W7 (nur Aero fehlt leider). Man kann wohl unter W10 Kacheln > einrichten, aber ich wüßte nicht, wozu. W10 kann beides, das ist der Trick. Mein Smartphone läuft auf Windows 10. In W8 und W8.1 hat man den Nutzer allerdings dazu gezwungen, mit der Kacheloberfläche Bekanntschaft zu machen. So wie W7 ist W10 aber trotzdem nicht. Alle Menüs sind so gehalten, dass man sie auf Kachelthemes umschalten kann. Deswegen hat W10 auch kein Aero mehr.
Walter K. schrieb: >> Win31 (ohne Treibercode) zu über 65000 in Windows XP). > > Also sorry - Win311 war mit der übelste OS Schrott, der jemals verkauft > wurde! > Ich erinne nur an den fehlerhaften TCP/IP Stack Keine Ahnung warum du eine 1 hinzuerfindest, ich schreibe nicht ohne Grund Win31 und du jammerst jetzt über Wfw311. Win31 hat kein TCP/IP. [Beleidigung entfernt]
:
Bearbeitet durch User
Peter D. schrieb: > Und bis einschließlich W98 gab es nichtmal echtes Multitasking. Doch, natürlich, kooperatives Multitasking. [Beleidigung entfernt] > Ich hatte man in Debug.exe ein kleines Assemblerprogramm eingetippt, > Interrupt sperren + Endlosschleife. Der Doppelklick darauf war das > Letze, was die CPU noch ausführte. Tja, nun, kooperatives Multitasing funktioniert für den Anwender sehr gut, mein Eindruck aus der Zeit war wesentlich bessere Responsiveness der Programme, es ging sogar click ahead, und das was sauber nach Apps getrennt. Heute ist das ja alles kaputt, manche clicks werden verschluckt, andere treffen die falsche App, das hat man von unkontrolliertem Task-Switch. Natürlich erfordert kooperatives Multitasking eins: Richtig geschriebene Programme, der Programmierer muss auch kooperieren. Wenn der zu doof ist, kaputte Programme schreibt, taugt es nicht.
:
Bearbeitet durch User
Walter K. schrieb: > MaWin schrieb: >> und war einfach übelst zusammengehackt (die >> Fehleranzahl schnellte in die Höhe, von 6 nachgewiesenen Fehlern in >> Win31 (ohne Treibercode) zu über 65000 in Windows XP). > > Also sorry - Win311 war mit der übelste OS Schrott, der jemals verkauft > wurde! > Ich erinne nur an den fehlerhaften TCP/IP Stack Windows 3.1 hatte gar keinen TCP/IP Stack, es war auch gar nicht als Netzwerkbetriebssystem konzipiert. Das alles kam erst mit Windows for Workgroups 3.11 und einem zusätzlichen Adddon von Microsoft. Wer unter Windows 3.1 TCP/IP Support haben wollte, musste sich mit 3rd Party Lösungen aushelfen.
Peter D. schrieb: > Und bis einschließlich W98 gab es nichtmal echtes Multitasking. > Ich hatte man in Debug.exe ein kleines Assemblerprogramm eingetippt, > Interrupt sperren + Endlosschleife. Der Doppelklick darauf war das > Letze, was die CPU noch ausführte. Du hättest Windows NT kaufen müssen. Es war allgemein bekannt, dass W9x und WinME noch den DOS Kernel als Unterbau nutzte. Aber so war das eben beim Marketing und der Microsoft Philosophie. Windows 3.x sollte für den Einzelplatzrechner Zuhause gedacht sein und das kommende Win NT in Firmen Fuß fassen. Als man dann merkte, dass das mit Win NT länger brauchte und die Hardwareanforderungen auch zu teuer war, vor allem RAM kostete damals wegen der einen abgebrannten Fabrik viel, entschied man sich noch ein Windows 3.x for Workgroups nachzuschieben, welches dann mit Netzwerkfunktionalität kam. Dann sagte man, der Privatmensch will Zuhause seine DOS Spiele spielen, was Windows NT nicht so gut kann. Also gab es ein Win9x das dies ermöglichen sollte. Win NT wurde damit zum Arbeitsbetriebssystem abgestempelt. Das ging dann noch eine Weile mit Win98 so weiter. Erste Änderungen waren dann bei W2K spürbar, da das zunehmend auch Zuhause genutzt wurde, aber Win9x war im Heimbereich immer noch führend. Deswegen schob man letztmalig noch ein WinMe nach. Die Vereinheitlichung wurde dann erst mit Windows XP erreicht bzw. wurde sie auch erst damit anvisiert.
Die ganze Computerbranche ist halt geisteskrank, seit wenigstens zwei Jahrzehnten. Jeder frickelt irgendeinen Müll zusammen und schmeißt ihn fehlerhaft auf den Markt, wo ihn die Kunden frenetisch in Empfang nehmen. Für Probleme gibt es Meldungen wie "Fragen Sie Ihren Systemadministrator" oder "den Hersteller" oder "Ihren Händler." So einen Quatsch hätte sich in den 80ern und davor niemand erlauben dürfen. Neueste Meldung bei Youtube: "Wenn das Abspielen nicht beginnt, starten Sie das Gerät neu." Weil Youtube seinen einzigen Zweck, nämlich einen Film abzuspielen, nicht zuverlässig erfüllen kann, soll ich also meinen gesamten Rechner neu booten? Was für eine Frechheit! Und auf so einem faulig-sumpfigen Fundament gedeiht der ganze Unrat. Auf meinem Macbook hat der Firefox nach einiger Zeit immer die vollen 8 GB gefressen und noch ein halbes GB Swap dazu. Auch mit nur noch einer offenen Seite. Prozeß abschießen, Seite(n) der letzten Sitzung neu öffnen, oh Wunder, nur noch 500 MB verbraucht. Aktuell sitze ich an einem verhunzten Windows 7 auf einem 2,2GHz Dual Centrino mit 2GB. Funktioniert prinzipell, aber die Festplatte ist schrecklich langsam. Laut Crystaldiskmark bei 50MB-Blöcken 40MB/s lesen und schreiben und bei 4KB-Blöcken 0,6MB/s. (Erstes Ergebnis ist wohl die Geschwindigkeit des Caches und das zweite näher an der realen Geschwindigkeit.) Aber daran merke ich schön, wie krank die ganzen Programme sind. Ich drüce bei Firefox Strg-N für neues Fenster, und es rödelt erstmal 20, 30 Sekunden auf der Platte. Dort ist absolut nichts zu holen, da alle Daten im RAM liegen. Natürlich würde das mit einer SSD 100 mal schneller gehen, aber auch die 0,3 Sekunden dafür wären sinnlos verschwendete Zeit. Da ich durch das Plattengerödel die ganzen Vorgänge in Zeitlupe sehe, fallen mir viele Unsinnigkeiten auf, die sonst durch die Geschwindigkeit verborgen bleiben. Wenn man im Firefox ein Fenster schließt, wird es erstmal komplett neu aufgebaut und dann erst geschlossen. Wenn ein Youtube-Film in irgendienem Hintergrundfenster läuft, wird Firefox komplett unbedienbar. Läuft ein Film in VLC, ebenfalls im nicht sichtbaren Hintergrund, ruckelt der Mauszeiger. Natürlich ist so ein alter Rechner mit einem Film sehr gefordert, aber schon der C64 konnte ruckelfrei mit Maus bedient werden dank Interrupt. Das muß auf einem modernen Multitasking-Betriebssystem (nicht nur Win7, auch bei Macos kam öfters das rotierende Farbrad des Todes) mindestens genausogut laufen. Oder ich klicke den Editor in den Vordergrund. Rödel, rödel. Dann ist er endlich da und der Cursor blinkt. Ich tippe einen Satz, rödel, rödel. Nach 10 Sekunden erscheinen meine Zeichen einzeln. Passiert beim Mac mit SSD in Firefox-Adreßzeilen genauso. Dort aber wohl nicht wegen der Platte, sondern weil jedes Zeichen erst zur NSA gesendet wird. Interessanterweise hat der Firefox unter Macos für einen Download immer 20-30% CPU-Last verschwendet, unter Windows 7 ist es unmeßbar wenig. Und die 2 GB vom Win7 reichen haufenweise, um 10 oder 20 Fenster zu öffnen, wo beim Macbook ruckzuck 4, 5, 6 GB belegt wurden. Da dort mit 4GB RAM sehr oft die Swap-Datei anwuchs, gehe ich davon aus, daß das echt belegter Speicher war und nicht nur Mondreservierungen die bei Bedarf freigegeben werden. Wenn ich rechne, daß die T7500-CPU einen Benchmark von 1273 hat und ein i7-7700 hat 8814, dann kann ich mit einem modernsten Rechner zwar 10x schneller werden (tatsächlich wirds wegen schnellerer Grafik und SSD usw. wohl Faktor 100), aber das Ganze ist immer noch weit weg von ruckelfrei. Ich will auch nicht 0,5s sinnlos warten müssen, selbst wenn ich das mit viel Geld von 50 Sekunden gesenkt habe.
MaWin schrieb: > Tja, nun, kooperatives Multitasing funktioniert für den Anwender sehr > gut, mein Eindruck aus der Zeit war wesentlich bessere Responsiveness > der Programme, es ging sogar click ahead, und das was sauber nach Apps > getrennt. > Heute ist das ja alles kaputt, manche clicks werden verschluckt, andere > treffen die falsche App, das hat man von unkontrolliertem Task-Switch. > > Natürlich erfordert kooperatives Multitasking eins: Richtig geschriebene > Programme, der Programmierer muss auch kooperieren. Wenn der zu doof > ist, kaputte Programme schreibt, taugt es nicht. Kooperatives Multitasking ist ein Fehler by Design, weil man davon ausgehen muss, dass es böse Programme gibt. Virenschreiber haben gar kein Interesse, dass ihre Programme kooperieren, die sollen lediglich das System übernehmen. Eine bessere Responsivness kann sein, schließlich kann man sich die ganzen Switches zwischen den Prozessen auf einem kooperativen Multitasking OS weitgehend sparen bzw. wird das deutlich vereinfacht. Präemptives Multitasking ist da aufgrund dem Speicherschutz und der Zugriffsktronolle wesentlich aufwendiger, aber auf einem heutigen Rechner ist das vernachlässigbar, bzw. überwiegen da die Vorteile des Speicherschutzes.
Wollvieh W. schrieb: > Aktuell sitze ich an einem verhunzten Windows 7 auf einem 2,2GHz Dual > Centrino mit 2GB. Funktioniert prinzipell, aber die Festplatte ist > schrecklich langsam. Laut Crystaldiskmark bei 50MB-Blöcken 40MB/s lesen > und schreiben und bei 4KB-Blöcken 0,6MB/s. (Erstes Ergebnis ist wohl die > Geschwindigkeit des Caches und das zweite näher an der realen > Geschwindigkeit.) > > Aber daran merke ich schön, wie krank die ganzen Programme sind. Ich > drüce bei Firefox Strg-N für neues Fenster, und es rödelt erstmal 20, 30 > Sekunden auf der Platte. Dort ist absolut nichts zu holen, da alle Daten > im RAM liegen. Natürlich würde das mit einer SSD 100 mal schneller > gehen, aber auch die 0,3 Sekunden dafür wären sinnlos verschwendete > Zeit. Das hatte ich damals befürchtet, dass die schnelleren SSDs dazu führen werden, dass man die Programme nicht mehr für Festplatten optimieren wird. Und die dann noch langsamer erlebt werden, als sie damals schon waren. Die Befürchtung ist Realität geworden. Du brauchst eine SSD, eine andere Wahl hast du nicht. Rechne übrigens auch damit, dass du zunehmend eine NVMe M.2 SSD anstatt eine SSD angebunden via SATA benötigen wirst, weil die noch einmal deutlich schneller sind und es jetzt schon z.B. Spiele gibt, bei denen der Ladebalken auch auf SSDs praktisch "zurückgekehrt"* ist. * Genaugenommen war der nie weg, deswegen steht das in Anführungszeichen. Ich denke es ist klar, was ich damit ausdrücken möchte.
Wollvieh W. schrieb: > ... Eine unheilige Kombination aus Windows-7 und Virenscanner möglicherweise? Ich habe eine ähnliche lahme Kiste wie du (Athlon X2, 2GHz, 2GB RAM) an meinem Bastelplatz. Der ließ sich wieder flottbekommen, durch eine Umstellung auf Linux Mint und eine SSD. Dem Firefox kann man mit U-Block und Noscript Beine machen (Energie fressen zu 99% nur die Werbebanner und ohnehin unnützes Gezappel). Bis auf das etwas zähe rendern beim KICAD-Router ist die Kiste wunderbar flüssig zu bedienen. Videos schauen und gleichzeitig im Kicad herumzeichen, Browser und mehrere Datenblätter offen haben, kein Problem. Investiert habe ich nur 40€ für eine 120GB-No-Name SSD.
Unter Windows 10 ruckelt nichts. Das System ist super schnell und reagiert sofort. Die Kiste hat allerdings 16 GB Ram (wobei typisch nur 2 - 3 GB verwendet werden). Selbst wenn ich mir Videos anschaue, steigt die CPU Last nie über 3-6%, das Rendering macht die GPU im Hintergrund. Der Lüfter springt praktisch nur an, wenn ich LTSpice laufen lasse. Mit dem Linux Subsystem laufen auch praktisch alle Linux Programme. Das ist zum Entwickeln praktisch. Aber deine 2 GB Ram sind aber einfach sehr wenig, eventuell hilft es, das Swap File auszumachen. Die Programme glauben sonst, sie haben mehr Speicher, als da wirklich vorhanden ist...
Udo K. schrieb: > Die Kiste hat allerdings 16 GB Ram > das Rendering macht die GPU im Hintergrund. Hast die Threadüberschrift nicht gelesen. Dein Rechenr entspricht ja dem Reccourcenwahnsinn, klar das der geht.
Klar entspricht das dem Resourcenwahnsinn. Aber es hat keinen Sinn sich gegen den Strom zu stellen. Jedenfalls nicht, wenn du heute aktuelle Sachen entwickelst. Das bringt nichts, ausser noch mehr graue Haare. Und mal ehrlich, mein Handy hat schon 4 GB RAM... Und fuer ein Essen zu zweit hast du das Geld fuer die 16 GB schon drinnen. Du kannst nicht 15 Jahre alte Technik verwenden, und glauben, dass die neueste Software darauf anstandslos laeuft. Das war auch schon zu Zeiten von Windows 3.1 nicht so.
Technische Gründe sind nicht immer der Grund. Viele neue Sachen laufen nicht mehr auf älteren PCs, weil es nicht gewollt ist. Sonst würden die Leute zu wenig Neues kaufen. Software wird vielfach mit vorgefertigten Bausteinen programmiert. Das spart Zeit, kostet aber natürlich Speicherplatz. Was meist nicht bedacht wird: Jeder Schritt am PC wird, zumindest bei Windows Systemen, protokolliert. Auch das kostet Ressourcen. Jede Datei, die man mal aufgerufen hat, jede Installation etc. - alles. Schaut doch mal, wie sich eure Registry aufbläht im Laufe der Zeit. Das Gleiche gilt für E-Mail-Programme. Frisch installiert und eingerichtet: 20MB. Nach ein paar Wochen Nutzung: 200MB und mehr. Warum: Weil die Mails trotzdem nicht gelöscht werden, sondern irgendwo versteckt immer noch da sind. Kann jeder prüfen: E-Mail mit E-Mail-Programm herunterladen, ansehen, und im E-Mail-Programm löschen (nicht vom Server). Dann nochmal mit dem E-Mail-Programm die E-Mails abrufen und das E-Mail-Programm weiß genau, dass diese E-Mail schon mal heruntergeladen wurde und lädt sie nicht nochmal.
Jella schrieb: > Jeder Schritt am PC wird, zumindest bei Windows Systemen, protokolliert. > Auch das kostet Ressourcen. > Jede Datei, die man mal aufgerufen hat, jede Installation etc. - alles. Schöne Verschwörungstheorie. > Schaut doch mal, wie sich eure Registry aufbläht im Laufe der Zeit. Ja, schau doch mal, aber schau vor allem, was da drin steht. Es gab mal einen Intel-Netzwerktreiber, der einen fetten Fehler hatte, und der müllte bei jedem Systemstart die Registry mit weiteren sinnlosen Einträgen zu. Das war aber keine Windows-Eigenschaft, sondern eben ein Fehler des Intel-Netzwerktreibers.
Jella schrieb: > Das Gleiche gilt für E-Mail-Programme. Frisch installiert und > eingerichtet: 20MB. Nach ein paar Wochen Nutzung: 200MB und mehr. Warum: > Weil die Mails trotzdem nicht gelöscht werden, sondern irgendwo > versteckt immer noch da sind. Kann jeder prüfen: E-Mail mit > E-Mail-Programm herunterladen, ansehen, und im E-Mail-Programm löschen > (nicht vom Server). Dann nochmal mit dem E-Mail-Programm die E-Mails > abrufen und das E-Mail-Programm weiß genau, dass diese E-Mail schon mal > heruntergeladen wurde und lädt sie nicht nochmal. Was ist E-Mail Programm? Ich weiß sehr wohl wo meine E-Mails abgespeichert sind. Wenn ich die lösche, sind sie gelöscht. Des Weiteren kann ich einen PC bedienen. Am besten du lernst noch ein bischen.
Rufus Τ. F. schrieb: > Jella schrieb: >> Jeder Schritt am PC wird, zumindest bei Windows Systemen, protokolliert. >> Auch das kostet Ressourcen. >> Jede Datei, die man mal aufgerufen hat, jede Installation etc. - alles. > > Schöne Verschwörungstheorie. Oder auch nicht: http://www.nirsoft.net/utils/computer_activity_view.html Eine für den Anwender sinnvolle Notwendigkeit dieser Protokollierung erkenne ich im Moment nicht, sie findet aber statt.
Rufus Τ. F. schrieb: >> Jede Datei, die man mal aufgerufen hat, jede Installation etc. - alles. > > Schöne Verschwörungstheorie. Wenn du Auditing glossflächig einschaltest, dann ist das tatsächlich so. Da lässt sich auch jede Fileoperation protokollieren. Allerdings ist das eher selten der Fall, und nicht routinemässig. https://www.msxfaq.de/konzepte/auditing/auditingwindows.htm Inwieweit die verschiedenen Telemetrie-Levels von Win10 hier möglicherweise ansetzen, weiss ich nicht.
:
Bearbeitet durch User
Alex G. schrieb: > Zum einen sind Programme heute durchaus um Zehnerpotenzen aufwendiger, > zum anderen sind die Ressourcen einfach verfügbar, wodurch die > Softwareentwickler nicht auf Leistungsefizienz optimieren, sondern auf > Entwicklungsefizienz. Genau das ist das Problem. Millionen von Rechner müssen die Kosteneffizienz/Bequemlichkeit der Progammier ausbaden. Ohne mit der Wimper zu zucken, werden Setups von 1GB zum Download angeboten, deren Installation auf aktuellen Rechner an eine Stunde geht. Was ist der nächste (Fort?)-Schritt nach der SSD, um Rechner benutzbar zu halten? Wozu braucht so ein verfluchtes Windows beim Booten weit über zehntausend Registry Zugriffe. Transparente, abgerundete Fensterecken haben sich inzwischen zum Glück wieder überlebt.
A. K. schrieb: > Wenn du Auditing glossflächig einschaltest, dann ist das tatsächlich so. > Da lässt sich auch jede Fileoperation protokollieren. Allerdings ist das > eher selten der Fall, und nicht routinemässig. Besserer Link: https://docs.microsoft.com/en-us/windows/security/threat-protection/auditing/apply-a-basic-audit-policy-on-a-file-or-folder
Wolfgang schrieb: > Genau das ist das Problem. > Millionen von Rechner müssen die Kosteneffizienz/Bequemlichkeit der > Progammier ausbaden. Ohne mit der Wimper zu zucken, werden Setups von > 1GB zum Download angeboten, deren Installation auf aktuellen Rechner an > eine Stunde geht. Wieso genau ist das ein Problem? Wenn das echt ein Endkundenproblem ist, dann Gründe dein eigenes Unternehmen, mach es besser und schon solltest du millionen Nutzer begeistern können :)
Alex G. schrieb: >> deren Installation auf aktuellen Rechner an eine Stunde geht. > Wieso genau ist das ein Problem? Eine Stunde, in der ein Business-Anwender durch die Gänge spaziert um mit den Kollegen ein Schwätzchen zu halten, weil der PC gesperrt ist. > Wenn das echt ein Endkundenproblem ist, dann Gründe dein eigenes > Unternehmen, mach es besser und schon solltest du millionen Nutzer > begeistern können :) Wenn ein Fixer mal an der Nadel hängt, wechselt er seinen Treibstoff nicht einfach mal so. Neu Neuprojekten hat man die Wahl, danach oft nicht mehr.
:
Bearbeitet durch User
o ha schrieb: > Rufus Τ. F. schrieb: >> Jella schrieb: >>> Jeder Schritt am PC wird, zumindest bei Windows Systemen, protokolliert. >>> Auch das kostet Ressourcen. >>> Jede Datei, die man mal aufgerufen hat, jede Installation etc. - alles. >> >> Schöne Verschwörungstheorie. > > Oder auch nicht: > > http://www.nirsoft.net/utils/computer_activity_view.html > > Eine für den Anwender sinnvolle Notwendigkeit dieser Protokollierung > erkenne ich im Moment nicht, sie findet aber statt. Zusammenhangloser Quatsch den du schreibst. Eine Anzeige der letzten aufgerufenen Programme hat nüscht mit Spionage zu tun.
Msd schrieb: > Zusammenhangloser Quatsch den du schreibst. Findest du? Msd schrieb: > Eine Anzeige der letzten aufgerufenen Programme hat nüscht mit Spionage > zu tun. Na so ein Glück. Ich finde es jedenfalls unverständlich, wozu alle(!) Aktivitäten seit der Erstinstallation abrufbar vorliegen müssen.
Wolfgang schrieb: > Genau das ist das Problem. > Millionen von Rechner müssen die Kosteneffizienz/Bequemlichkeit der > Progammier ausbaden. Ohne mit der Wimper zu zucken, werden Setups von > 1GB zum Download angeboten, deren Installation auf aktuellen Rechner an > eine Stunde geht. Was ist der nächste (Fort?)-Schritt nach der SSD, um > Rechner benutzbar zu halten? Ohne diese verhassten, "aufgeblähten" Libs würde es halt kaum mehr ernstzunehmende Software geben. Dass man alles von der Pike auf schneller, sauberer, sicherer (!) und sparsamer selber programmiert halte ich für ein Gerücht. Auch keine Firma kann sowas stemmen, zumindest wenn sie irgendwie rentabel sein will. Deswegen ist es unumgänglich auf irgendwelche Frameworks zurückzugreifen. Andernfalls gäbe es praktisch keine Multimediaanwendungen, aktuelle Spiele, keine Webseiten die über statisches HTML hinausgeht. Aber jedes Framework und jede Lib sind natürlich ein zusätzlicher Balast. Das Problem ist weniger dass das Zeugs schlampig umgesetzt ist (teilweise natürlich auch) sondern dass das Zeugs möglichst generisch ist um viele Anwendungsfälle abdecken zu können und dementsprechend viel mitbringt was man eigentlich im Rahmen des aktuellen Projekts garnicht braucht. Wenn jede Firma jede low-level Routine (Netzwerk, xml-handling, GUI) ständig neu entwickeln würde, perfekt aufs Projekt abgestimmt und ohne unnötigen Ballast, gäbe es schlicht keine Software mehr oder sie wäre unbezahlbar.
:
Bearbeitet durch User
MaWin schrieb: > Natürlich erfordert kooperatives Multitasking eins: Richtig geschriebene > Programme, Und Programme die fehlerfrei sind und sich niemals aufhängen. Fehlerfreie Programme, nichts leichter als das...
o ha schrieb: > Ich finde es jedenfalls unverständlich, wozu alle(!) Aktivitäten seit > der Erstinstallation abrufbar vorliegen müssen. Tun sie ja nicht.
Wollvieh W. schrieb: > Die ganze Computerbranche ist halt geisteskrank, seit wenigstens zwei > Jahrzehnten. Jeder frickelt irgendeinen Müll zusammen und schmeißt ihn > fehlerhaft auf den Markt, wo ihn die Kunden frenetisch in Empfang > nehmen. > [...] > Aktuell sitze ich an einem verhunzten Windows 7 Also Du gehörst selbst dazu zu dem beschriebenen Kreislauf? Als Kunde? Als Helfershelfer der Hersteller? Oder warum fährst Du in diesem Karussell mit?
Wolfgang schrieb: > Wozu braucht so ein verfluchtes Windows beim Booten weit über > zehntausend Registry Zugriffe. Transparente, abgerundete Fensterecken > haben sich inzwischen zum Glück wieder überlebt. Mit der Farbe der Fenster hats garantiert nichts zu tun. Das bisschen Gefenstere und runde Ecken und Transparenz macht jede 20 Jahre alte Grafikkarte in Hardware während sie 99.9% Däumchen dreht und auf den Rest des PCs wartet.
Wolfgang schrieb: > Transparente, abgerundete Fensterecken > haben sich inzwischen zum Glück wieder überlebt. Du warst natürlich damals bei WinXP nicht der jenige der sich über das frische und damals beste Windows-Design ergötzt hat. Nein du hast damals schon gewusst wo es hinführt und gewusst, dass flache Design mit scharfen Kanten viel besser sind. In 15 Jahren pöbelst du rum, warum man nur so ein hässliches Win10 nutzen konnte. Dabei ist es aus aktueller Sicht (aus welcher Sicht auch sonst) das schönste Design. Niemand will zurück in die 90er, außer die Pöbler aus dem µC-Forum.
Msd schrieb: > Wolfgang schrieb: >> Transparente, abgerundete Fensterecken >> haben sich inzwischen zum Glück wieder überlebt. > > Du warst natürlich damals bei WinXP nicht der jenige der sich über das > frische und damals beste Windows-Design ergötzt hat. Nicht nur er. Auch ich habe das schnell wieder auf "klassisch" umgestellt. > Nein du hast damals > schon gewusst wo es hinführt und gewusst, dass flache Design mit > scharfen Kanten viel besser sind. Auf jeden Fall :-) > In 15 Jahren pöbelst du rum, warum man nur so ein hässliches Win10 > nutzen konnte. Dabei ist es aus aktueller Sicht (aus welcher Sicht auch > sonst) das schönste Design. Schönheit liegt im Auge des Betrachters :-) Ich finde die Oberfläche optisch grausam und extrem unübersichtlich (für Desktop-PCs). > Niemand will zurück in die 90er, außer die > Pöbler aus dem µC-Forum. Das hat nichts mit Pöbeln zu tun. Ich möchte meine Oberfläche so einrichten können (und vor allem auch so erhalten), dass sie mir gefällt und mir ein angenehmes Arbeiten ermöglicht. Transparente Fenster, Schatten und extrem gerundete Ecken bspw. zählten definitiv nicht dazu. Mich hat auch damals die Umstellung von (ich meine) KDE3.5 auf KDE4 sehr gestört. Ich mag es nicht, wenn andere mir vorschreiben möchten, wie meine Oberfläche auszusehen hat - insbesondere, wenn sich dadurch kein Mehrwert ergibt. Glücklicherweise hat man unter X11 die freie Wahl und so bin ich jetzt schon lange bei xfce: flott, übersichtlich, einfach anzupassen und trotzdem flexibel. Zum Thema: Meiner Erfahrung nach benötigt man immer seltener einen schnelleren Rechner - fast alle Tätigkeiten werden mittlerweile von preiswerten 08/15-PCs ausreichend schnell erledigt. Für Spezialanwendungen (Grafik etc.) gibt es spezielle Hardware. Aber auch da muss ich meinen acht (?-war gebraucht gekauft) Jahre alten Lenovo-Tower mit einer 15€-NVidia-Karte schon ordentlich prügeln, um überhaupt mal an Grenzen zu kommen. Die Kurve der nötigen Rechenleistung flacht meiner Beobachtung nach deutlich ab.
:
Bearbeitet durch Moderator
Solange mir das Betriebssystem und die Fensteroberfläche weniger als 5% CPU-Power und jeweils 10% Haupt- und Festplattenspeicher klauen, so dass ich selber nach Herzenslust ressourcenverschwendend programmieren kann, bin ich völlig zufrieden :) Diese Kriterien wurden bisher von jedem meiner Computer mit der jeweiligen Softwareinstallation erfüllt, selbst nachdem die Hardware schon mehr als 5 Jahre auf dem Buckel hatte. Trotzdem ist es immer wieder beeindruckend zu sehen, wie rasend schnell Uraltsoftware auf einem aktuellen PC läuft (wenn man sie denn noch zum Laufen bekommt).
Bernd K. schrieb: > Das bisschen > Gefenstere und runde Ecken und Transparenz macht jede 20 Jahre alte > Grafikkarte in Hardware während sie 99.9% Däumchen dreht und auf den > Rest des PCs wartet. Tja, nur gibt es heute keine mehr. Statt Fenstern und Knöpfen gibt es nur noch Rechtecke ohne Rand, kein Schwein erkennt mehr was Fenster ist, wo sein Rand zu ziehen ist, wo ein Scrollbalken ist, wo Knöpfe sind, es ist alles ohne jegliche visuelle hints die simpelste Graphik die man sich nur vorstellen kann. Statt abgerundeter Ecken, statt 3-Effekten, nur nochLinie und gefüllte Flächen. Selbst Hyperlinks in Texten sind nicht mehr farblich unterschieden oder unterstrichen. Das konnt schon der alte Apple IIGS oder Amiga. Mit 30 Jahren 'Fortschritt' bei Mircrosoft ist man erfolgreich wieder auf dem Stand von 1989 gelandet. Es ist alles nur noch Rotz.
Wolfgang schrieb: > Alex G. schrieb: >> Zum einen sind Programme heute durchaus um Zehnerpotenzen aufwendiger, >> zum anderen sind die Ressourcen einfach verfügbar, wodurch die >> Softwareentwickler nicht auf Leistungsefizienz optimieren, sondern auf >> Entwicklungsefizienz. > > Genau das ist das Problem. > Millionen von Rechner müssen die Kosteneffizienz/Bequemlichkeit der > Progammier ausbaden. Ohne mit der Wimper zu zucken, werden Setups von > 1GB zum Download angeboten, deren Installation auf aktuellen Rechner an > eine Stunde geht. Was ist der nächste (Fort?)-Schritt nach der SSD, um > Rechner benutzbar zu halten? Das war aber zu Zeiten von Windows 3.1 auch nicht anders! Damals habe ich ca. 10 Disketten der Reihe nach reingesteckt, um Lotus Note zu installieren... hat auch 1-2 Stunden gedauert. Das selbe Spiel mit Visual Studio, Autocad und dem Rest... Auch damals habe ich mich schon gefragt, wie bekommen ich jemals die 4 MByte RAM voll? Damals konnten die Programme nochdazu nur 1 MB direkt ansprechen... Die Festplatte hatte 160 MByte! Unmöglich das vollzubekommen. 640 kByte sind genug :-) Zahl halt mal ordentlich für deine Software! Dann bekommst du vielleicht was besseres. Gerade heutzutage ist die Gratis Mentalität die Norm. Keiner Zahlt mehr für Software. Schau dir mal die Downloadseiten bei heise.de an. Software ohne Ende für nix. Alleine 42 gratis Taschenrechner, einer schlechter als der andere... Junge, fähige, von Ehrgeiz getriebene Programmierer schaffen nächtelang, um das nächste Software Geschäftsmodel zu Fall zu bringen. Ganze Branchen mit tausenden Arbeitsplätzen gehen da jedes Jahr verloren. Die Folge: Werbung und ABO-Modelle und Gejamere. Wer zahlts? Die Kunden, halt jetzt indirekt. > > Wozu braucht so ein verfluchtes Windows beim Booten weit über > zehntausend Registry Zugriffe. Transparente, abgerundete Fensterecken > haben sich inzwischen zum Glück wieder überlebt. Bie mir laufen sicher mehr als 100 Programme und Dienste im Hintergrund. Jedes Program hängt von sicher 10-20 DLL's ab. Jede DLL hat sicher 10-20 Registry Einträge für Konfigurationzwecke. Macht also locker 10000 - 40000 Registry Zugriffe. Aber tröste dich, die werden nur einmal gelesen, und sind dann im Cache drinnen. Wenn es dich stört, mach halt die Dienste und Hintergrundprogramme aus.
Chris D. schrieb: >> In 15 Jahren pöbelst du rum, warum man nur so ein hässliches Win10 >> nutzen konnte. Dabei ist es aus aktueller Sicht (aus welcher Sicht auch >> sonst) das schönste Design. > > Schönheit liegt im Auge des Betrachters :-) Ich finde die Oberfläche > optisch grausam und extrem unübersichtlich (für Desktop-PCs). Ich sehe bei mir selber, dass man da eine Entwicklung durchmacht. Zunächst mag man das Neue nicht, aber wenn man sich daran gewöhnt hat, dann kann man sich nicht mehr vorstellen, mit dem alten Dings zu arbeiten... Wobei Ergonometrie die letzten 15 Jaher sicher mehr und mehr auf der Strecke bleibt.
Chris D. schrieb: > Zum Thema: > Meiner Erfahrung nach benötigt man immer seltener einen schnelleren > Rechner - fast alle Tätigkeiten werden mittlerweile von preiswerten > 08/15-PCs ausreichend schnell erledigt. > Für Spezialanwendungen (Grafik etc.) gibt es spezielle Hardware. Aber > auch da muss ich meinen acht (?-war gebraucht gekauft) Jahre alten > Lenovo-Tower mit einer 15€-NVidia-Karte schon ordentlich prügeln, um > überhaupt mal an Grenzen zu kommen. > > Die Kurve der nötigen Rechenleistung flacht meiner Beobachtung nach > deutlich ab. Das gilt sicher für 0815 Bürosoftware, aber mach mal eine Finite Elemente Simulation, oder eine LTSpice Simulation von einem simplen Oszillator... Solidworks ohne eine 1k Euro Grafikkarte startet nicht mal. Oder übersetz mal eine aktuelle (oder auch nicht so aktuelle SW), das kann ganz schön dauern, wenn bei jedem der 100 Sourcefiles 100 Abhängigkeiten gecheckt werden... Es hängt also sehr von der Anwendung ab.
Msd schrieb: > Du warst natürlich damals bei WinXP nicht der jenige der sich über das > frische und damals beste Windows-Design ergötzt hat. Tupperware?
Hoch lebe "Classic Shell"! Damit konnte ich Windows 10 augenfreundlich benutzbar machen.
Udo K. schrieb: > Das gilt sicher für 0815 Bürosoftware, aber mach mal eine Finite > Elemente > Simulation, oder eine LTSpice Simulation von einem simplen Oszillator... LT-Spice ist doch schlank und schnell? Dessen Oberfläche stammt noch komplett aus den 90ern und wurde seither nicht weiter aufgebläht. Und das was es bei der Simulation rechnen muss muss es nun mal rechnen da beißt die Maus keinen Faden ab, ich glaube auch nicht daß es ein besonders langsames SPICE ist, eher im Gegenteil. Gerade bei rechenintensiven Sachen wird IMHO noch nicht so gebloatet wie anderswo, zumindest der Teil der rechnet, da gibt man sich meist noch Mühe das wirklich so schnell wie möglich zu machen und da ist dann halt die Hardware die Grenze. > Solidworks ohne eine 1k Euro Grafikkarte startet nicht mal. Das wiederum scheint tatsächlich ein legitimes Beispiel für Ressourcenbloat zu sein wenn es wirklich den Tatsachen entspricht. Zum Beispiel OnShape (der reine Modeler von Solidworks) läuft sogar im Browser selbst auf ältlichen Durchschnittssmöhren und auch andere vergleichbare CAD-Anwendungen haben keinen Grund 1000 Euro teure Anforderung an die GraKa zu stellen, wozu auch, jedes Videospiel braucht mehr Grafikleistung als 3d-Modellierung jemals auch nur ansatzweise brauchen könnte.
Grundsätzlich finde ich das "Kachel-Prinzip" oder Fenster mit klaren Kanten und wenig Dekoration nicht mal schlecht. Auf den ersten Blick wirkt alles sehr aufgeräumt. Ich find es fast schade dass es für Linux sowas nicht wirklich gibt. Die Flat-Themes für Plasma die ich mir angeschaut habe taugen zumindest alle nichts. Gut, dass es MS in der Umsetzung verkackt...geschenkt. Grundsätzlich finde ich hätten solche schlichten, aufgeräumten Oberflächen potential. Erinnert mich manchmal an LCARS ;-) Disclaimer: die Bedienbarkeit kann ich nicht beurteilen, hatte noch kein Win8 oder Win10 in der Hand.
:
Bearbeitet durch User
Bernd K. schrieb: > as wiederum scheint tatsächlich ein legitimes Beispiel für > Ressourcenbloat zu sein wenn es wirklich den Tatsachen entspricht. Zum > Beispiel OnShape (der reine Modeler von Solidworks) läuft sogar im > Browser selbst auf ältlichen Durchschnittssmöhren und auch andere > vergleichbare CAD-Anwendungen haben keinen Grund 1000 Euro teure > Anforderung an die GraKa zu stellen, wozu auch, jedes Videospiel braucht > mehr Grafikleistung als 3d-Modellierung jemals auch nur ansatzweise > brauchen könnte. Ich weiss jetzt nicht, ob das nur Resourcenbloat ist. Es ist jedenfalls Firmenpolitik das da ganz klare Vorgaben zur Grafikkarte gemacht werden, zum Teil auch mit einer genauen Treiberversion, und nur diese Kombination ist zertifiziert. Und wenn das System mit einer anderen Kombination abstürzt, dann hast du die Arschkarte. Aber ich wollte eigentlich darauf hinaus, dass es genug Anwendungen gibt, die gar nicht genug Rechenleistung haben können. Es wird ja oft so getan, als könnte man mit all den PC Resourcen nichts Sinnvolles mehr anfangen. Das stimmt einfach nicht. Wenn ich eine PC kaufen könnte, der 10x mehr Rechenleistung hat, und die SW (z.B. LTSpice und GPU) das auch unterstützt, würde ich den sofort kaufen. Insofern sehe ich keine grosse Resourcenverschwendung. Es mag schon sein, dass das eine oder andere Programm 50x effizienter laufen könnte, aber so 0815 Anwendungen brauche selten mehr als 10% CPU. Man bewegt sich also im Bereich "Diminishing Returns".
Als Gegenbeispiel zur Computerbranche, die jede Woche neue Bedienhindernisse in ihre Oberflächen einbaut, habe ich immer das Auto genommen. Wo seit 50 Jahren die Lage der Pedale, des Lenkrads und des Blinkerhebels gleich sind. Der Tacho meistens auch noch. Weitergehende Elemente waren schon immer nicht- bis anti-standardisiert. Hupe auf der Spitze des Blinkers (irgendein Franzose vor 30 Jahren), Scheibenwischer durch eine Dreh-Würg-Schüttelbewegung (Daimler mit seinem Multi-Einhebel in den 80ern.) Seit ich neulich einen Film von einem aktuellen Daimler-"Cockpit" gesehen habe, muß ich es mir verkneifen, die Autobranche als Beispiel für herstellerübergreifende, langlebige Standards zu nehmen. Das sah nicht mehr aus wie in einem Auto. Zurück zu Rechnern: Ok, Alt-F4 um ein Fenster zu schließen ist wirklich Schwachsinn. Aber vieles was die IBM einmal bei OS2 standardisiert hatte, macht doch echt Sinn. Beispielsweise, daß die Blätterleiste, äh der Scrollbalken, die maßstabsgerechten Größenverhältnisse des angezeigten Ausschnitts widerspiegelt und nicht 5mm Bildschirmhöhe einnimmt, wenn schon 30 von 35 Zeilen angezeigt werden. Die Unternehmen haben genug Zeit, um diese Standards zu zerstören und stattdessen Schwachsinn zu erfinden, z.B. abgerundete Scrollbalken, die immer 5 Pixel vor dem Anschlag enden, so daß man niemals mehr weiß, ob man am Anschlag ist oder nur kurz davor, sondern dutzendemale am Tag den Balken nochmals runterschieben muß, um sich sicher zu sein. Bei Apple werden sogar immer die aktuellsten 1-3 Dokumente ausgeblendet, wenn man ein Auswahlfenster öffnet. Der Scrollbalken sieht dabei aus, als wäre er am oberen Anschlag. Einfach nochmal hochschieben und auf einmal erscheint die Datei, die man gerade gespeichert hat. Hat mich einige Zeit der Suche nach längt vorhandenen Dateien gekostet, bis ich diesen vorsätzlich eingebauten Fehler gefunden habe. Idioten. Es fehlt halt der Regelkreis, daß es Käufer gäbe, die sich um sowas kümmern würden. Zu Zeiten des alten Krupps gab es ja auch keine Arbeiter, die weniger als 16 Stunden am Tag arbeiten wollten. Oder gar über 50 Jahre alt werden, weshalb sie sich den Giften und Gefahren lieber direkt ausgesetzt haben. Es gibt nur friß-oder-stirb. Und Unternehmen verhalten sich bekanntermaßen wie Psychopathen. D.h. von da wird niemals Vernunft kommen. Schonmal jemand eine Mobil-Version einer Zeitung angeschaut? Früher waren das Texte. Also Text-Texte. 1kb für 1000 Zeichen. Heute kommt unter mobil.xx die Startseite mit 50 MB oder 100. Die meisten Rechner werden eh von Vorständen im Golfclub bei ihren Vorstandskollegen gekauft. Wenn dann noch eine Stadtverwaltung wie München lieber Millionen für Windows-Lizenzen ausgibt, um ihre Mitarbeiter zu quälen, statt kostenlos Linux, hat ein einzelner Käufer schlichtweg keine Chance. Es bräuchte Käuferkartelle, die einfach mal ein paar Jahre lang nichts kaufen, bis die schlimmsten Firmen pleite gegangen sind und sich stattdessen Nischenhersteller mit vernünftigen Produkten durchsetzen konnten. Wird nicht passieren. Wer Autos kauft, die 25 Liter saufen, und 2000-Euro-Waschmaschinen, die nach 3 Jahren kaputt sind, kümmert sich nicht um abgerundete Ecken oder CPU-Prozente.
:
Bearbeitet durch User
Wollvieh W. schrieb: > Zurück zu Rechnern: Ok, Alt-F4 um ein Fenster zu schließen ist wirklich > Schwachsinn. Aber vieles was die IBM einmal bei OS2 standardisiert > hatte, macht doch echt Sinn. Beispielsweise, daß die Blätterleiste, äh > der Scrollbalken, die maßstabsgerechten Größenverhältnisse des > angezeigten Ausschnitts widerspiegelt und nicht 5mm Bildschirmhöhe > einnimmt, wenn schon 30 von 35 Zeilen angezeigt werden. Das macht spätestens dann keinen Sinn mehr, wenn du 1000 Seiten Blättern musst und der Scrollbalken dann so klein geworden ist, dass du ihn mit der Maus nicht mehr greifen kannst. Glücklich ist da dann der, der an der Maus ein Mausrad hat, aber wenn man schnell blättern will, dann ist der Scrollbalken immer noch die beste Wahl. Insofern sollte der schon eine Mindestgröße haben, die unabhängig von der Länge des Textes ist. > Die Unternehmen haben genug Zeit, um diese Standards zu zerstören und > stattdessen Schwachsinn zu erfinden, z.B. abgerundete Scrollbalken, die > immer 5 Pixel vor dem Anschlag enden, so daß man niemals mehr weiß, ob > man am Anschlag ist oder nur kurz davor, sondern dutzendemale am Tag den > Balken nochmals runterschieben muß, um sich sicher zu sein. Schlimmer finde ich die ausgeblendeten Scrollbalken oder Scrollbalken, die so schmal geworden sind, dass man sie nur noch mit Mühe greifen kann.
Nano schrieb: > ... wenn du 1000 Seiten Blättern > musst und der Scrollbalken dann so klein geworden ist, ich verwende die Leertaste im Browser (FF) bzw. PDF-Viewer. Die wird nicht kleiner ;-) leo
Rufus Τ. F. schrieb: > Schöner Schotten schrieb: >> Besonders grass finde ich den Vergleich, wenn man andere Systeme wie >> bspw. Commodore Amiga mit heranziehr. Der brachte Win 3.* vergleicbare >> GUI-funktionen mit und lief mit 512kbyte/1MByte. > > Nein, oder nur aus sehr großem Abstand betrachtet. In der Tat. >Windows 3.1 kannte > bereits skalierbare Schriften und --je nach Graphikhardware-- eine > deutlich höhere Bildschirmauflösung. Und der damalige, ziemlich durchschlagenden Erfolg von Windows 3.0 war i.W. drei Umständen zu verdanken: - Es stand vom ersten Tag an ein großer Haufen an Programmen zur Verfügung, vom kleinen verschenkten Spielprogramm bis zur kommerziellen Anwendung, die noch zu Windows 2-Zeiten entwickelt worden waren und ganz ohne oder mit sehr wenig Politur nativ unter Windows 3 liefen. Zwar mit einer Warnung ("dies ist ein Windows 2-Programm und läuft evtl. fehlhaft"), die man aber durch Setzen eines Bits im Header der .exe ausknipsen konnte. Danach war das Programm von einem mit dem Windows 3 SDK gebauten kaum noch zu unterscheiden. - Diese Programme waren aufgrund der Beschränkungen durch den Realmode in Windows 2 (d.h. 1 MB Adressraum für DOS, Windows und mehrere Windows-Anwendungen) vergleichsweise sparsam programmiert, so daß der nun durch den per Segmentierung auf bis zu 16 MB vergrößerbaren Adressraum des 286 der reinste Luxus und noch nicht durch Bloat aufgefressen war. - Beides zusammen ermöglichte es nun ohne weiteren Entwicklungsaufwand, eine Vielzahl von solchen Programmen auf brauchbare Weise parallel auf einem Desktop zu verwenden, im Rahmen des verfügbaren Speichers. Windows 3 nutzte dann einen noch mal vergrößerten Adressraum des 386 und nutzte Paging und virtuelle Adressen um DOS und DOS-Anwendungen besser von Windows-Anwendungen zu trennen. Unter dem Strich hatte man eine Plattform, welche die meisten der im Jahrzehnt davor im DOS-Biotop geschriebenen Programme nichtemuliert unterstützte. > > Windows 3.1 lief zwar nicht mehr im "real mode", sondern brauchte einen > 286 als Mindest-CPU, aber es lief ab 1 MB RAM, was ein so großer > Unterschied dann nun auch nicht ist. Die Rechenleistung früherer > 286-Rechner lag in ähnlicher Größenordnung wie die des Amiga, wenn nicht > sogar eher darunter. Man muß dabei berücksichtigen, daß der Amiga insofern ein Unikum war, als er um einen Haufen Custom-Chips herum designed war (https://de.wikipedia.org/wiki/Advanced_Graphics_Architecture), die zum Entwicklungszeitpunkt die general purpose-CPUs und simplen Grafikkarten zwar in den Schatten stellten, von diesen dann aber bald überholt wurden. > > Hatte der Amiga eine standardisierte Treiberschnittstelle für > Graphikkarten und Drucker? Der Amiga bzw. seine Hardware war gewissermaßen die Standardschnittstelle. Wobei jenseits der Hardware durchaus für die Zeit moderne Konzepte eingesetzt wurden. Ein Gastforscher und Kollege schwärmte damals von der REXX-Implementierung https://de.wikipedia.org/wiki/ARexx auf dem Ammiga. Wer jemals CLIST programmieren mußte, versteht, warum. :-}
Udo K. schrieb: > Ich verstehe nicht, was das Gejammere soll. > Mein Windows 10 ist super, schlank und effizient. > > Keine Abstürze, bootet in gefühlt 3 Sekunden und fährt in 1 Sekunde > runter > (Laptop Deckel einfach zuklappen). Und ich habe schon mehrfach MS zur Hölle gewünscht, weil zuerst der Bildschirm ausgeschaltet wird und dann das Betriebssystem noch Minuten hiberniert. Wenn man nämlich dann den Laptop unsanft anstößt (noch Harddisk) oder (Akku leer) den Strom kappt dann gute Nacht. > > Mein Windows 10 Taskmanager zeigt eine CPU Auslastung > von gerade mal 1% an. > Wobei die CPU mit nur 1.2 GHz läuft, möglich wären ca. 4 x 3 GHz. > > Im Hintergrund werkeln gerade mal 129 Prozesse mit 1348 Threads. > 43414 Handles sind offen. Da sind einige Entwicklerprogramme, wie > Visual Studio, offen. Auf meinem Windows 7 werkeln 42 Prozesse mit 655 Threads, 12675 Handles. Das erklärt vielleicht auch etwas warum immer mehr Resourcen gebraucht werden. In irgendeinem Win10-Update hat dann auch jeder Service einen eigenen Prozess bekommen, warum auch immer.
Hans H. schrieb: > Udo K. schrieb: >> Ich verstehe nicht, was das Gejammere soll. >> Mein Windows 10 ist super, schlank und effizient. >> >> Keine Abstürze, bootet in gefühlt 3 Sekunden und fährt in 1 Sekunde >> runter >> (Laptop Deckel einfach zuklappen). > > Und ich habe schon mehrfach MS zur Hölle gewünscht, weil zuerst der > Bildschirm ausgeschaltet wird und dann das Betriebssystem noch Minuten > hiberniert. > Wenn man nämlich dann den Laptop unsanft anstößt (noch Harddisk) oder > (Akku leer) den Strom kappt dann gute Nacht. Da hat sich bei Windows 10 viel getan. Das war einer der Punkte, wo ich sehr positiv überrascht war. > >> >> Mein Windows 10 Taskmanager zeigt eine CPU Auslastung >> von gerade mal 1% an. >> Wobei die CPU mit nur 1.2 GHz läuft, möglich wären ca. 4 x 3 GHz. >> >> Im Hintergrund werkeln gerade mal 129 Prozesse mit 1348 Threads. >> 43414 Handles sind offen. Da sind einige Entwicklerprogramme, wie >> Visual Studio, offen. > > Auf meinem Windows 7 werkeln 42 Prozesse mit 655 Threads, 12675 Handles. > Das erklärt vielleicht auch etwas warum immer mehr Resourcen gebraucht > werden. > In irgendeinem Win10-Update hat dann auch jeder Service einen eigenen > Prozess bekommen, warum auch immer. Ich nehme mal an, das mindestens ein Drittel der Prozesse mit den neuen Kacheln zu tun hat... Der Benutzer ist bei Windows 10 endgültig zum DAU erklärt worden. Entsprechend abgesichert ist das System. Aber wie gesagt, in der Praxis merkt man davon nichts. Und MS hat wahrscheinlich recht: Unter XP war es gang und gäbe das System zu verschlanken, wobei es da meist um 1-2 GB ging. Unnötige Prozesse wurden von vielen einfach abgedreht, wichtige System Verzeichnisse wurden einfach gelöscht. Windows XP hat es meistens verziehen :-) Unter Windows 10 traut sich da keiner mehr drüber, obwohl es da um ein viel grösseres Einsparpotential geht. Da findet man in Netz auch kaum Infos dazu. MS hat da ganze Arbeit geleistet. Mit dem 1903 Update werden einfach mal 7 GB auf der Platte für Updates reserviert, zusätzlich zu den zig GB, die Win 10 benötigt...
Drosius Ingolf schrieb: > Was ich nicht verstehe, Anfang der 90er Jahre reichten für eine > grafische Oberfläche wie Windows 3.X und OS/2 4 Mb (nicht Gb!) RAM und > ein Intel 386 mit müden 33 MHz Takt und 11,4 MIPS. Anfang der 90er reichten für eine grafische Oberfläche wie Windows 2.x auch 512 Kilobyte schon aus, mit müden 4,77 MHz. Ich war dabei. :-) Ende der 70er reichten unter IBSYS ohne grafische Oberfläche bereits rund 128 Kilobyte (Kilobyte, nicht Megabyte!) aus, um eine ganze Universität mit Rechenleistung zu versorgen. Auf einer IBM 7090 mit einem Memorytakt im Kiloherzbereich. In meinem derzeitigen Desktop langweilen sich 64 GByte die meiste Zeit und steht jedem der Handvoll Kerne mehr First-Level-Cache zur Verfügung als meinem ersten IBM-PC (von der CP/M-Kiste davor will ich gar nicht erst anfangen) an Main-Memory. Aber: ich kann mir den Spaß machen, auf der dicken Kiste ohne viel Mühe ein Programm zu schreiben, welches auf einem Komplettrechner in Reiskorngröße läuft, der nur ein paar hundert Worte Programmspeicher und wenige Bytes als Register bietet, um darauf recht erstaunliche Toneffekte zu produzieren. Oder, für 2 oder 3 EUR, eine Platinchen von Briefmarkenformat, das mit geeigneter Firmware die oben genannte 7090 komplett ersetzen könnte - mehrfach. Mit GUI, über Funk. So ändern sich die Zeiten. Das Spektrum ist breiter geworden. > Anders formuliert, > man brauchte damals nur ein tausendstel des heutigen Speicherbedarfs > (bei der Oberfläche GEM 1/4000), und einen etwa elftausend mal > langsameren Prozessor (Bezug Intel Core i7 2600K, 3,4 GHz, 128.300 > MIPS)(bei GEM ca. 121.000 Mal, Motorola 68000, 8 MHz, 1 Mips). Der Denkfehler liegt hier im Gebrauch des Worts "brauchen". Das ist der falsche Begriff. Man braucht es nicht, man gebraucht es, weil es da ist. Zum Teil ist das sinnvoll, überwiegend aber Nachlässigkeit. > Da ich > mich nur mit hardwarenaher Programmierung und Hardware auskenne, kann > mir einer mal erklären, wieso die heutigen grafischen Betriebsysteme wie > Windows, Linux, MacOS drei bis vier Zehnerpotenzen mehr Ressourcen > brauchen? Weil es Mühe macht, Systeme so zu bauen, daß sie Terabytes an RAM (!) verwenden können, aber auch in 64 Kilobyte noch verwendbar sind. Oder in 512 Bytes. Das Problem ist neu (genauer: es stellt sich immer wieder aufs Neue), das gab es in der Form damals nicht. Apple hat einmal eine gute Idee gehabt, die m.E. nicht geklaut oder eingekauft war, die aber dem Idol "Wachstum um jeden Preis" entgegen stand und deswegen so engagiert vergessen wurde, daß man heute keine Spuren mehr davon findet bzw. ein dazu passendess - und frei erfundenes - Zitat gern einem noch lebenden Häuptling der Konkurrenz zuschreibt: das war das Konzept "128 Kilobyte ist genug für jedermann". Die gar nicht so dumme und seinerzeit eine Weile beim ersten Mac gehandelte Idee war, daß man Vorteile beim Bau von Software hat, wenn man gewisse Eckwerte der Hardware ursprünglich üppig auslegt, dann aber für längere Zeit einfriert. DPI, RAM-Größe, Zahl der Tasten einer Maus, usw. Und dann kam ganz schnell der "Fat-Mac". :-) > Womit quälen sich die superskalaren Mehrkern CPUs rum, was es > früher noch nicht gab? Ich spreche jetzt nur vom Ressourcenbedarf des > nackten Betriebssystems! Daß es Applikationen gibt wie Transcoder, die > wirklich extrem Power benötigen, ist unbestritten. > Mit so etwas, beispielsweise: https://archive.org/details/win3_klotz211 Im Browser spielbar. Wurde auf einem IBM-PC-Clone mit Herkuleskarte unter Windows 2 entwickelt, läuft aber auch unter Windows 10/32-Bit durchaus noch, gerade zum Spaß mal wieder mit genau der Fassung ausprobiert, siehe Bild im Anhang. Interessanterweise übrigens in der Emulation von archive.org (keine Ahnung, aus welcher Quelle die das haben) mit Sound, während Windows 10 das nicht mehr unterstützt: kein PC-Speaker verfügbar. Etwas schöner als das adhoc-Foto ist ein Screenshot, den ich 2014 mal mit Windows 8.1 gezogen habe ... https://www.mystrobl.de/Plone/basteleien/windows-oldies/klotz-2-11a-1990-unter-windows-8-1-32-bit/download Etwas ersthafter: weil man, statt sinnlose Unterschiede glattzubügeln, einfach minimal unterschiedliche Kopien - von Bibliotheken, Funktionsblöcken, API, Runtimesystemen, ja sogar Emulatoren - nebeneinanderstellt und weil man ältere Emulatoren auf neueren Emulatoren laufen läßt, wenn einem der so gewachsene Kramladen über den Kopf gewachsen ist, statt gelegentlich mal aufzuräumen. Die Begründung dafür ist: es funktioniert. Meistens jedenfalls.
:
Bearbeitet durch User
leo schrieb: > Nano schrieb: >> ... wenn du 1000 Seiten Blättern >> musst und der Scrollbalken dann so klein geworden ist, Habe ich aktuell rechts unten in diesem Thread. Der Balken ist noch 3 mm hoch, und der Leerraum zwischen Balken und Pfeil-runter 1 mm. In den muß ich reinklicken, wenn ich seitenweise runterblättern will. Tastatur geht nicht, weil ich bin ja im Eingabefenster. Also auch das System hat seine Schwächen. Bzw. moderne Mehrfinger-Tatschplatten ihre Stärken. > ich verwende die Leertaste im Browser (FF) bzw. PDF-Viewer. Die wird > nicht kleiner ;-) Mach das mal beim Blättern durch Youtube-Kommentare. Da startet und stoppt einfach nur das Video dauernd, scrollen tut nix. Und von wegen wird nicht kleiner: Microsoft hat die Leertaste ganz schön geschrumpft mit seinen Schwachsinns-Windows-Tasten. Vor allem fehlen seither die Leeräume daneben, um sie blind ertasten zu können. Ich verwende die Tastatur, wo es nur geht. Es ist immer schneller, einen dedizierten Knopf zu drücken, selbst wenn es 2 oder 3 gleichzeitig sein müssen, als mit einer Maus rumzurühren oder gar einem Touchpad. Fun fact: Bei Apple hat der Firefox keine Tastenkombination für die History. Obwohl Apfel-H keine Funktion hat (so genau weiß ichs nicht mehr, aber es gäbe ein paar Dutzend freie Tastenkombinationen dafür.) Vor allem finde ich Maus super anstrengend und meine Hirn-Rechenzeit verbrauchend, während Tastendrücke wohl aus dem Reptiliengehirn kommen. Hat schon einen Grund, warum Flugzeuge 1000 Knöpfe haben und nicht ein Drecks-Drehrad wie bei BMW. Ok, ab spätestens dem A380 mit seinen Surfstationen für die Piloten hat Sicherheit durch Ergonomie in der Luftfahrt dann auch keine Rolle mehr gespielt.
:
Bearbeitet durch User
Da gibt's mehrere Uhrsachen. 1) Die Grafik Viele der neuesten Grafikschnittstellen werden nur von top level hardware voll unterstützt. Oft gibt's auch keine gscheiten treiber, und alles wird in software emuliert, da isses dann framebuffer hardware. 2) Programmiersprachen. Wenn du's mit asm hast, dann kennst du da die spielchen die man mit loop unrolling und compiled bitmaps spielen kann. Viele von denen machen auch Sinn... in 1% der fälle.... Moderne programmiersprachen (C++) 'optimieren' da viel automatisch und können sehr voluminösen code erzeugen. 3) 'layered abstractions' Früher hat das programm irgendwas in den grafikspeicher geschrieben. Heute ist das möglicherweise illegal. Es ist aus arbitrierungsgründen auch ganz nützlich da einen display manager oder ähnliches dazwischenzuhaben. Leider hört das da aber nicht auf, und es wird immer mehr Dreck da dazwischengestapelt. Vieles davon ist natürlich durchaus gewollt um neues Kraffl verkaufen zu können.
Udo K. schrieb: > Und mal ehrlich, mein Handy hat schon 4 GB RAM... Meins 0.5 Und inzwischen sind auf dem quasi alle WebSeiten ausser mikrocontroller.net unbenutzbar weil selbst mit dem Browser als einzige App die Werbung auf den kommerziellen Seiten den Speicher komplett zuzieht. Eine Seite eines Idiotenanbieters wie web.de oder stern.de verbraucht für ihre dutzenden Werbungsbildchen die ganzen 512MB, und die wurden vorher natürlich auf Kosten meines Kontingents gedownloaded. Krank. Alle Irre. Vor 1 Jahr waren es nur einige Anbieter die so schlecht waren, inzwischen fast alle. > Und fuer ein Essen zu zweit hast du das Geld fuer > die 16 GB schon drinnen. Irgendwie vermisse ich in neinem Handy den Steckplatz für 15.5GB RAM. Wegschmeissen und neukaufen ist angesagt. Da hilft es nichts, dass der Rest vom Gerät pfleglich behandelt wurde, der Akku ausgetauscht, und das Gerät von Motorala = Google stammt. > Du kannst nicht 15 Jahre alte Technik verwenden, und glauben, > dass die neueste Software darauf anstandslos laeuft Schon auf dem 5 Jahre alten läuft quasi nichts mehr, keine eBay App, kein CleverTanken (bekommt kein GPS) kein Google Maps, kein google.de (ja, seit 1 Woche geht selbst die google.de Suchseite im Browser nicht mehr weil der Skript von google auf die Schnauze fällt). Die Idiotenschar der Kleinkinder-Programmierer, die höchstens 6 Monate alte Geräte im WLAN verwenden, ruinieren Hardware-Werte schneller, als man nachkaufen kann. Einerseits aus Dummheit gepaart mit Faulheit, andererseits aus Werbegier und Spionagewahn. Und ich kenne viele Leute, die keinen Bock mehr haben und nicht mehr nachkaufen: beispielsweise Drucker: hat fast keiner mehr, die kommen alle zu mir zum Drucken. Weil die Nachfülltinte mit Gold aufgewogen wurde und die Kisten alle 2 Jahre kaputt waren. Es hat auch keiner einen Scanner mehr, weil fürs neue Betrübssystem kein Treiber passt, manche Scanner haben schon aufgehört zu funktionieren wenn man bloss den Browser geupdated hatte. So ruiniert sich eine ganze Branche ihre potentielle Kundschaft.
Und es kommt noch schlimmer: Mein altes Motorola Handy (G3) hat super Internet Empfang in der Wohnung (ca. 1MB / sec mit H+). Der nächste Mast dürfte beim Bahnhof stehen, ca. 1 km entfernt, die Altbau Wohnung hat ziemlich dicke Wände. Alle neuen Handys, die ich probiert habe, sind deutlich schlechter, die meisten völlig unbrauchbar. Neues Motorola = Lenovo = total fail Neues Xiaomi = total fail Neues Samsung = geht manchmal Gelandet bin ich beim Huawei, das ist zwar auch etwas schlechter als das alte G3, hat dafür aber eine super Kamera und 4 GB fürs Anschauen der Werbung... Aber dafür interessiert sich kein "Test" im Web. Die Handytests sind voll mit Berichten, wie schön das Display ist, wie gut das Android lüft, und wie toll die Kamera ist. Aber ob man brauchbaren Empfang hat, wird verschwiegen.
> Die Idiotenschar der Kleinkinder-Programmierer, die höchstens 6 Monate > alte Geräte im WLAN verwenden, ruinieren Hardware-Werte schneller, als > man nachkaufen kann. Einerseits aus Dummheit gepaart mit Faulheit, > andererseits aus Werbegier und Spionagewahn. Bemerkenswert finde ich vor allem das man ueberall zugelabert wird von wegen Auto soll so wenig verbrauchen wie moeglich, am besten noch elektrisch. Haus so krass gut isoliert sein. Sparen, sparen, sparen.... Und dann wird unglaublich viel Kohle durch obige Unfaehigkeit, Inkompetenz und Gier vernichtet. Es wird Zeit das wir Werbung komplett verbieten. Olaf
Ressourcenwahnsinn trifft das ganz gut. in meinem Fall auch Änderungswahnsinn. grad habe ich mich ans Nutzen von mSATA Geschichten gewöhnt, soll das am liebsten schon wieder ersetzt werden.
Dieses Forum: "Wieso läuft dieses Drecks Windows 10 nicht auf meinem C64? Diese faulen Programmierer verschwenden Resourcen ohne Ende." Auch dieses Forum: "Unter 100k€ steig ich nicht amal mit einem Bein aus dem Bett. Ich kauf prinzipiell nur Mercedes über 500PS. Achja und der (anthropogene) Klimawandel ist eine Lüge."
:
Bearbeitet durch User
Du machst einen sehr beliebten Fehler: das Forum ist, genauso wie jede andere hinreichend große Gruppierung, keine homogene Masse mit einer einheitlichen meinung.
MaWin schrieb: > Meins 0.5 > > Und inzwischen sind auf dem quasi alle WebSeiten ausser > mikrocontroller.net unbenutzbar Opera mini probieren. Musst dann aber mit der Vorstellung leben, dass der Kram über einen vorverdauenden Proxy läuft.
Le X. schrieb: > Dass man alles von der Pike auf schneller, sauberer, sicherer (!) und > sparsamer selber programmiert halte ich für ein Gerücht. > Auch keine Firma kann sowas stemmen, zumindest wenn sie irgendwie > rentabel sein will. > > Deswegen ist es unumgänglich auf irgendwelche Frameworks > zurückzugreifen Warum genau noch ist die erste Ariane 5 abgestürzt? Richtig, weil man etwas blind auf bewährte Softwaremodule zurück gegriffen hat. Warum kriegt es Win10 im Explorer nicht fertig, das Änderungsdatum einer Datei korrekt anzuzeigen - weil man auf bewährte Software zurück greift? (Dateidatum von Dateien in .Zip Archiven)
Um bei Windows zu bleiben: Im Grunde ist Windows 10 noch immer ein sehr effizientes BS. Windows kann nichts dafuer, dass Programmierer Frameworks einsetzen, die schnell mal 10 MB fuer ein Hello World Programm brauchen, wie z.B. QT oder .NET, oder das MS im Hintergrund 100 Dienste laufen laesst, von denen 90 entbehrlich sind. Als Beispiel habe ich schnell mal ein Kommandozeilen "Hello World" Program in C gebastelt (im Anhang). Das braucht gerade mal 1kByte! Die 1 kByte sind ca. zu 50% Nullen, die sich aus der minimalen Groesse einer .text Sektion ergeben. Man kann also auch unter Windows 10 kleine Programme bauen.
Im Anhang noch ein echtes Windows Program, das einen Sinus in ein Fenster zeichnet. Das Beispiel ist aus dem Petzold kopiert, und braucht gerade mal 2kByte auf der Platte. (EDIT: zweites Beispiel angehängt) Das zweite Beispiel ist eine einfache Digitaluhr, grad mal 3.5 kB. (EDIT2: BOOL durch BYTE ersetzt, Das DigClock Progam hat jetzt 3kB) Windows ist schon super :-)
Udo K. schrieb: > Windows kann nichts dafuer, dass Programmierer > Frameworks einsetzen, die schnell mal 10 MB fuer ein Hello World > Programm brauchen, wie z.B. QT oder .NET Das Problem liegt nicht nur bei verschwendetem Speicherplatz oder langen Downloads, sondern vor allem in der miserablen Arbeitsgeschwindigkeit dieser Software, selbst auf modernster Hardware. Und das bei verhältnismäßig geringen Funktionsumfang. Beispiel Starmoney: https://www.starmoney.de/privat/fuer-den-pc-windows/starmoney-12-basic-testversion 300MB groß und grottenlahm. ALF-Banco kommt mit 53MB aus und läuft auch auf schwacher Hardware flüssig: https://www.alf-banco.de/download/homebanking-software.html Mit wie wenig Ressourcen man trotz ordentlichem Funktionsumfang auskommen kann, beweist Irfanview mit lediglich 2,7MB in der 32-Bit-Version: https://www.heise.de/download/product/irfanview-1965/download Windows ist jedoch mittlerweile selbst ein gigantischer Ressourcenfresser geworden. Updates mit Größen von einigen Gigabyte sind nicht mehr Ausnahme, sondern Regel. Es wird immer schlimmer, die Installation eines Monats-Rollups auf einem Server mit XEON Gold, 16GB RAM und SSDs dauerte letztens über 3 Stunden. In Zukunft werden die Belegschaften wahrscheinlich eine Woche Urlaub nehmen müssen, weil die Systeme wegen Updates lahmliegen...
Udo K. schrieb: > Im Anhang noch ein echtes Windows Program, das einen Sinus > in ein Fenster zeichnet. > > Das Beispiel ist aus dem Petzold kopiert, und braucht gerade > mal 2kByte auf der Platte. Mein oben via archive.org verlinktes "klotz.exe" habe ich zu programmieren begonnen, bevor Charles Petzold seine Serie von Büchern zu publizieren begann. Sein durchaus empfehlenswertes "Programming Windows" habe ich erst viel später in die Finger bekommen > > (EDIT: zweites Beispiel angehängt) > Das zweite Beispiel ist eine einfache Digitaluhr, grad mal 3.5 kB. klotz.exe aus 1990 belegt immerhin fast 40 Kilobyte, tut allerdings auch etwas mehr als eine einfache Digitaluhr. > > Windows ist schon super :-) Weiß nicht. Ich habe Windows seit Version 2 über Windows 3, Windows NT bis Windows 8.0 allen Alternativen vorgezogen, i.W. weil es selber das Produkt war und nicht primär als Vehikel diente, andere Produkte - die eigene Hardware, die eigenen Clouddienstleistungen, die eigenen Datensammelbemühungen - zu verkaufen. Weil es darüber hinaus über diese ganze Zeitspanne (1987 bis 2013, 26 Jahre!) eine konsistente Oberfläche, ein konsistentes API und zumindest die Möglichkeit bot, kompakte und in Binärform langlebige Anwendungen zu bauen. Spätestens mit Windows 10 ist das Geschichte. Bei Windows 10 ist der Privatkunde zahlender Betatester geworden, der nach Gutdünken herumgeschubst wird. Es sei dahingestellt, ob es Alternativen gibt - die Desktop-Situation bei Linux ist ein Krampf, und das seit vielen Jahren ohne Aussicht auf Besserung, mit Chromebooks etc. kommt man vom Regen in die Traufe -, jedoch waren die "mobile first"-Anwandlungen und haben mir die naßforschen Zwangsupdates von Windows (auch bei der teuren Pro-Version) und ihre Inhalte vor einer Weile den Grund geliefert, auf dem aktuellen großen Tower, der mir als Desktop dient, auf eine Linux-Distribution umzuziehen. Schmerzfrei ist das nicht und empfehlen kann ich das auch nicht wirklich, bedauert habe ich es bisher aber nicht.
Rufus Τ. F. schrieb: > Der Quelltext wäre interessanter. Den kannst du im Petzold anschauen, Programming Windows, 5th Ed. Findest du auch im Netz. Ich habe nur anderes Kompile Optionen genommen, und die verschiedenen Sektionen (.rdata, .data und .text) zusammengelegt. Interessant ist auch, dass die exe kleiner als die Quelltexte sind, und das mit praktisch Null Kommentaren. Als Appetithäpchen noch zwei Mini Programme: Ein Hex Taschenrechner mit 5kByte, und ein nützliches Tool, das die Farbe unter der Maus als R-G-B Hex Wert anzeigt. Beide unter 5kByte!
Wolfgang S. schrieb: > Schmerzfrei ist das nicht und empfehlen kann ich das auch nicht > wirklich, bedauert habe ich es bisher aber nicht. Was ich aber schon super finde, ist das die Petzold Programme aus dem Jahre 1998 unverändert laufen. Nich mal eine Compiler Warning kommt da.
Icke ®. schrieb: > Windows ist jedoch mittlerweile selbst ein gigantischer > Ressourcenfresser geworden. Updates mit Größen von einigen Gigabyte sind > nicht mehr Ausnahme, sondern Regel. Es wird immer schlimmer, die > Installation eines Monats-Rollups auf einem Server mit XEON Gold, 16GB > RAM und SSDs dauerte letztens über 3 Stunden. In Zukunft werden die > Belegschaften wahrscheinlich eine Woche Urlaub nehmen müssen, weil die > Systeme wegen Updates lahmliegen... Das "Update" ist eine Neuinstallation. Aber ich hätte auch gerne das Geld für die verschwendete Arbeitszeit auf meinem Konto. Ein Windows 10 nur mit den essentiellen Features, ohne die überflüssigen Dienste und den ganzen Cortana Overhead wäre schön. Geht sicher, nur müsste es wer machen...
Udo K. schrieb: > Ich habe nur anderes Kompile Optionen genommen, und die verschiedenen > Sektionen (.rdata, .data und .text) > zusammengelegt. Daß nicht jeder Lust darauf haben könnte, von irgendwem erzeugte *.exe-Dateien aus dem Internet herunterzuladen und auszuprobieren, ist Dir noch nicht eingefallen?
Rufus Τ. F. schrieb: > Udo K. schrieb: >> Ich habe nur anderes Kompile Optionen genommen, und die verschiedenen >> Sektionen (.rdata, .data und .text) >> zusammengelegt. > > Daß nicht jeder Lust darauf haben könnte, von irgendwem erzeugte > *.exe-Dateien aus dem Internet herunterzuladen und auszuprobieren, ist > Dir noch nicht eingefallen? Na ja, die exe sind so klein, dass ein aktueller Virus keinen Platz hat :-) Ansonsten musst du sie halt in einer VM laufen lassen.
Wolfgang S. schrieb: > Mein oben via archive.org verlinktes "klotz.exe" habe ich zu > programmieren begonnen, bevor Charles Petzold seine Serie von Büchern zu > publizieren begann. Sein durchaus empfehlenswertes "Programming Windows" > habe ich erst viel später in die Finger bekommen Den Link habe ich leider nicht gefunden...
Wolfgang S. schrieb: > Weil es darüber hinaus über diese ganze Zeitspanne (1987 bis 2013, 26 > Jahre!) eine konsistente Oberfläche, ein konsistentes API und zumindest > die Möglichkeit bot, kompakte und in Binärform langlebige Anwendungen zu > bauen. > > Spätestens mit Windows 10 ist das Geschichte. Bei Windows 10 ist der > Privatkunde zahlender Betatester geworden, der nach Gutdünken > herumgeschubst wird. Es sei dahingestellt, ob es Alternativen gibt - die > Desktop-Situation bei Linux ist ein Krampf, und das seit vielen Jahren > ohne Aussicht auf Besserung, mit Chromebooks etc. kommt man vom Regen in > die Traufe -, jedoch waren die "mobile first"-Anwandlungen und haben mir > die naßforschen Zwangsupdates von Windows (auch bei der teuren > Pro-Version) und ihre Inhalte vor einer Weile den Grund geliefert, auf > dem aktuellen großen Tower, der mir als Desktop dient, auf eine > Linux-Distribution umzuziehen. Die konsistente Api gibt es nachwievor. Es sind halt statt 1-2 jetzt 4 verschiedene (Win32, MFC, .NET und WPF) Ich hoffe, dass MS aus dem Nokia Debakel gelernt hat, und dass sich Windows 10 langsam in die richtige Richtung entwickelt. Es ist nicht alles konsistent, und viele Anwenderprogramme sind ein Krampf, aber es ist nicht hoffnungslos.
Udo K. schrieb: > Wolfgang S. schrieb: >> Mein oben via archive.org verlinktes "klotz.exe" habe ich zu >> programmieren begonnen, bevor Charles Petzold seine Serie von Büchern zu >> publizieren begann. Sein durchaus empfehlenswertes "Programming Windows" >> habe ich erst viel später in die Finger bekommen > > Den Link habe ich leider nicht gefunden... In https://archive.org/details/win3_klotz211 kann man im Browser spielen, indem man oben auf das Bild klickt. Es gibt aber auch unten rechts einen Block "Downloads Options", unter anderem auf Bilder, ein .zip mit den wesentlichen Bestandteilen, sowie einen Link auf einen Downloadbereich mit insg. 81 Dateien, die ich mir noch nicht alle angeschaut habe. Speziell das klotz.zip läßt sich aber auch ausgepackt anschauen: https://ia800201.us.archive.org/zipview.php?zip=/33/items/win3_klotz211/klotz211.zip und dort sieht man, daß klotz.exe in der Fassung 40224 Bytes groß ist. Ich müsste in meinen alten Archiven kramen, um herauszufinden, welche der seinerzeit verteilten Versionen das ist, vmtl. eine, die ich als .zoo über eine comp.windows-Usenetgruppe verteilt hatte. Virustotal kennt sie jedenfalls erst seit ein paar Jahren.
> Na ja, die exe sind so klein, dass ein aktueller Virus keinen Platz hat :-)
AEhem..ja genau. Die Virenprogrammierer waren frueher auch mal besser.
:-D
Olaf
Wollvieh W. schrieb: > Mach das mal beim Blättern durch Youtube-Kommentare. Da startet und > stoppt einfach nur das Video dauernd, scrollen tut nix. Ja, das stimmt, aber es gibt immer noch Page-Down. leo
Udo K. schrieb: > Die konsistente Api gibt es nachwievor. Es sind halt statt 1-2 jetzt 4 > verschiedene (Win32, MFC, .NET und WPF) Die MFC ist keine "Parallel-API", sondern setzt auf der Win32-API auf.
> Ein Windows 10 nur mit den essentiellen Features, > ohne die überflüssigen Dienste und den ganzen Cortana Overhead > wäre schön. Geht sicher, nur müsste es wer machen... Gibt's doch, als LTSB (nur doof das man halt auch keine neueren Prozessoren nutzen kann und auch irgendwann kein neueres Office & Co weil die APIs konstant bleiben) oder noch extremer als Windows Server Core, da ist dann selbst die GUI optional.
Johannes F. schrieb: > Gibt's doch, als LTSB Allerdings nur als Volumenlizenzen. Sprich, doppelter Preis im Vergleich zu OEM-Lizenzen und 5 Stück Mindestabnahmemenge.
A. K. schrieb: > Wenn du Auditing glossflächig einschaltest, dann ist das tatsächlich so. > Da lässt sich auch jede Fileoperation protokollieren. Allerdings ist das > eher selten der Fall, und nicht routinemässig. Erst mal informieren, bevor man vorklug alles als Verschwörungstheorie abtut, was einem gerade nicht in den Kram passt. Die NSA, PRISM etc. Snowden - alles Verschöwrung, oder? Leider ist dem nicht so. Probier mal das LastActivityTool (download link unten) aus, dann weißt Du, was gespielt wird. Ich war schockiert. http://www.afug-info.de/Verschiedenes/Virenscanner/
Oh oh schrieb: > A. K. schrieb: >> Wenn du Auditing glossflächig einschaltest, dann ist das tatsächlich so. >> Da lässt sich auch jede Fileoperation protokollieren. Allerdings ist das >> eher selten der Fall, und nicht routinemässig. > Erst mal informieren, bevor man vorklug alles als Verschwörungstheorie > abtut, was einem gerade nicht in den Kram passt. Erst mal lesen und verstehen, bevor man vorklug den falschen Baum anpinkelt. Die Einstufung als "Verschwörungstheorie" war von Rufus. Von mir kam der Hinweis, dass es volle und tiefe Protokollierung sehr wohl geben kann.
:
Bearbeitet durch User
MaWin schrieb: > Udo K. schrieb: >> Und mal ehrlich, mein Handy hat schon 4 GB RAM... > > Meins 0.5 > > Und inzwischen sind auf dem quasi alle WebSeiten ausser > mikrocontroller.net unbenutzbar weil selbst mit dem Browser als einzige > App die Werbung auf den kommerziellen Seiten den Speicher komplett > zuzieht. Eine Seite eines Idiotenanbieters wie > web.de oder stern.de verbraucht für ihre dutzenden Werbungsbildchen die > ganzen 512MB, und die wurden vorher natürlich auf Kosten meines > Kontingents gedownloaded. Krank. Alle Irre. Ja, oftmals achten die Seitenbetreiber oder Werbeanzeigeleute nicht darauf die Bilder klein zu halten. Beachten solltest du allerdings, dass ein komprimiertes JPG auf deinem Rechner entpackt und dann dargestellt wird. Im RAM auf deinem Rechner ist es nicht mehr komprimiert, das ist es nur auf dem Server und beim Datentransport, gesetzt den Fall, die Marketingfuzzis waren nicht zu blöd um das richtige Bildformat zu wählen. Das andere Problem ist, dass die Seitenbetreiber und wahrscheinlich vor allem die Marketingleute davon ausgehen, dass du die Seite auf einem 4K Bildschirm anschaust, daher darf die Werbung nicht pixelig wirken. Insofern muss man heute schon mit 4K Bildern rechnen. Und dann sind das in der Regel Grafiker die ihr Bildnis in der richtigen Art und Weise dargestellt haben wollen, die werden nicht an uns Nutzer denken, sondern mit Liebe das Bild wohl auch in 48 Bit Farbtiefe versenden wollen. Womit wir dann für so einen Werbebildchen im schlimmsten anzunehmenden Fall bei 3840 × 2160 * 6 Byte = 47,46 MB bzw. 4096 × 2160 * 6 Byte = 50,63 MB sind. Da es nicht das einzige Bild ist, kommen noch einmal ein paar dazu, dazu noch eventuell ein paar animierte Videos und schon hat man die Erklärung warum so eine Webseite 512 MB im RAM belegen könnte. Schön ist das gewiss nicht, da hast du meine absolute Zustimmung. Meiner Meinung nach würde Werbung in 1024x768 Pixel oder weniger und in 16 Bit oder 8 Bit Farbtiefe, je nach Bildnis völlig genügen. Aber das muss man erst einmal den Werbefachleuten erklären. Deren Kunden wollen, dass ihr Produkt in der bestmöglichen Qualität präsentiert wird, dafür zahlen die, deswegen müssen wir leiden. Eine Lösung wäre ein Browserplugin, das alle Bilder vorher abfängt und die Auflösung und Farbtiefe reduziert. Aber dann kommen wieder die Anwälte und erklären einem, dass dies wegen dem Urheberrecht problematisch ist. Außerdem würde es die Zeit, bis eine Webseite endlich dargestellt wird, verschlechtern. Aber mit genug Rechenpower wäre es einen Versuch wert, eventuell kann man dazu auch die GPU benutzen, der RAM Bedarf würde am Ende dann nur noch einen Bruchteil einnehmen. Ich weiß allerdings nicht ob es so ein Browserplugin schon gibt. > Es hat auch keiner einen > Scanner mehr, weil fürs neue Betrübssystem kein Treiber passt, manche > Scanner haben schon aufgehört zu funktionieren wenn man bloss den > Browser geupdated hatte. So ruiniert sich eine ganze Branche ihre > potentielle Kundschaft. Ich habe mir einfach einen Scanner gekauft, der unter Linux funktioniert. Und da ich an einem Linuxrechner scanne, wird der noch sehr lange funktionieren.
Johannes F. schrieb: >> Ein Windows 10 nur mit den essentiellen Features, >> ohne die überflüssigen Dienste und den ganzen Cortana Overhead >> wäre schön. Geht sicher, nur müsste es wer machen... > > Gibt's doch, als LTSB (nur doof das man halt auch keine neueren > Prozessoren nutzen kann und auch irgendwann kein neueres Office & Co > weil die APIs konstant bleiben) oder noch extremer als Windows Server > Core, da ist dann selbst die GUI optional. Windows hatte mal den Vorteil, daß Microsoft sich Beine ausgerissen hat, alte Anwendungen zu unterstützen und das gelegentlich sogar dann, wenn diese nicht dokumentierte Schnittstellen nutzten. Das ist jedoch Schnee von gestern. Heute werden nicht mal die Resultate eigener Entwicklungswerkzeuge langfristig unterstützt. Der Trick funktioniert so: Visual Studio ist unter LTSB nicht supported. Unglaublich, aber wahr. Bei allem Verständnis dafür, daß man sich nur der Konkurrenz angepasst hat, die sich in der Hinsicht seit jeher weniger bemüht hat: das war ein Alleinstellungsmerkmal, dessen Verlust man bedauern darf.
Olaf schrieb: >> Die Idiotenschar der Kleinkinder-Programmierer, die höchstens 6 Monate >> alte Geräte im WLAN verwenden, ruinieren Hardware-Werte schneller, als >> man nachkaufen kann. Einerseits aus Dummheit gepaart mit Faulheit, >> andererseits aus Werbegier und Spionagewahn. > > Bemerkenswert finde ich vor allem das man ueberall zugelabert wird von > wegen Auto soll so wenig verbrauchen wie moeglich, am besten noch > elektrisch. Haus so krass gut isoliert sein. Sparen, sparen, sparen.... > > Und dann wird unglaublich viel Kohle durch obige Unfaehigkeit, > Inkompetenz und Gier vernichtet. Die Uploadfilter der EU! Wie viele Kohlekraftwerke wird man wohl, nur um diese ständig Uploads prüfen zu lassen, benötigen? Eines ist klar, wenn die EU mal wieder etwas in Richtung Energieverbrauch beschließt, dann werde ich darauf einen ganz großen Haufen setzen. Mein Alter Staubsauger mit einer deutlich höheren Leistung als der neue mit der EU Begrenzung saugt übrigens auch deutlich besser als der neue.
Das meiste der Resourcen geht für Hintertürchen der / und Werbung drauf. Dazu kommt, dass fast jeder sein eigenes Süppchen kocht. Es gibt ja auch hunderte verschidener CPU und MPU. Für fast jede Anwendung was eigenes. Statt universell und einheitlich. Kurzzeitige Standards, Trends setzen sich durch und verschwinden. Dann weiß niemand mehr, wie es ging.
Bernd schrieb: > Statt universell und einheitlich. Kurzzeitige > Standards, Trends setzen sich durch und verschwinden. Dann weiß niemand > mehr, wie es ging. Genau andersrum ist es. Kannst du dich noch an Zeiten vor USB erinnern? Wusstest du dass es früher mal Heimrechner gab die kein "IBM-PC oder 100% kompatibel" waren und dementsprechend deine Lieblingsanwendung nicht starten konnten?
A. K. schrieb: > Jan H. schrieb: >> Das wirst du wohl kaum mit dem "nackten Betriebssystem" machen. > > Definiere "nacktes Betriebssystem". Ist das nur der reine Kernel, oder > ist es das, was sich nach der Standardinstallation auf der Kiste > befindet? In einer Standardinstallation von Windows und Raspbian ist > ungefragt ein Browser schon enthalten, beim Raspi sogar eine komplette > Office Suite. > > Mit dem reinen Kernel kommt man schon deshalb mit wenig Cores und wenig > RAM aus, weil man mit ihm nichts anfangen kann. Dafür braucht es erst > einmal Anwendungen - und dann siehe oben. > > Es gibt allerdings Mindestvoraussetzungen. Wenn das System in der Lage > sein soll, auch heute noch mit 64MB Speicher arbeiten zu können, dann > kann es Mechanismen, die nur ab 2GB RAM sinnvoll sind, nicht nutzen. Welche Mechanismen meinst Du hier? Kannst Du da ein, zwei Beispiele nennen. > Alle Szenarien seit 386 optimal zu unterstützen erhöht die Komplexität > des Systems, und damit den Pflegeaufwand.
Reinhard S. schrieb: > Rufus Τ. F. schrieb: >> Heutige Systeme booten trotz des Ressourcenwahnsinns schneller als ein >> XT von 1981, und mehr Strom verbrauchen sie auch nicht. > > Ich trauer immer noch etwas meinem WinME auf Siemens-Nixdorf P233 > hinterher. Das war beim Herunterfahren bisher das schnellste, was mir > untergekommen ist. Windows 3.x brauchte 0 Sekunden, konnte man einfach ausschalten > Hochfahren würd ich jetzt (gefühlt) auch nicht > langsamer einschätzen als mein Thinkpad T420 mit SSD und Win7. Aber > vielleicht täucht mich da auch meine Erinnerung.
soso... schrieb: > Meine Theorie: > Softwareentwickler verhalten sich wie ideale Gase, sie füllen den > ... > Der Rest besorgen Dinge wie wie C# und Java. > Ich habe ein PC-Programm für einen Bootloader auf meinen µC geschrieben. > Einmal in C, die neue Version in C#. Es lädt ein intel-hex-File und > schreibt das über eine UART in den µC. > Sie tun grob das Gleiche, bis auf den Umstand, dass das C#-Teil ein paar > Buttons hat. Die C-Version benötigt um die 200kBytes Ram, die C#-Version > 40MBytes. Mich hat das echt vom Hocker gehauen, andererseits hat mein PC > 8GByte RAM - das Programm benötigt gerade ein mal 0,5% davon... > > Und da sieht man schon das Problem - ich habe keinen Sinn darin gesehen, > die Kommandozeilenversion für 0,5% Einsparung beim RAM weiterzupflegen. > Es lohnt sich schlicht nicht. Etwas komischer Vergleich, aber die Schlussfolgerung stimmt. Hat der Kunde die Wahl zwischen einem kleineren aber teurerem Produkt und einem größeren aber billigeren, dann greift er zum billigeren, da er den Mehraufwand nicht entlohnen will. Kann man auch auf andere Dinge übertragen.
Vincent H. schrieb: > Dieses Forum: > "Wieso läuft dieses Drecks Windows 10 nicht auf meinem C64? Diese faulen > Programmierer verschwenden Resourcen ohne Ende." > > Auch dieses Forum: > "Unter 100k€ steig ich nicht amal mit einem Bein aus dem Bett. Ich kauf > prinzipiell nur Mercedes über 500PS. Achja und der (anthropogene) > Klimawandel ist eine Lüge." Du hast noch eins vergessen: (Vorsicht Ironie ;-) Und dieses Drecks-Tool, dass ich unbedingt brauche und selbst nicht schreiben kann, soll gefälligst einer dieser asozialen Programmierer, am besten aus diesem Forum, in null komma nichts für lau programmieren und wehe es funktioniert nicht auf anhieb!
Udo K. schrieb: > Um bei Windows zu bleiben: > > Im Grunde ist Windows 10 noch immer ein sehr effizientes BS. > Windows kann nichts dafuer, dass Programmierer > Frameworks einsetzen, die schnell mal 10 MB fuer ein Hello World > Programm brauchen, wie z.B. QT oder .NET, > oder das MS im Hintergrund 100 Dienste laufen laesst, von denen > 90 entbehrlich sind. > > Als Beispiel habe ich schnell mal ein Kommandozeilen "Hello World" > Program > in C gebastelt (im Anhang). Das braucht gerade mal 1kByte! > Die 1 kByte sind ca. zu 50% Nullen, die sich aus der minimalen Groesse > einer .text Sektion ergeben. > > Man kann also auch unter Windows 10 kleine Programme bauen. Super vergleich. 1 kByte, um Hello World auszugeben. Und das ohne Framework. Bist Experte oder? Das rumgehacke auf Frameworks, egal wie gut oder schlecht sie sind, kann einem so richtig auf die Eier gehen. Das Problem ist doch nicht primär das Framework, das von zig Progs genutzt wird. Eines der Probleme ist doch das statische Linken viel genutzter Libs zu jedem Programm, da das dynamische Linken in die sogenannte DLL-Hölle geführt hat.
Udo K. schrieb: > Rufus Τ. F. schrieb: >> Der Quelltext wäre interessanter. > > Den kannst du im Petzold anschauen, Programming Windows, 5th Ed. > Findest du auch im Netz. > Ich habe nur anderes Kompile Optionen genommen, und die > verschiedenen Sektionen (.rdata, .data und .text) > zusammengelegt. > > Interessant ist auch, dass die exe kleiner als die > Quelltexte sind, und das mit praktisch Null Kommentaren. > Wow, was für eine geniale Logik Du hier an den Tag legst. Echt spitze. Ich habe hier noch ein Buch über Atomphysik, das ist schon viel größer als so ein Atom. Also unerhört. Und da sind keine Kommentare drin. Unfassbar! > Als Appetithäpchen noch zwei Mini Programme: Ein Hex Taschenrechner > mit 5kByte, und ein nützliches Tool, das die Farbe unter der Maus > als R-G-B Hex Wert anzeigt. > Beide unter 5kByte!
Stefan E. schrieb: > Welche Mechanismen meinst Du hier? Kannst Du da ein, zwei Beispiele > nennen. - Die Art wie z.B. das ZFS Filesystem mit RAM umgeht. - Ein 64-Bit Adressraum ist mit 64 MB RAM nicht sinnvoll, Ein 32-Bit Adressraum nicht mit etlichen GB RAM. Beides gleichermassen zu unterstützen frisst jene Ressourcen, die man ja eigentlich sparen will.
A. K. schrieb: > Stefan E. schrieb: >> Welche Mechanismen meinst Du hier? Kannst Du da ein, zwei Beispiele >> nennen. > > - Die Art wie z.B. das ZFS Filesystem mit RAM umgeht. Der Zusammenhang erschließt sich mir nicht? Braucht man zur Nutzung des ZFS zwingend 2 GB RAM? > > - Ein 64-Bit Adressraum ist mit 64 MB RAM nicht sinnvoll, Ein 32-Bit > Adressraum nicht mit etlichen GB RAM. Unterschreib ich. > Beides gleichermassen zu unterstützen frisst jene Ressourcen, die man ja eigentlich sparen will. Da steh ich schon wieder auf dem Schlauch. Ich würde es gerne verstehen.
Stefan E. schrieb: >> - Ein 64-Bit Adressraum ist mit 64 MB RAM nicht sinnvoll, Ein 32-Bit >> Adressraum nicht mit etlichen GB RAM. > >> Beides gleichermassen zu unterstützen frisst jene Ressourcen, die man ja > eigentlich sparen will. > > Da steh ich schon wieder auf dem Schlauch. Ich würde es gerne verstehen. Ein System, dass 32-Bit wie auch 64-Bit Anwendungen gleichermassen unterstützt, frisst mehr Code und Diskspace, als jede der Varianten für sich. Der Versuch, eine grosse Bandbreite an Systemen abzudecken, also auch ressourcenarme System, erhöht also paradoxerweise den Ressourcenverbrauch.
Stefan E. schrieb: >> - Die Art wie z.B. das ZFS Filesystem mit RAM umgeht. > > Der Zusammenhang erschließt sich mir nicht? Braucht man zur Nutzung des > ZFS zwingend 2 GB RAM? RAM ist schneller als HDDs. Man kann Software auf Platz optimieren, oder alternativ auf Zeit. Zusätzliche Funktionen kosten ausserdem Platz. ZFS wurde unter der Annahme entwickelt, dass RAM reichlich zur Verfügung steht, und nutzt deshalb mehr davon als ältere Filesysteme. Es kann aber auch mehr.
:
Bearbeitet durch User
A. K. schrieb: > Ein System, dass 32-Bit wie auch 64-Bit Anwendungen gleichermassen > unterstützt, frisst mehr Code und Diskspace, als jede der Varianten für > sich. Das. Nicht "dass". Sicher, es belegt mehr Plattenplatz und auch Arbeitsspeicher, aber es ist in anderer Hinsicht ressourcensparender -- weil nämlich "alte" 32-Bit-Anwendungen weiter verwendet werden können, ohne daß für den Anwender funktional sinnlose "Updates" angeschafft werden müssen. Damit bleibt die einmal getätigte Investition erhalten und kann weiterverwendet werden, und das auf aktueller Hardware mit stabiler Infrastruktur. Der Gegenentwurf, für ein wichtiges altes Programm eigens einen alten Rechner mit altem Betriebssystem aufzuheben, der kann nach einiger Zeit zu sehr interessanten Problemen führen, wenn nämlich an diesem alten Rechner irgendwas ausfällt, und Ersatz nur noch schwierig zu erhalten ist. Ein willkürliches Beispiel: Photoshop CS2 hat mal viel Geld gekostet. Zwar gibt es zig Nachfolgervarianten davon, und mittlerweile auch ein Abomodell, das, wenn man genau die richtige Zielgruppe ist, auch recht günstig erscheint (für ca. 12 EUR/Monat gibt es die Kombination aus Photoshop und Lightroom), aber wer a) die Investition in CS2 getätigt hat (deutlich über 1000 EUR) und b) nicht ständig damit arbeitet, sondern nur gelegentlich, der ist ganz froh darüber, diese alte "Methusalem"-Software ohne große Klimmzüge auch unter aktuellem Windows 10 verwenden zu können. Bei speziellerer Software, bei der es entweder einen funktional schlechteren oder gar keinen Nachfolger gibt, sieht das nicht anders aus. Sicher, man könnte den Aufwand betreiben, mit Virtualisierung ein entsprechendes lauffähiges System zu konservieren, aber das ist dann doch deutlich ressourcenvergeudender und umständlicher zu handhaben als einfach die "alte" Software weiterverwenden zu können. Kompatibilität ist daher keine Ressourcenvergeudung.
Rufus Τ. F. schrieb: > A. K. schrieb: >> Ein System, dass 32-Bit wie auch 64-Bit Anwendungen gleichermassen >> unterstützt, frisst mehr Code und Diskspace, als jede der Varianten für >> sich. > > Das. Nicht "dass". Danke. Jener Hirnteil, der die grossartigen Ideen des Grosshirns in banale Buchstabenfolgen umsetzt, hat mit den Jahren ein bemerkenswertes Eigenleben entwickelt und versucht sich seither an kreativen Ähnlichkeiten. Grammatikalische Logik ist ihm jedoch zu hoch. ;-) > Kompatibilität ist daher keine Ressourcenvergeudung. Klar. In diesem Sub-Thread ging es aber um die Frage, weshalb heutige Betriebs- und Software-Systeme nicht mehr mit 64 MB RAM zurecht kommen. Da ist der zusätzliche Aufwand eines bimodalen 64/32-Bit Systems mit zusätzlichen Kompatibilitätsschleppen spürbar. Bei 64 GB nicht.
Hier mal die Quelltextzeilen einiger Editoren: Kilo: 1298 Unix_V7_ed: 1762 Sandy: 2159 Readline-WinEditLine: 3782 Readline-linenoise: 4773 vi-neatvi: 6475 Plan9-sam-with-extensions: 15572 Brainchild: 29389 vi-WinVi: 31191 Readline-Tecla: 31212 Kakoune: 34842 vi-vis: 42059 Readline-gnu_readline: 43826 Readline-libedit: 45217 PDCurses: 46241 Notepad2: 55996 (ohne 80k Scintilla Engine) HexEdit20: 58110 Joe: 72012 HexEdit121: 82713 vi-BSD_4_4_nvi.1.43: 94195 vi-nvi-Berkely_vi: 121728 Scintilla: 131640 Editra: 140782 vi-Elvis: 149560 Neatpad: 157648 Atom: 183710 MadEdit: 196159 Geany: 209771 Notepad++: 254831 notepad2-mod-4.2.25.998: 258226 Programmers_Notepad: 282755 vi-vim: 726514 Emacs: 2142385 Bei vielen Editoren fehlt noch der Source Code mancher Bibliotheken. Beim BSD nvi sind alle benötigten Bibliotheken dabei, incl. der C Standard Lib. Die Zeilenzahl beinhaltet auch Kommentare, Leerzeilen, und Scripts für Konfigurations- und Syntaxhighlighting (Beim vim machen die C Files z.B. nur ca. 450k aus..). Die Readline Libs aleine machen schon oft 40k aus. Software ist heute Bloatware. Das ist bei leistungsfähiger Hardware aber nicht weiter schlimm.
Udo K. schrieb: > Software ist heute Bloatware. > Das ist bei leistungsfähiger Hardware aber nicht weiter schlimm. Naja, nicht vom Speicherbedarf... Die Caches in den CPUs sind immer noch begrenzt und die Latenzen und Geschwindigkeiten 3) des Hauptspeichers immer noch um Größenordnungen langsamer. Wenn die Daten/der Code nicht im L1 sind -> eine Größenordnung, sind die Daten/der Code auch bspw. nicht im L3 ist es noch mal eine Größenordnung mehr und je mehr Libs, "Abstraktionen" 1) etc. im Code sind, umso wahrscheinlicher werden Fehlvorhersagen und Cache-Misses 2) Und je nach dem wie schnell die Entwicklung von Quantencomputern vorankommt ist die ultimative Grenze vielleicht schon in 50 Jahren 5) erreicht... Auf der graphischen Ausgabeseite ist es auch nicht mehr so weit... Menschliches Auge hat etwa 100 Mio. Stäbchen und Zapfen. UHD etwa 8 Mio Pixel. Beim Dynamikumfang fehlt auch nicht mehr viel 4). Böse formuliert: Wenn man mal die Entwicklung bei den Apps ansieht (mehr Bling-Bling bei gleichzeitig trägerer Reaktion auf Eingaben als früher), gibt's dann irgendwann zwar die tollsten, realistischsten Animationen zu sehen, aber die Ergebnisse werden erst angezeigt nachdem die Sonne erloschen ist ;) scnr 1) In C++ sind bspw. einige Zero-Cost-Abstraktionen möglich 2) Compiler die optimalen Code erzeugen wird es nie geben https://en.wikipedia.org/wiki/Full_employment_theorem https://en.wikipedia.org/wiki/Rice%27s_theorem 3) https://people.eecs.berkeley.edu/~rcs/research/interactive_latency.html 4) https://de.wikipedia.org/wiki/High_Dynamic_Range_Image 5) https://www.bu.edu/eng/2009/10/30/processing-speed-limit/ https://arxiv.org/pdf/0905.3417.pdf
Die Geschwindigkeit des Hauptspeichers ist fuer heutige Bloatware mehr als ausreichend. Vom 1st oder 2nd Level Cache rede ich gar nicht, der ist ja noch mal um einen Faktor 10 schneller. Fuer interaktive GUI Programme spielt effiziente Programmierung gar keine Rolle. Anders ist es natuerlich fuer Number Crunching und Server Anwendungen mit tausenden Clients. Warum ist dann heutige Bloatware so traege? Weil das ein hartnaeckiges Geruecht ist, das meist nicht stimmt. Beispiel: Visual Studio 2015, Acrobat Pro Reader oder Solidworks Alles grosse Apps, die mehr als ausreichend schnell sind. Wobei ausreichend heisst, dass der Anwender deutlich langsamer ist. Die SW, die traege ist, hat meist eine Skriptsprache im Hintergrund laufen, wie tcl/tk, oder Python, manchmal auch .NET. Vorallem wenn die SW so billig programmiert ist, dass die Zeit fuer die Suche in internen Datenstrukturen mit n^2 raufgeht, dann merkt man eine gewisse Traegheit. Oft duerfte es auch an internen Netzwerkabfragen fuer Lizenzen, oder Werbung liegen, die gerne mal den Start verlangsamen. Die Festplatte/SSD limitiert meist nicht. Eine App mit 100 MByte braucht gerade mal 0.2 sec. zum Laden. IN der Praxis werden die Speicherseiten nur bei Bedarf geladen. Das in in einem Augenzwinkern erledigt. Im Anhang zwei kleine Programme zum Testen der Schreibe- und Lese- Geschwindigkeit. Bei meinem 5 Jahre altem Laptop erreiche ich bei Dateien kleiner als 1 GB ca. 2 GigaByte/sec Schreibe- und Lesegeschwindigkeit. Erst bei groesseren Dateien komme ich an die Grenzen des Windows Dateien-Cache, und sehe die tatsaechliche SSD Geschwindigkeit. Die ist aber immer noch ca. 0.5 GB/sec.
Udo K. schrieb: > Hier mal die Quelltextzeilen einiger Editoren: Erstaunlich wie verschwenderisch vim ist.
Udo K. schrieb: > Warum ist dann heutige Bloatware so traege? Weil das ein hartnaeckiges > Geruecht ist, das meist nicht stimmt. Sehe ich nicht so. Es dauert noch immer viele Sekunden bis ein moderner Browser oder eine Textverarbeitung gestartet ist. Und bei den Rechnern bei uns in der Firma kommt Outlook oft der Geschwindigkeit eines mittelmäßigen Tippers nicht nach.
Firefox startet hier in 2 Sekunden, und macht dabei die letzten ca. 30 Tabs auf. Outlook 2016 braucht ca. 1 Sekunde. Tippen geht flüssig. Das ist meiner Meinung nach Ok.
Martin schrieb: > Udo K. schrieb: >> Hier mal die Quelltextzeilen einiger Editoren: > > Erstaunlich wie verschwenderisch vim ist. Ja. Aber vim unterstützt 1000 Features, von denen ich vielleicht 20 nutze (Syntaxhighlingting für 100 verschiedene Sprachen, unterschiedliche OS und GUIs, etc). Jedes der Features braucht vielleicht 500 Zeilen Code, und dann sind wir bei 500000 Zeilen... Die liegen auf der Festplatte, und tun nicht weh, meistens.
Bloatware - Einmal den Taskmanager aufgemacht 300MB Update Service für den Virenscanner - WTF!? Der Scanner selbst läuft mit 30MB im Hintergrund Dann noch einmal für ein nicht geöffnetes Skype, das sich aber schon einmal vorlädt, 150MB + 50MB Cortana, die auch deaktiviert ist Sind auf den ersten Blick 500 MB zuviel. Schlimm ist das nicht, ich weiß aber, warum meine Arch-Oberfläche um einiges schneller bootet. Die 300MB für den Update-Service sind schon heftig: Das Ding tut nichts anderes, als mal eine Website zu pollen. 300 MEGA(!)byte...
> Software ist heute Bloatware. > Das ist bei leistungsfähiger Hardware aber nicht weiter schlimm. Das ist manchmal richtig und manchmal auch sehr falsch. Waer es nicht schoen wenn der Akku deines Handy doppelt so lange halten wuerde? Oder du die Batterie irgendeines Geraetes nicht einmal pro Jahr sondern nur alle 2-3Jahre austauschen muesstest? Man ist auch manchmal geneigt zu sagen wieso sollte etwas so simples wie ein Testeditor besonders auf Geschwindigkeit optimiert sein wenn er sowieso auf einer Hardware laufen soll die auch mit modernsten Ballerspielen klar kommt. Trotzdem sind manche 10Jahre alten Programme beeindruckend weil alles einfach sofort passiert. Das sind dann manchmal doch wenige Millisekunden die einen ein Laecheln aufs Gesicht zaubern. Olaf
Kennt noch jemand von damals Prince of Persia..das lief auf einem 4,77Mhz Xt mit Hercelus Grafik als auch auf XP mit einen 4GHz REchner. War nicht sehr groß. https://www.spielen.de/geschicklichkeitsspiele/prince-of-persia-1/ Hier online spielbar
:
Bearbeitet durch User
Udo K. schrieb: > Fuer interaktive GUI Programme spielt effiziente Programmierung > gar keine Rolle. Das ist doch Unfug. Wenn ich auf einem Tablett über 2s warten muss, damit sich irgendeine Pull-Down Liste öffnet oder auf dem PC ein CAD Programm nach dem Starten über eine Minute braucht, um mir mitzuteilen, dass derzeit keine Lizenz aus dem Lizenzpool verfügbar ist, läuft da irgendetwas gehörig schief mit der Programmierung.
Wolfgang schrieb: >> Fuer interaktive GUI Programme spielt effiziente Programmierung >> gar keine Rolle. > > Das ist doch Unfug. > > Wenn ich auf einem Tablett über 2s warten muss, damit sich irgendeine > Pull-Down Liste öffnet oder auf dem PC ein CAD Programm nach dem Starten > über eine Minute braucht, um mir mitzuteilen, dass derzeit keine Lizenz > aus dem Lizenzpool verfügbar ist, läuft da irgendetwas gehörig schief > mit der Programmierung. Nur hat das nichts mit GUI zu tun, da macht das Program irgendetwas anderes im Hintergrund, vielleicht was mit dem Netzwerk... Alles unter 100ms bemerkt der Mensch vor dem Bildschirm nicht. In 100 ms schafft eine CPU ca. 10 Millionen Maschinenbefehle. Auch heute muss man als Programmierer lange studieren, um so ineffizient zu programmieren :-)
> > Das ist manchmal richtig und manchmal auch sehr falsch. Waer es nicht > schoen wenn der Akku deines Handy doppelt so lange halten wuerde? Oder > du die Batterie irgendeines Geraetes nicht einmal pro Jahr sondern nur > alle 2-3Jahre austauschen muesstest? Ja sicher, aber das ist am PC und auch am Laptop kein grosses Thema. Der groesste Stromfresser ist da nicht die CPU, sondern meist der Bildschirm. > Man ist auch manchmal geneigt zu sagen wieso sollte etwas so simples wie > ein Testeditor besonders auf Geschwindigkeit optimiert sein wenn er > sowieso auf einer Hardware laufen soll die auch mit modernsten > Ballerspielen klar kommt. Ein Texteditor ist heute nichts simples mehr. Inzwischen ist Unicode passiert... Da musst du heute 500 Seiten lesen, um ein Zeichen richtig auf den Bildschirm zu bekommen. Und wer moechte noch einen Editor in schwarz-weiss, ohne Code-Folding, Rechtschreibchecks und Autovervollstaendigung, und was weiss ich noch alles. Bezahlt wird aber trotzdem nix mehr. Verblueffend, dass das noch funktioniert. > Trotzdem sind manche 10Jahre alten Programme > beeindruckend weil alles einfach sofort passiert. Das sind dann manchmal > doch wenige Millisekunden die einen ein Laecheln aufs Gesicht zaubern. Ja, ich weiss was du meinst :-)
och..da gibt es aber eine MENGE an Beispielen..wo sicher nichts mit Netzwerk zu tun hat..und der Start dennoch ewig dauert...
Udo K. schrieb: > Nur hat das nichts mit GUI zu tun, da macht das Program irgendetwas > anderes im Hintergrund, vielleicht was mit dem Netzwerk... Es ist trotzdem schrottig programmiert wenn bei einem Klick auf ein Dropdown erst noch einen 2 Sekunden langer Vorgang angestoßen werden muß der irgendwo die Listeneinträge herholen muß. Ein Klick auf ein Dropdown bedeutet "Liste jetzt aufklappen" und nicht "irgendwas langwieriges machen und danach die Liste aufklappen". Das ist Schrott! Bei irgendeiner Form von Test oder Qualitätskontrolle muss sowas normalerweise sofort schmerzhaft auffallen und dann muss man das anders implementieren.
Udo K. schrieb: > Nur hat das nichts mit GUI zu tun, da macht das Program irgendetwas > anderes im Hintergrund, vielleicht was mit dem Netzwerk... Ein Pull-Down Liste, auf die man zur Ausläsung irgend einer Programmaktion klicken muss, ist für einen Anwender GUI, egal was da im Hintergrund schief läuft - und wenn es andere, dahinter liegende Resourcen sind, die durch die Einbindung in die GUI zusammen mit einer sch..ß Programmierung überfordert werden.
Udo K. schrieb: > Bezahlt wird aber trotzdem nix mehr. Verblueffend, dass das noch > funktioniert. Dann guck dir mal die Verbreitung der Software an. Die Kosten für die Programmierung einer Anwendung, die (früher) auf einigen wenigen Maschinen lief, verteilt sich heute oft auf viele Millionen von Anwendern. Womit verdient denn z.B. MS sein Geld? Doch nicht mit wenigen teuren Einzelimplementationen, sondern über die Anzahl der Nutzer, auf die sich die Kosten verteilen. Ein Faktor von einigen Millonen kann da schon mal helfen.
Wolfgang schrieb: > Wenn ich auf einem Tablett über 2s warten muss, damit sich irgendeine > Pull-Down Liste öffnet oder auf dem PC ein CAD Programm nach dem Starten > über eine Minute braucht, um mir mitzuteilen, dass derzeit keine Lizenz > aus dem Lizenzpool verfügbar ist, läuft da irgendetwas gehörig schief > mit der Programmierung. Das kenne ich auch aber das liegt zum großen Teil an den weltweit verteilten Lizenzservern. Bis die alle abgeklappert sind, wird eine Menge Zeit verbraten. Man merkt das so richtig, wenn ein Verkäufer mit einer Lizenz auf dem Laptop das gleiche Programm vorführt. Da startet das Programm ganz schnell wie erwartet.
Bernd K. schrieb: > Udo K. schrieb: >> Nur hat das nichts mit GUI zu tun, da macht das Program irgendetwas >> anderes im Hintergrund, vielleicht was mit dem Netzwerk... > > Es ist trotzdem schrottig programmiert wenn bei einem Klick auf ein > Dropdown erst noch einen 2 Sekunden langer Vorgang angestoßen werden muß > der irgendwo die Listeneinträge herholen muß. Ein Klick auf ein Dropdown > bedeutet "Liste jetzt aufklappen" und nicht "irgendwas langwieriges > machen und danach die Liste aufklappen". Das ist Schrott! Bei > irgendeiner Form von Test oder Qualitätskontrolle muss sowas > normalerweise sofort schmerzhaft auffallen und dann muss man das anders > implementieren. Da hast du natuerlich recht. Ich wollte nur drauf hinweisen, dass eine reine GUI voellig unkritisch ist, und die Fehler meist woanders liegen.
Helmut S. schrieb: > Das kenne ich auch aber das liegt zum großen Teil an den weltweit > verteilten Lizenzservern. Nein, das liegt in erster Linie an schrottigen Algorithmen und fehlendem Gehirnschmalz bei der Implementierung. Und das wiederum wirft die Frage auf warum man überhaupt Geld bezahlen muss für so einen kaputten Mist.
Udo K. schrieb: > Inzwischen ist Unicode passiert... Da musst du heute 500 Seiten > lesen, um ein Zeichen richtig auf den Bildschirm zu bekommen. Warum sollte man da 500 Seiten "lesen" müssen? Das Textprogramm holt sich das zu malende Zeichen bildlich gesprochen aus einer Tabelle und rendert das dann. Ob die Tabelle 100 oder 100000 Einträge hat, ist völlig wurscht, das ist immer genau ein Zugriff. Warum soll das deswegen langsamer werden? Mehr Zeichen benötigen natürlich mehr Speicher, aber nicht jede Schriftart enthält alle Zeichen, und warum sollte ein Texteditor ausgerechnet einen Font verwenden, der alle tibetanischen Zeichen enthält oder dergleichen? Ich behaupte mal, Unicode hat nicht schuld daran, dass heute alles so fett und träge sein muss.
Wolfgang S. schrieb: > Apple hat einmal eine gute Idee gehabt, die m.E. nicht geklaut oder > eingekauft war, die aber dem Idol "Wachstum um jeden Preis" entgegen > stand und deswegen so engagiert vergessen wurde, daß man heute keine > Spuren mehr davon findet bzw. ein dazu passendess - und frei erfundenes > - Zitat gern einem noch lebenden Häuptling der Konkurrenz zuschreibt: > das war das Konzept "128 Kilobyte ist genug für jedermann Immer schön, diese Zitatefälscher. So bekommt die Vergangenheit ein ganz anderes Bild. https://quoteinvestigator.com/2011/09/08/640k-enough/
Eigentlich bräuchten in Internetseiten nur die Sonderzeichen maskiert zu werden. Ich meine aber schon oft gesehen zu haben, dass selbst die normalen Zeichen mit aufwendigen Escaspe-Sequenzen maskiert werden. Da aber 1cm² Bildchen nicht selten als Truecolor 500x500 Pixel übertragen werden, spielt das natürlich auch keine Rolle mehr. Ist eh alles egal. :)
Udo K. schrieb: > Alles unter 100ms bemerkt der Mensch vor dem Bildschirm nicht. > In 100 ms schafft eine CPU ca. 10 Millionen Maschinenbefehle. > Auch heute muss man als Programmierer lange studieren, um so > ineffizient zu programmieren :-) Gerade die Dümmsten schreiben den langsamsten Code. soso... schrieb: > Udo K. schrieb: >> Inzwischen ist Unicode passiert... Da musst du heute 500 Seiten >> lesen, um ein Zeichen richtig auf den Bildschirm zu bekommen. > > Warum sollte man da 500 Seiten "lesen" müssen? Man sieht, wie weit deine Unkenntnis von der Realität entfernt ist, du hast dich noch nicht mal grnndlegend mit der Technik der Darstellung unter Unicode beschäftigt. Ja, Unicode ist ein Monster. Schreibrichtungen und Übereinanderdrucken von Zeichen, Eingabemethoden (IME) um den Scheiss auch tippen zu können, schon alphabetische Reihenfolge und Vergleiche, sind nicht mehr von einer einzelnen Person überblickbar. Die Duko umfasst leicht 500 Seiten.
:
Bearbeitet durch User
Michael B. schrieb: > Man sieht, wie weit deine Unkenntnis von der Realität entfernt ist, du > hast dich noch nicht mal grnndlegend mit der Technik der Darstellung > unter Unicode beschäftigt. Ja, Unicode ist ein Monster. > Schreibrichtungen und Übereinanderdrucken von Zeichen, Eingabemethoden > (IME) um den Scheiss auch tippen zu können, schon alphabetische > Reihenfolge und Vergleiche, sind nicht mehr von einer einzelnen Person > überblickbar. Die Duko umfasst leicht 500 Seiten. Ich fürchte, ich muss dir rechtgeben. Ich dachte immer, dabei ginge es nur um mehr Zeichen, aber das scheint tatsächlich sehr komplex zu sein...
Michael B. schrieb: > Ja, Unicode ist ein Monster. > [...] Die Duko umfasst leicht 500 Seiten. Der Computer muss aber nicht bei jedem Zeichen die Doku lesen.
soso... schrieb: > aber das scheint tatsächlich sehr komplex zu sein... das sind "Computersachen" doch immer ;)
Bernd K. schrieb: > Michael B. schrieb: >> Ja, Unicode ist ein Monster. >> [...] Die Duko umfasst leicht 500 Seiten. > > Der Computer muss aber nicht bei jedem Zeichen die Doku lesen. Doch, muss er. Und zwar in maschinenlesbarer Form.
Helmut S. schrieb: > Das kenne ich auch aber das liegt zum großen Teil an den weltweit > verteilten Lizenzservern. In dem von mir konkret kritisierten Fall scheint das Problem anders zu liegen. Es ist völlig überflüssig, dass ein Programm erst gefühlt minutenlang sämtliche Kram lädt (und damit alle möglichen Resoucen belasten) und erst wenn alles startbereit im Speicher liegt, die Lizenzprüfung anschmeißen, nur um festzustellen, dass es jetzt gerade nicht laufen kann, weil keine Lizenz im Pool verfügbar ist. Da stimmt einfach der logische Ablauf nicht. Um es konkret zu sagen: Bei einer Firma wie AutoDesk und dem Preis vom AutoCAD erwarte ich eine etwas durchdachtere Vorgehensweise.
Michael B. schrieb: > Ja, Unicode ist ein Monster. Und trotzdem haben sie es noch nicht geschafft, einen zusammenhängenden hexadezimalen Ziffernsatz zu integrieren.
Warum trotzdem? Die wissen schon was sie tun. Sonst hättest du in Zukunft noch einen Spezialfall mehr zu behandeln.
Josef schrieb: > hexadezimalen Ziffernsatz LOL, er hat den thematischen Bogen gespannt, jetzt gehts in 8 bit weiter, schnallt euch an!
Bernd K. schrieb: > Josef schrieb: >> hexadezimalen Ziffernsatz > > LOL, er hat den thematischen Bogen gespannt, jetzt gehts in 8 bit > weiter, schnallt euch an! Aber 0-16 dec oder 0-F hex sind doch 4 bit: 0000-1111 bin.
Windows ist ein Speicherfresser, Festplatte/SSD und RAM. Wozu braucht ein Betriebssystem 32 GB? https://www.golem.de/news/windows-10-1903-naechstes-windows-update-braucht-32-gbyte-freien-speicher-1904-140900.html
Hans schrieb: > Windows ist ein Speicherfresser, Festplatte/SSD und RAM. > Wozu braucht ein Betriebssystem 32 GB? Damit wir hier was zum schreiben haben :-)
Hans schrieb: > Windows ist ein Speicherfresser, Festplatte/SSD und RAM. > Wozu braucht ein Betriebssystem 32 GB? - Der Upgrade benötigt 32GB freien Diskspace. - Der PC hat 32GB Flash-Speicher, davon ~6GB frei. - Bisherige Upgrades verwendeten deshalb eine separate SD-Karte als Zwischenspeicher. - SD-Karten blockieren diesmal den Upgrade. Perfekt gelungen, Microsoft.
Typisches Bla Bla der Regenbogen Presse... Und vom Abschreiben wird es auch nicht besser.
Beitrag #5903044 wurde von einem Moderator gelöscht.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.