War es ... die FPU? das 3.5" Diskettenlaufwerk? der 80386? VGA Standard? MS-DOS 5.0? SVGA Standard? SCSI-II? Der VESA Local Bus Bus? Windows 3.x? Soundblaster? der Pentium Prozessor? der PCI Bus? Windows NT? das CD-ROM Laufwerk? das Iomega ZIP Drive? Windows 95? Die Voodoo Graphics? Die Voodoo 2? AGP? CD-Brenner? Die ersten für normalsterbliche kaufbaren 1 GB Festplatte? DVD-ROM Laufwerk? USB Sticks? Linux? DVD-Brenner? Die erst 1 GHz CPU? Festplatten mit senkrechter Magnetisierung "get perpendicular"? Wasserkühlung? Windows XP? Die Geforce 3 mit Pixel Shader? AMD64 bzw. x86-64? Flachbildschirme? PCIe? Physik Beschleuniger? Die ersten für normalsterbliche kaufbaren 1 TB Festplatte? Die Geometrie- und Vertex-Shader? Die SSD? M.2 PCIe Speicher? sonstige, bitte nennen? Von welcher Entwicklung wart ihr am meisten beeindruckt bzw. fandet ihr am wichtigsten? Das Internet zählt bei der Frage nicht, da der Bezug sich schon stark lokal auf den x86 beziehen soll und das Internet für sich schon eine große Umwälzung war.
> War es ...
Ganz klar, die erste Linuxversion auf vier Disketten die meinen Rechner
seit >30Jahren zur Windoof freien Zone gemacht hat.
Olaf
Interessant. Bei mir fiele die Wahl auf den 80386. Ohne 80386 kein brauchbarer Protected Mode mit linearer Speicheradressierung und damit kein 32 Bit Linux.
- Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne Erleichterung! - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt - USB - Plug-and-Play, Hotplug, und mittlerweile sogar mit Video. Seit Win10 werden Treiber sogar anhand der Geräteklasse identifiziert, wow. - Die Abschaffung von Crossover-Kabeln dank standardisiertem Auto-Negotiation bei GBit-Ethernet Ansonsten noch SSDs, Shader, PCIe, 64bit. Und das mit dem linearen Adressraum.
Nano schrieb: > Von welcher Entwicklung wart ihr am meisten beeindruckt bzw. fandet ihr > am wichtigsten? Die Abschaffung des A20-Gates.
Programmierer schrieb: > - Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne > Erleichterung! Das gab's schon bei Windows Me. ;) Bei WinXP hat man es dann von WinME übernommen. > - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt Oh ja, darauf habe ich auch sehr lange gewartet. > - USB - Plug-and-Play, Hotplug, und mittlerweile sogar mit Video. Seit > Win10 werden Treiber sogar anhand der Geräteklasse identifiziert, wow. USB habe ich in der Liste ganz vergessen. Stimmt natürlich.
Nano schrieb: > Interessant. Bei mir fiele die Wahl auf den 80386. Ja, wirklich interessant, war auch mein erster Gedanke. 80286 -> 80386
Nano schrieb: > Das gab's schon bei Windows Me. ;) > Bei WinXP hat man es dann von WinME übernommen. Ach, na aber das hatte ja keiner ;-) Karl schrieb: > Die Abschaffung des A20-Gates. Fiel mir auch gerade noch ein! UEFI könnte man noch nennen. Nano schrieb: > Das Internet zählt bei der Frage nicht Die hohen Bandbreiten von DSL haben ganz neue Möglichkeiten zur Verteilung von Software auch auf x86 ermöglicht - Downloads und Auto-Updates statt CDs...
Könnte die erste eigentlich nicht für normalsterbliche gedachte 1 GB Festplatte gewesen sein. 5.25" volle Höhe. Ich war den verreckenden Billigkleinkram leid.
:
Bearbeitet durch User
Karl schrieb: > Die Abschaffung des A20-Gates. Die Abschaffung von Gates (als ich von Win 3.11 auf OS/2 umgestiegen bin).
Der größte Sprung waren die Taktfrequenzen. Als MSDOS Ende der 70er rauskam waren wenige MHz üblich, auch Atari und Amiga hatten später (1985/86) 16 MHz, das war schon viel. Mehr als ein Jahrzehnt später 1992 zu Windows 3.1 war ein 486er mit 33 MHz üblich. Erst Ende der 90er ging es hoch, Pentium mit 90 MHz dann bald 266. Heute bei wenigen GHz ist schon Schluss, für Moores Gesetz braucht man mehr Kerne.
Der 80386 und das mit ihm mögliche 386BSD 0.0, März 1992. ;-) Nano schrieb: > Der VESA Local Bus Bus? Dem würde ich eher den Preis "größte Krücke der PC-Landschaft" zuteilen. :-) "Geht er oder geht er nicht, das ist die Frage." ;-) (Bin zum Glück davon verschont geblieben. EISA war zwar nicht so ganz trivial zu managen, hat aber dann wenigstens stabil funktioniert.)
:
Bearbeitet durch Moderator
cthuga - das erste Programm ohne 'rechentechnischen' Sinn das kein Spiel war https://en.wikipedia.org/wiki/Cthugha_%28software%29 Endlich etwas, was den genialen Amiga-Demos an Benutzererfahrung nahe kam. -- Der nächste Sprung, den ich begrüßen würde, ist der den der Verfasser von nervenden Forumumfragen aus einem hohen Fenster vollführt. Bei denen kommt man sich vor wie der Silberrücken im Zoo, der von dämmlichen Scheibenklopfern gestört wird: https://www.youtube.com/watch?v=YZUsj8Q68q4
Andreas B. schrieb: > Die Abschaffung von Gates (als ich von Win 3.11 auf OS/2 umgestiegen > bin). Also von Gates zu Gates, denn OS/2 war eigentlich auch von Microsoft.
(prx) A. K. schrieb: > Also von Gates zu Gates, denn OS/2 war eigentlich auch von Microsoft. Als Urschleim vielleicht, aber spaeter hatte Gates (bzw. Ballmer) OS/2 doch ziemlich bekaempft (siehe Vobis).
Programmierer schrieb: > Nano schrieb: >> Das gab's schon bei Windows Me. ;) >> Bei WinXP hat man es dann von WinME übernommen. > > Ach, na aber das hatte ja keiner ;-) Doch, ich. Duck und wech... > Nano schrieb: >> Das Internet zählt bei der Frage nicht > > Die hohen Bandbreiten von DSL haben ganz neue Möglichkeiten zur > Verteilung von Software auch auf x86 ermöglicht - Downloads und > Auto-Updates statt CDs... Das Internet würde aber alles übertreffen, deswegen habe ich es weggelassen. Was große Datenmengen betrifft, fand ich das CD-ROM Laufwerk super. Erstmals war es möglich große Datenmengen auf die heimischen PCs zu bringen und man merkte es auch an den Spielen, die sich durch diesen Datenträger drastisch verändern konnten. Die vielen Farben die VGA im 24 Bit Mode bot und 44 KHz Samlingraten in Stereo, die die späteren Soundkarten boten, konnte man erst dank CD-ROM dann auch wirklich ernsthaft nutzen. Bei den Disketten hat das praktisch keiner gemacht, weil auf die nichts drauf passte und es für die Hersteller ab ca. 7 Disketten irgendwann zu teuer wurde. Ich hatte eine PC Zeitschrift im Abo, so bekam ich jeden Monat eine neue CD-ROM mit vielen Programmen, Demos, Patches usw. drauf und es eröffnete sich eine ganze Welt für den lokalen PC. Das war schon eine erhebliche Veränderung gegenüber vorher. Ein Analog Modem hatte ich leider nicht. Mit ISDN konnte ich dann meine gewünschten Daten dann erstmals gezielt selber aussuchen und DSL erlaubte dann auch das wirtschafltiche downloaden von ganzen Linux Distributionsimages.
Andreas B. schrieb: >> Also von Gates zu Gates, denn OS/2 war eigentlich auch von Microsoft. > Als Urschleim vielleicht, aber spaeter hatte Gates (bzw. Ballmer) OS/2 > doch ziemlich bekaempft (siehe Vobis). OS/2 2.0 startete Anfang 1992, Microsoft stieg erst 1991 aus. Die Entwicklung lief also noch wesentlich bei Microsoft.
Jörg W. schrieb: > Der 80386 und das mit ihm mögliche 386BSD 0.0, März 1992. ;-) > > Nano schrieb: >> Der VESA Local Bus Bus? > > Dem würde ich eher den Preis "größte Krücke der PC-Landschaft" zuteilen. > :-) "Geht er oder geht er nicht, das ist die Frage." ;-) (Bin zum Glück > davon verschont geblieben. EISA war zwar nicht so ganz trivial zu > managen, hat aber dann wenigstens stabil funktioniert.) Ich habe den VLB leider auch übersprungen weil ich damals nichts davon wusste, als ich meinen Vater dazu überredete den 286 auf einen 486 aufzurüsten und das Mainboard meines 486 hatte nur ISA Slots. Rückblickend hätte ich natürlich gerne VLB gehabt, geachtet habe ich damals nur auf das Merkmal DX weil das im Testbericht über Wing Commander 2 in der ersten PC Joker als wichtig empfohlen wurde. Und im Laufe der Monate wurde mir dann klar, das meinem 486er etwas fehlt, dass die 486er meiner Freunde, die einen Komplett PC meist von Vobis gekauft haben, alle hatten. Als dann die ersten Nachrichten und Berichten über PCI bekannt wurden, war mir klar, dass PCI die Zukunft ist. Was es dann auch wurde.
"Linux." Schade, war klar das gleich wieder dumme Antworten kommen als erstes:-( Also der 386er war sicher in Sprung denke ich Dann die 3D Beschleuniger Karten haben sicher für einen Quantensprung gesorgt und den Amiga etc komplett verdrängt, da der PC dann nicht mehr im Nachteil war. Der PCI BUs war auch ein Segen Leider hat sich OS/2 nicht durchgesetzt:-(
ja, die ersten 486 mit PCI waren Kacke, deren PCI war über den VLB angeschlossen wenn ich mich recht entsinne. Später kamen dann die ECHTEN PCI Also so gesehen war es tatsächlich VLB der einen Sprung verursacht hat, trotz "Krücke"
Polmann schrieb: > Leider hat sich OS/2 nicht durchgesetzt:-( Eigentlich bin ich froh darum. OS/2 hatte keine Mehrbenutzerunterstützung. Windows NT schon. OS/2 war durch den 286 in der Entwicklung gehemmt. Windows NT wurde gleich für den 386er ohne 286 Bremsklotz entwickelt. OS/2 hatte out of the Box kaum Treiber, Windows NT im Vergleich zu OS/2 eine ganze Menge. OS/2 war umständlich upzudaten. Windows NT hatte einfach zu installierende Service Packs. Windows NT war in vielerlei Hinsicht schon besser als OS/2.
Polmann schrieb: > ja, die ersten 486 mit PCI waren Kacke, deren PCI war über den VLB > angeschlossen wenn ich mich recht entsinne. > Später kamen dann die ECHTEN PCI > Also so gesehen war es tatsächlich VLB der einen Sprung verursacht hat, > trotz "Krücke" VLB war direkt auf den 486er abgestimmt und PCI eigentlich für den Pentium vorgesehen und für den gab es auch brauchbare Mainboards.
Polmann schrieb: > "Linux." Das war viele Jahre eher ein kleiner Rückschritt den ein Sprung vorwärts, weil man durch den Abschied von Windows die Möglichkeiten vieler Windowsprogramme verlor. Auf Linux gab es nur eingeschränkten Ersatz, wenn überhaupt - selbst ein DVD-Player ließ auf sich warten. Hardwareunterstützung vor USB und Co eher mau ...
Absolut, ja,a ber offenbar sehen das einige Fanboys hier anders, ich hoffe das macht die Diskussion nicht kaput. Und bei OS/2..ja, die Situation bei IOS/2 war ja eben weil es sich nicht durchgesetzt hat, wie sie war. Ansonsten hätte ich logischerweise auch Treiber etc gegeben. Aber nicht mal meine WINTV wurde unterstützt, da OS/2 im Consumer Bereich einfach nicht angekommen war
(prx) A. K. schrieb: > OS/2 2.0 startete Anfang 1992, Microsoft stieg erst 1991 aus. Die > Entwicklung lief also noch wesentlich bei Microsoft. Und Win 3.11 startete 1994 wie auch OS/2 3 und die Vobis Story. Da bin ich umgestiegen. Das war also schon etwas spaeter.
OS/2 3 (Warp) war der Quantensprung bei OS/2 und es war super
Polmann schrieb: > "Linux." > Schade, war klar das gleich wieder dumme Antworten kommen als erstes:-( Erstens war das einer der Vorschläge des TO nano, und zweitens war es ernst gemeint. Muß nicht deine Meinung sein, aber andere waren auch gefragt...
Usb, Brenner, CDs rippen, Pentium, potente Notebooks, Arbeitsspeichergrößen die man tatsächlich auch nutzen kann, also nicht nur theoretische, softwaretechnisch Dungeon-Master aufm Atari (völlig neues Spielerlebnis) Quake oder auch Knoppix. Knoppix war auch ein wenig (deutlich) anders als Einloggen auf Uni-Unix-Rechner. MMX auf jeden Fall auch, auch wenn die Realisierung etwas unglücklich ist man es oft gar nicht braucht. Logische Operationen mit weiter Bitbreite sind aber schon ganz nett. Hinsichlich der Grafikkarten konnte man sich über Plug and Play freuen wie auch über Cuda. Nano schrieb: > Was große Datenmengen betrifft, fand ich das CD-ROM Laufwerk super. Das ja, war aber kein besonders großer Sprung, da es CD-Laufwerke schon für Musik und andere Anwendungen gab, dieser Sprung bezieht sich eher auf Datenspeicherung an sich. Je nach Gegend konnte man auch schon sehr früh digitale Audiorecorder nutzen und Anfang der neunziger waren auch optische Digitalausgänge weiter verbreitet.
rbx schrieb: > Je nach Gegend konnte man auch schon sehr > früh digitale Audiorecorder nutzen und Anfang der neunziger waren auch > optische Digitalausgänge weiter verbreitet. Wenn man genug Geld dafuer hatte. CD LW waren dagegen fuer jedermann zu akzeptablen Preisen verfuegbar.
Klaus W. schrieb: > und zweitens war es > ernst gemeint. So ernst wie die feststellung das Linux eher ein Rückschritt statt ein Sprung vorwärts war/ist. Oder, wenn man unbedingt bei den Sportvergleichen bleiben will, dann war/ist Linux ein Grätschsprung - ein Bein vor, das andere zurück. Besser, man schafft sich extra für Linux einen Zweitrechner an. Wenn ich es mir recht überlege, war vielleicht die Verfügbarkeit mehrerer Computer für einen einzelnen User auch ein Sprung vorwärts - eben das beste aus beiden Welten ohne Multiboot oder anderen "Schmerzen". Beispielsweise Raspi, der dann auch gleich die richtigen signale für Raspi mitbrachte (aber das ist nun mal kein x86 und damit offtopic hier. Und mit einem vernüftigen Monitor, lebte es sich auch gleich viel besser. Also der gehörige Preisaufschlag von mehreren hundert DM für einen iiyama 17 Zoll monitor statt 14 Zoll NoName SVGA-Gurke war es auf jeden Fall wert. Nie wieder tränende Augen wegen interlaced ...
Andreas B. schrieb: > (prx) A. K. schrieb: >> OS/2 2.0 startete Anfang 1992, Microsoft stieg erst 1991 aus. Die >> Entwicklung lief also noch wesentlich bei Microsoft. > > Und Win 3.11 startete 1994 wie auch OS/2 3 und die Vobis Story. Da bin > ich umgestiegen. Das war also schon etwas spaeter. Microsoft stieg ab dem Erfolg von Windows 3.0 aus. Ab da war Microsoft klar, dass sie IBM nicht brauchen. Windows 3.0 wurde zu Windows 3.1 weiterentwickelt und Microsoft setzte 200 Programmierer an um Windows NT als erstes echtes 32 Bit Protected Mode Betriebssystem mit vielen Features, die es auch unter Unix gab, so schnell wie möglich zu entwickeln.
Dockingstations. Die 3-Tasten-Maus bzw. die Emulate3Buttons-Option von XFree86. Digitale Video-Ausgänge (DVI, HDMI, DisplayPort...) für digitale Bildschirme. XRandR zur flexiblen Aktivierung und Deaktivierung von Bildschirmen (ungefähr mit XFree86 4.3.0 aus 2003 oder so) MfG, Arno
DesKaisersNeueKleider schrieb: > Das war viele Jahre eher ein kleiner Rückschritt den ein Sprung > vorwärts, weil man durch den Abschied von Windows die Möglichkeiten > vieler Windowsprogramme verlor. Siehste, bei mir war es nie ein Windows, sondern der Übergang von DR-DOS zu 386BSD noch bevor Windows ernsthaft in die Gänge kam. Da war u.a. der flache Adressraum des 80386 und ein brauchbares Dateisystem ein großer Schritt nach vorn.
rbx schrieb: > Nano schrieb: >> Was große Datenmengen betrifft, fand ich das CD-ROM Laufwerk super. > > Das ja, war aber kein besonders großer Sprung, da es CD-Laufwerke schon > für Musik und andere Anwendungen gab, dieser Sprung bezieht sich eher > auf Datenspeicherung an sich. Auf dem PC als Datenträger schon, weil auf Disketten nur ca. 1,4 MiB bzw. 1,6 Mib passten. Die CD-ROM bot dagegen 640 MiB. Da lagen Welten dazwischen. Und speichern konnte man darauf noch gar nichts, dazu brauchte man CD-Brenner die erst später erschwinglich wurden. Für die Softwarehersteller war die CD daher anfangs auch ein guter Kopierschutz. Durchgesetzt haben sich die read only CD-ROM Laufwerke auf dem Heim PC mit Rebel Assault. Zu der Zeit waren gerademal die Double Speed Laufwerke auf dem Markt. Vereinzelt gab es auch Triple Speed, aber noch sehr teuer und anfangs nur für SCSI.
DesKaisersNeueKleider schrieb: > Besser, man schafft sich extra für > Linux einen Zweitrechner an. Bei mir sind alle Rechner Linux Kisten. Wie ich das nur ueberlebe? DesKaisersNeueKleider schrieb: > Und mit einem vernüftigen Monitor, lebte es sich auch gleich viel > besser. Also der gehörige Preisaufschlag von mehreren hundert DM für > einen iiyama 17 Zoll monitor statt 14 Zoll NoName SVGA-Gurke war es auf > jeden Fall wert. Da stimme ich Dir allerdings zu.
DesKaisersNeueKleider schrieb: > Wenn ich es mir recht überlege, war vielleicht die Verfügbarkeit > mehrerer Computer für einen einzelnen User auch ein Sprung vorwärts - > eben das beste aus beiden Welten ohne Multiboot oder anderen > "Schmerzen". Dual bzw. Multiboot funktioniert eigentlich sehr gut. Aber jetzt wo du es sagst, in der obigen Liste fehlen noch: Mehrkern CPUs CPU Virtualisierung I/O Virtualisierung Das waren auch noch sehr tolle Features. Endlich konnte man unter einem Host OS ein anderes Gast OS performant ausführen. Ja, flimmerfreie 70 Hz CRT Monitore waren auch wichtig, mein erster 14" VGA Monitor konnte das noch nicht. Das konnte erst mein 15" Nachfolger.
Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung gebracht.
Jörg W. schrieb: > Siehste, bei mir war es nie ein Windows, sondern der Übergang von DR-DOS > zu 386BSD noch bevor Windows ernsthaft in die Gänge kam. Da war u.a. der > flache Adressraum des 80386 und ein brauchbares Dateisystem ein großer > Schritt nach vorn. Vom 68000 mit 32-Bit Programmiermodell und eigenem Betriebssystem zum 286 und DOS war ungefähr die Gegenrichtung.
Andreas B. schrieb: > DesKaisersNeueKleider schrieb: >> Besser, man schafft sich extra für >> Linux einen Zweitrechner an. > > Bei mir sind alle Rechner Linux Kisten. Wie ich das nur ueberlebe? Naja, das Zölibat beweist, das mensch die Freuden des Lebens nicht zwingend für das Überleben des Einzelnen nötig sind ;-) -- USB-Stick - auch ne geile Erfindung. Inzwischen braucht man einen solchen fürs Vorstellungsgespräch, um damit seine Präsentation mitzubringen. Oder Heuzutage USB-Cam für die Vorstellungsvideokonferenz... aber da wären schon wieder beim nichtzulässigen Internet ... Aber eigentlich ermöglicht erst das richtige KnowHow die großen Sprünge .. also sei mal "Das PC-Hardwarebuch" als die 'Sprungfeder' für den PC-Umgang erwähnt. Schade, das gute Literatur inzwischen ausgestorben ist ...
Jan K. schrieb: > Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung > gebracht. Das gilt nicht wenn du die Zeit mit Windows 3.x und nur 4 MB Speicherplatz kanntest und der Rechner dann die Daten auf die Auslagerungsdatei auslagern musste, die damals noch auf die lahme Festplatte kam. Da war der Sprung dann plötzlich üppig RAM zu haben schon gewaltig.
DesKaisersNeueKleider schrieb: > Oder Heuzutage USB-Cam für die Vorstellungsvideokonferenz... aber da > wären schon wieder beim nichtzulässigen Internet ... Und die TV Karte fehlt auch noch in der Liste. Mit meiner WinTV Karte von Hauppauge konnte ich erstmals TV am PC Monitor gucken. > Aber eigentlich ermöglicht erst das richtige KnowHow die großen Sprünge > .. also sei mal "Das PC-Hardwarebuch" als die 'Sprungfeder' für den > PC-Umgang erwähnt. Schade, das gute Literatur inzwischen ausgestorben > ist ... Da würde ich eher dieses Buch ins Feld führen: https://www.amazon.de/-/en/Andrew-S-Tanenbaum/dp/3868942386/
Nano schrieb: > Da würde ich eher dieses Buch ins Feld führen: > https://www.amazon.de/-/en/Andrew-S-Tanenbaum/dp/3868942386/ Aber nicht bei x86 wie für diesen thread gefordert... und persönlich ziehe ich als Hardwerker den Hennessey/Patterson dem Tanenbaum vor. Letzterer ist mir zu Softwarelastig und hat nicht die Breite der Praxis des Erstgenannten.
Die Segmentregister, welche erlaubten Daten, Code und Stack zu trennen. Dies wurde auch im 386 und nachfolgend uebernommen. Leider wurde zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht verwendet, resp alle aufeinander gelegt. Waere aber toll gewesen. Beim 386 wurden diesen Segmenten auch Rechte zugewiesen. Damals Ring 0, 1, 2. Fuer Treiber, System, und Benutzer, sodass Programme nicht auf Daten anderer Programme zugreifen konnten. Beim 386 protected mode war auch eine MMU dabei, welche Memory Pages auslagern und nachladen konnte.
:
Bearbeitet durch User
Purzel H. schrieb: > zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht > verwendet, resp alle aufeinander gelegt Daten und Stack lassen sich in C nicht trennen und Code nur, wenn man Konstanten im Datenbereich unterbringt.
DesKaisersNeueKleider schrieb: > Andreas B. schrieb: >> DesKaisersNeueKleider schrieb: >>> Besser, man schafft sich extra für >>> Linux einen Zweitrechner an. >> >> Bei mir sind alle Rechner Linux Kisten. Wie ich das nur ueberlebe? > > Naja, das Zölibat beweist, das mensch die Freuden des Lebens nicht > zwingend für das Überleben des Einzelnen nötig sind ;-) Ja, deswegen ist Windows wohl so verbreitet ;) (mal ernsthaft: Die oben genannte Multi-Desktop-Funktion fand ich zum Beispiel schon 1998 genial, und lernte hier heute, dass Windows das erst seit Windows 10 kann...) MfG, Arno
Arno schrieb: > (mal ernsthaft: Die oben genannte Multi-Desktop-Funktion fand ich zum > Beispiel schon 1998 genial, und lernte hier heute, dass Windows das erst > seit Windows 10 kann...) Also MultiDesktop kenn ich seit Solaris auf ner Sparc-Workstation (ca. 1994), aber da ich mich am liebste per Tastenkürzel durch die Fenster wühle (Alt-Tab, Win-d) vermisse ich MultiDesktop nicht wirklich. Ich hack sourcetexte auch mit emacs oder vi (wenn es sein muß), GUI's halte ich nur bei Bildbearbeitung oder schematic-Entry/PCB-layout für unverzichtbar. Wahrscheinlich hat das 14 Geflimmer vor Kauf des iiyama Monitors meine Augen und präfontalen Cortex so belastet, das ich zur TextKonsole zurückgefunden habe. ;-) So mit Ctrl-Alt-F[1-6] zwischen "Source text hack" und "csh-make-compile Ansicht" wechseln ist schon flott, gilt aber als Steinzeit ... Jajaja real programmer do: cat /dev/con > /mem/kernel https://xkcd.com/378/ ;-))
Für mich ist der USB Standard die größte Errungenschaft. So konnte man sein Notbook leicht erweitern und brauchte keine Einbauschächte mehr. Eine vielzahl verschiedener Gerätetypen (Festplatten, CD /DVD und Bluray Laufwerke, Scanner, Mäuse ....) konnten so angeschlossen werden. Erst trauerte ich der RS232 Schnittstelle nach, jetzt benutze ich USB, viel schneller, flexibler und Fernspeisung.
> Purzel H. schrieb: >> zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht >> verwendet, resp alle aufeinander gelegt > >Daten und Stack lassen sich in C nicht trennen und Code nur, wenn man Konstanten im Datenbereich unterbringt. Natuerlich lassen sich Daten und Stack trennen. Auf dem Stack sind die lokalen Variablen einer Funktion, sowie die parameter einer Funktion, die koennte man SSEG:SP eroeffnen und dann als DSEG:DX, resp ESEG:EX verwenden, indem man die aufeinander legt, wenn man sie braucht. Bei MSDOS waren diese Segmentregister aber immer identisch. Und deshalb konnte man selbstmodifizierenden Code schreiben.
Purzel H. schrieb: > Die Segmentregister, welche erlaubten Daten, Code und Stack zu trennen. > Dies wurde auch im 386 und nachfolgend uebernommen. Leider wurde > zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht > verwendet, resp alle aufeinander gelegt. Waere aber toll gewesen. Der erste IBM PC hatte ja auch nur 16 oder 64 kB RAM. Ein Segment ist 64 KB groß, da ist es kein Wunder, dass die Compilerhersteller die einfach übereinander legten. Erst mit einem Maximalausbau, der 256 kB RAM groß war, hätte es sich gelohnt. Damit hätten die 4 Segmente genügt. > Beim > 386 wurden diesen Segmenten auch Rechte zugewiesen. Damals Ring 0, 1, > 2. Fuer Treiber, System, und Benutzer, sodass Programme nicht auf Daten > anderer Programme zugreifen konnten. Das spielte erst im Protected Mode eine Rolle und in dem konnte man beim 386 auch linear adressieren.
Nano schrieb: > Jan K. schrieb: >> Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung >> gebracht. > > Das gilt nicht wenn du die Zeit mit Windows 3.x und nur 4 MB > Speicherplatz kanntest und der Rechner dann die Daten auf die > Auslagerungsdatei auslagern musste, die damals noch auf die lahme > Festplatte kam. > > Da war der Sprung dann plötzlich üppig RAM zu haben schon gewaltig. Ich hätte auch die SSD genannt. Auch auf einem 386 oder Urpentium konnte eine SSD Wunder wirken. Eine CF-Karte kann man mittels mechanischem Adapter als IDE Laufwerk betreiben. So habe ich mit einer 8 MB Karte auf einem 386 fli4l Linux als DSL Router gebootet und in der Firma auf einem Steuerungs-PC eine nicht mehr erhältliche 500 MB Festplatte gegen eine 1 GB CF-Karte getauscht. Windows 3.11 lief danach dermaßen auf Speed, das war mit einer RAM-Disk vergleichbar :-)))
Arno schrieb: > (mal ernsthaft: Die oben genannte Multi-Desktop-Funktion fand ich zum > Beispiel schon 1998 genial, und lernte hier heute, dass Windows das erst > seit Windows 10 kann...) > > MfG, Arno Es sind die virtuellen Arbeitsflächen. Mehrere Bildschirme gehen schon länger. Vom Prinzip her ging das mit Zusatztools auch schon unter Windows XP, Windows brachte dazu unter der Haube bereits alles mit, aber in der Praxis gab es dann hier und da ein paar Haken, weil die Userspace Software darauf nicht ausgelegt war, so dass man es unter Windows eigentlich nicht ersthaft einsetzen konnte. So richtig rund ist es somit eigentlich erst unter Windows 10 zu gebrauchen, wo es dann auch offiziell von Microsoft unterstützt wird.
Nano schrieb: > Arno schrieb: >> (mal ernsthaft: Die oben genannte Multi-Desktop-Funktion fand ich zum >> Beispiel schon 1998 genial, und lernte hier heute, dass Windows das erst >> seit Windows 10 kann...) >> > Es sind die virtuellen Arbeitsflächen. Eben diese konnte schon fvwm auf XFree86 3.3 anno 1998 (und wahrscheinlich schon früher, aber tatsächlich hatte ich bis dahin - heute unvorstellbar - keinen eigenen PC) MfG, Arno
Purzel H. schrieb: > Natuerlich lassen sich Daten und Stack trennen Nur wenn der Segmentselektor Teil jedes Pointers wird, man also das Large Memory Model verwendet (oder Compact, Huge). Leider war das traurig langsam, besonders im Protected Mode. Mit 16-Bit Pointern war in C keine Trennung möglich.
:
Bearbeitet durch User
Arno schrieb: > und wahrscheinlich schon früher Ja, natürlich, dafür steht ja das "v" im "fvwm", folglich seit 1993.
Purzel H. schrieb: > Natuerlich lassen sich Daten und Stack trennen. Auf dem Stack sind die > lokalen Variablen einer Funktion, sowie die parameter einer Funktion,
1 | char a[]; |
2 | extern void g(char *); |
3 | void f(void) |
4 | {
|
5 | char b[]; |
6 | g(a); // assoziiert mit DS |
7 | g(b); // assoziiert mit SS |
8 | g("abc"); // assoziiert mit CS? |
9 | }
|
Muss man überall mit explizitem __far jonglieren, verlässt man Standard-C. Deshalb mussten in den Small und Medium Models Daten und Stack in einem Segment liegen. Die Segmentierung von Zilogs Z8000 war an dieser Stelle weitaus besser entwickelt. Und wer 68000 nutzte, der fragte sich, was der Quatsch soll.
:
Bearbeitet durch User
Nano schrieb: > Es sind die virtuellen Arbeitsflächen. Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig anzuordnen und/oder zwischen ihnen zu wechseln.
c-hater schrieb: > Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil > gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig > anzuordnen und/oder zwischen ihnen zu wechseln. Bei heutigen Riesenmonitoren, ggf gleich mehreren davon (*), ist das kein Thema. Bei damaligen gewöhnlich einzeln auftretenden 17-Zöllern hingegen waren mehrere Arbeitsflächen durchaus sinnvoll. *: Ich kriege zusätzlich zum eigenen Schirm weitere 3 4K-Monitore an meinen kleinen Laptop ohne separatem Grafikchip dran. Vor 20-30 Jahren...
:
Bearbeitet durch User
(prx) A. K. schrieb: > Bei heutigen Riesenmonitoren, ggf gleich mehreren davon, ist das kein > Thema. Ich habe hier drei Bildschirme, zuhause meistens 2. Und nehme trotzdem gerne die virtuellen Desktops. Einfach weil ich oft mehrere (nenne ich mal so) "Themen" gleichzeitig offen habe. Meinetwegen ein paar Browserfenster, u.a. mit Email, wo ich mal gelegentlich vorbeischaue auf einem Desktop. Ein weiteres, wenn ich gerade CAD offen habe, mit Browserfenstern zu der passenden Doku. Quelltexte und evtl. IDE auf dem nächsten. Auf der Arbeit muß ich mal in einem Thema auf jemanden warten, mache solange an einem anderen Problem weiter. Arbeitszeiterfassung gelegentlich in einer Windows-VM. Das habe ich jeweils auf einem Desktop, dann muß ich mich nicht immer durch soviele Fenster wühlen. Das mache ich seit Jahrzehnten schon so, früher hatte ich es unter Windows mal hinfummeln müssen und hat nie wirklich funktioniert damals. Wenn man sich daran gewöhnt hat, will man es nicht mehr missen. Ich habe bei mir 10 Desktops eingestellt, davon nutze ich meistens etwa um die 5 typischerweise.
:
Bearbeitet durch User
c-hater schrieb: > Nano schrieb: > >> Es sind die virtuellen Arbeitsflächen. > > Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil > gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig > anzuordnen und/oder zwischen ihnen zu wechseln. Stell dir die Arbeitsfläche des Desktops als Schreibtisch vor, auf dem du deine Blätter, Ordner (entspricht den Fenstern und Programmen) usw. passend hinlegst. Und jetzt stell dir vor, du hättest mehrere Schreibtische und jeden einzelnen nutzt du für ein thematisches Gebiet. Man kann so also recht einfach strukturieren ohne ständig die Fenster unter den anderen hervorkramen zu müssen und das richtige finden zu müssen. So kann man auch mal schnell Platz schaffen, wenn man an etwas bestimmten gezielt arbeiten möchte. Wenn ich bspw. Gimp nutze, nutze ich es in der Mehrfenstervariante und das geht mit virtuellen Arbeitsflächen einfach besser, weil ich Gimp dann eine virtuelle Arbeitsfläche zuweise und meine anderen Sachen unter den anderen Arbeitsflächen habe.
Programmierer schrieb: > - Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne > Erleichterung! Zu faul 7Zip zu installieren? > > - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt Da gab es externe Tools, oder andere Systeme. > Ansonsten noch SSDs, Shader, PCIe, 64bit. Und das mit dem linearen > Adressraum. Was hat SSD mit x86 zu tun? Das beste war wohl der Preisverfall.
c-hater schrieb: > Nano schrieb: > >> Es sind die virtuellen Arbeitsflächen. > > Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil > gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig > anzuordnen und/oder zwischen ihnen zu wechseln. Man hat einfach mehr Platz. Und wenn der Platz nicht ausreicht, dann noch einen und man hat mehr Platz. Wenn man immer nur 1-2 Programme am Laufen hat, dann braucht man es nicht.
Jens B. schrieb: > Programmierer schrieb: >> - Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne >> Erleichterung! > Zu faul 7Zip zu installieren? Früher war das nicht so bekannt wir heute, geschweige denn ausgereift. Üblich war damals, dass man WinRAR oder WinZIP nutzte. Viele haben davon sicherlich die Sharewareversion zu lange genutzt. Und auf Firmenrechnern war es meist nicht zulässig, irgendwelche Drittsoftware zu installieren, also musste man das nehmen, was auf dem Rechner vorhanden war. ZIP unter WinMe/XP war da schon ein Vorteil, im Vergleich zu Win98 oder Win2K, wo es da noch gar nichts out of the box gab. >> - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt > Da gab es externe Tools, oder andere Systeme. Die nicht gescheit funktionierten. Siehe oben.
>Was war für euch der größte Entwicklungssprung beim x86 PC?
Die Abschaffung.
Nano schrieb: > Stell dir die Arbeitsfläche des Desktops als Schreibtisch vor, auf dem > du deine Blätter, Ordner (entspricht den Fenstern und Programmen) usw. > passend hinlegst. > Und jetzt stell dir vor, du hättest mehrere Schreibtische und jeden > einzelnen nutzt du für ein thematisches Gebiet. Ich bin doch nicht bescheuert und pendle zwischen verschiedenen Schreibtischen. Das bezahlt mit doch niemand. > Wenn ich bspw. Gimp nutze, nutze ich es in der Mehrfenstervariante und > das geht mit virtuellen Arbeitsflächen einfach besser, weil ich Gimp > dann eine virtuelle Arbeitsfläche zuweise und meine anderen Sachen unter > den anderen Arbeitsflächen habe. Was geht denn da besser? Ich arrangiere meine Gimp-Fenster, wie benötigt. Und wenn ich von Gimp auf was anderes Umswitche, klicke ich im Hauptfenster von Gimp auf Minimieren und alle Gimp-Fenster sind wech. Und wenn ich wieder mit Gimp arbeiten will, klicke ich einfach das einzige Gimp-Icon in der Taskleiste an und alles ist wieder da. Scheint mir, dass der eigentliche Trick ist: ein durchdachter Window-Manager, eine Anwendung mit ordentlich programmierter GUI und ein Benutzer, der damit umzugehen weiß. Das zusammen macht virtuelle Desktops ziemlich überflüssig.
Virtuelle Desktops braucht jemand nicht, der den ganzen Tag in diesem Forum trollt.
c-hater schrieb: > Ich bin doch nicht bescheuert und pendle zwischen verschiedenen > Schreibtischen. Das bezahlt mit doch niemand. > >... > Scheint mir, dass der eigentliche Trick ist: ein durchdachter > Window-Manager, eine Anwendung mit ordentlich programmierter GUI und ein > Benutzer, der damit umzugehen weiß. Das zusammen macht virtuelle > Desktops ziemlich überflüssig. Du musst es ja nicht nutzen. Ich habe es dir erklärt und damit deine Frage beantwortet.
Nano schrieb: > Ich habe es dir erklärt und damit deine > Frage beantwortet. Nein, eben das hast du nicht getan. Es ist immer noch kein Vortiel zu erkennen gewesen. Ich sehe: es ist in beiden Fällen genau ein Klick erforderlich, um zwischen zwei Fensterumgebungen zu wechseln. Also wo ist der Vorteil?
c-hater schrieb: > Also wo ist der Vorteil? Eventuell die Übung, nicht so schnell bei virtuellen Konsolen durcheinanderzukommen: https://www.linux-community.de/ausgaben/linuxuser/2004/09/zu-befehl-screen/
Nano schrieb: > Bei mir fiele die Wahl auf den 80386. Dito hier, hatte allerdings nur den 386SX. Endlich Doom spielen und Dark Forces :-P Das war der Quantensprung. Speicher ohne rumzicken.
:
Bearbeitet durch User
DesKaisersNeueKleider schrieb: > Polmann schrieb: >> "Linux." > > Das war viele Jahre eher ein kleiner Rückschritt den ein > Sprung vorwärts, weil man durch den Abschied von Windows > die Möglichkeiten vieler Windowsprogramme verlor. Genau! Beispielsweise die großartige und unverzichtbare Möglichkeit, mittels Windows 3.11, "Trumpet Winsock" und "Netscape Navigator" (oder war das noch "Mosaic"?) bei einem Klick auf den falschen Link die ganze Kiste so festzufahren, dass nur ein Druck auf den Reset-Knopf half. Das war vor fast 30 Jahren mein Motiv, auf Linux zu wechseln...
Egon D. schrieb: > dass nur > ein Druck auf den Reset-Knopf half. Ah, "Abschaffung der Reset-Taster" fehlt noch in seiner Liste ganz oben. ;-)
c-hater schrieb: > Nano schrieb: > >> Ich habe es dir erklärt und damit deine >> Frage beantwortet. > > Nein, eben das hast du nicht getan. Es ist immer noch kein Vortiel zu > erkennen gewesen. Ich sehe: es ist in beiden Fällen genau ein Klick > erforderlich, um zwischen zwei Fensterumgebungen zu wechseln. > > Also wo ist der Vorteil? Folgendes Video gibt vor dir zu erklären, warum virtuelle Desktops die Produktivität erhöhen. Kannst es ja mal angucken und dann berichten: https://www.youtube.com/watch?v=aYVaL1VVpNg
Jörg W. schrieb: > Egon D. schrieb: >> dass nur ein Druck auf den Reset-Knopf half. > > Ah, "Abschaffung der Reset-Taster" fehlt noch in seiner > Liste ganz oben. > ;-) Interessant. Du hast Recht... das ist mir noch gar nicht aufgefallen: An der Kiste, auf der ich das hier tippe, sind die Taster und LEDs nicht verdrahtet; zum Starten wird ein bereit- liegendes Slotblech genommen, mit dem ich die beiden Pinökel auf dem Mainboard kurz verbinde, und die Kiste startet dann. "Reset" habe ich monatelang nicht gebraucht...
Für mich: 3D-Beschleuniger inkl. allem was aus diesen heraus entstanden ist, 64 Bit, Multicore, SSD Allerdings tue ich mich schwer mit den höchst zweifelhaften Innovationen der letzten Jahre im Softwarebereich. Es ist einfach nur krank, was da für Ressourcen ohne Mehrwert massiv verheizt werden, weil Programmierer nicht mehr Programmieren können oder dürfen. Stattdessen müssen dutzende gerade schwer angesagte Frameworks, Libs usw. eingebunden werden, weil sich das so gehöre, Computer heutzutage schnell genug seien und man ja nicht das Rad neu erfinden dürfe. Nein, ich will nicht mehr die Zeiten zurück, bei denen man mit jedem Bit persönlich per du war und per Assembler höchste Optimierungen vornahm. Das ist trotzdem kein Argument für den Mist im Softwarebereich, der heute praktiziert wird. Abstraktion auf Abstraktion und am besten trivialste Funktionen in irgendwelche Paketmanagement-Systeme outgesourct, die man bei den "fancy" Programmiersprachen gleich mit aufgenötigt bekommt. Massive Sicherheitsprobleme sind dann halt so, weil Fehler in Software, da könne man halt nichts machen. Ich bin absolut dafür, eine Haftung für kommerzielle Software einzuführen, vielleicht wachen da mal ein paar Leute auf.
someone else schrieb: > eine Haftung für kommerzielle Software einzuführen, vielleicht > wachen da mal ein paar Leute auf. Vielleicht hülfe es, vielleicht wird aber auch bloss die Software viel teurer, weil der grössere Teil des Kauf- oder Mietpreises an Versicherungen und Anwälte durchgereicht wird. Was macht man dann bei freier Software?
:
Bearbeitet durch User
c-hater schrieb: >> Wenn ich bspw. Gimp nutze, nutze ich es in der >> Mehrfenstervariante und das geht mit virtuellen >> Arbeitsflächen einfach besser, weil ich Gimp dann >> eine virtuelle Arbeitsfläche zuweise und meine >> anderen Sachen unter den anderen Arbeitsflächen > habe. > > Was geht denn da besser? Erstmal eine Gegenfrage: Warum sollte man Dir diese Frage sachlich beantworten, da Du ja offensichtlich ausschließlich darauf aus bist, Deine Gesprächspartner herabzusetzen? Woher ich diese "Verleumdung" nehmen? -- Nu, daher: > Scheint mir, dass der eigentliche Trick ist: ein > durchdachter Window-Manager, eine Anwendung mit > ordentlich programmierter GUI und ein Benutzer, der > damit umzugehen weiß. Das zusammen macht virtuelle > Desktops ziemlich überflüssig. "... durchdachter Window-Manager...": Klar, der fvwm2 ist von Idioten geschrieben worden. "...ordentlich programmiertes GUI...": Klar, das GUI von Firefox und Gimp ist von Idioten programmiert worden. "...Benutzer, der damit umzugehen weiss...": Klar, der Benutzer, der das hier tippt, ist ein Idiot. Überhaupt sind alle Leute Idioten, die irgend etwas anders machen als Du. Aber ich beantworte Deine ursprüngliche Frage trotzdem sachlich, auch wenn ich überzeugt bin, dass es nichts nützt: > Ich arrangiere meine Gimp-Fenster, wie benötigt. Das mache ich auch. > Und wenn ich von Gimp auf was anderes Umswitche, > klicke ich im Hauptfenster von Gimp auf Minimieren > und alle Gimp-Fenster sind wech. Das mache ich nicht. Ich drücke "Ctrl-Alt-CursorRight" und bin auf der Arbeitsfläche, auf der der mc läuft. Alternativ könnte ich auch "Ctrl-Alt-CursorLeft" drücken und wäre dann auf der Arbeitsfläche, auf der der Browser zu sehen ist. Dabei mag eine Rolle spielen, dass ich die Maus mit Links bediene: Die rechte Hand ist ohnehin in der Nähe der Cursortasten, und der Weg der linken Hand von der Maus zu "Control" und "Alt" ist auch kurz. Wechseln zwischen Tastatur und Maus muss ich sowieso, Zehn-Finger-Blindschreiben geht schlecht ohne linke Hand... > Und wenn ich wieder mit Gimp arbeiten will, klicke ich > einfach das einzige Gimp-Icon in der Taskleiste an und > alles ist wieder da. Ich brauche keine Taskleiste. Ich finde diese (Form von) Mausschubserei lästig, und mich stört das Auf- und Zugeploppe von Fenstern. Ach ja... nur für den Fall: Eine graphiklastige Applikation wie das Gimp bediene ich NATÜRLICH mit der Maus...
Nano schrieb: > Die Voodoo Graphics? Die war definitiv etwas, das mich damals sehr beeindruckt hat. Zum ersten mal 3D-Grafik in 640x480 bei >30fps. Nano schrieb: > das CD-ROM Laufwerk? Das hat mich damals durchaus auch sehr beeindruckt. Für ein paar Mark fufzig konnte man sich da eine Shareware-CD kaufen, wo fast viermal so viel drauf war wie auf meine Festplatte gepasst hat. Atemberaubende Datenmengen. Karl schrieb: > Die Abschaffung des A20-Gates. War dessen Existenz denn für dich so ein riesiges Problem bzw. hat sich durch die Abschaffung für dich irgendwas wesentlich verbessert? Christoph db1uq K. schrieb: > Der größte Sprung waren die Taktfrequenzen. Nein, die Festplattenkapazitäten sind wesentlich schneller hochgegangen. Als man noch Rechner mit 16 MHz hatte, war man vielleicht bei 40 MB üblicher Plattenkapazität oder so. Heute haben die Rechner ein paar GHz, aber die Festplatten ein paar TB, sind also nochmal um drei Zehnerpotenzen schneller gewachsen. Programmierer schrieb: > UEFI könnte man noch nennen. Ich hab bis heute nicht verstanden, wozu das gut ist. Ist höllisch kompliziert, braucht diese seltsame DOS-Partition und bootet auch nur einfach den Rechner, das aber gerne mal etwas hakeliger. Jörg W. schrieb: >> Der VESA Local Bus Bus? > > Dem würde ich eher den Preis "größte Krücke der PC-Landschaft" zuteilen. > :-) "Geht er oder geht er nicht, das ist die Frage." ;-) (Bin zum Glück > davon verschont geblieben. EISA war zwar nicht so ganz trivial zu > managen, hat aber dann wenigstens stabil funktioniert.) Ich hab mir damals meinen 486er auf VESA Local Bus aufgerüstet, mit einer entsprechenden Grafikkarte und einem Festplatten-Controller und hatte damit nie Probleme. Das soll jetzt nicht heißen, der Bus sei besonders toll gewesen, aber stabil war er bei mir. Polmann schrieb: > "Linux." > Schade, war klar das gleich wieder dumme Antworten kommen als erstes:-( Du meinst so wie deine? Polmann schrieb: > Absolut, ja,a ber offenbar sehen das einige Fanboys hier anders, ich > hoffe das macht die Diskussion nicht kaput. Der Diskussion schaden tun vor allem Leute, die andere als dumm und "Fanboys" bezeichnen, nur weil sie eine andere Ansicht haben. (prx) A. K. schrieb: > Purzel H. schrieb: >> zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht >> verwendet, resp alle aufeinander gelegt > > Daten und Stack lassen sich in C nicht trennen und Code nur, wenn man > Konstanten im Datenbereich unterbringt. Ja, wo auch sonst? Sind ja Daten. Man hätte aber zumindest mal Code und Daten trennen können. Stattdessen hat man viele Jahre damit gelebt, dass die Betriebssysteme alle so gebaut waren, dass so eine Trennung trotz Support durch die CPU nicht vorgesehen ist - mit allen Sicherheitslücken, die daraus hervorgegangen sind. Erst viel später hat AMD und dann auch Intel mit dem NX-Bit so ein Feature noch ein zweites Mal umgesetzt, nur diesmal auf Page-Ebene, damit die Betriebssyteme es dann auch nutzten. Jörg W. schrieb: > Egon D. schrieb: >> dass nur >> ein Druck auf den Reset-Knopf half. > > Ah, "Abschaffung der Reset-Taster" fehlt noch in seiner Liste ganz oben. > ;-) Die finde ich aber nicht beeindruckend, sondern eher nervig. Genauso wie z.B. der Wegfall der Festplatten-LED, des noch nicht durch Software überstimmbaren WLAN-Schalters und jeglicher anderer vom Monitor unabhängige Anzeige außer der Power-LED an meinen Geschäftsrechnern.
:
Bearbeitet durch User
Rolf M. schrieb: > Zum ersten mal 3D-Grafik in 640x480 bei >30fps. Ehm, Quake mit SW-Rendering? Lange vor Voodoo.
Gerald K. schrieb: > Erst trauerte ich der RS232 Schnittstelle nach, jetzt benutze ich USB, > viel schneller, flexibler und Fernspeisung. Hat beides seine Vor- und Nachteile, für Endanwender ist es natürlich einfacher, er muss keinen Port auswählen, keine Baudraten einstellen usw… Allerdings hat die Einfachheit der seriellen Schnittstelle für die Geräte-Entwicklung durchaus seine Vorteile, ich finde es eher erstaunlich wie man sich im Laufe der letzten Jahre so abhängig gemacht hat von Treiber-Entwicklung, Signierung und der Komplexität der Schnittstelle. Natürlich gibt es auch USB-UART Bridges das ist in meinen Augen aber eher ein Workaround des eigentlichen Problems. Wir setzen zum Beispiel seit über 20 Jahren auf Ethernet und das läuft hervorragend, wir haben einiges an Software, teils unter Windows 2000 entwickelt, die läuft bei Kunden unverändert auch noch auf Windows 10 Geräten. Das einzig nervige ist die Netzwerkskonfiguration aber unser Kundenkreis hat damit kein Problem.
Rolf M. schrieb: > Jörg W. schrieb: >> >> Ah, "Abschaffung der Reset-Taster" fehlt noch in seiner >> Liste ganz oben. >> ;-) > > Die finde ich aber nicht beeindruckend, sondern eher > nervig. Ernsthafte Frage: Warum? Dass die Kiste komplett einfriert, so dass wirklich nur Reset hilft, kenne ich eigentlich nur bei Hardware- Problemen (der Rechner, an dem ich gerade sitze, ist so ein Kandidat.) Da ist es zugegebenermaßen lästig, wenn man keinen Knopf dafür hat -- aber sonst...?!
Rolf M. schrieb: > Jörg W. schrieb: >>> Der VESA Local Bus Bus? >> >> Dem würde ich eher den Preis "größte Krücke der PC-Landschaft" zuteilen. >> :-) … > > Ich hab mir damals meinen 486er auf VESA Local Bus aufgerüstet, mit > einer entsprechenden Grafikkarte und einem Festplatten-Controller und > hatte damit nie Probleme. Das soll jetzt nicht heißen, der Bus sei > besonders toll gewesen, aber stabil war er bei mir. Es war aber eben mehr oder weniger Zufall, ob es funktionierte. Du konntest eine funktionierende Grafikkarte aus einem Computer aus- und in den nächsten einbauen, und dort hängte sich alles auf. Lies dir hier mal den dritten Absatz durch: https://de.wikipedia.org/wiki/VESA_Local_Bus#Eigenschaften EISA und PCI waren dagegen (jeweils auf dem Stand ihrer Zeit) deutlich durchdachtere Bussysteme. (Reset-Taster) > Die finde ich aber nicht beeindruckend, sondern eher nervig. Brauchst du den Reset-Taster so häufig? Abgesehen von ernsthaften Hardwareproblemen kann ich mich gerade nicht dran erinnern, wann ich den das letzte Mal benötigt hätte. > Genauso wie > z.B. der Wegfall der Festplatten-LED, Ist hier noch dran, aber da sie nur für Onboard-Schnittstellen funktioniert, nicht übermäßig nützlich. > des noch nicht durch Software > überstimmbaren WLAN-Schalters Das dürfte eher ein regulatorisches Problem sein: mit einem Hardwareschalter ist es halt einfach nachzuweisen, dass du so einen Funk-Emissions-freien Zustand ("Flugmodus") erreichst. Ein älterer HP-Laptop hier hatte den (via F-Tasten und Fn) in (BIOS-)Software vorgesehen, ich hätte mir stattdessen einen Hardwareschalter gewünscht gehabt: es konnte einem passieren, dass das Ding unter Linux zwar aus- aber nicht wieder einschaltbar war und man dafür erst ein Windows booten musste. Selbst aus dem BIOS ließ sich der Zustand nicht ändern. Dann lieber einen einfachen Schiebeschalter.
:
Bearbeitet durch Moderator
Rolf M. schrieb: > Nano schrieb: >> Die Voodoo Graphics? > > Die war definitiv etwas, das mich damals sehr beeindruckt hat. Zum > ersten mal 3D-Grafik in 640x480 bei >30fps. Die Voodoo Graphics ist bei mir aus irgendeinem Grund vorbeigegangen, aber die Voodoo 2 habe ich dann hautnah erlebt. Das war ein WOW Ereignis. Auf einmal hatte ein aktuelles Spiel 60 fps, bei zuvor meist nicht mehr als 23 fps im Software Rendering Modus auf schnellen Rechnern. > Nano schrieb: >> das CD-ROM Laufwerk? > > Das hat mich damals durchaus auch sehr beeindruckt. Für ein paar Mark > fufzig konnte man sich da eine Shareware-CD kaufen, wo fast viermal so > viel drauf war wie auf meine Festplatte gepasst hat. Atemberaubende > Datenmengen. Ganz deiner Meinung. > Programmierer schrieb: >> UEFI könnte man noch nennen. > > Ich hab bis heute nicht verstanden, wozu das gut ist. Ist höllisch > kompliziert, braucht diese seltsame DOS-Partition und bootet auch nur > einfach den Rechner, das aber gerne mal etwas hakeliger. Die ursprüngliche Idee war gut, aber die Umsetzung ist grauenhaft.
Der standardisierte Aufbau: Der AT(?) Formfaktor des motherboards erlaubt diefrei Auswahl von Componenten und den Aufbau durch den Käufer selbst. Und der Verkauf von gebrauchten Komponenten ermöglicht eine Teilfinanzierung des Neukaufs. Mit DSL wurde das Netz videofähig Und dank Flatrate bereitet der 'Datenverbrauch' keine Kopfschmerzen mhr. Dank Taptop resp. portable kann man als Freiberufler tatsächlich unabhängig vom eigenen Büro arbeiten.
René F. schrieb: > Allerdings hat die Einfachheit der seriellen Schnittstelle für die > Geräte-Entwicklung durchaus seine Vorteile, ich finde es eher > erstaunlich wie man sich im Laufe der letzten Jahre so abhängig gemacht > hat von Treiber-Entwicklung, Signierung und der Komplexität der > Schnittstelle. Natürlich gibt es auch USB-UART Bridges das ist in meinen > Augen aber eher ein Workaround des eigentlichen Problems. > > Wir setzen zum Beispiel seit über 20 Jahren auf Ethernet und das läuft > hervorragend, wir haben einiges an Software, teils unter Windows 2000 > entwickelt, die läuft bei Kunden unverändert auch noch auf Windows 10 > Geräten. Das einzig nervige ist die Netzwerkskonfiguration aber unser > Kundenkreis hat damit kein Problem. Ethernet braucht auch einen TCP/IP Stack und ein OS, wenn man damit etwas anfangen soll und damit hat man auch Sicherheitslücken und setzt das Gerät und das angeschlossene Netzwerk einer Gefahr aus. Solche Geräte müssen dann zwingend regelmäßig upgedated werden, sofern eine Sicherheitslücke bekannt wird oder gleich in ein separates vlan gepackt werden. Die Lösung für alles ist es somit leider nicht. USB ist da dann schon unproblematischer.
Ab PDF funktioniert das mit den gehaltvollen Dokumenten und Datenblattaustausch. Bevor dem, war es einfach krampfig, schon wegen unterschiedlichen Zeichensätzen. Oder einfach zu groß wie das Postscript aus der tunix Welt. rtf war nicht ganz und nicht halb, *.doc Virenlastig, gif hatteCopyright, *.png war zu groß für kleine Disks. Wer kennt noch MIME oder *.troff?
René F. schrieb: > Wir setzen zum Beispiel seit über 20 Jahren auf Ethernet und das läuft > hervorragend, wir haben einiges an Software, teils unter Windows 2000 > entwickelt, die läuft bei Kunden unverändert auch noch auf Windows 10 > Geräten. Das einzig nervige ist die Netzwerkskonfiguration aber unser > Kundenkreis hat damit kein Problem. Ich bin ehrlich beeindruckt, wie lange sich so schnödes 4x2-TP-Kabel mit RJ45-Stecker schon als Netzwerkkabel gehalten hat. Umso härter wird die Umstellung - worauf auch immer - wenn sie denn kommt ;) USB ist auch gar nicht so viel jünger, zumindest 1.1 - auch wenn die großflächig vernünftige Softwareunterstützung erst deutlich später kam. MfG, Arno
Nano schrieb: > USB ist da dann schon unproblematischer. Das sehe ich auch so, wobei der USB Start unter Win schon holprig war. Vielleicht erinnert sich noch jemand an die Vorstellung von W98 von Bill Gates als ein USB Scanner gleich mal einen Bluescreen produzierte. Trotzdem halte ich USB für einen wichtigen Meilenstein.
(prx) A. K. schrieb: > Vielleicht hülfe es, vielleicht wird aber auch bloss die Software viel > teurer, weil der grössere Teil des Kauf- oder Mietpreises an > Versicherungen und Anwälte durchgereicht wird. Nun, als jemand der in der IT-Branche Systemintegration tätig war, kann ich dir mitteilen, dass Versicherungen weder wohltätig noch hirnlos sind. Besonders, wenns mal wo wieder richtig gekracht hat, wollen die einige Zusagen und Garantien, sowie genau wissen wie du was machst. Als Sahnehäubchen wollen die sehr, sehr, sehr viel Geld, wenn du meinst schlampig arbeiten zu können und die Versicherung als Airbag missbrauchen zu können. Und jedes Wirtschaftsunternehmen hat was dagegen Anwälten ohne Sinn und Verstand zu beschäftigen. Es ist so, dass die Systemintegratoren ziemlich oft den Scheiß ausbaden dürfen, der von Seitens der Softwareanbieter hingerotzt wird. Diese Softwareanbieter meinen dann ihre Hände in Unschuld waschen zu können, weil diese Sicherheitslücken usw. ja unvermeidbar seien und irgendwie was magisches angedichtet bekommen. Es muss die logische Konsequenz sein, dass dieser Teil der IT auch in Verantwortung genommen wird. Wenn ein Softwareanbieter meint, in der Entwicklung seiner Software irgendeine fremde Komponente blindlings einbauen zu können, ohne selbst dafür verantwortlich zu sein, dann liegt dieser falsch. > Was macht man dann bei freier Software? Komische Frage, ich schreib von kommerzieller Software und du plötzlich von freier Software. Ja, wir können gerne Äpfel mit Birnen vergleichen, sind irgendwie so ähnlich. Wenn dus genau wissen willst, die freie Software lässt man juristisch in Ruhe. Das Zeug ist frei und international, also soll jeder schauen, wie er es nutzt. Nutzt aber eine Firma freie Software für sich kommerziell, sollen die dann bitte dafür wieder haften. Es ist sowieso assiges Schmarotzertum freie Software einfach für sich kommerziell zu benutzen, ohne was zurück zu geben.
Fpgakuechle K. schrieb: > Wer > kennt noch MIME oder *.troff? oder *.div.. An pdf hatte ich auch gedacht, oder an html, was ich immer mochte, meine aber das fällt wie auch httrack und so Zeugs eher nach Internet, und so OT. Das Soundblasterformat hat es bis in die Mainboards geschafft, auch nicht zu verachten. https://de.wikipedia.org/wiki/VOC_(Audiocodec)
someone else schrieb: > Es ist sowieso assiges Schmarotzertum > freie Software einfach für sich kommerziell zu benutzen, ohne was zurück > zu geben. Das entspricht voll und ganz dem Gedanken von Freier Software und Open Source. Es gibt keine (ernstzunehmende) Open-Source-Lizenz, die die Nutzung irgendwie einschränkt. Und auch die Modifikation und Integration schränken viele Open-Source-Lizenzen nicht ein. Selbst die GPL erlaubt es die Software zu nehmen und unternehmensintern beliebig zu verwursten. Und das ist so gewollt!
someone else schrieb: > Es ist so, dass die Systemintegratoren ziemlich oft den Scheiß ausbaden > dürfen, der von Seitens der Softwareanbieter hingerotzt wird. Diese > Softwareanbieter meinen dann ihre Hände in Unschuld waschen zu können, > weil diese Sicherheitslücken usw. ja unvermeidbar seien und irgendwie > was magisches angedichtet bekommen. Es muss die logische Konsequenz > sein, dass dieser Teil der IT auch in Verantwortung genommen wird. Bin dagegen, denn es hilft nur den großen. Die Kleinen machen dann dicht. Und es gibt nicht mehr viele Branchen wo man als Kleiner noch gute Chancen hat. Zumal die Softwarewelt aufgrund des Mannjahresbedarf schon jetzt schwer genug ist. > Wenn > ein Softwareanbieter meint, in der Entwicklung seiner Software > irgendeine fremde Komponente blindlings einbauen zu können, ohne selbst > dafür verantwortlich zu sein, dann liegt dieser falsch. Der Kunde soll einfach richtig zahlen, dann kann er solche fremden Komponenten bei zugeschnittenen Aufträgen auch per Vertrag ausschließen. Zumal es dann ohnehin so kommen würde, wenn es zum Gesetz wird. Die Folge wäre wohl, dass sich die meisten Firmen dann irgendwo in Asien mit Software eindecken, wo das mit der Haftung nicht gilt und dann einfach weiter jammern. >> Was macht man dann bei freier Software? > > Komische Frage, ich schreib von kommerzieller Software und du plötzlich > von freier Software. Freie Software ist kommerziell. Die GPL erlaubt den kommerziellen Vertrieb ausdrücklich. > Ja, wir können gerne Äpfel mit Birnen vergleichen, > sind irgendwie so ähnlich. Das hat er nicht. Denn beides sind hier Äpfel, sowohl proprietäre kommerzielle Software als auch freie kommerzielle Software. > Wenn dus genau wissen willst, die freie Software lässt man juristisch in > Ruhe. Das Zeug ist frei und international, also soll jeder schauen, wie > er es nutzt. Das wäre ein Wettbewerbsnachteil gegenüber den propritären kommerziellen und daher unrecht.
Nano schrieb: > Die Kleinen machen dann dicht. Sie könnten zur Abwechslung ja mal korrekte und funktionsfähige Software schreiben. Dann wäre auch kein Grund dicht zu machen vorhanden.
Die Turbo-Taste für zu schnelle PCs ;)
Arno schrieb: > Ich bin ehrlich beeindruckt, wie lange sich so schnödes 4x2-TP-Kabel mit > RJ45-Stecker schon als Netzwerkkabel gehalten hat. Umso härter wird die > Umstellung - worauf auch immer - wenn sie denn kommt ;) Da bin ich zu 100% bei dir. Im Consumer Bereich wird sie wohl in den nächsten Jahren immer häufiger wegfallen, im professionellen Bereich ist es aber für mich in den nächsten Jahren undenkbar. 1990 mit der Einführung von 10BASE-T (10MBit/s) hat sich wohl niemand vorstellen können, das wir irgendwann über den gleichen Stecker einige GBit/s übertragen werden.
Also - auch wenns meiner Meinung nach so gar nicht x86-spezifisch ist, aber nachdem Du es ja auflistest kanns ja keine Themaverfehlung sein - ganz eindeutig Flachbildschirme.
Andreas B. schrieb: > Na, ja. Anfangs waren die wirklich mies. ... wenn sie mit einem analogen Videosignal gespeist wurden. Mit digitalem Signal bei passender Auflösung von Video-Karte und LCD-Monitor war es auch bei den frühen Modellen sehr gut. Ich habe mir vor über 20 Jahren einen 15" Monitor für deutlich über 2.000,00 DM gegönnt, weil ich davor mehrere Stunden täglich gearbeitet habe. Das war selbst gegenüber einem guten Sony-Monitor mit Bildröhre ein wohltuender Fortschritt.
Ein grosser Sprung vorwärts ist alles was Hilfestellung aka debugging unterstützt. -die schnelle Übermittlung von Screenshot/Configs bei Softwarefehlern und gute Fotos bei (sichtbaren) Hardwaredefekten -Zugriff auf den Systemzustand zur Fehlerbildrekonstruktion beim Helfer (memory, CPU-dump, Protokolldatein vom elektrischen Zustand (Spannungensminitore,Temperaturüberwachung, elektrische Diagnose generell) Und natürlich ist es noch besser 'daß das Kind nicht erst in den Brunnen fällt' -also robustes System dank ECC und automatisches Heruntertakten etc. -abfangen von 'Software-querschlägern' so dass dennoch das System stabil bleibt (Speicherschutz, traproutinen, Notfallsystem)
Fpgakuechle K. schrieb: > -Zugriff auf den Systemzustand zur Fehlerbildrekonstruktion beim Helfer > (memory, CPU-dump, Protokolldatein ... gehörten zu den beliebtesten Papierverbrauchern in der Frühzeit der Datenverarbeitung. Was später in Unix als überall im Filesystem rumliegende Coredumps die Disks verstopfte, landete davor als Resultat eines Batch-Jobs auf Papier. Wenn nicht der Job ein Problem hatte, sondern die ganze Kiste, dann gab es Klaviaturen und LEDs zum durchklappern - schon mal eine PDP-11 von vorne gesehen?
:
Bearbeitet durch User
c-hater schrieb: > Rolf M. schrieb: >> Zum ersten mal 3D-Grafik in 640x480 bei >30fps. > > Ehm, Quake mit SW-Rendering? Lange vor Voodoo. Auf einem Pentium 133 ohne MMX? Sicher nicht. Da lief das in 320x240 ganz gut, aber 640x480 wäre unspielbar gewesen. GLQuake auf der Voodoo war da ein riesen Sprung. Kann man auch auf https://framebuffer.io/project/quake sehen. Da ist für einen Pentium 200 eine durchschnittliche Framerate von 17 FPS angegeben, d.h. an manchen besonders intensiven Stellen wäre das bei meinem 133er sicher bis in den einstelligen Bereich runtergegangen. Mit der Voodoo dagegen lief das (für damalige Verhältnisse) butterweich.
:
Bearbeitet durch User
Der Preisverfall, und dass sich jeder so was leisten konnte. Als aus den unerreichbaren Elfenbeintürmchen plötzlich Gegenstände des täglichen gebrauchs wurden. Das war für mich die größte Entwicklung.
> Siehste, bei mir war es nie ein Windows, sondern der Übergang von DR-DOS > zu 386BSD noch bevor Windows ernsthaft in die Gänge kam. Da war u.a. der Da kannst du dir hier den Mund fusselig quatschen, die Windowsanbeter wissen garnicht wie traurig ihre Welt war. Die glauben ihre Probleme waren normal. Zu Zeiten als die mit Window3.11 mit 640x480 oder 800x600 rumgemacht haben und ein Absturz bei denen taeglich vorkam hatte ich z.B eine Ati Mach32 im Rechner mit 1280x1024 pixel an einem gebrauchten 21" Trinitronmonitor. Das war nur moeglich weil ich die Timings selbst berechnen und einstellen konnte. Ausserdem hatte ich damals selbstverstaendlich schon mehrere Screens zwischen denen ich umschalten konnte. Etwas das selbst das Win10 heute noch nicht ganz perfekt hinbekommt. Oder wie die Kollegen damals eine CD (Rohling =15DM) gebrannt haben und sich nicht getraut haben dabei unter Win3.11 auch nur mit der Maus zu wackeln weil sie Angst hatten das denen die Kiste dabei abkackt. Olaf
Rainer Z. schrieb: > Andreas B. schrieb: >> Na, ja. Anfangs waren die wirklich mies. > > ... wenn sie mit einem analogen Videosignal gespeist wurden. > Mit digitalem Signal bei passender Auflösung von Video-Karte und LCD- > Monitor war es auch bei den frühen Modellen sehr gut. Manch einer hat den Monitor aber auch zwar digital, aber mit der falschen Auflösung betrieben, und interpoliert sah das Bild natürlich immer matschig aus. Bei einigen Monitoren war die Interpolation aber ganz besonders schlecht. Das wurde gerne mal gemacht, weil GUIs nicht brauchbar skaliert werden konnten - und oft bis heute nicht können. Dann hat man halt einfach die Auflösung runtergestellt, damit alles größer wird. Das war bei Röhrenmonitoren kein Problem, aber bei LCD-Monitoren schon. > Ich habe mir vor über 20 Jahren einen 15" Monitor für deutlich über > 2.000,00 DM gegönnt, weil ich davor mehrere Stunden täglich gearbeitet > habe. Das war selbst gegenüber einem guten Sony-Monitor mit Bildröhre ein > wohltuender Fortschritt. Mein Umstieg von Röhrenmonitor auf LCD war etwas gemischt. Auf der einen Seite war der Monitor natürlich viel kompakter, das Bild war unverzerrt, farbkräftig und flimmerfrei, aber die Auflösung lies doch sehr zu wünschen übrig. Alles war plötzlich sehr pixelig, z.B. Treppenkanten an den Schrifträndern, die ich vorher so nicht hatte.
Jan K. schrieb: > Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung > gebracht. Ja, der Einbau einer SSD hat dem PC richtig Beine gemacht. Ulkiger Weise wurde aber überall empfohlen, mehr RAM reinzustecken. Ich war aber regelmäßig enttäuscht, mehr RAM habe ich nie gemerkt. Der XP Medion-PC hatte z.B. 512MB. Später habe ich 2GB dazu gepackt und absolut nichts davon gemerkt. Schade um das verschwendete Geld. Bei XP und W7 hat man auch stark gemerkt, wie durch die Updates immer mehr Hintergrundprozesse installiert wurden und das System immer langsamer wurde.
Beitrag #7005963 wurde vom Autor gelöscht.
Olaf schrieb: > Oder wie die Kollegen damals eine CD (Rohling =15DM) gebrannt haben Das Schreiben des ersten Treibers für einen Plasmon-CD-Brenner war auch noch ein Abenteuer. Mein Chef brachte den irgendwann an (ich glaube, der hat um die DEM 2000 gekostet), und ich hab's geschafft, den Treiber mit einem einzigen zerschossenen Rohling zu bauen. Die Laufwerke kannten ja einen "dummy mode", mit dem man die Daten hin schicken konnte, ohne wirklich eine CD zu brennen. Das Einzige, wo der Datenstrom dann abbrach war beim Versuch, gleichzeitig noch zu drucken – was den Ghostscript anwarf (fürs PCL-Rendering), woraufhin er zu swappen begann. Upgrade des RAMs (von 4 auf 8 MiB, kann sich heute keiner mehr vorstellen ;-) half dann auch dagegen, danach konnte man im vollen Betrieb (inklusive Grafik-Oberfläche) im Hintergrund CDs brennen.
Kleinigkeiten unter OS/2., wie das benutzen von Disketten ohne das das ganze System blockiert und ruckelt, waren Dinge die alles gefühlt schneller machten. OS/2 Warp fühlte sich insgesamt einfach gut und rund an Seufz Wenn es auch nur im Ansatz die Verbreitung hätte, wie heute Linux:-( Seufz Wenn ich mir dagegen bis vor 5 Jahren den krampf mit Linux bis heute ansehe(Davor war es nicht mal einen Gedanken wert) Dr-DOS PTS-DOS, musste alles mal drauf am Ende war es dann aber doch immer das MS Dos
Wenn OS/2 sich durchgesetzt hätte, denke ich würde, würde an Linux niemand auf dem Desktop auch nur einen Gedanken verschwenden außer natürlich den Basteln die immer gerne was anderes probieren wollen oder den Nerds die einfach anders sein wollen als der Rest
Polmann schrieb: > Kleinigkeiten unter OS/2., wie das benutzen von Disketten ohne das das > ganze System blockiert und ruckelt, waren Dinge die alles gefühlt > schneller machten. Das war gerade auch eins der Dinge, die mich an Linux fasziniert hatten. Da war das auch so. Aber als ich zum ersten mal in OS/2 Wing Commmander in einem Fenster und nebenher noch einen MOD-Player hab laufen lassen, war das schon auch cool, wenn man davor DOS gewohnt war.
Polmann schrieb: > Wenn es auch nur im Ansatz die Verbreitung hätte, wie heute Linux:-( > Seufz Daß ich das noch erleben darf.... Linux als Maßstab für "verbreitet"!
Für mich: 1. Digital angesteuerter Flachbildschirm 2. Linux 3. SSD 4. CPU mit clock > 1 GHz
Matte IPS-Displays waren auch ein großer Sprung. Damit konnte man erstmalig Notebooks auch im Zug benutzen, ohne Augenkrebs zu bekommen oder nen steifen Nacken, weil man einen ganz bestimmten Winkel zum Display einhalten mußte.
Beitrag #7006018 wurde vom Autor gelöscht.
Linuxer schrieb: > Digital angesteuerter Flachbildschirm Wobei bei einem guten Schirm (d.h. gute Signalerkennung) der Unterschied zwischen analoger und digitaler Ansteuerung auch bei FullHD nicht weiter auffällt. > Matte IPS-Displays waren auch ein großer Sprung. Wobei ich das nicht als grossen Sprung nach vorne empfand, sondern zwischenzeitlich als Rücksprung. Matt gab es m.W. schon von Anfang an, nur zwischendrin wurden Rasierspiegel modisch, bei Laptops allerdings nicht zuletzt als Folge der Touchscreen-Idee.
:
Bearbeitet durch User
Oh, mann, es ist wieder mal absolut geil, alten weißen Männern (auch OM's genannt)an ihren Erfahrungen teilhaben zu dürfen. Respekt!! mfg
Lotta . schrieb: > Oh, mann, es ist wieder mal absolut geil, alten weißen Männern > (auch OM's genannt)an ihren Erfahrungen teilhaben zu dürfen. Wie erkennst du übers Netz die Farbe? Per Vorurteil? ;-)
:
Bearbeitet durch User
c-hater schrieb: > Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil > gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig > anzuordnen und/oder zwischen ihnen zu wechseln. Bei der Arbeit unverzichtbar. Alleine unser ERP-System macht direkt ein Dutzend Fenster auf, die auch alle in der Taskleiste und im Alt-Tab-Switcher auftauchen. Wenn man das in seine eigene Desktop-Sandbox steckt, hat man schon viel gewonnen. Dann ein virtueller Desktop für die produktive Arbeit, einer für das Geraffel wie Mail und Teams und einer für den Browser, den man schnell verstecken kann, wenn Chefchen um die Ecke kommt. Wenn ich programmiere, möchte ich möglichst viel der Bildschirmfläche für meinen Sourcecode haben und nicht nur durch ein kleines Schlüssellochfensterchen drauf schauen. Es ist sowieso schon immer ein Kampf zwischen "Schrift klein genug, um genug Code zu sehen" und "Schrift groß genug, um überhaupt was lesen zu können". Deshalb gibt's für den Code-Editor nur eins: Fullscreen. Monitor 2 hat dann das PDF mit dem Datenblatt des Controllers offen.
Nano schrieb: > die FPU? Die vom Pentium P54. Mit Rechenfehler. Aus sehr persönlichen Gründen. https://www.heise.de/ct/artikel/20-Jahre-FDIV-Bug-Die-Hintergruende-2438233.html http://www.khd-research.net/Tech/Computer/PBug/pbug_coe.txt
:
Bearbeitet durch User
(prx) A. K. schrieb: > Lotta . schrieb: >> Oh, mann, es ist wieder mal absolut geil, alten weißen Männern >> (auch OM's genannt)an ihren Erfahrungen teilhaben zu dürfen. > > Wie erkennst du übers Netz die Farbe? Per Vorurteil? ;-) Na klar per Vorurteil! Genau so wie die meisten Trolle auf diesem Board hier keine sind, wenn man zwischen den Zeilen interpretieren kann. Hier kann man ne Menge lernen, auch von Trollen, das zeichnet unsere Wiese hier gegenüber anderen Wiesen aus. ;-) Achja: Sogar ich kenne die Pegasus-Shareware-CD's noch, da meine Familie diese aufgehoben hat. Das ist der Vorteil von Datenträgern gegenüber dem Netz, das ja mehr von Moden getrieben ist. mfg
Als User (vor allem beruflich): TFT Monitore. Dann die SSD bzw. M.2 Und für die Freizeitgestaltung die Entwicklung der Grafikkarten sowie MMOs :-) Angefangen habe ich mit einem C64 mit Datasette (dann 1541 Floppy) und einem grünen Monitor einer Überwachungskamera.
:
Bearbeitet durch User
Jens B. schrieb: > Programmierer schrieb: >> - Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne >> Erleichterung! > Zu faul 7Zip zu installieren? Das war zu Win2k-Zeiten noch nicht sehr verbreitet, und die DAUs hatten auch nie die damals gängigen Programme (WinZip & Co) installiert. Es war immer ein ziemliches Gehedder die dazu zu überreden, sich das zu installieren, damit man was größeres verschicken konnte. someone else schrieb: > Es ist einfach nur krank, was da > für Ressourcen ohne Mehrwert massiv verheizt werden, weil Programmierer > nicht mehr Programmieren können oder dürfen. Stattdessen müssen dutzende > gerade schwer angesagte Frameworks, Libs usw. Können schon, aber dürfen nicht. Wenn der Boss erwartet dass in 2 Wochen eine funktionsfähige App da steht die mehr kann als die Konkurrenz, hast du wohl keine Wahl als alles an fertigen Libraries mitzunehmen was es gibt. Wenn du "nein" sagst schmeißt er dich raus und nimmt den nächsten. Mit "frisst weniger Speicherplatz als die Konkurrenz" kann man keine Werbung machen. Viele Programmiere würden liebend gerne clever effiziente Systeme bauen, aber dürfen nicht. Das ist sogar im Embedded-Umfeld so. Rolf M. schrieb: > Ich hab bis heute nicht verstanden, wozu das gut ist. Ist höllisch > kompliziert, braucht diese seltsame DOS-Partition und bootet auch nur > einfach den Rechner, das aber gerne mal etwas hakeliger. Für den User sind die Vorteile von UEFI weniger sichtbar, mehr für die OS-Entwicklung. Aus User-Sicht wäre das der schnellere Boot-Vorgang, Auswahl des zu startenden OS direkt aus dem UEFI-Menü (d.h. eigentlich braucht man das Bootmenü z.B. von GRUB nicht mehr), automatisches Hinzufügen/Ändern von Bootmenü-Einträgen direkt aus dem OS(-Installer) heraus, d.h. (theoretisch) können die Installer von Windows, Linux, Whatever einheitlich Boot-Einträge anlegen und man muss nicht erst ein Bootmenü mit GRUB oder dem Windows-Bootmanager konfigurieren (wobei das mittlerweile ziemlich gut automatisch geht). Die UEFI-FAT-Partition als einheitlicher Ablageort für die Bootloader ist auch sinnvoller als ein ganzer Zoo aus unterschiedlich funktionierenden Bootloadern, einer davon im MBR... Habs nicht ausprobiert, aber ist es seit UEFI nicht auch möglich Windows zu installieren ohne dass es ein bestehendes Linux mit GRUB überbügelt? Außerdem ermöglicht UEFI die Verwendung von GPT-Partitionstabellen, welche flexibler sind. René F. schrieb: > ich finde es eher > erstaunlich wie man sich im Laufe der letzten Jahre so abhängig gemacht > hat von Treiber-Entwicklung, Signierung und der Komplexität der > Schnittstelle. So groß ist die Abhängigkeit nicht. Seit Windows 8 und 10 ist es einfach, USB-Geräte ohne Treiber zu entwickeln, indem man sie als WinUSB-Gerät deklariert. Aus Nutzersicht sieht das dann so aus: USB-Gerät einstecken. Zugehörige Anwendung starten. Funktioniert. Das ist sogar noch einfacher als Serial-Geräte, weil man keinen Port auswählen und keine Baudrate konfigurieren muss. Nachdenklicher schrieb: > Wenn ich programmiere, möchte ich möglichst viel der Bildschirmfläche > für meinen Sourcecode haben Ich auch. Jedes Mal, wenn ich jemanden sehe der mit einem winzigen Fenster (nicht maximiert) codet wo nur ein paar Zeilen sichtbar sind, denk ich mir "wie kannst du so arbeiten??". Zuhause hab ich einen 4k-Monitor. Das hab ich anfangs für unnötig gehalten, aber im direkten Vergleich zum FullHD-Monitor auf Arbeit ist das schon klasse.
Programmierer schrieb: >Ich auch. Jedes Mal, wenn ich jemanden sehe der mit einem winzigen >Fenster (nicht maximiert) codet wo nur ein paar Zeilen sichtbar sind, >denk ich mir "wie kannst du so arbeiten??". naja schon mal darangedacht einen Monitor hochkant zu stellen, das verdoppelt fast die Anzahl der darstellbaren Zeilen! Wobei man ziemlich uninspiriert sein muß, wenn man seine Programmierleistung an der Anzahl der gleichzeitig dargestellten Zeilen fest macht. Da hat man eher den Eindruck, das derjenige nicht zu strukturierten Arbeit fähig ist, das er immer 80+ Zeilen auf einmal anschauen muß statt wohl geordnete Bibliotheken/routinen zu verwenden.
DesKaisersNeueKleider schrieb: > Wobei man ziemlich uninspiriert sein muß, und wieder sind wir beim Zeiger auf die persönliche Ebene + bescheuertes Beispiel, und ist das nicht das Markenzeichen von... Herzlichen Glückwunsch! :)
Programmierer schrieb: > Ich auch. Jedes Mal, wenn ich jemanden sehe der mit einem winzigen > Fenster (nicht maximiert) codet wo nur ein paar Zeilen sichtbar sind, > denk ich mir "wie kannst du so arbeiten??". Zuhause hab ich einen > 4k-Monitor. Das hab ich anfangs für unnötig gehalten, aber im direkten > Vergleich zum FullHD-Monitor auf Arbeit ist das schon klasse. Daheim hab ich mir sogar 2x 4k gegönnt. Auf der Arbeit bekommen wir nur 2x FullHD. Es ist ein gewaltiger Unterschied. DesKaisersNeueKleider schrieb: > naja schon mal darangedacht einen Monitor hochkant zu stellen, das > verdoppelt fast die Anzahl der darstellbaren Zeilen! Ja, theoretisch schon. Wenn man aber gleichzeitig mit anderen Programmen arbeiten muß, die nur im Querformat sinnvoll nutzbar sind, ist das nicht besonders praktisch. > Wobei man ziemlich uninspiriert sein muß, wenn man seine > Programmierleistung an der Anzahl der gleichzeitig dargestellten Zeilen > fest macht. Da hat man eher den Eindruck, das derjenige nicht zu > strukturierten Arbeit fähig ist, das er immer 80+ Zeilen auf einmal > anschauen muß statt wohl geordnete Bibliotheken/routinen zu verwenden. Mit Programmierleistung hat das wenig zu tun, aber wenn man in Fremdcode von fragwürdiger Qualität rumwurschtelt, hilft es ungemein. Oder wenn man embedded unterwegs ist, relativ neu auf der aktuell verwendeten Plattform und sich ums Verecken nicht merken kann, welche sinnvoll aber kryptisch abgekürzen Namen die Register, die man gerade braucht, haben... Irgendwer muß die Bibliotheken ja erst mal schreiben, auf denen es sich andere dann bequem machen können. ;-)
René F. schrieb: > Natürlich gibt es auch USB-UART Bridges das ist in meinen Augen aber > eher ein Workaround des eigentlichen Problems. Wenn der MC, was meistens der Fall ist, USB nicht unterstützt, ist eine USB-UART Bridge (z.B. CP2102) notwendig.
> Das Schreiben des ersten Treibers für einen Plasmon-CD-Brenner war auch > noch ein Abenteuer. Mein Chef brachte den irgendwann an (ich glaube, der > hat um die DEM 2000 gekostet), Als ich damals die Anleitung geschrieben habe wie man den HP4020/CD2000 repariert wenn er mitten im Brennen Rohlinge schrottet, haben mir Menschen aus der ganzen Welt, sogar aus Suedamerika, aus tiefempfundener Dankbarkeit einen leeren Rohling geschickt. :-) Da konnte man auch noch jeden Tag seine Mails lesen und wusste man wuerde nette Menschen kennenlernen und keine Werbung die es durch die diversen Filter geschafft hat.... Olaf
DesKaisersNeueKleider schrieb: > Wobei man ziemlich uninspiriert sein muß, wenn man seine > Programmierleistung an der Anzahl der gleichzeitig dargestellten Zeilen > fest macht. Naja, wenn man über komplexe Strukturen nachdenkt ist es sehr hilfreich davon viel auf einmal sehen zu können. Visuell denkende Menschen (wie ich) können viel besser arbeiten wenn sie das "Werkstück" sehen können. Gilt z.B. auch für mathematische Beweise oder Umformungen, kann ich überhaupt nicht im Kopf, aber auf Papier kein Problem. Gerald K. schrieb: > Wenn der MC, was meistens der Fall ist, USB nicht unterstützt, ist eine > USB-UART Bridge (z.B. CP2102) notwendig. Naja, sehr viele Controller können das mittlerweile, insbesondere unter denen ab Cortex-M-Leistungsklasse. Auch auf 8-Bit-Controllern ist USB an sich kein Problem sofern man eine Peripherie dafür hat, bei Ethernet wird das schon eher schwierig. Der Hardware-und Kostenaufwand für - USB-fähiger-Controller - ESD-Schutz-IC - 2 Signale auf dem PCB - USB-Buchse kann durchaus geringer sein als - UART-fähiger Controller - FT232/CP2102/... o.ä. mit Beschaltung - mehr als 4 Signale auf dem PCB - USB-Buchse und durchaus auch geringer als - UART-fähiger Controller - MAX232 o.ä. mit Beschaltung - mehr als 4 Signale auf dem PCB - DSUB-9-Buchse - Ggf. separates Netzteil, Stecker usw. weil RS232 zu wenig Strom liefert Von daher ist USB mittlerweile oft ein absoluter Gewinn, auch finanziell. Überlegt mal, Mäuse, Tastaturen & Co die in riesigen Mengen billigst produziert werden haben keine Probleme mit USB, und haben sicherlich einen extrem primitiven Controller (maskenprogrammiert, 8bit, ultrawenig ROM). Im Consumermarkt entscheidet der Preis absolut über den Erfolg einer Technologie, und USB hat sich hier durchgesetzt - dennoch ist es keine Frickellösung, sondern sauber spezifiziert (und die Spec kann man einfach so runterladen, keine Geheimniskrämerei), leistungsfähig, nutzerfreundlich, abwärtskompatibel. Unter vielen anderen Technologien fast schon mustergültig :)
Programmierer schrieb: > Der Hardware-und Kostenaufwand für >(...) > kann durchaus geringer sein als > >(...) > > und durchaus auch geringer als > > (...) Für kommerzielle Projekte nachvollziehbar. Für privates Gebastel: - Billiges USB-> 5V-UART-Kabel (einmal gekauft) - auf der Platine 4-polige Stiftleiste +5V, RX, TX, GND und UART-fähiger Controller Noch billiger geht's kaum, oder? ;-)
Nachdenklicher schrieb: > Noch billiger geht's kaum, oder? ;-) Die Stöpselei mit Jumperwires nervt mich da... Und im Hobbybereich kommt's sowieso nicht auf den letzten Cent an. Aber sowas wie die Bluepill-Boards (haben USB eingebaut) ist auch super billig, da kommt man kaum drunter.
Yep. Auf V.24 Pegel kann man da wirklich verzichten.
Programmierer schrieb: > Die Stöpselei mit Jumperwires nervt mich da... Und im Hobbybereich > kommt's sowieso nicht auf den letzten Cent an. Joa.. kommt es nicht, das stimmt. Aber da ich privat quasi alles mit AVR mache, ist es da mit USB eng. Bei Layouts, die Potential für längere Nutzung haben, habe ich ein Kombi-Footprint mit den vier Pins und einem UM2102N von ELV. Dann hab ich meine Mini-USB-Buchse und brauche mich um nichts weiter zu kümmern. ;-) Warum gerade der? Naja, irgendwann, als ich mal USB brauchte, hatte ich den halt gerade rumliegen. Da, wo ich den UART nur mal für ein Update via Bootloader brauche, stört mich auch das temporäre Andrahten nicht wirklich...
MMX200 mit ATI Radeon All In Wonder.. darauf konnte man dann TV schauen und entschlüsseln.. Dazu gab es die ersten Multiplayer Simulatoren wie F22-Raptor, auf dem man Online schon recht Originalgetreu Luftkämpfe in einem ziemlich großen Luftraum abhalten konnte. Das müsste so 1997/1998 gewesen sein.
Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs für den Heimgebrauch Auf Softwareseite: Das erste "richtige" Betriebssystem mit Speicherschutz und präemptivem Multitasking für den Heimgebrauch (Windows XP)
Rainer Z. schrieb: > Andreas B. schrieb: >> Na, ja. Anfangs waren die wirklich mies. > > ... wenn sie mit einem analogen Videosignal gespeist wurden. Mit > digitalem Signal bei passender Auflösung von Video-Karte und LCD-Monitor > war es auch bei den frühen Modellen sehr gut. Ich habe mir vor über 20 > Jahren einen 15" Monitor für deutlich über 2.000,00 DM gegönnt, weil ich > davor mehrere Stunden täglich gearbeitet habe. Das war selbst gegenüber > einem guten Sony-Monitor mit Bildröhre ein wohltuender Fortschritt. Als die ersten Flachbildschirme mit ihrem komischen 5:4 Seitenverhältnis und blassen Farben auf den Markt kamen, habe ich mir lieber noch einmal einen 22" NEC CRT Monitor gekauft. Und der war kein Fehlkauf. Er hatte eine große Bildschirmfläche, eine gestochen Scharfe Auflösung bei 1600x1200 Bildpunkten für einen CRT Monitor und ein sattes tiefes Schwarz und einen hohen Kontrast, sowie eine extrem geringe Latenzzeit, was mir damals als Gamer neben dem tiefen Schwarzton und der Farbenfülle immer noch wichtig war. Die ganzen Flachbildschirme waren teuer und konnten da noch nicht mithalten. Die guten Flachbildschirme kamen erst etwas später, ungefähr nach der Zeit der Schminkspiegel. Störend bei dem CRT war eigentlich nur der Platzverbrauch, die Wärmeentwicklung (im Sommer), das sehr hohe Gewicht, der Stromverbrauch und die Beschleunigung von Staub in der Raumluft gegen den Betrachter vor dem Bildschirm. Leider ging er dann irgendwann kaputt und ich musste mir einen Flachbildschirm kaufen, aber da waren die dann schon so gut brauchbar, dass ich mir auch für mein Zweitgerät einen Flachbildschirm zulegte.
Olaf schrieb: > Oder wie die Kollegen damals eine CD (Rohling =15DM) gebrannt haben und > sich nicht getraut haben dabei unter Win3.11 auch nur mit der Maus zu > wackeln weil sie Angst hatten das denen die Kiste dabei abkackt. Das Problem hatte ich unter Windows 9x/Me gar nicht, da mein Rechner SCSI hatte. :p Mein Adaptec SCSI Controller erledigte die Schwerstarbeit und sendete die Daten von der ISO auf der SCSI Festplatte an den SCSI CD Brenner während die CPU nichts zu tun hatte. Einen Bufferunderrun, wie er bei EIDI Brennern noch vorkommen konnte, hatte ich somit gar nicht. WinME lief zum Brennen ausreichend stabil und bei mir ist eher der Netscape Communicator oder Mozilla 0.9x abgestürzt, als WinME. Klar, für ein richtig stabiles Windows brauchte man eines mit NT Kernel mit gescheiten Treibern, aber das war alles noch durchaus benutzbar.
Peter D. schrieb: > Jan K. schrieb: >> Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung >> gebracht. > > Ja, der Einbau einer SSD hat dem PC richtig Beine gemacht. > Ulkiger Weise wurde aber überall empfohlen, mehr RAM reinzustecken. Ich > war aber regelmäßig enttäuscht, mehr RAM habe ich nie gemerkt. Der XP > Medion-PC hatte z.B. 512MB. Später habe ich 2GB dazu gepackt und absolut > nichts davon gemerkt. Schade um das verschwendete Geld. Die Empfehlung mit dem "mehr RAM hilft" ist von früher als die Rechner gerade einmal 2-4 MB RAM hatte, da hatte ein Aufrüsten auf 8, 16 oder 32 MB RAM wahre Wunder gewirkt, weil ansonsten Windows alles auf die Auslagerungsdatei auslagern musste. Später, als jeder Rechner mehr als 32 MB RAM hatte, viel das natürlich nicht mehr ins Gewicht. Da brauchte man viel RAM nur noch dazu, um bestimmte Software laufen zu lassen, die eine gewisse Mindestmenge an RAM erforderte. Battlefield 2 verlangt bspw. 2 GB RAM, mit weniger läuft es nicht. > Bei XP und W7 hat man auch stark gemerkt, wie durch die Updates immer > mehr Hintergrundprozesse installiert wurden und das System immer > langsamer wurde. Bei Windows 7 muss man die Desktop Suche bzw, Indexierung abschalten, dann läuft auch auf alten Rechnern alles viel flüssiger. Windows 7 wurde auf meinem Pentium M Notebook erst mit dieser Einstellung brauchbar nutzbar.
Bin ich eigentlich der Einzige, der CDs kaum benutzt hat (i.W. zum Linux installieren), und direkt von Floppies auf USB-Sticks gegangen ist? Brennen fand ich immer total nervig und hab es so weit wie möglich vermieden. Größere Datenmengen hatte ich kaum, und wenn dann hab ich sie per LAN übertragen.
Nano schrieb: > Da brauchte man viel RAM nur noch dazu, um > bestimmte Software laufen zu lassen, die eine gewisse Mindestmenge an > RAM erforderte. Wie etwa der Virenscanner, der anfangs mit 256 MB glücklich war, aber mit der Zeit 512 und später 1024 MB RAM benötigte, um beim Aktualisieren nicht die Kiste lahm zu legen.
:
Bearbeitet durch User
Polmann schrieb: > Wenn OS/2 sich durchgesetzt hätte, denke ich würde, würde an Linux > niemand auf dem Desktop auch nur einen Gedanken verschwenden außer > natürlich den Basteln die immer gerne was anderes probieren wollen oder > den Nerds die einfach anders sein wollen als der Rest IBM hat massiv die PC Spieler vernachlässigt, die hätten dann noch viele weitere Jahre DOS mit DOS Extendern benutzt. Microsoft kümmerte sich schon seit Windows 3.0 um die Gamer, um Windows auch zum Spielen schmackhaft zu machen. Dafür wurde extra die WinG Bibliothek eingeführt, welche dann später durch DirectX ersetzt wurde. https://de.wikipedia.org/wiki/WinG IBM hatte in OS/2 nichts dergleichen. Eine OpenGL Unterstützung kam sehr spät. Und eine direkten Zugriff auf das Grafik RAM bzw. die Grafikkarte, wie es WinG oder DirectDraw erlaubte, gab es gar nicht. Hätte es kein Windows gegeben, dann wäre es erst einmal mit DOS eine Weile weiter gegangen und am Ende hätte wahrscheinlich BeOS OS/2 verdrängt.
(prx) A. K. schrieb: > Nano schrieb: >> die FPU? > > Die vom Pentium P54. Mit Rechenfehler. Aus sehr persönlichen Gründen. > https://www.heise.de/ct/artikel/20-Jahre-FDIV-Bug-Die-Hintergruende-2438233.html > http://www.khd-research.net/Tech/Computer/PBug/pbug_coe.txt Die Pentium CPUs mit den Rechenfehlern habe ich alle übersprungen. ;) Als ich dann meinen Pentium 2 hatte, gab's aber den klassischen Runtime Error 200 so mancher Turbo Pascal Programme.
Lotta . schrieb: > Achja: > Sogar ich kenne die Pegasus-Shareware-CD's noch, da > meine Familie diese aufgehoben hat. > Das ist der Vorteil von Datenträgern gegenüber dem > Netz, das ja mehr von Moden getrieben ist. > > mfg Wenn man heute nach alter Shareware oder FreeWare Software sucht, dann findet man die heutzutage meist nur auf diesen Shareware CDs als downloadbare ISO auf Webseiten wie dem Internet Archiv: https://de.wikipedia.org/wiki/Internet_Archive
Nano schrieb: > Die Pentium CPUs mit den Rechenfehlern habe ich alle übersprungen. ;) Ich glücklicherweise nicht, da hätte ich was verpasst. Eine Nacht rechnen lassen und es gab nicht mehr nur eine falsche Division, sondern ~20. Die Trophäe ist erst vor 1-2 Jahren im Müll gelandet. ;-)
:
Bearbeitet durch User
Olaf schrieb: >> Das Schreiben des ersten Treibers für einen Plasmon-CD-Brenner war auch >> noch ein Abenteuer. Mein Chef brachte den irgendwann an (ich glaube, der >> hat um die DEM 2000 gekostet), > > Als ich damals die Anleitung geschrieben habe wie man den HP4020/CD2000 > repariert wenn er mitten im Brennen Rohlinge schrottet, haben mir > Menschen aus der ganzen Welt, sogar aus Suedamerika, aus tiefempfundener > Dankbarkeit einen leeren Rohling geschickt. :-) > > Da konnte man auch noch jeden Tag seine Mails lesen und wusste man > wuerde nette Menschen kennenlernen und keine Werbung die es durch die > diversen Filter geschafft hat.... > > Olaf Ist das deine Anleitung: http://www.geocities.ws/SiliconValley/Bay/6893/old/fixg.htm
..Ich glaube das A20 Gate gibt es noch immer, in virtueller Form - Einmal bei Pat Gelsinger nachfragen...
manfred scheer schrieb: > Einmal bei Pat Gelsinger nachfragen... ... oder bei Andreas Stiller, ehem c't. Auf diesem Steckenpferd ist er recht oft geritten. Wikpedia sagt indes: "... und ist auf x64-Prozessoren (64-Bit-x86-Architektur) ab ca. 2010 größtenteils nicht mehr implementiert." Virtuell war das noch nie ein Problem.
:
Bearbeitet durch User
Programmierer schrieb: > Im Consumermarkt entscheidet der Preis absolut über den > Erfolg einer Technologie, und USB hat sich hier durchgesetzt - dennoch > ist es keine Frickellösung, sondern sauber spezifiziert (und die Spec > kann man einfach so runterladen, keine Geheimniskrämerei), > leistungsfähig, nutzerfreundlich, abwärtskompatibel. Unter vielen > anderen Technologien fast schon mustergültig :) Der USB Stecker Typ A und die dazu passende Buchse ist eine Frickellösung, weil: 1. er sich mit wenig Gewalt falsch herum einstecken lässt und die Zunge in der Buchse dann dabei verbogen wird, inkl. möglicher größerer Schäden. Z.B. Kurzschluss. Bei Dunkelheit kann das schon relevant werden. Ohne Licht und draufsicht auf die Buchse oder das USB Symbol kann man den Stecker nicht sicher einstecken. Blindengerecht ist er definitiv nicht. 2. Die Steckzyklen sind begrenzt. USB Typ A hat nur ca. 1000 Steckzyklen. Der Stecker von Firewire (ieee 1394) ist da deutlich besser, da er definitiv nur in eine Richtung reinpasst und man auch mit Gewalt den nicht anders reinstecken kann. Der neue Stecker von USB-C ist da gegenüber Typ A zwar ein großer Fortschritt, aber die Platinenbauer, die nun die filigranen Leiterbahnen einplanen müssen, beneide ich nicht.
Programmierer schrieb: > Bin ich eigentlich der Einzige, der CDs kaum benutzt hat (i.W. zum Linux > installieren), und direkt von Floppies auf USB-Sticks gegangen ist? > Brennen fand ich immer total nervig und hab es so weit wie möglich > vermieden. Größere Datenmengen hatte ich kaum, und wenn dann hab ich sie > per LAN übertragen. CD Medien stellten, CD-ROM Laufwerk vorausgesetzt, weit weniger Anforderungen an die Hardware als LAN Lösungen und funktionierten out of the Box. Im absoluten Notfall reichte eine DOS Boot Diskette mit MSCDEX und passendem CD-ROM Treiber. Da hatte ich immer eine Notfalldiskette in Bereitschaft. Um fehlgebrannte CDs zu vermeiden habe ich mich einfach mit einem Haufen CD-RW Medien eingedeckt, die konnte man auch wieder löschen und neu beschreiben, wenn etwas schief lief.
Hans H. schrieb: > Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs > für den Heimgebrauch Es gab auch schon Multi-CPU-Computer vor der Erfindung der Multi-Core-CPUs. Die waren allerdings eher exotisch, zumindest im Heimgebrauch (Sun-Server mit 12 und mehr UltraSPARC-CPUs dagegen gab es schon sehr lange). Nano schrieb: > Das Problem hatte ich unter Windows 9x/Me gar nicht, da mein Rechner > SCSI hatte. :p Die ersten CD-Brenner waren alle SCSI. Trotzdem hatte man zu der Zeit mit Buffer underruns zu kämpfen.
Jörg W. schrieb: > Hans H. schrieb: >> Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs >> für den Heimgebrauch > > Es gab auch schon Multi-CPU-Computer vor der Erfindung der > Multi-Core-CPUs. Die waren allerdings eher exotisch, zumindest im > Heimgebrauch Ich glaub die ct hatte schon in den Neunziger Dual-CPU boards vorgestellt. https://www.heise.de/ct/hotline/Eine-oder-zwei-CPUs-311650.html https://www.heise.de/ct/hotline/Ein-Prozessor-im-Dual-Pentium-II-Board-304362.html https://www.hartware.de/2001/05/27/asus-cuv4x-d-dual-cpu-mainboard/
Jörg W. schrieb: > Nano schrieb: >> Das Problem hatte ich unter Windows 9x/Me gar nicht, da mein Rechner >> SCSI hatte. :p > > Die ersten CD-Brenner waren alle SCSI. Trotzdem hatte man zu der Zeit > mit Buffer underruns zu kämpfen. Dieses Problem hatten überwiegend die EIDE ATAPI Brenner. Bei SCSI hat der SCSI Controller wie schon gesagt die CPU massiv entlastet, so dass so etwas eigentlich nicht passierte. Wer natürlich viel auf dem SCSI Bus zur Gleichen Zeit herumschob, für den kann das natürlich dann auch ein Problem gewesen sein, das dürfte aber dann doch die Ausnahme gewesen sein.
Hans H. schrieb: > Auf Softwareseite: Das erste "richtige" Betriebssystem mit > Speicherschutz und präemptivem Multitasking für den Heimgebrauch > (Windows XP) Als nö. WindowsXP ist bereits Version 5 von WindowsNT. Sprich: die wesentlichen Eigenschaften, die du da oben aufzählst, brachte bereits WindowsNT. Aber es gab natürlich auch noch andere OS für 386er, die diese Eigenschaften hatten, z.B. Linux oder auch Novell.
DesKaisersNeueKleider schrieb: > Ich glaub die ct hatte schon in den Neunziger Dual-CPU boards > vorgestellt. Mein Pentium I P54 Board von ASUS war für 2 Sockel konzipiert. Den Platz vom zweiten Sockel nahm bei meinem Exemplar ein Regler/Kühlkörper ein.
:
Bearbeitet durch User
c-hater schrieb: > Hans H. schrieb: > >> Auf Softwareseite: Das erste "richtige" Betriebssystem mit >> Speicherschutz und präemptivem Multitasking für den Heimgebrauch >> (Windows XP) > > Als nö. WindowsXP ist bereits Version 5 von WindowsNT. Sprich: die > wesentlichen Eigenschaften, die du da oben aufzählst, brachte bereits > WindowsNT. Er sagte aber auch "für den Heimgebrauch". Da gehört IMO auch Multimedia und Spielefähigkeit dazu, und Windows NT 3.1 war dafür gewiss nicht geeignet. Da könnte man frühstens Windows 2000 nehmen. Windows NT 4.0 hat schon die Einschränkung, dass offiziell nur DirectX Version 3 unterstützt wird und Direct3d nicht dabei war. Insofern ist Windows 2000 das erste auch für den Heimgebrauch und dessen übliche Nutzungsart brauchbare Windows NT.
Nano schrieb: >> Die ersten CD-Brenner waren alle SCSI. Trotzdem hatte man zu der Zeit >> mit Buffer underruns zu kämpfen. > > Dieses Problem hatten überwiegend die EIDE ATAPI Brenner. Zu der Zeit, über die Olaf und ich reden, gab es solche schlicht noch nicht. Die gefürchteten Buffer Underruns gab es trotzdem schon … Besagter Plasmon-Brenner war ein Monstrum, kam in eigener Kiste daher, nicht irgendwein 5.25"-Einbaukram wie später. > Wer natürlich viel auf dem SCSI Bus zur Gleichen Zeit herumschob Swappen war halt notgedrungen auch auf dem SCSI-Bus, weil die Kiste initial zu wenig RAM hatte. Mit mehr RAM war das Problem dann beseitigt.
:
Bearbeitet durch Moderator
Jörg W. schrieb: > Hans H. schrieb: >> Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs >> für den Heimgebrauch > > Es gab auch schon Multi-CPU-Computer vor der Erfindung der > Multi-Core-CPUs. Die waren allerdings eher exotisch, zumindest im > Heimgebrauch (Sun-Server mit 12 und mehr UltraSPARC-CPUs dagegen gab es > schon sehr lange). Mein erster Dual-CPU-Rechner war einer mit Pentium II. Da hatte ich mir ein Board gekauft, auf das zwei CPUs passten, erst mal mit einer betrieben und dann etwas später noch eine zweite dazu gekauft. Aber ja, im Heimbereich war das eher selten vertreten, weil Windows damit nichts anfangen konnte.
Rolf M. schrieb: > Aber ja, > im Heimbereich war das eher selten vertreten, weil Windows damit nichts > anfangen konnte. WinXP konnte schon damals 2 CPUs nutzen. Du brauchtest natürlich die Prof Version.
Sogar Win NT 4.0 und W2K konnten das schon.
Nano schrieb: > Rolf M. schrieb: >> Aber ja, >> im Heimbereich war das eher selten vertreten, weil Windows damit nichts >> anfangen konnte. > > WinXP konnte schon damals 2 CPUs nutzen. > Du brauchtest natürlich die Prof Version. Als Windows XP auf den Markt kam, wurde die Produktion des Pentium II bereits eingestellt. Nano schrieb: > Sogar Win NT 4.0 und W2K konnten das schon. Also genau die Systeme, die nicht für den Heimbereich gedacht waren.
Aus praktischer Sich würde ich sagen USB Speicher
JJ schrieb: > Aus praktischer Sich würde ich sagen USB Speicher Genau. Disketten und optische Medien waren das Krebsgeschwür der IT.
Rolf M. schrieb: > Nano schrieb: >> Sogar Win NT 4.0 und W2K konnten das schon. > > Also genau die Systeme, die nicht für den Heimbereich gedacht waren. W2K war für den Heimbereich geeignet. Ich habe es selbst auf einem meiner Rechner zum Gamen benutzt bis der Support eingestellt wurde. Und letzten Endes bist du ja selber schuld, wenn du dir ein 2 CPU System kaufst und dann dir keine Gedanken darum machst, ob du das auf dem Betriebssystem deiner Wahl überhaupt nutzen kannst.
Nano schrieb: > Und letzten Endes bist du ja selber schuld, wenn du dir ein 2 CPU System > kaufst und dann dir keine Gedanken darum machst, ob du das auf dem > Betriebssystem deiner Wahl überhaupt nutzen kannst. Das Betriebssystem seiner Wahl konnte er ja offensichtlich darauf nutzen. ;-)
Jörg W. schrieb: > Hans H. schrieb: >> Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs >> für den Heimgebrauch > > Es gab auch schon Multi-CPU-Computer vor der Erfindung der > Multi-Core-CPUs. Die waren allerdings eher exotisch, zumindest im > Heimgebrauch Ich mein, das gab es schon für den Commodore Amiga 500 Anfang Neunziger. Da zog man die CPU vom Sockel, packte stattdessen die richtige Turbokarte auf den Socket und steckte den 68000 neben den 68020 o.ä. auf der Turbokarte. Ob die beiden dann co-prozessierten ist ne andere Frage. Und x386 ist es auch nicht. Allerdings könnte man auch übers 'Sidecar' und Bridge Cards sprechen, die eine Kopplung zwischen dem Amiga-Universum und der 80x8x Welt ermöglichten: https://de.wikipedia.org/wiki/A1060_Sidecar http://cbmmuseum.kuto.de/steck_a2088.html
Nano schrieb: > Und letzten Endes bist du ja selber schuld, wenn du dir ein 2 CPU System > kaufst und dann dir keine Gedanken darum machst, ob du das auf dem > Betriebssystem deiner Wahl überhaupt nutzen kannst. Wie kommst du darauf? Das Betriebssystem meiner Wahl (Linux) hat das natürlich voll unterstützt. Ich war damit glücklich und hab mir im Anschluss dann wieder einen Rechner mit 2 CPUs gekauft, mit Athlon XP. Trotzdem waren Rechner mit 2 CPUs im Heimbereich damals eher wenig üblich, weil die dafür gedachten Windows-Versionen es eben nicht konnten.
Beitrag #7007090 wurde vom Autor gelöscht.
Warum hat eigentlich noch keiner WLAN gewürdigt... WLAN im PC hat wohl in so manchem Haushalt die Vernetzung überhaupt erst ermöglicht, weil Verkabelung nicht in Frage kam. Ob fürs Internet oder lokale Netz, WLAN war ein gigantischer Vorteil. Wer kennt noch diesen skurrilen t-sinus WLAN Manager der WLAN unter Win2k möglich machte? Der war so schön bunt, und mit XP dann schon wieder obsolet weil das WLAN direkt unterstützte (DAS war eine Innovation!).
Beitrag #7007114 wurde von einem Moderator gelöscht.
Programmierer schrieb: > Warum hat eigentlich noch keiner WLAN gewürdigt... Doch, ist würdigenswert. Wie so Vieles, was im Thread genannt wurde. Hat mir vor Augen geführt, dass wir Home-Computer, seine Entwicklung und seine Einsatzmöglichkeiten nicht hoch genug schätzen können.
Programmierer schrieb: > weil > Verkabelung nicht in Frage kam. Da kann man durchaus anderer Meinung sein. Aber natürlich war es schon spannend, sich ein paar Gedanken über die Reichweite zu machen. Bei Übertragungen aufs Handy und zurück war Bluetooth schon mal eine deutlich nettere Technik als Infrarotübertragung verfügbar. Mittlerweile kann man Usb nutzen - vorrausgesetzt die Kabel oder die Adapter gehen nicht verloren, das ist dann in entropie-freundlichen Umgebungen (Chaos..) eher blöd. Umgekehrt gibt es auch negative Entwicklungen, ich meine früher waren die Dokumentationen besser. Ist das aber überhaupt PC-spezifisch? Möglicherweise ja, denn die Dokumentation der Rechnersysteme können für viele andere Bereiche Vorbild sein. Wenn man alles neu macht, beispielsweise ein Haus in der Pampa, hat man auch erstmal kein Internet oder schlimmer noch: gar keinen Strom. Zumindest kann man dank der Funktechnik ein paar (richtig gute) Handyvideos aus der Pampa vom Traktor in die Welt hinaus schicken, was natürlich die Wichtigkeit der Funktechnik noch einmal doppelt unterstreicht. ;)
Die 400MB Festplatte habe ich wie einen Gral nachhause getragen, ebenso den aller ersten CD Brenner. Die CD´s aus diesem Brenner habe ich heute noch und die funktionieren einwandfrei.
rbx schrieb: > Umgekehrt gibt es auch negative Entwicklungen, ich meine früher waren > die Dokumentationen besser. Ist das aber überhaupt PC-spezifisch? Nein. In den 80ern war es nicht so ungewöhnlich, dass Geräte mit komplettem Schaltplan verkauft wurden und jeder Privatmensch die Ersatzteile einfach kaufen konnte. Gibt's heute alles nicht mehr, und zwar nicht, um sich die Doku zu sparen, sondern um die Reparierbarkeit zu verschlechtern.
Rolf M. schrieb: > Gibt's heute alles nicht mehr, und > zwar nicht, um sich die Doku zu sparen, sondern um die Reparierbarkeit > zu verschlechtern. ... und weil früher die Bauteile besser zugänglich, besser beschaffbar und besser austauschbar waren. Anfangs begegnete man sogar gesockelten ICs, und zwar nicht nur beim Prozessor und den RAMs. Eine digitale Armbanduhr ist auch weniger leicht reparierbar als eine 200 Jahre alte Turmuhr. Ist da auch böser Wille am Werk? ;-)
Software-Mäßig : Klar die Entwicklung von mp3 Hardware-Mässig : Hm das AMD-Pendant zu Pentium 1. Wurde von Anfang an ohne Rechenfehler ausgeliefert.
Schlaumaier schrieb: > Hardware-Mässig : Hm das AMD-Pendant zu Pentium 1. Wurde von Anfang an > ohne Rechenfehler ausgeliefert. AMD hatte auch seine Bugs. So war der 32MB-Bug des K6 von deutlich hässlicherer Art als der Divisionsfehler des Pentium I. https://web.archive.org/web/20120515215109/http://membres.multimania.fr/poulot/k6bug.html
Nano schrieb: > Programmierer schrieb: >> - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt > > Oh ja, darauf habe ich auch sehr lange gewartet. Wenn dann Windows 12 noch die Funktion "Immer im Vordergrund" mit bringt könnte man den Windowsdesktop fast als ebenbürtigen Linuxersatz ansehen.
rbx schrieb: > Programmierer schrieb: >> weil >> Verkabelung nicht in Frage kam. > > Da kann man durchaus anderer Meinung sein. Viele, viele Leute möchten keine sichtbaren Kabel in der Wohnung haben weil es die Ästhetik stört, und Netzwerkkabel nachträglich unter-Putz verlegen ist halt ein ganz schöner Aufwand. rbx schrieb: > Umgekehrt gibt es auch negative Entwicklungen, ich meine früher waren > die Dokumentationen besser. Doku liest doch eh keiner. Es wird erwartet dass alles einfach so funktioniert. Und die meiste Consumer-Technik tut das ja auch, und das ist auch gut so. Doku ist auch gerne mal fehlerhaft, veraltet oder missverständlich.
Programmierer schrieb: > rbx schrieb: >> Umgekehrt gibt es auch negative Entwicklungen, ich meine früher waren >> die Dokumentationen besser. > > Doku liest doch eh keiner. Es wird erwartet dass alles einfach so > funktioniert. Und die meiste Consumer-Technik tut das ja auch, und das > ist auch gut so. Das Resultat sind dann Foren voller blöder Fragen oder dass die Benutzer über Jahre hinweg ihre Geräte unnötig umständlich benutzen, weil sie nicht erkannt haben, wie es eigentlich gedacht ist. Manchmal gehen sie auch ganz vorsichtig damit um, weil sich das Gerät sonst angeblich völlig merkwürdig verhält, weil nicht verstanden wurde, was die Idee dahinter ist.
Karl schrieb: > Nano schrieb: >> Programmierer schrieb: >>> - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt >> >> Oh ja, darauf habe ich auch sehr lange gewartet. > > Wenn dann Windows 12 noch die Funktion "Immer im Vordergrund" mit bringt > könnte man den Windowsdesktop fast als ebenbürtigen Linuxersatz ansehen. Dann müsste es aber auch noch focus-follows-mouse brauchbar usmetzen. Oder gibt's da inzwischen was?
Rainer Z. schrieb: > Wie so Vieles, was im Thread genannt wurde. Hat mir vor Augen geführt, > dass wir Home-Computer, seine Entwicklung und seine Einsatzmöglichkeiten > nicht hoch genug schätzen können. Wenn ich die Entwicklung vom 6502 mit 4kB RAM, Kassettenrekorder als Datenspeicher, Kassendrucker und LED-Zeile als Display bis heute verfolge, dann gibts natürlich aberzig Punkte, die jeweils eine erhebliche Verbesserung darstellen. Die hier alle aufzuführen ist müssig. Darunter ist auch die über mehr als 4 Jahrzehnte gehende Entwicklung von Bastelrechner für Nerds zum Gebrauchsgegenstand für Jedermann. Anfangs spielte Selbstbau eine entscheidende Rolle, einschliesslich ISA-Karte für Highspeed-Rechnerkopplung und Eigenbau-Betriebssytem. Dann habe ich für etliche Zeit den Rechner komponentenweise selbst zusammengestellt. Heute kaufe ich als Nicht-Gamer den Kram vorzugsweise fertig, und das effektiv viel günstiger als früher.
:
Bearbeitet durch User
Karl schrieb: > Wenn dann Windows 12 noch die Funktion "Immer im Vordergrund" mit bringt > könnte man den Windowsdesktop fast als ebenbürtigen Linuxersatz ansehen. Gib mehr Kohle aus, stelle die Taskleiste auf "immer im Vordergrund" , Aktive AREO (Für die mehr Kohle) und Spiele mit der Transparent-Funktion. Programmierer schrieb: > Viele, viele Leute möchten keine sichtbaren Kabel in der Wohnung haben > weil es die Ästhetik stört, und Netzwerkkabel nachträglich unter-Putz > verlegen ist halt ein ganz schöner Aufwand. Wer so doof ist. Ich habe Flachband-Netzwerkkabel unter den Teppich verlegt, dann ein ganz kleines Loch in die Fussbodenleiste und darin weiter. Geht super. Die meisten meiner Bekannten bevorzugen übriges eine Kombi. Kabel bis zum Strom-Adapter und von da via Stromnetz weiter.
Nano schrieb: > das 3.5" Diskettenlaufwerk? 5,25" Floppy Disk statt 8" Laufwerk mit 230V-Antrieb. ;-) https://youtu.be/vkoe8u1Sx7g
:
Bearbeitet durch User
Rolf M. schrieb: > Das Resultat sind dann Foren voller blöder Fragen oder dass die Benutzer > über Jahre hinweg ihre Geräte unnötig umständlich benutzen Kann passieren, aber ist das kleinere Übel gegenüber Geräten, die nur nach der Lektüre einer Anleitung bedienbar sind. Habe gerade eine neue Spülmaschine bekommen, und im deutschen Teil der Anleitung ist ein Kapitel auf niederländisch! Die englische Anleitung ist aber vollständig, hurra. Schwer verständlich dank skurriler Formulierungen ist sie auch. Hätte die Spülmaschine ein Touch-Display welches interaktiv durch die Menüs führen würde (z.B. Einstellung von Wasserhärte, Klarspüler, Timer...) bräuchte man die Anleitung gar nicht. Aus Kostengründen hat sie aber keins (verständlich); bei Geräten die sowieso ein Touch-Display haben kann man sich die Anleitung aber sparen. Außerdem: Technisch versierte Leute überschätzen gerne mal das Leseverständnis des Durchschnitts-Kunden. Selbst Akademiker sind oft völlig ungeübt darin, einen Anleitungstext in die Tat umzusetzen, und nicht-studierte sowieso. Video-Tutorials sind besser, aber schlecht druckbar, und erfordern auch Geduld. Bevor jetzt jemand mit "die Jugend von heute" kommt - ich glaube nicht, dass das je anders war. Schlaumaier schrieb: > Ich habe Flachband-Netzwerkkabel unter den Teppich verlegt, dann ein > ganz kleines Loch in die Fussbodenleiste und darin weiter. Geht super. Und wenn man keinen Teppich hat? Durch Türen und Wände kommt man so auch nicht. In Mietwohnungen möchte man keine Löcher durch Wände bohren.
(prx) A. K. schrieb: > Anfangs spielte Selbstbau eine entscheidende Rolle, einschliesslich ISA-Karte > für Highspeed-Rechnerkopplung und Eigenbau-Betriebssytem. Dann habe ich > für etliche Zeit den Rechner komponentenweise selbst zusammengestellt. > Heute kaufe ich als Nicht-Gamer den Kram vorzugsweise fertig, und das > effektiv viel günstiger als früher. Stimmt. Mein ZX-81 habe ich selbst Zusammen gelötet. Meine PC's habe ich bis auf den letzten selbst einzeln gekauft und Zusammengebaut. Der letzte + aktuelle ist ein Zusammenbau nach meinen Wünschen und fertig vorinstalliert. Komponenten-Auswahl via Web-Script inkl. Damaliger High-End-Grafikkarte für schlappe 700 Euro. War Stressfreier als X-Lieferanten abfragen und unterm Strich ein Tick günstiger. Die Entwicklung geht klar weiter. Aber irgendwie auch für mich wieder zurück. Damals habe ich ein Fertigbausatz einen ZX-81 zusammen gelötet (hat 100 DM gespart), heute löte ich Arduino-Chips in Modell-Autos die ich vorher Programmiere. Also naja, ich würde sagen, es bleibt irgendwie doch alles beim alten. ;)
Programmierer schrieb: > Hätte die Spülmaschine ein Touch-Display welches interaktiv durch die > Menüs führen würde (z.B. Einstellung von Wasserhärte, Klarspüler, > Timer...) bräuchte man die Anleitung gar nicht. A Meine Spülmaschine ist von Siemens, hat 1 Knopf (Poweronoff) und 2 Led's. Kostenpunkt damals 1200 Euro. Ich denke die macht alles automatisch o. es interessiert sie genauso wenig wie mich ;)
Rolf M. schrieb: > In den 80ern war es nicht so ungewöhnlich, dass Geräte mit > komplettem Schaltplan verkauft wurden und jeder Privatmensch die > Ersatzteile einfach kaufen konnte. Das hat freilich auch was mit der Kundschaft zu tun, wer damit umgeht und wie. Um 1980 herum waren private Mikrorechner etwas für Nerds. Man hatte ziemlich viel und ziemlich direkt mit den Bits auf unterster Ebene zu tun, in Hard- wie Software. Schaltpläne waren da nicht nur für Reparatur nützlich. Viele Anwender konnten etwas damit anfangen. Es waren ja auch sehr viel weniger Anwender (und Bits ;-). Heute? Abgesehen von potentiellen Reparaturen ist diese Bitebene nur für Entwickler vom UEFI und manchen Gerätetreibern interessant. Der Rest der Anwender, also mindestens 99,99%, interessiert das einen Scheissdreck und ebenso viele könnten damit exakt garnichts anfangen. Hier im Forum ist die Perspektive fachspezifisch verzerrt. Hier sammeln sich jene Leute, die auf dieser Ebene arbeiten, weil viele Mikrocontroller in etwa die Komplexitätsklasse der Rechnergenerationen der 80er Jahre haben. Die das deshalb lesen können.
> Ist das deine Anleitung: > http://www.geocities.ws/SiliconValley/Bay/6893/old/fixg.htm Nein, steht doch ganz am Anfang. Das beruht nur auf meiner Anleitung, wurde aber bis dahin wohl zweimal von anderen Leuten umgeschrieben. Olaf
Schlaumaier schrieb: > Aber irgendwie auch für mich wieder zurück. Ja, das kenne ich von einem Bekannten mit Schlaganfall und Demenz. ;-) > Also naja, ich würde sagen, es bleibt irgendwie doch alles > beim alten. ;) Ging mir so, als ich vor 2 Jahrzehnten anwendungsbedingt in die µC-Schiene einstieg, nach langer Zeit ohne direktem Lötkontakt bei Computern. Das kam mir alles sehr bekannt vor. Ungefähr Stand Ende der 70er. Die Bauteile waren neu, das Niveau nicht.
:
Bearbeitet durch User
(prx) A. K. schrieb: > 5,25" Floppy Disk statt 8" Laufwerk mit 230V-Antrieb. ;-) 8 Zöller hatte ich auch noch in den Händen gehabt, aber daß die mit 230V liefen, wußte ich auch nicht. So etwas hatte man damals auch nicht zerlegt, vor allem wenn einem das nicht gehörte. ;-)
Andreas B. schrieb: > So etwas hatte man damals auch nicht > zerlegt, vor allem wenn einem das nicht gehörte. ;-) Wenn man seinen Rechner mit solchem Massenspeicher mitsamt Gehäuse anreichert, dann schon. Grobmechanik. ;-)
:
Bearbeitet durch User
(prx) A. K. schrieb: > Ungefähr Stand Ende der 70er. Naja. Meine Speichererweiterung am ZX-81 hatte auch nur 16 KB. Ist also nicht soweit weg. Und damals habe ich etwas gelernt was ich nun auch wieder anwenden muss. Speicherplatz sparen. !!!! Nix 4.3 GB nur für ein Grafikkartentreiber. ;) Aufpassen das man es nicht übertreibt. Sparsam mit Array etc. Wie in alten Zeiten. Und der Arduino ist auch nicht viel schneller. Und ich habe genau wie du, auch fast 25 Jahre lang kein Lötkolben angefasst. Das anlöten einer abgerissenen Staubsaugerschnur zählt nicht, das war mit einen 8 Euro Lötkolben. ;)
Rolf M. schrieb: > Gibt's heute alles nicht mehr, und > zwar nicht, um sich die Doku zu sparen, sondern um die Reparierbarkeit > zu verschlechtern. Tatsächlich konnte man mitte der 90er Jahre noch seine Ataris oder Amigas reparieren, und bei Völkner oder anderen gab lokal es ganze Regalwände mit allen möglichen Einzelteilen für diese Geräte. Bestellen braucht man nichts, die hatten eigentlich alles auf Lager. Bei den Synthesizern ging es krass vorwärts in Richtung digitalfilter oder in Richtung mehr Spielbarkeit, mehr musikalischer Spielwitz, Ausdrucksfähigkeit (in der Digitaltechnik) usw. Aber das (also die musikalische Ausdrucksstärke) wurde teilweise gar nicht weiter ausgenutzt, und so gehts heute dann eben zurück zur Analogtechnik, die aus sich heraus ausreichend musikalisch war. Die Filter selber, also Moogfilter und die, kamen aber schon früh integriert daher, so dass man in Reparatursituationen eben die Chips bestellt bzw. bestellen musste, oder eben eigenen Filter (oder Ersatzteile oder Software für dies und das) entwickeln. Wär ja zur not auch gegangen, diese integrierten Chips konnte man aber z.B. bei Sequential Circuits nach dem Konkurs noch bei einem anderen (amerikanischen) Unternehmen, welche die Lagerbestände aufgekauft hatte, bestellen. https://de.wikipedia.org/wiki/Sequential_Circuits Der Access Virus von Christoph Kemper kann allerdings hervorragend musikalische Digitalfilterei und den Synth selber konnte man auch als Plugin kaufen, dass war auch eine richtungsweisende Neuerung. Die Digitalfilter selber freilich..da muss man die Dokumentation halt selber schreiben.. Aber um die Kurve zurück zu bekommen, die FM-Synthese gab es ja auch schon im (Windows-)PC als Standard + dazu kam dann später die integrierte "Soundkarte" - nur Midi muss man halt nachrüsten - heutzutage wohl eher mit Usb. Der Vorteil der Brenner war u.a. dass man aus einigen Spielen die Musik konvertieren auf CD brennen konnte oder was früher mix-tape hieß, hieß dann eben Mix-CD.
Andreas B. schrieb: > 8 Zöller hatte ich auch noch in den Händen gehabt, aber daß die mit 230V > liefen, wußte ich auch nicht. Siemens Nixdorf. 5 MB Wechselfestplatte. 380 Volt Anschluss. Das Ding war größer als ein Autoreifen. Und mein erster Kontakt mit einer "Großrechner-Anlage". Es gibt nix was es nicht gab. :) Genau wie der Buchhalter die der 8 Zoll-Floppy-Disk Abends in den Ordner abheftete und sich dann bei der Firma beschwerte die Anlage würde nicht laufen. Wenn man es aber richtig machte, konnte man ein 5 1/4 Zoll Diskette abheften. Haben die damals ziemlich gestaunt in meiner Zwangsausbildung.
Rolf M. schrieb: > Nano schrieb: >> Und letzten Endes bist du ja selber schuld, wenn du dir ein 2 CPU System >> kaufst und dann dir keine Gedanken darum machst, ob du das auf dem >> Betriebssystem deiner Wahl überhaupt nutzen kannst. > > Wie kommst du darauf? Das Betriebssystem meiner Wahl (Linux) hat das > natürlich voll unterstützt. Ich war damit glücklich und hab mir im > Anschluss dann wieder einen Rechner mit 2 CPUs gekauft, mit Athlon XP. > Trotzdem waren Rechner mit 2 CPUs im Heimbereich damals eher wenig > üblich, weil die dafür gedachten Windows-Versionen es eben nicht > konnten. Weil du Windows erwähnt hast. Wer Windows und 2 Kerne nutzen wollte, hat einfach Windows 2000 und davor Windows NT gekauft. Für die Spiele konnte man DOS als Dual Boot System einrichten, sofern DOS Spiele noch erforderlich waren. Selbst eine Bootdiskette und eine Fat Partition auf der Festplatte hätte genügt.
Nano schrieb: > Für die Spiele konnte man DOS als Dual Boot System einrichten, sofern > DOS Spiele noch erforderlich waren. Hatte ich Anfang der 1990er Jahre noch eine zeitlang, aber dann habe ich irgendwann festgestellt, dass ich das DOS eh nicht mehr boote, und habe das BSD auf die ganze Platte ausgedehnt. Likeme schrieb: > Die 400MB Festplatte habe ich wie einen Gral nachhause getragen Meine erste 1-GB-Festplatte habe ich bei meinem damaligen Brötchengeber in Monatsraten abgestottert. Sie war dort gekauft worden, um an Data-General-Workstations benutzt zu werden, aber die weigerten sich irgendwie … da habe ich die für die Firma nutzlos gewordene Platte abgekauft, muss irgendwas um die DEM 1000 gekostet haben damals. Dürfte circa 1994 gewesen sein.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.