Forum: PC Hard- und Software Was war für euch der größte Entwicklungssprung beim x86 PC?


von Nano (Gast)


Lesenswert?

War es ...

die FPU?

das 3.5" Diskettenlaufwerk?

der 80386?

VGA Standard?

MS-DOS 5.0?

SVGA Standard?

SCSI-II?

Der VESA Local Bus Bus?

Windows 3.x?

Soundblaster?

der Pentium Prozessor?

der PCI Bus?

Windows NT?

das CD-ROM Laufwerk?

das Iomega ZIP Drive?

Windows 95?

Die Voodoo Graphics?

Die Voodoo 2?

AGP?

CD-Brenner?

Die ersten für normalsterbliche kaufbaren 1 GB Festplatte?

DVD-ROM Laufwerk?

USB Sticks?

Linux?

DVD-Brenner?

Die erst 1 GHz CPU?

Festplatten mit senkrechter Magnetisierung "get perpendicular"?

Wasserkühlung?

Windows XP?

Die Geforce 3 mit Pixel Shader?

AMD64 bzw. x86-64?

Flachbildschirme?

PCIe?

Physik Beschleuniger?

Die ersten für normalsterbliche kaufbaren 1 TB Festplatte?

Die Geometrie- und Vertex-Shader?

Die SSD?

M.2 PCIe Speicher?

sonstige, bitte nennen?

Von welcher Entwicklung wart ihr am meisten beeindruckt bzw. fandet ihr 
am wichtigsten?

Das Internet zählt bei der Frage nicht, da der Bezug sich schon stark 
lokal auf den x86 beziehen soll und das Internet für sich schon eine 
große Umwälzung war.

von Klaus W. (mfgkw)


Lesenswert?

Linux.

von Olaf (Gast)


Lesenswert?

> War es ...

Ganz klar, die erste Linuxversion auf vier Disketten die meinen Rechner
seit >30Jahren zur Windoof freien Zone gemacht hat.

Olaf

von Nano (Gast)


Lesenswert?

Interessant. Bei mir fiele die Wahl auf den 80386.
Ohne 80386 kein brauchbarer Protected Mode mit linearer 
Speicheradressierung und damit kein 32 Bit Linux.

von Programmierer (Gast)


Lesenswert?

- Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne 
Erleichterung!

- Die Multi-Desktop-Funktion von Win10 - heiß ersehnt

- USB - Plug-and-Play, Hotplug, und mittlerweile sogar mit Video. Seit 
Win10 werden Treiber sogar anhand der Geräteklasse identifiziert, wow.

- Die Abschaffung von Crossover-Kabeln dank standardisiertem 
Auto-Negotiation bei GBit-Ethernet

Ansonsten noch SSDs, Shader, PCIe, 64bit. Und das mit dem linearen 
Adressraum.

von Karl (Gast)


Lesenswert?

Nano schrieb:
> Von welcher Entwicklung wart ihr am meisten beeindruckt bzw. fandet ihr
> am wichtigsten?

Die Abschaffung des A20-Gates.

von Nano (Gast)


Lesenswert?

Programmierer schrieb:
> - Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne
> Erleichterung!

Das gab's schon bei Windows Me. ;)
Bei WinXP hat man es dann von WinME übernommen.

> - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt

Oh ja, darauf habe ich auch sehr lange gewartet.

> - USB - Plug-and-Play, Hotplug, und mittlerweile sogar mit Video. Seit
> Win10 werden Treiber sogar anhand der Geräteklasse identifiziert, wow.

USB habe ich in der Liste ganz vergessen. Stimmt natürlich.

von Rainer Z. (netzbeschmutzer)


Lesenswert?

Nano schrieb:
> Interessant. Bei mir fiele die Wahl auf den 80386.

Ja, wirklich interessant, war auch mein erster Gedanke. 80286 -> 80386

von Programmierer (Gast)


Lesenswert?

Nano schrieb:
> Das gab's schon bei Windows Me. ;)
> Bei WinXP hat man es dann von WinME übernommen.

Ach, na aber das hatte ja keiner ;-)

Karl schrieb:
> Die Abschaffung des A20-Gates.

Fiel mir auch gerade noch ein!

UEFI könnte man noch nennen.

Nano schrieb:
> Das Internet zählt bei der Frage nicht

Die hohen Bandbreiten von DSL haben ganz neue Möglichkeiten zur 
Verteilung von Software auch auf x86 ermöglicht - Downloads und 
Auto-Updates statt CDs...

von (prx) A. K. (prx)


Lesenswert?

Könnte die erste eigentlich nicht für normalsterbliche gedachte 1 GB 
Festplatte gewesen sein. 5.25" volle Höhe. Ich war den verreckenden 
Billigkleinkram leid.

: Bearbeitet durch User
von Andreas B. (bitverdreher)


Lesenswert?

Karl schrieb:
> Die Abschaffung des A20-Gates.

Die Abschaffung von Gates (als ich von Win 3.11 auf OS/2 umgestiegen 
bin).

von Christoph db1uq K. (christoph_kessler)


Lesenswert?

Der größte Sprung waren die Taktfrequenzen. Als MSDOS Ende der 70er 
rauskam waren wenige MHz üblich, auch Atari und Amiga hatten später 
(1985/86) 16 MHz, das war schon viel.
Mehr als ein Jahrzehnt später 1992 zu Windows 3.1 war ein 486er mit 33 
MHz üblich. Erst Ende der 90er ging es hoch, Pentium mit 90 MHz dann 
bald 266.
Heute bei wenigen GHz ist schon Schluss, für Moores Gesetz braucht man 
mehr Kerne.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Der 80386 und das mit ihm mögliche 386BSD 0.0, März 1992. ;-)

Nano schrieb:
> Der VESA Local Bus Bus?

Dem würde ich eher den Preis "größte Krücke der PC-Landschaft" zuteilen. 
:-) "Geht er oder geht er nicht, das ist die Frage." ;-) (Bin zum Glück 
davon verschont geblieben. EISA war zwar nicht so ganz trivial zu 
managen, hat aber dann wenigstens stabil funktioniert.)

: Bearbeitet durch Moderator
von DesKaisersNeueKleider (Gast)


Lesenswert?

cthuga - das erste Programm ohne 'rechentechnischen' Sinn das kein Spiel 
war

https://en.wikipedia.org/wiki/Cthugha_%28software%29

Endlich etwas, was den genialen Amiga-Demos an Benutzererfahrung nahe 
kam.
--
Der nächste Sprung, den ich begrüßen würde, ist der den der Verfasser 
von nervenden Forumumfragen aus einem hohen Fenster vollführt.

Bei denen kommt man sich vor wie der Silberrücken im Zoo, der von 
dämmlichen Scheibenklopfern gestört wird: 
https://www.youtube.com/watch?v=YZUsj8Q68q4

von (prx) A. K. (prx)


Lesenswert?

Andreas B. schrieb:
> Die Abschaffung von Gates (als ich von Win 3.11 auf OS/2 umgestiegen
> bin).

Also von Gates zu Gates, denn OS/2 war eigentlich auch von Microsoft.

von Andreas B. (bitverdreher)


Lesenswert?

(prx) A. K. schrieb:
> Also von Gates zu Gates, denn OS/2 war eigentlich auch von Microsoft.
Als Urschleim vielleicht, aber spaeter hatte Gates (bzw. Ballmer) OS/2 
doch ziemlich bekaempft (siehe Vobis).

von Nano (Gast)


Lesenswert?

Programmierer schrieb:
> Nano schrieb:
>> Das gab's schon bei Windows Me. ;)
>> Bei WinXP hat man es dann von WinME übernommen.
>
> Ach, na aber das hatte ja keiner ;-)

Doch, ich. Duck und wech...

> Nano schrieb:
>> Das Internet zählt bei der Frage nicht
>
> Die hohen Bandbreiten von DSL haben ganz neue Möglichkeiten zur
> Verteilung von Software auch auf x86 ermöglicht - Downloads und
> Auto-Updates statt CDs...

Das Internet würde aber alles übertreffen, deswegen habe ich es 
weggelassen.

Was große Datenmengen betrifft, fand ich das CD-ROM Laufwerk super.
Erstmals war es möglich große Datenmengen auf die heimischen PCs zu 
bringen
und man merkte es auch an den Spielen, die sich durch diesen Datenträger 
drastisch verändern konnten.
Die vielen Farben die VGA im 24 Bit Mode bot und 44 KHz Samlingraten in 
Stereo, die die späteren Soundkarten boten, konnte man erst dank CD-ROM 
dann auch wirklich ernsthaft nutzen.
Bei den Disketten hat das praktisch keiner gemacht, weil auf die nichts 
drauf passte und es für die Hersteller ab ca. 7 Disketten irgendwann zu 
teuer wurde.

Ich hatte eine PC Zeitschrift im Abo, so bekam ich jeden Monat eine neue 
CD-ROM mit vielen Programmen, Demos, Patches usw. drauf und es eröffnete 
sich eine ganze Welt für den lokalen PC.
Das war schon eine erhebliche Veränderung gegenüber vorher.
Ein Analog Modem hatte ich leider nicht.
Mit ISDN konnte ich dann meine gewünschten Daten dann erstmals gezielt 
selber aussuchen und DSL erlaubte dann auch das wirtschafltiche 
downloaden von ganzen Linux Distributionsimages.

von (prx) A. K. (prx)


Lesenswert?

Andreas B. schrieb:
>> Also von Gates zu Gates, denn OS/2 war eigentlich auch von Microsoft.
> Als Urschleim vielleicht, aber spaeter hatte Gates (bzw. Ballmer) OS/2
> doch ziemlich bekaempft (siehe Vobis).

OS/2 2.0 startete Anfang 1992, Microsoft stieg erst 1991 aus. Die 
Entwicklung lief also noch wesentlich bei Microsoft.

von Nano (Gast)


Lesenswert?

Jörg W. schrieb:
> Der 80386 und das mit ihm mögliche 386BSD 0.0, März 1992. ;-)
>
> Nano schrieb:
>> Der VESA Local Bus Bus?
>
> Dem würde ich eher den Preis "größte Krücke der PC-Landschaft" zuteilen.
> :-) "Geht er oder geht er nicht, das ist die Frage." ;-) (Bin zum Glück
> davon verschont geblieben. EISA war zwar nicht so ganz trivial zu
> managen, hat aber dann wenigstens stabil funktioniert.)

Ich habe den VLB leider auch übersprungen weil ich damals nichts davon 
wusste, als ich meinen Vater dazu überredete den 286 auf einen 486 
aufzurüsten und das Mainboard meines 486 hatte nur ISA Slots. 
Rückblickend hätte ich natürlich gerne VLB gehabt, geachtet habe ich 
damals nur auf das Merkmal DX weil das im Testbericht über Wing 
Commander 2 in der ersten PC Joker als wichtig empfohlen wurde.
Und im Laufe der Monate wurde mir dann klar, das meinem 486er etwas 
fehlt, dass die 486er meiner Freunde, die einen Komplett PC meist von 
Vobis gekauft haben, alle hatten.
Als dann die ersten Nachrichten und Berichten über PCI bekannt wurden, 
war mir klar, dass PCI die Zukunft ist. Was es dann auch wurde.

von Polmann (Gast)


Lesenswert?

"Linux."
Schade, war klar das gleich wieder dumme Antworten kommen als erstes:-(
Also der 386er war sicher in Sprung denke ich
Dann die 3D Beschleuniger Karten haben sicher für einen Quantensprung 
gesorgt und den Amiga etc komplett verdrängt, da der PC dann nicht mehr 
im Nachteil war.
Der PCI BUs war auch ein Segen
Leider hat sich OS/2 nicht durchgesetzt:-(

von Polmann (Gast)


Lesenswert?

ja, die ersten 486 mit PCI waren Kacke, deren PCI war über den VLB 
angeschlossen wenn ich mich recht entsinne.
Später kamen dann die ECHTEN PCI
Also so gesehen war es tatsächlich VLB der einen Sprung verursacht hat, 
trotz "Krücke"

von Nano (Gast)


Lesenswert?

Polmann schrieb:
> Leider hat sich OS/2 nicht durchgesetzt:-(

Eigentlich bin ich froh darum.

OS/2 hatte keine Mehrbenutzerunterstützung. Windows NT schon.
OS/2 war durch den 286 in der Entwicklung gehemmt. Windows NT wurde 
gleich für den 386er ohne 286 Bremsklotz entwickelt.
OS/2 hatte out of the Box kaum Treiber, Windows NT im Vergleich zu OS/2 
eine ganze Menge.
OS/2 war umständlich upzudaten. Windows NT hatte einfach zu 
installierende Service Packs.

Windows NT war in vielerlei Hinsicht schon besser als OS/2.

von Nano (Gast)


Lesenswert?

Polmann schrieb:
> ja, die ersten 486 mit PCI waren Kacke, deren PCI war über den VLB
> angeschlossen wenn ich mich recht entsinne.
> Später kamen dann die ECHTEN PCI
> Also so gesehen war es tatsächlich VLB der einen Sprung verursacht hat,
> trotz "Krücke"

VLB war direkt auf den 486er abgestimmt und PCI eigentlich für den 
Pentium vorgesehen und für den gab es auch brauchbare Mainboards.

von DesKaisersNeueKleider (Gast)


Lesenswert?

Polmann schrieb:
> "Linux."

Das war viele Jahre eher ein kleiner Rückschritt den ein Sprung 
vorwärts, weil man durch den Abschied von Windows die Möglichkeiten 
vieler Windowsprogramme verlor. Auf Linux gab es nur  eingeschränkten 
Ersatz, wenn überhaupt - selbst ein DVD-Player ließ auf sich warten. 
Hardwareunterstützung vor USB und Co eher mau ...

von Polmann (Gast)


Lesenswert?

Absolut, ja,a ber offenbar sehen das einige Fanboys hier anders, ich 
hoffe das macht die Diskussion nicht kaput.
Und bei OS/2..ja, die Situation bei IOS/2 war ja eben weil es sich nicht 
durchgesetzt hat, wie sie war.
Ansonsten hätte ich logischerweise auch Treiber etc gegeben.
Aber nicht mal meine WINTV wurde unterstützt, da OS/2 im Consumer 
Bereich einfach nicht angekommen war

von Andreas B. (bitverdreher)


Lesenswert?

(prx) A. K. schrieb:
> OS/2 2.0 startete Anfang 1992, Microsoft stieg erst 1991 aus. Die
> Entwicklung lief also noch wesentlich bei Microsoft.

Und Win 3.11 startete 1994 wie auch OS/2 3 und die Vobis Story. Da bin 
ich umgestiegen. Das war also schon etwas spaeter.

von Polmann (Gast)


Lesenswert?

OS/2 3 (Warp) war der Quantensprung bei OS/2 und es war super

von Klaus W. (mfgkw)


Lesenswert?

Polmann schrieb:
> "Linux."
> Schade, war klar das gleich wieder dumme Antworten kommen als erstes:-(

Erstens war das einer der Vorschläge des TO nano, und zweitens war es 
ernst gemeint.

Muß nicht deine Meinung sein, aber andere waren auch gefragt...

von rbx (Gast)


Lesenswert?

Usb, Brenner, CDs rippen, Pentium, potente Notebooks, 
Arbeitsspeichergrößen die man tatsächlich auch nutzen kann, also nicht 
nur theoretische, softwaretechnisch Dungeon-Master aufm Atari (völlig 
neues Spielerlebnis) Quake oder auch Knoppix. Knoppix war auch ein wenig 
(deutlich) anders als Einloggen auf Uni-Unix-Rechner.

MMX auf jeden Fall auch, auch wenn die Realisierung etwas unglücklich 
ist man es oft gar nicht braucht. Logische Operationen mit weiter 
Bitbreite sind aber schon ganz nett.

Hinsichlich der Grafikkarten konnte man sich über Plug and Play freuen 
wie auch über Cuda.

Nano schrieb:
> Was große Datenmengen betrifft, fand ich das CD-ROM Laufwerk super.

Das ja, war aber kein besonders großer Sprung, da es CD-Laufwerke schon 
für Musik und andere Anwendungen gab, dieser Sprung bezieht sich eher 
auf Datenspeicherung an sich. Je nach Gegend konnte man auch schon sehr 
früh digitale Audiorecorder nutzen und Anfang der neunziger waren auch 
optische Digitalausgänge weiter verbreitet.

von Andreas B. (bitverdreher)


Lesenswert?

rbx schrieb:
> Je nach Gegend konnte man auch schon sehr
> früh digitale Audiorecorder nutzen und Anfang der neunziger waren auch
> optische Digitalausgänge weiter verbreitet.

Wenn man genug Geld dafuer hatte. CD LW waren dagegen fuer jedermann zu 
akzeptablen Preisen verfuegbar.

von DesKaisersNeueKleider (Gast)


Lesenswert?

Klaus W. schrieb:
> und zweitens war es
> ernst gemeint.

So ernst wie die feststellung das Linux eher ein Rückschritt statt ein 
Sprung vorwärts war/ist. Oder, wenn man unbedingt bei den 
Sportvergleichen bleiben will, dann war/ist Linux ein Grätschsprung - 
ein Bein vor, das andere zurück. Besser, man schafft sich extra für 
Linux einen Zweitrechner an.

Wenn ich es mir recht überlege, war vielleicht die Verfügbarkeit 
mehrerer Computer für einen einzelnen User auch ein Sprung vorwärts - 
eben das beste aus beiden Welten ohne Multiboot oder anderen 
"Schmerzen". Beispielsweise Raspi, der dann auch gleich die richtigen 
signale für Raspi mitbrachte (aber das ist nun mal kein x86 und damit 
offtopic hier.

Und mit einem vernüftigen Monitor, lebte es sich auch gleich viel 
besser. Also der gehörige Preisaufschlag von mehreren hundert DM für 
einen iiyama 17 Zoll monitor statt 14 Zoll NoName SVGA-Gurke war es auf 
jeden Fall wert. Nie wieder tränende Augen wegen interlaced ...

von Nano (Gast)


Lesenswert?

Andreas B. schrieb:
> (prx) A. K. schrieb:
>> OS/2 2.0 startete Anfang 1992, Microsoft stieg erst 1991 aus. Die
>> Entwicklung lief also noch wesentlich bei Microsoft.
>
> Und Win 3.11 startete 1994 wie auch OS/2 3 und die Vobis Story. Da bin
> ich umgestiegen. Das war also schon etwas spaeter.

Microsoft stieg ab dem Erfolg von Windows 3.0 aus.
Ab da war Microsoft klar, dass sie IBM nicht brauchen.

Windows 3.0 wurde zu Windows 3.1 weiterentwickelt und Microsoft setzte 
200 Programmierer an um Windows NT als erstes echtes 32 Bit Protected 
Mode Betriebssystem mit vielen Features, die es auch unter Unix gab, so 
schnell wie möglich zu entwickeln.

von Arno (Gast)


Lesenswert?

Dockingstations.

Die 3-Tasten-Maus bzw. die Emulate3Buttons-Option von XFree86.

Digitale Video-Ausgänge (DVI, HDMI, DisplayPort...) für digitale 
Bildschirme.

XRandR zur flexiblen Aktivierung und Deaktivierung von Bildschirmen 
(ungefähr mit XFree86 4.3.0 aus 2003 oder so)

MfG, Arno

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

DesKaisersNeueKleider schrieb:
> Das war viele Jahre eher ein kleiner Rückschritt den ein Sprung
> vorwärts, weil man durch den Abschied von Windows die Möglichkeiten
> vieler Windowsprogramme verlor.

Siehste, bei mir war es nie ein Windows, sondern der Übergang von DR-DOS 
zu 386BSD noch bevor Windows ernsthaft in die Gänge kam. Da war u.a. der 
flache Adressraum des 80386 und ein brauchbares Dateisystem ein großer 
Schritt nach vorn.

von Nano (Gast)


Lesenswert?

rbx schrieb:
> Nano schrieb:
>> Was große Datenmengen betrifft, fand ich das CD-ROM Laufwerk super.
>
> Das ja, war aber kein besonders großer Sprung, da es CD-Laufwerke schon
> für Musik und andere Anwendungen gab, dieser Sprung bezieht sich eher
> auf Datenspeicherung an sich.

Auf dem PC als Datenträger schon, weil auf Disketten nur ca. 1,4 MiB 
bzw. 1,6 Mib passten.
Die CD-ROM bot dagegen 640 MiB. Da lagen Welten dazwischen.

Und speichern konnte man darauf noch gar nichts, dazu brauchte man 
CD-Brenner die erst später erschwinglich wurden.

Für die Softwarehersteller war die CD daher anfangs auch ein guter 
Kopierschutz.

Durchgesetzt haben sich die read only CD-ROM Laufwerke auf dem Heim PC 
mit Rebel Assault. Zu der Zeit waren gerademal die Double Speed 
Laufwerke auf dem Markt. Vereinzelt gab es auch Triple Speed, aber noch 
sehr teuer und anfangs nur für SCSI.

von Andreas B. (bitverdreher)


Lesenswert?

DesKaisersNeueKleider schrieb:
> Besser, man schafft sich extra für
> Linux einen Zweitrechner an.

Bei mir sind alle Rechner Linux Kisten. Wie ich das nur ueberlebe?

DesKaisersNeueKleider schrieb:
> Und mit einem vernüftigen Monitor, lebte es sich auch gleich viel
> besser. Also der gehörige Preisaufschlag von mehreren hundert DM für
> einen iiyama 17 Zoll monitor statt 14 Zoll NoName SVGA-Gurke war es auf
> jeden Fall wert.

Da stimme ich Dir allerdings zu.

von Nano (Gast)


Lesenswert?

DesKaisersNeueKleider schrieb:
> Wenn ich es mir recht überlege, war vielleicht die Verfügbarkeit
> mehrerer Computer für einen einzelnen User auch ein Sprung vorwärts -
> eben das beste aus beiden Welten ohne Multiboot oder anderen
> "Schmerzen".

Dual bzw. Multiboot funktioniert eigentlich sehr gut.

Aber jetzt wo du es sagst, in der obigen Liste fehlen noch:

Mehrkern CPUs

CPU Virtualisierung

I/O Virtualisierung

Das waren auch noch sehr tolle Features.
Endlich konnte man unter einem Host OS ein anderes Gast OS performant 
ausführen.

Ja, flimmerfreie 70 Hz CRT Monitore waren auch wichtig, mein erster 14" 
VGA Monitor konnte das noch nicht. Das konnte erst mein 15" Nachfolger.

von Jan K. (jan_k)


Lesenswert?

Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung 
gebracht.

von Dirk B. (dirkb2)


Lesenswert?

Der 32-Bit Adressbereich

von (prx) A. K. (prx)


Lesenswert?

Jörg W. schrieb:
> Siehste, bei mir war es nie ein Windows, sondern der Übergang von DR-DOS
> zu 386BSD noch bevor Windows ernsthaft in die Gänge kam. Da war u.a. der
> flache Adressraum des 80386 und ein brauchbares Dateisystem ein großer
> Schritt nach vorn.

Vom 68000 mit 32-Bit Programmiermodell und eigenem Betriebssystem zum 
286 und DOS war ungefähr die Gegenrichtung.

von DesKaisersNeueKleider (Gast)


Lesenswert?

Andreas B. schrieb:
> DesKaisersNeueKleider schrieb:
>> Besser, man schafft sich extra für
>> Linux einen Zweitrechner an.
>
> Bei mir sind alle Rechner Linux Kisten. Wie ich das nur ueberlebe?

Naja, das Zölibat beweist, das mensch die Freuden des Lebens nicht 
zwingend für das Überleben des Einzelnen nötig sind ;-)

--
USB-Stick - auch ne geile Erfindung. Inzwischen braucht man einen 
solchen fürs Vorstellungsgespräch, um damit seine Präsentation 
mitzubringen.

Oder Heuzutage USB-Cam für die Vorstellungsvideokonferenz... aber da 
wären schon wieder beim nichtzulässigen Internet ...

Aber eigentlich ermöglicht erst das richtige KnowHow die großen Sprünge 
.. also sei mal "Das PC-Hardwarebuch" als die 'Sprungfeder' für den 
PC-Umgang erwähnt. Schade, das gute Literatur inzwischen ausgestorben 
ist ...

von Nano (Gast)


Lesenswert?

Jan K. schrieb:
> Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung
> gebracht.

Das gilt nicht wenn du die Zeit mit Windows 3.x und nur 4 MB 
Speicherplatz kanntest und der Rechner dann die Daten auf die 
Auslagerungsdatei auslagern musste, die damals noch auf die lahme 
Festplatte kam.

Da war der Sprung dann plötzlich üppig RAM zu haben schon gewaltig.

von Nano (Gast)


Lesenswert?

DesKaisersNeueKleider schrieb:
> Oder Heuzutage USB-Cam für die Vorstellungsvideokonferenz... aber da
> wären schon wieder beim nichtzulässigen Internet ...

Und die TV Karte fehlt auch noch in der Liste.
Mit meiner WinTV Karte von Hauppauge konnte ich erstmals TV am PC 
Monitor gucken.

> Aber eigentlich ermöglicht erst das richtige KnowHow die großen Sprünge
> .. also sei mal "Das PC-Hardwarebuch" als die 'Sprungfeder' für den
> PC-Umgang erwähnt. Schade, das gute Literatur inzwischen ausgestorben
> ist ...

Da würde ich eher dieses Buch ins Feld führen:
https://www.amazon.de/-/en/Andrew-S-Tanenbaum/dp/3868942386/

von DesKaisersNeueKleider (Gast)


Lesenswert?

Nano schrieb:
> Da würde ich eher dieses Buch ins Feld führen:
> https://www.amazon.de/-/en/Andrew-S-Tanenbaum/dp/3868942386/

Aber nicht bei x86 wie für diesen thread gefordert... und persönlich 
ziehe ich als Hardwerker den Hennessey/Patterson dem Tanenbaum vor. 
Letzterer ist mir zu Softwarelastig und hat nicht die Breite der Praxis 
des Erstgenannten.

von Purzel H. (hacky)


Lesenswert?

Die Segmentregister, welche erlaubten Daten, Code und Stack zu trennen. 
Dies wurde auch im 386 und nachfolgend uebernommen. Leider wurde 
zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht 
verwendet, resp alle aufeinander gelegt. Waere aber toll gewesen. Beim 
386 wurden diesen Segmenten  auch Rechte zugewiesen. Damals Ring 0, 1, 
2. Fuer Treiber, System, und Benutzer, sodass Programme nicht auf Daten 
anderer Programme zugreifen konnten.
Beim 386 protected mode war auch eine MMU dabei, welche Memory Pages 
auslagern und nachladen konnte.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Purzel H. schrieb:
> zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht
> verwendet, resp alle aufeinander gelegt

Daten und Stack lassen sich in C nicht trennen und Code nur, wenn man 
Konstanten im Datenbereich unterbringt.

von Arno (Gast)


Lesenswert?

DesKaisersNeueKleider schrieb:
> Andreas B. schrieb:
>> DesKaisersNeueKleider schrieb:
>>> Besser, man schafft sich extra für
>>> Linux einen Zweitrechner an.
>>
>> Bei mir sind alle Rechner Linux Kisten. Wie ich das nur ueberlebe?
>
> Naja, das Zölibat beweist, das mensch die Freuden des Lebens nicht
> zwingend für das Überleben des Einzelnen nötig sind ;-)

Ja, deswegen ist Windows wohl so verbreitet ;)

(mal ernsthaft: Die oben genannte Multi-Desktop-Funktion fand ich zum 
Beispiel schon 1998 genial, und lernte hier heute, dass Windows das erst 
seit Windows 10 kann...)

MfG, Arno

von DesKaisersNeueKleider (Gast)


Lesenswert?

Arno schrieb:
> (mal ernsthaft: Die oben genannte Multi-Desktop-Funktion fand ich zum
> Beispiel schon 1998 genial, und lernte hier heute, dass Windows das erst
> seit Windows 10 kann...)

Also MultiDesktop kenn ich seit Solaris auf ner Sparc-Workstation (ca. 
1994), aber da ich mich am liebste per Tastenkürzel durch die Fenster 
wühle (Alt-Tab, Win-d) vermisse ich MultiDesktop nicht wirklich.

Ich hack sourcetexte auch mit emacs oder vi (wenn es sein muß), GUI's 
halte ich nur bei Bildbearbeitung oder schematic-Entry/PCB-layout für 
unverzichtbar.

Wahrscheinlich hat das 14 Geflimmer vor Kauf des iiyama Monitors meine 
Augen und präfontalen Cortex so belastet, das ich zur TextKonsole 
zurückgefunden habe. ;-) So mit Ctrl-Alt-F[1-6] zwischen "Source text 
hack" und "csh-make-compile Ansicht" wechseln ist schon flott, gilt aber 
als Steinzeit ...

Jajaja real programmer do:
cat /dev/con > /mem/kernel
https://xkcd.com/378/

;-))

von Gerald K. (geku)


Lesenswert?

Für mich ist der USB Standard die größte Errungenschaft.

So konnte man sein Notbook leicht erweitern und brauchte keine 
Einbauschächte mehr.

Eine vielzahl verschiedener Gerätetypen (Festplatten, CD /DVD und Bluray 
Laufwerke, Scanner, Mäuse ....) konnten so angeschlossen werden.

Erst trauerte ich der RS232 Schnittstelle nach, jetzt benutze ich USB, 
viel schneller, flexibler und Fernspeisung.

von Purzel H. (hacky)


Lesenswert?

> Purzel H. schrieb:
>> zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht
>> verwendet, resp alle aufeinander gelegt
>
>Daten und Stack lassen sich in C nicht trennen und Code nur, wenn man
Konstanten im Datenbereich unterbringt.

Natuerlich lassen sich Daten und Stack trennen. Auf dem Stack sind die 
lokalen Variablen einer Funktion, sowie die parameter einer Funktion, 
die koennte man SSEG:SP eroeffnen und dann als DSEG:DX, resp ESEG:EX 
verwenden, indem man die aufeinander legt, wenn man sie braucht. Bei 
MSDOS waren diese Segmentregister aber immer identisch. Und deshalb 
konnte man selbstmodifizierenden Code schreiben.

von Nano (Gast)


Lesenswert?

Purzel H. schrieb:
> Die Segmentregister, welche erlaubten Daten, Code und Stack zu trennen.
> Dies wurde auch im 386 und nachfolgend uebernommen. Leider wurde
> zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht
> verwendet, resp alle aufeinander gelegt. Waere aber toll gewesen.

Der erste IBM PC hatte ja auch nur 16 oder 64 kB RAM.

Ein Segment ist 64 KB groß, da ist es kein Wunder, dass die 
Compilerhersteller die einfach übereinander legten.

Erst mit einem Maximalausbau, der 256 kB RAM groß war, hätte es sich 
gelohnt. Damit hätten die 4 Segmente genügt.

> Beim
> 386 wurden diesen Segmenten  auch Rechte zugewiesen. Damals Ring 0, 1,
> 2. Fuer Treiber, System, und Benutzer, sodass Programme nicht auf Daten
> anderer Programme zugreifen konnten.

Das spielte erst im Protected Mode eine Rolle und in dem konnte man beim 
386 auch linear adressieren.

von Gerald B. (gerald_b)


Lesenswert?

Nano schrieb:
> Jan K. schrieb:
>> Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung
>> gebracht.
>
> Das gilt nicht wenn du die Zeit mit Windows 3.x und nur 4 MB
> Speicherplatz kanntest und der Rechner dann die Daten auf die
> Auslagerungsdatei auslagern musste, die damals noch auf die lahme
> Festplatte kam.
>
> Da war der Sprung dann plötzlich üppig RAM zu haben schon gewaltig.

Ich hätte auch die SSD genannt.
Auch auf einem 386 oder Urpentium konnte eine SSD Wunder wirken.
Eine CF-Karte kann man mittels mechanischem Adapter als IDE Laufwerk 
betreiben. So habe ich mit einer 8 MB Karte auf einem 386 fli4l Linux 
als DSL Router gebootet und in der Firma auf einem Steuerungs-PC eine 
nicht mehr erhältliche 500 MB Festplatte gegen eine 1 GB CF-Karte 
getauscht. Windows 3.11 lief danach dermaßen auf Speed, das war mit 
einer RAM-Disk vergleichbar :-)))

von Nano (Gast)


Lesenswert?

Arno schrieb:
> (mal ernsthaft: Die oben genannte Multi-Desktop-Funktion fand ich zum
> Beispiel schon 1998 genial, und lernte hier heute, dass Windows das erst
> seit Windows 10 kann...)
>
> MfG, Arno

Es sind die virtuellen Arbeitsflächen. Mehrere Bildschirme gehen schon 
länger.

Vom Prinzip her ging das mit Zusatztools auch schon unter Windows XP, 
Windows brachte dazu unter der Haube bereits alles mit, aber in der 
Praxis gab es dann hier und da ein paar Haken, weil die Userspace 
Software darauf nicht ausgelegt war, so dass man es unter Windows 
eigentlich nicht ersthaft einsetzen konnte.
So richtig rund ist es somit eigentlich erst unter Windows 10 zu 
gebrauchen, wo es dann auch offiziell von Microsoft unterstützt wird.

von Arno (Gast)


Lesenswert?

Nano schrieb:
> Arno schrieb:
>> (mal ernsthaft: Die oben genannte Multi-Desktop-Funktion fand ich zum
>> Beispiel schon 1998 genial, und lernte hier heute, dass Windows das erst
>> seit Windows 10 kann...)
>>
> Es sind die virtuellen Arbeitsflächen.

Eben diese konnte schon fvwm auf XFree86 3.3 anno 1998 (und 
wahrscheinlich schon früher, aber tatsächlich hatte ich bis dahin - 
heute unvorstellbar - keinen eigenen PC)

MfG, Arno

von (prx) A. K. (prx)


Lesenswert?

Purzel H. schrieb:
> Natuerlich lassen sich Daten und Stack trennen

Nur wenn der Segmentselektor Teil jedes Pointers wird, man also das 
Large Memory Model verwendet (oder Compact, Huge). Leider war das 
traurig langsam, besonders im Protected Mode. Mit 16-Bit Pointern war in 
C keine Trennung möglich.

: Bearbeitet durch User
von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Arno schrieb:
> und wahrscheinlich schon früher

Ja, natürlich, dafür steht ja das "v" im "fvwm", folglich seit 1993.

von (prx) A. K. (prx)


Lesenswert?

Purzel H. schrieb:
> Natuerlich lassen sich Daten und Stack trennen. Auf dem Stack sind die
> lokalen Variablen einer Funktion, sowie die parameter einer Funktion,
1
char a[];
2
extern void g(char *);
3
void f(void)
4
{
5
   char b[];
6
   g(a);     // assoziiert mit DS
7
   g(b);     // assoziiert mit SS
8
   g("abc"); // assoziiert mit CS?
9
}

Muss man überall mit explizitem __far jonglieren, verlässt man 
Standard-C. Deshalb mussten in den Small und Medium Models Daten und 
Stack in einem Segment liegen.

Die Segmentierung von Zilogs Z8000 war an dieser Stelle weitaus besser 
entwickelt. Und wer 68000 nutzte, der fragte sich, was der Quatsch soll.

: Bearbeitet durch User
von c-hater (Gast)


Lesenswert?

Nano schrieb:

> Es sind die virtuellen Arbeitsflächen.

Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil 
gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig 
anzuordnen und/oder zwischen ihnen zu wechseln.

von (prx) A. K. (prx)


Lesenswert?

c-hater schrieb:
> Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil
> gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig
> anzuordnen und/oder zwischen ihnen zu wechseln.

Bei heutigen Riesenmonitoren, ggf gleich mehreren davon (*), ist das 
kein Thema. Bei damaligen gewöhnlich einzeln auftretenden 17-Zöllern 
hingegen waren mehrere Arbeitsflächen durchaus sinnvoll.

*: Ich kriege zusätzlich zum eigenen Schirm weitere 3 4K-Monitore an 
meinen kleinen Laptop ohne separatem Grafikchip dran. Vor 20-30 
Jahren...

: Bearbeitet durch User
von interWebz (Gast)


Lesenswert?

Die Vernetzung an sich.

von interWebz (Gast)


Lesenswert?

interWebz schrieb:
> Die Vernetzung an sich.

sorry, nicht zu Ende gelesen

von Klaus W. (mfgkw)


Lesenswert?

(prx) A. K. schrieb:
> Bei heutigen Riesenmonitoren, ggf gleich mehreren davon, ist das kein
> Thema.



Ich habe hier drei Bildschirme, zuhause meistens 2.
Und nehme trotzdem gerne die virtuellen Desktops.

Einfach weil ich oft mehrere (nenne ich mal so) "Themen" gleichzeitig 
offen habe. Meinetwegen ein paar Browserfenster, u.a. mit Email, wo ich 
mal gelegentlich vorbeischaue auf einem Desktop. Ein weiteres, wenn ich 
gerade CAD offen habe, mit Browserfenstern zu der passenden Doku. 
Quelltexte und evtl. IDE auf dem nächsten. Auf der Arbeit muß ich mal in 
einem Thema auf jemanden warten, mache solange an einem anderen Problem 
weiter. Arbeitszeiterfassung gelegentlich in einer Windows-VM.

Das habe ich jeweils auf einem Desktop, dann muß ich mich nicht immer 
durch soviele Fenster wühlen.

Das mache ich seit Jahrzehnten schon so, früher hatte ich es unter 
Windows mal hinfummeln müssen und hat nie wirklich funktioniert damals.
Wenn man sich daran gewöhnt hat, will man es nicht mehr missen.

Ich habe bei mir 10 Desktops eingestellt, davon nutze ich meistens etwa 
um die 5 typischerweise.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

c-hater schrieb:
> Nano schrieb:
>
>> Es sind die virtuellen Arbeitsflächen.
>
> Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil
> gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig
> anzuordnen und/oder zwischen ihnen zu wechseln.

Stell dir die Arbeitsfläche des Desktops als Schreibtisch vor, auf dem 
du deine Blätter, Ordner (entspricht den Fenstern und Programmen) usw. 
passend hinlegst.
Und jetzt stell dir vor, du hättest mehrere Schreibtische und jeden 
einzelnen nutzt du für ein thematisches Gebiet.

Man kann so also recht einfach strukturieren ohne ständig die Fenster 
unter den anderen hervorkramen zu müssen und das richtige finden zu 
müssen.

So kann man auch mal schnell Platz schaffen, wenn man an etwas 
bestimmten gezielt arbeiten möchte.

Wenn ich bspw. Gimp nutze, nutze ich es in der Mehrfenstervariante und 
das geht mit virtuellen Arbeitsflächen einfach besser, weil ich Gimp 
dann eine virtuelle Arbeitsfläche zuweise und meine anderen Sachen unter 
den anderen Arbeitsflächen habe.

von Jens B. (dasjens)


Lesenswert?

Programmierer schrieb:
> - Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne
> Erleichterung!
Zu faul 7Zip zu installieren?
>
> - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt
Da gab es externe Tools, oder andere Systeme.


> Ansonsten noch SSDs, Shader, PCIe, 64bit. Und das mit dem linearen
> Adressraum.
Was hat SSD mit x86 zu tun?

Das beste war wohl der Preisverfall.

von Jens B. (dasjens)


Lesenswert?

c-hater schrieb:
> Nano schrieb:
>
>> Es sind die virtuellen Arbeitsflächen.
>
> Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil
> gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig
> anzuordnen und/oder zwischen ihnen zu wechseln.

Man hat einfach mehr Platz. Und wenn der Platz nicht ausreicht, dann 
noch einen und man hat mehr Platz.
Wenn man immer nur 1-2 Programme am Laufen hat, dann braucht man es 
nicht.

von Nano (Gast)


Lesenswert?

Jens B. schrieb:
> Programmierer schrieb:
>> - Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne
>> Erleichterung!
> Zu faul 7Zip zu installieren?

Früher war das nicht so bekannt wir heute, geschweige denn ausgereift.

Üblich war damals, dass man WinRAR oder WinZIP nutzte. Viele haben davon 
sicherlich die Sharewareversion zu lange genutzt.

Und auf Firmenrechnern war es meist nicht zulässig, irgendwelche 
Drittsoftware zu installieren, also musste man das nehmen, was auf dem 
Rechner vorhanden war.

ZIP unter WinMe/XP war da schon ein Vorteil, im Vergleich zu Win98 oder 
Win2K, wo es da noch gar nichts out of the box gab.


>> - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt
> Da gab es externe Tools, oder andere Systeme.

Die nicht gescheit funktionierten. Siehe oben.

von c-hater (Gast)


Lesenswert?

>Was war für euch der größte Entwicklungssprung beim x86 PC?

Die Abschaffung.

von c-hater (Gast)


Lesenswert?

Nano schrieb:

> Stell dir die Arbeitsfläche des Desktops als Schreibtisch vor, auf dem
> du deine Blätter, Ordner (entspricht den Fenstern und Programmen) usw.
> passend hinlegst.
> Und jetzt stell dir vor, du hättest mehrere Schreibtische und jeden
> einzelnen nutzt du für ein thematisches Gebiet.

Ich bin doch nicht bescheuert und pendle zwischen verschiedenen 
Schreibtischen. Das bezahlt mit doch niemand.

> Wenn ich bspw. Gimp nutze, nutze ich es in der Mehrfenstervariante und
> das geht mit virtuellen Arbeitsflächen einfach besser, weil ich Gimp
> dann eine virtuelle Arbeitsfläche zuweise und meine anderen Sachen unter
> den anderen Arbeitsflächen habe.

Was geht denn da besser? Ich arrangiere meine Gimp-Fenster, wie 
benötigt. Und wenn ich von Gimp auf was anderes Umswitche, klicke ich im 
Hauptfenster von Gimp auf Minimieren und alle Gimp-Fenster sind wech.
Und wenn ich wieder mit Gimp arbeiten will, klicke ich einfach das 
einzige Gimp-Icon in der Taskleiste an und alles ist wieder da.

Scheint mir, dass der eigentliche Trick ist: ein durchdachter 
Window-Manager, eine Anwendung mit ordentlich programmierter GUI und ein 
Benutzer, der damit umzugehen weiß. Das zusammen macht virtuelle 
Desktops ziemlich überflüssig.

von Klaus W. (mfgkw)


Lesenswert?

Virtuelle Desktops braucht jemand nicht, der den ganzen Tag in diesem 
Forum trollt.

von Nano (Gast)


Lesenswert?

c-hater schrieb:
> Ich bin doch nicht bescheuert und pendle zwischen verschiedenen
> Schreibtischen. Das bezahlt mit doch niemand.
>
>...
> Scheint mir, dass der eigentliche Trick ist: ein durchdachter
> Window-Manager, eine Anwendung mit ordentlich programmierter GUI und ein
> Benutzer, der damit umzugehen weiß. Das zusammen macht virtuelle
> Desktops ziemlich überflüssig.

Du musst es ja nicht nutzen. Ich habe es dir erklärt und damit deine 
Frage beantwortet.

von c-hater (Gast)


Lesenswert?

Nano schrieb:

> Ich habe es dir erklärt und damit deine
> Frage beantwortet.

Nein, eben das hast du nicht getan. Es ist immer noch kein Vortiel zu 
erkennen gewesen. Ich sehe: es ist in beiden Fällen genau ein Klick 
erforderlich, um zwischen zwei Fensterumgebungen zu wechseln.

Also wo ist der Vorteil?

von rbx (Gast)


Lesenswert?

c-hater schrieb:
> Also wo ist der Vorteil?

Eventuell die Übung, nicht so schnell bei virtuellen Konsolen 
durcheinanderzukommen:

https://www.linux-community.de/ausgaben/linuxuser/2004/09/zu-befehl-screen/

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Nano schrieb:
> Bei mir fiele die Wahl auf den 80386.

Dito hier, hatte allerdings nur den 386SX. Endlich Doom spielen und Dark 
Forces :-P
Das war der Quantensprung. Speicher ohne rumzicken.

: Bearbeitet durch User
von Egon D. (Gast)


Lesenswert?

DesKaisersNeueKleider schrieb:

> Polmann schrieb:
>> "Linux."
>
> Das war viele Jahre eher ein kleiner Rückschritt den ein
> Sprung vorwärts, weil man durch den Abschied von Windows
> die Möglichkeiten vieler Windowsprogramme verlor.

Genau!

Beispielsweise die großartige und unverzichtbare Möglichkeit,
mittels Windows 3.11, "Trumpet Winsock" und "Netscape
Navigator" (oder war das noch "Mosaic"?) bei einem Klick auf
den falschen Link die ganze Kiste so festzufahren, dass nur
ein Druck auf den Reset-Knopf half.

Das war vor fast 30 Jahren mein Motiv, auf Linux zu wechseln...

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Egon D. schrieb:
> dass nur
> ein Druck auf den Reset-Knopf half.

Ah, "Abschaffung der Reset-Taster" fehlt noch in seiner Liste ganz oben. 
;-)

von Nano (Gast)


Lesenswert?

c-hater schrieb:
> Nano schrieb:
>
>> Ich habe es dir erklärt und damit deine
>> Frage beantwortet.
>
> Nein, eben das hast du nicht getan. Es ist immer noch kein Vortiel zu
> erkennen gewesen. Ich sehe: es ist in beiden Fällen genau ein Klick
> erforderlich, um zwischen zwei Fensterumgebungen zu wechseln.
>
> Also wo ist der Vorteil?

Folgendes Video gibt vor dir zu erklären, warum virtuelle Desktops die 
Produktivität erhöhen.
Kannst es ja mal angucken und dann berichten:

https://www.youtube.com/watch?v=aYVaL1VVpNg

von Egon D. (Gast)


Lesenswert?

Jörg W. schrieb:

> Egon D. schrieb:
>> dass nur ein Druck auf den Reset-Knopf half.
>
> Ah, "Abschaffung der Reset-Taster" fehlt noch in seiner
> Liste ganz oben.
> ;-)

Interessant.
Du hast Recht... das ist mir noch gar nicht aufgefallen:

An der Kiste, auf der ich das hier tippe, sind die Taster
und LEDs nicht verdrahtet; zum Starten wird ein bereit-
liegendes Slotblech genommen, mit dem ich die beiden
Pinökel auf dem Mainboard kurz verbinde, und die Kiste
startet dann.

"Reset" habe ich monatelang nicht gebraucht...

von someone else (Gast)


Lesenswert?

Für mich: 3D-Beschleuniger inkl. allem was aus diesen heraus entstanden 
ist, 64 Bit, Multicore, SSD

Allerdings tue ich mich schwer mit den höchst zweifelhaften Innovationen 
der letzten Jahre im Softwarebereich. Es ist einfach nur krank, was da 
für Ressourcen ohne Mehrwert massiv verheizt werden, weil Programmierer 
nicht mehr Programmieren können oder dürfen. Stattdessen müssen dutzende 
gerade schwer angesagte Frameworks, Libs usw. eingebunden werden, weil 
sich das so gehöre, Computer heutzutage schnell genug seien und man ja 
nicht das Rad neu erfinden dürfe.

Nein, ich will nicht mehr die Zeiten zurück, bei denen man mit jedem Bit 
persönlich per du war und per Assembler höchste Optimierungen vornahm. 
Das ist trotzdem kein Argument für den Mist im Softwarebereich, der 
heute praktiziert wird. Abstraktion auf Abstraktion und am besten 
trivialste Funktionen in irgendwelche Paketmanagement-Systeme 
outgesourct, die man bei den "fancy" Programmiersprachen gleich mit 
aufgenötigt bekommt. Massive Sicherheitsprobleme sind dann halt so, weil 
Fehler in Software, da könne man halt nichts machen. Ich bin absolut 
dafür, eine Haftung für kommerzielle Software einzuführen, vielleicht 
wachen da mal ein paar Leute auf.

von (prx) A. K. (prx)


Lesenswert?

someone else schrieb:
> eine Haftung für kommerzielle Software einzuführen, vielleicht
> wachen da mal ein paar Leute auf.

Vielleicht hülfe es, vielleicht wird aber auch bloss die Software viel 
teurer, weil der grössere Teil des Kauf- oder Mietpreises an 
Versicherungen und Anwälte durchgereicht wird.

Was macht man dann bei freier Software?

: Bearbeitet durch User
von Egon D. (Gast)


Lesenswert?

c-hater schrieb:

>> Wenn ich bspw. Gimp nutze, nutze ich es in der
>> Mehrfenstervariante und das geht mit virtuellen
>> Arbeitsflächen einfach besser, weil ich Gimp dann
>> eine virtuelle Arbeitsfläche zuweise und meine
>> anderen Sachen unter den anderen Arbeitsflächen
> habe.
>
> Was geht denn da besser?

Erstmal eine Gegenfrage: Warum sollte man Dir diese
Frage sachlich beantworten, da Du ja offensichtlich
ausschließlich darauf aus bist, Deine Gesprächspartner
herabzusetzen?

Woher ich diese "Verleumdung" nehmen? -- Nu, daher:

> Scheint mir, dass der eigentliche Trick ist: ein
> durchdachter Window-Manager, eine Anwendung mit
> ordentlich programmierter GUI und ein Benutzer, der
> damit umzugehen weiß. Das zusammen macht virtuelle
> Desktops ziemlich überflüssig.

"... durchdachter Window-Manager...": Klar, der fvwm2
ist von Idioten geschrieben worden.

"...ordentlich programmiertes GUI...": Klar, das GUI
von Firefox und Gimp ist von Idioten programmiert
worden.

"...Benutzer, der damit umzugehen weiss...": Klar, der
Benutzer, der das hier tippt, ist ein Idiot.

Überhaupt sind alle Leute Idioten, die irgend etwas
anders machen als Du.


Aber ich beantworte Deine ursprüngliche Frage trotzdem
sachlich, auch wenn ich überzeugt bin, dass es nichts
nützt:

> Ich arrangiere meine Gimp-Fenster, wie benötigt.

Das mache ich auch.


> Und wenn ich von Gimp auf was anderes Umswitche,
> klicke ich im Hauptfenster von Gimp auf Minimieren
> und alle Gimp-Fenster sind wech.

Das mache ich nicht.
Ich drücke "Ctrl-Alt-CursorRight" und bin auf der
Arbeitsfläche, auf der der mc läuft.
Alternativ könnte ich auch "Ctrl-Alt-CursorLeft" drücken
und wäre dann auf der Arbeitsfläche, auf der der Browser
zu sehen ist.

Dabei mag eine Rolle spielen, dass ich die Maus mit
Links bediene: Die rechte Hand ist ohnehin in der Nähe
der Cursortasten, und der Weg der linken Hand von der
Maus zu "Control" und "Alt" ist auch kurz.
Wechseln zwischen Tastatur und Maus muss ich sowieso,
Zehn-Finger-Blindschreiben geht schlecht ohne linke
Hand...


> Und wenn ich wieder mit Gimp arbeiten will, klicke ich
> einfach das einzige Gimp-Icon in der Taskleiste an und
> alles ist wieder da.

Ich brauche keine Taskleiste. Ich finde diese (Form von)
Mausschubserei lästig, und mich stört das Auf- und Zugeploppe
von Fenstern.


Ach ja... nur für den Fall: Eine graphiklastige Applikation
wie das Gimp bediene ich NATÜRLICH mit der Maus...

von Rolf M. (rmagnus)


Lesenswert?

Nano schrieb:
> Die Voodoo Graphics?

Die war definitiv etwas, das mich damals sehr beeindruckt hat. Zum 
ersten mal 3D-Grafik in 640x480 bei >30fps.

Nano schrieb:
> das CD-ROM Laufwerk?

Das hat mich damals durchaus auch sehr beeindruckt. Für ein paar Mark 
fufzig konnte man sich da eine Shareware-CD kaufen, wo fast viermal so 
viel drauf war wie auf meine Festplatte gepasst hat. Atemberaubende 
Datenmengen.

Karl schrieb:
> Die Abschaffung des A20-Gates.

War dessen Existenz denn für dich so ein riesiges Problem bzw. hat sich 
durch die Abschaffung für dich irgendwas wesentlich verbessert?

Christoph db1uq K. schrieb:
> Der größte Sprung waren die Taktfrequenzen.

Nein, die Festplattenkapazitäten sind wesentlich schneller hochgegangen. 
Als man noch Rechner mit 16 MHz hatte, war man vielleicht bei 40 MB 
üblicher Plattenkapazität oder so. Heute haben die Rechner ein paar GHz, 
aber die Festplatten ein paar TB, sind also nochmal um drei 
Zehnerpotenzen schneller gewachsen.

Programmierer schrieb:
> UEFI könnte man noch nennen.

Ich hab bis heute nicht verstanden, wozu das gut ist. Ist höllisch 
kompliziert, braucht diese seltsame DOS-Partition und bootet auch nur 
einfach den Rechner, das aber gerne mal etwas hakeliger.

Jörg W. schrieb:
>> Der VESA Local Bus Bus?
>
> Dem würde ich eher den Preis "größte Krücke der PC-Landschaft" zuteilen.
> :-) "Geht er oder geht er nicht, das ist die Frage." ;-) (Bin zum Glück
> davon verschont geblieben. EISA war zwar nicht so ganz trivial zu
> managen, hat aber dann wenigstens stabil funktioniert.)

Ich hab mir damals meinen 486er auf VESA Local Bus aufgerüstet, mit 
einer entsprechenden Grafikkarte und einem Festplatten-Controller und 
hatte damit nie Probleme. Das soll jetzt nicht heißen, der Bus sei 
besonders toll gewesen, aber stabil war er bei mir.

Polmann schrieb:
> "Linux."
> Schade, war klar das gleich wieder dumme Antworten kommen als erstes:-(

Du meinst so wie deine?

Polmann schrieb:
> Absolut, ja,a ber offenbar sehen das einige Fanboys hier anders, ich
> hoffe das macht die Diskussion nicht kaput.

Der Diskussion schaden tun vor allem Leute, die andere als dumm und 
"Fanboys" bezeichnen, nur weil sie eine andere Ansicht haben.

(prx) A. K. schrieb:
> Purzel H. schrieb:
>> zumindest beim 8086 diese Funktionalitaet von dem Compilerbauern nicht
>> verwendet, resp alle aufeinander gelegt
>
> Daten und Stack lassen sich in C nicht trennen und Code nur, wenn man
> Konstanten im Datenbereich unterbringt.

Ja, wo auch sonst? Sind ja Daten. Man hätte aber zumindest mal Code und 
Daten trennen können. Stattdessen hat man viele Jahre damit gelebt, dass 
die Betriebssysteme alle so gebaut waren, dass so eine Trennung trotz 
Support durch die CPU nicht vorgesehen ist - mit allen 
Sicherheitslücken, die daraus hervorgegangen sind. Erst viel später hat 
AMD und dann auch Intel mit dem NX-Bit so ein Feature noch ein zweites 
Mal umgesetzt, nur diesmal auf Page-Ebene, damit die Betriebssyteme es 
dann auch nutzten.

Jörg W. schrieb:
> Egon D. schrieb:
>> dass nur
>> ein Druck auf den Reset-Knopf half.
>
> Ah, "Abschaffung der Reset-Taster" fehlt noch in seiner Liste ganz oben.
> ;-)

Die finde ich aber nicht beeindruckend, sondern eher nervig. Genauso wie 
z.B. der Wegfall der Festplatten-LED,  des noch nicht durch Software 
überstimmbaren WLAN-Schalters und jeglicher anderer vom Monitor 
unabhängige Anzeige außer der Power-LED  an meinen Geschäftsrechnern.

: Bearbeitet durch User
von c-hater (Gast)


Lesenswert?

Rolf M. schrieb:
> Zum ersten mal 3D-Grafik in 640x480 bei >30fps.

Ehm, Quake mit SW-Rendering? Lange vor Voodoo.

von René F. (Gast)


Lesenswert?

Gerald K. schrieb:
> Erst trauerte ich der RS232 Schnittstelle nach, jetzt benutze ich USB,
> viel schneller, flexibler und Fernspeisung.

Hat beides seine Vor- und Nachteile, für Endanwender ist es natürlich 
einfacher, er muss keinen Port auswählen, keine Baudraten einstellen 
usw…

Allerdings hat die Einfachheit der seriellen Schnittstelle für die 
Geräte-Entwicklung durchaus seine Vorteile, ich finde es eher 
erstaunlich wie man sich im Laufe der letzten Jahre so abhängig gemacht 
hat von Treiber-Entwicklung, Signierung und der Komplexität der 
Schnittstelle. Natürlich gibt es auch USB-UART Bridges das ist in meinen 
Augen aber eher ein Workaround des eigentlichen Problems.

Wir setzen zum Beispiel seit über 20 Jahren auf Ethernet und das läuft 
hervorragend, wir haben einiges an Software, teils unter Windows 2000 
entwickelt, die läuft bei Kunden unverändert auch noch auf Windows 10 
Geräten. Das einzig nervige ist die Netzwerkskonfiguration aber unser 
Kundenkreis hat damit kein Problem.

von Egon D. (Gast)


Lesenswert?

Rolf M. schrieb:

> Jörg W. schrieb:
>>
>> Ah, "Abschaffung der Reset-Taster" fehlt noch in seiner
>> Liste ganz oben.
>> ;-)
>
> Die finde ich aber nicht beeindruckend, sondern eher
> nervig.

Ernsthafte Frage: Warum?

Dass die Kiste komplett einfriert, so dass wirklich nur
Reset hilft, kenne ich eigentlich nur bei Hardware-
Problemen (der Rechner, an dem ich gerade sitze, ist so
ein Kandidat.)
Da ist es zugegebenermaßen lästig, wenn man keinen Knopf
dafür hat -- aber sonst...?!

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Rolf M. schrieb:

> Jörg W. schrieb:
>>> Der VESA Local Bus Bus?
>>
>> Dem würde ich eher den Preis "größte Krücke der PC-Landschaft" zuteilen.
>> :-) …
>
> Ich hab mir damals meinen 486er auf VESA Local Bus aufgerüstet, mit
> einer entsprechenden Grafikkarte und einem Festplatten-Controller und
> hatte damit nie Probleme. Das soll jetzt nicht heißen, der Bus sei
> besonders toll gewesen, aber stabil war er bei mir.

Es war aber eben mehr oder weniger Zufall, ob es funktionierte. Du 
konntest eine funktionierende Grafikkarte aus einem Computer aus- und in 
den nächsten einbauen, und dort hängte sich alles auf.

Lies dir hier mal den dritten Absatz durch:

https://de.wikipedia.org/wiki/VESA_Local_Bus#Eigenschaften

EISA und PCI waren dagegen (jeweils auf dem Stand ihrer Zeit) deutlich 
durchdachtere Bussysteme.

(Reset-Taster)

> Die finde ich aber nicht beeindruckend, sondern eher nervig.

Brauchst du den Reset-Taster so häufig?

Abgesehen von ernsthaften Hardwareproblemen kann ich mich gerade nicht 
dran erinnern, wann ich den das letzte Mal benötigt hätte.

> Genauso wie
> z.B. der Wegfall der Festplatten-LED,

Ist hier noch dran, aber da sie nur für Onboard-Schnittstellen 
funktioniert, nicht übermäßig nützlich.

>  des noch nicht durch Software
> überstimmbaren WLAN-Schalters

Das dürfte eher ein regulatorisches Problem sein: mit einem 
Hardwareschalter ist es halt einfach nachzuweisen, dass du so einen 
Funk-Emissions-freien Zustand ("Flugmodus") erreichst.

Ein älterer HP-Laptop hier hatte den (via F-Tasten und Fn) in 
(BIOS-)Software vorgesehen, ich hätte mir stattdessen einen 
Hardwareschalter gewünscht gehabt: es konnte einem passieren, dass das 
Ding unter Linux zwar aus- aber nicht wieder einschaltbar war und man 
dafür erst ein Windows booten musste. Selbst aus dem BIOS ließ sich der 
Zustand nicht ändern. Dann lieber einen einfachen Schiebeschalter.

: Bearbeitet durch Moderator
von Nano (Gast)


Lesenswert?

Rolf M. schrieb:
> Nano schrieb:
>> Die Voodoo Graphics?
>
> Die war definitiv etwas, das mich damals sehr beeindruckt hat. Zum
> ersten mal 3D-Grafik in 640x480 bei >30fps.

Die Voodoo Graphics ist bei mir aus irgendeinem Grund vorbeigegangen, 
aber die Voodoo 2 habe ich dann hautnah erlebt.

Das war ein WOW Ereignis. Auf einmal hatte ein aktuelles Spiel 60 fps, 
bei zuvor meist nicht mehr als 23 fps im Software Rendering Modus auf 
schnellen Rechnern.

> Nano schrieb:
>> das CD-ROM Laufwerk?
>
> Das hat mich damals durchaus auch sehr beeindruckt. Für ein paar Mark
> fufzig konnte man sich da eine Shareware-CD kaufen, wo fast viermal so
> viel drauf war wie auf meine Festplatte gepasst hat. Atemberaubende
> Datenmengen.

Ganz deiner Meinung.

> Programmierer schrieb:
>> UEFI könnte man noch nennen.
>
> Ich hab bis heute nicht verstanden, wozu das gut ist. Ist höllisch
> kompliziert, braucht diese seltsame DOS-Partition und bootet auch nur
> einfach den Rechner, das aber gerne mal etwas hakeliger.

Die ursprüngliche Idee war gut, aber die Umsetzung ist grauenhaft.

von Fpgakuechle K. (Gast)


Lesenswert?

Der standardisierte Aufbau: Der AT(?) Formfaktor des motherboards 
erlaubt diefrei Auswahl von Componenten und den Aufbau durch den Käufer 
selbst. Und der Verkauf von gebrauchten Komponenten ermöglicht eine 
Teilfinanzierung des Neukaufs.

Mit DSL wurde das Netz videofähig

Und dank Flatrate bereitet der 'Datenverbrauch' keine Kopfschmerzen mhr.

Dank Taptop resp. portable kann man als Freiberufler tatsächlich 
unabhängig vom eigenen Büro arbeiten.

von Nano (Gast)


Lesenswert?

René F. schrieb:
> Allerdings hat die Einfachheit der seriellen Schnittstelle für die
> Geräte-Entwicklung durchaus seine Vorteile, ich finde es eher
> erstaunlich wie man sich im Laufe der letzten Jahre so abhängig gemacht
> hat von Treiber-Entwicklung, Signierung und der Komplexität der
> Schnittstelle. Natürlich gibt es auch USB-UART Bridges das ist in meinen
> Augen aber eher ein Workaround des eigentlichen Problems.
>
> Wir setzen zum Beispiel seit über 20 Jahren auf Ethernet und das läuft
> hervorragend, wir haben einiges an Software, teils unter Windows 2000
> entwickelt, die läuft bei Kunden unverändert auch noch auf Windows 10
> Geräten. Das einzig nervige ist die Netzwerkskonfiguration aber unser
> Kundenkreis hat damit kein Problem.

Ethernet braucht auch einen TCP/IP Stack und ein OS, wenn man damit 
etwas anfangen soll und damit hat man auch Sicherheitslücken und setzt 
das Gerät und das angeschlossene Netzwerk einer Gefahr aus.

Solche Geräte müssen dann zwingend regelmäßig upgedated werden, sofern 
eine Sicherheitslücke bekannt wird oder gleich in ein separates vlan 
gepackt werden.

Die Lösung für alles ist es somit leider nicht.
USB ist da dann schon unproblematischer.

von Fpgakuechle K. (Gast)


Lesenswert?

Ab PDF funktioniert das mit den gehaltvollen Dokumenten und 
Datenblattaustausch. Bevor dem, war es einfach krampfig, schon wegen 
unterschiedlichen Zeichensätzen. Oder einfach zu groß wie das Postscript 
aus  der tunix Welt. rtf war nicht ganz und nicht halb, *.doc 
Virenlastig, gif hatteCopyright, *.png war zu groß für kleine Disks. Wer 
kennt noch MIME oder *.troff?

von Arno (Gast)


Lesenswert?

René F. schrieb:
> Wir setzen zum Beispiel seit über 20 Jahren auf Ethernet und das läuft
> hervorragend, wir haben einiges an Software, teils unter Windows 2000
> entwickelt, die läuft bei Kunden unverändert auch noch auf Windows 10
> Geräten. Das einzig nervige ist die Netzwerkskonfiguration aber unser
> Kundenkreis hat damit kein Problem.

Ich bin ehrlich beeindruckt, wie lange sich so schnödes 4x2-TP-Kabel mit 
RJ45-Stecker schon als Netzwerkkabel gehalten hat. Umso härter wird die 
Umstellung - worauf auch immer - wenn sie denn kommt ;)

USB ist auch gar nicht so viel jünger, zumindest 1.1 - auch wenn die 
großflächig vernünftige Softwareunterstützung erst deutlich später kam.

MfG, Arno

von Thomas Z. (usbman)


Lesenswert?

Nano schrieb:
> USB ist da dann schon unproblematischer.

Das sehe ich auch so, wobei der USB Start unter Win schon holprig war. 
Vielleicht erinnert sich noch jemand an die Vorstellung von W98 von Bill 
Gates als ein USB Scanner gleich mal einen Bluescreen produzierte.

Trotzdem halte ich USB für einen wichtigen Meilenstein.

von someone else (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Vielleicht hülfe es, vielleicht wird aber auch bloss die Software viel
> teurer, weil der grössere Teil des Kauf- oder Mietpreises an
> Versicherungen und Anwälte durchgereicht wird.

Nun, als jemand der in der IT-Branche Systemintegration tätig war, kann 
ich dir mitteilen, dass Versicherungen weder wohltätig noch hirnlos 
sind. Besonders, wenns mal wo wieder richtig gekracht hat, wollen die 
einige Zusagen und Garantien, sowie genau wissen wie du was machst. Als 
Sahnehäubchen wollen die sehr, sehr, sehr viel Geld, wenn du meinst 
schlampig arbeiten zu können und die Versicherung als Airbag 
missbrauchen zu können. Und jedes Wirtschaftsunternehmen hat was dagegen 
Anwälten ohne Sinn und Verstand zu beschäftigen.

Es ist so, dass die Systemintegratoren ziemlich oft den Scheiß ausbaden 
dürfen, der von Seitens der Softwareanbieter hingerotzt wird. Diese 
Softwareanbieter meinen dann ihre Hände in Unschuld waschen zu können, 
weil diese Sicherheitslücken usw. ja unvermeidbar seien und irgendwie 
was magisches angedichtet bekommen. Es muss die logische Konsequenz 
sein, dass dieser Teil der IT auch in Verantwortung genommen wird. Wenn 
ein Softwareanbieter meint, in der Entwicklung seiner Software 
irgendeine fremde Komponente blindlings einbauen zu können, ohne selbst 
dafür verantwortlich zu sein, dann liegt dieser falsch.

> Was macht man dann bei freier Software?

Komische Frage, ich schreib von kommerzieller Software und du plötzlich 
von freier Software. Ja, wir können gerne Äpfel mit Birnen vergleichen, 
sind irgendwie so ähnlich.

Wenn dus genau wissen willst, die freie Software lässt man juristisch in 
Ruhe. Das Zeug ist frei und international, also soll jeder schauen, wie 
er es nutzt.

Nutzt aber eine Firma freie Software für sich kommerziell, sollen die 
dann bitte dafür wieder haften. Es ist sowieso assiges Schmarotzertum 
freie Software einfach für sich kommerziell zu benutzen, ohne was zurück 
zu geben.

von rbx (Gast)


Lesenswert?

Fpgakuechle K. schrieb:
> Wer
> kennt noch MIME oder *.troff?

oder *.div..

An pdf hatte ich auch gedacht, oder an html, was ich immer mochte, meine 
aber das fällt wie auch httrack und so Zeugs eher nach Internet, und so 
OT.

Das Soundblasterformat hat es bis in die Mainboards geschafft, auch 
nicht zu verachten.
https://de.wikipedia.org/wiki/VOC_(Audiocodec)

von c-hater (Gast)


Lesenswert?

someone else schrieb:
> Es ist sowieso assiges Schmarotzertum
> freie Software einfach für sich kommerziell zu benutzen, ohne was zurück
> zu geben.

Das entspricht voll und ganz dem Gedanken von Freier Software und Open 
Source.

Es gibt keine (ernstzunehmende) Open-Source-Lizenz, die die Nutzung 
irgendwie einschränkt.
Und auch die Modifikation und Integration schränken viele 
Open-Source-Lizenzen nicht ein.
Selbst die GPL erlaubt es die Software zu nehmen und unternehmensintern 
beliebig zu verwursten.

Und das ist so gewollt!

von Nano (Gast)


Lesenswert?

someone else schrieb:
> Es ist so, dass die Systemintegratoren ziemlich oft den Scheiß ausbaden
> dürfen, der von Seitens der Softwareanbieter hingerotzt wird. Diese
> Softwareanbieter meinen dann ihre Hände in Unschuld waschen zu können,
> weil diese Sicherheitslücken usw. ja unvermeidbar seien und irgendwie
> was magisches angedichtet bekommen. Es muss die logische Konsequenz
> sein, dass dieser Teil der IT auch in Verantwortung genommen wird.

Bin dagegen, denn es hilft nur den großen. Die Kleinen machen dann 
dicht.
Und es gibt nicht mehr viele Branchen wo man als Kleiner noch gute 
Chancen hat. Zumal die Softwarewelt aufgrund des Mannjahresbedarf schon 
jetzt schwer genug ist.

> Wenn
> ein Softwareanbieter meint, in der Entwicklung seiner Software
> irgendeine fremde Komponente blindlings einbauen zu können, ohne selbst
> dafür verantwortlich zu sein, dann liegt dieser falsch.

Der Kunde soll einfach richtig zahlen, dann kann er solche fremden 
Komponenten bei zugeschnittenen Aufträgen auch per Vertrag ausschließen.

Zumal es dann ohnehin so kommen würde, wenn es zum Gesetz wird.
Die Folge wäre wohl, dass sich die meisten Firmen dann irgendwo in Asien 
mit Software eindecken, wo das mit der Haftung nicht gilt und dann 
einfach weiter jammern.

>> Was macht man dann bei freier Software?
>
> Komische Frage, ich schreib von kommerzieller Software und du plötzlich
> von freier Software.

Freie Software ist kommerziell.
Die GPL erlaubt den kommerziellen Vertrieb ausdrücklich.

> Ja, wir können gerne Äpfel mit Birnen vergleichen,
> sind irgendwie so ähnlich.

Das hat er nicht.
Denn beides sind hier Äpfel, sowohl proprietäre kommerzielle Software 
als auch freie kommerzielle Software.


> Wenn dus genau wissen willst, die freie Software lässt man juristisch in
> Ruhe. Das Zeug ist frei und international, also soll jeder schauen, wie
> er es nutzt.

Das wäre ein Wettbewerbsnachteil gegenüber den propritären kommerziellen 
und daher unrecht.

von c-hater (Gast)


Lesenswert?

Nano schrieb:
> Die Kleinen machen dann dicht.

Sie könnten zur Abwechslung ja mal korrekte und funktionsfähige Software 
schreiben.
Dann wäre auch kein Grund dicht zu machen vorhanden.

von Alex (Gast)


Lesenswert?

Die Turbo-Taste für zu schnelle PCs ;)

von René F. (Gast)


Lesenswert?

Arno schrieb:
> Ich bin ehrlich beeindruckt, wie lange sich so schnödes 4x2-TP-Kabel mit
> RJ45-Stecker schon als Netzwerkkabel gehalten hat. Umso härter wird die
> Umstellung - worauf auch immer - wenn sie denn kommt ;)

Da bin ich zu 100% bei dir. Im Consumer Bereich wird sie wohl in den 
nächsten Jahren immer häufiger wegfallen, im professionellen Bereich ist 
es aber für mich in den nächsten Jahren undenkbar. 1990 mit der 
Einführung von 10BASE-T (10MBit/s) hat sich wohl niemand vorstellen 
können, das wir irgendwann über den gleichen Stecker einige GBit/s 
übertragen werden.

von mIstA (Gast)


Lesenswert?

Also - auch wenns meiner Meinung nach so gar nicht x86-spezifisch ist, 
aber nachdem Du es ja auflistest kanns ja keine Themaverfehlung sein - 
ganz eindeutig Flachbildschirme.

von Andreas B. (bitverdreher)


Lesenswert?

mIstA schrieb:
> ganz eindeutig Flachbildschirme.

Na, ja. Anfangs waren die wirklich mies.

von Rainer Z. (netzbeschmutzer)


Lesenswert?

Andreas B. schrieb:
> Na, ja. Anfangs waren die wirklich mies.

... wenn sie mit einem analogen Videosignal gespeist wurden. Mit 
digitalem Signal bei passender Auflösung von Video-Karte und LCD-Monitor 
war es auch bei den frühen Modellen sehr gut. Ich habe mir vor über 20 
Jahren einen 15" Monitor für deutlich über 2.000,00 DM gegönnt, weil ich 
davor mehrere Stunden täglich gearbeitet habe. Das war selbst gegenüber 
einem guten Sony-Monitor mit Bildröhre ein wohltuender Fortschritt.

von Fpgakuechle K. (Gast)


Lesenswert?

Ein grosser Sprung vorwärts ist alles was Hilfestellung aka debugging 
unterstützt.

-die schnelle Übermittlung von Screenshot/Configs bei Softwarefehlern 
und gute Fotos bei (sichtbaren) Hardwaredefekten

-Zugriff auf den Systemzustand zur Fehlerbildrekonstruktion beim Helfer 
(memory, CPU-dump, Protokolldatein vom elektrischen Zustand 
(Spannungensminitore,Temperaturüberwachung, elektrische Diagnose 
generell)

Und natürlich ist es noch besser 'daß das Kind nicht erst in den Brunnen 
fällt'

-also robustes System dank ECC und automatisches Heruntertakten etc.
-abfangen von 'Software-querschlägern' so dass dennoch das System stabil 
bleibt (Speicherschutz, traproutinen, Notfallsystem)

von (prx) A. K. (prx)


Lesenswert?

Fpgakuechle K. schrieb:
> -Zugriff auf den Systemzustand zur Fehlerbildrekonstruktion beim Helfer
> (memory, CPU-dump, Protokolldatein

... gehörten zu den beliebtesten Papierverbrauchern in der Frühzeit der 
Datenverarbeitung. Was später in Unix als überall im Filesystem 
rumliegende Coredumps die Disks verstopfte, landete davor als Resultat 
eines Batch-Jobs auf Papier. Wenn nicht der Job ein Problem hatte, 
sondern die ganze Kiste, dann gab es Klaviaturen und LEDs zum 
durchklappern - schon mal eine PDP-11 von vorne gesehen?

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

c-hater schrieb:
> Rolf M. schrieb:
>> Zum ersten mal 3D-Grafik in 640x480 bei >30fps.
>
> Ehm, Quake mit SW-Rendering? Lange vor Voodoo.

Auf einem Pentium 133 ohne MMX? Sicher nicht.
Da lief das in 320x240 ganz gut, aber 640x480 wäre unspielbar gewesen. 
GLQuake auf der Voodoo war da ein riesen Sprung.
Kann man auch auf https://framebuffer.io/project/quake sehen. Da ist für 
einen Pentium 200 eine durchschnittliche Framerate von 17 FPS angegeben, 
d.h. an manchen besonders intensiven Stellen wäre das bei meinem 133er 
sicher bis in den einstelligen Bereich runtergegangen. Mit der Voodoo 
dagegen lief das (für damalige Verhältnisse) butterweich.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

(prx) A. K. schrieb:
> Klaviaturen und LEDs

Bzw Glühlämpchen.

von DoS (Gast)


Lesenswert?

Der Preisverfall, und dass sich jeder so was leisten konnte. Als aus den 
unerreichbaren Elfenbeintürmchen plötzlich Gegenstände des täglichen 
gebrauchs wurden. Das war für mich die größte Entwicklung.

von Olaf (Gast)


Lesenswert?

> Siehste, bei mir war es nie ein Windows, sondern der Übergang von DR-DOS
> zu 386BSD noch bevor Windows ernsthaft in die Gänge kam. Da war u.a. der

Da kannst du dir hier den Mund fusselig quatschen, die Windowsanbeter 
wissen garnicht wie traurig ihre Welt war. Die glauben ihre Probleme 
waren normal.

Zu Zeiten als die mit Window3.11 mit 640x480 oder 800x600 rumgemacht 
haben und ein Absturz bei denen taeglich vorkam hatte ich z.B eine Ati 
Mach32 im Rechner mit 1280x1024 pixel an einem gebrauchten 21" 
Trinitronmonitor. Das war nur moeglich weil ich die Timings selbst 
berechnen und einstellen konnte. Ausserdem hatte ich damals 
selbstverstaendlich schon mehrere Screens zwischen denen ich umschalten 
konnte. Etwas das selbst das Win10 heute noch nicht ganz perfekt 
hinbekommt.

Oder wie die Kollegen damals eine CD (Rohling =15DM) gebrannt haben und 
sich nicht getraut haben dabei unter Win3.11 auch nur mit der Maus zu 
wackeln weil sie Angst hatten das denen die Kiste dabei abkackt.

Olaf

von Rolf M. (rmagnus)


Lesenswert?

Rainer Z. schrieb:
> Andreas B. schrieb:
>> Na, ja. Anfangs waren die wirklich mies.
>
> ... wenn sie mit einem analogen Videosignal gespeist wurden.
> Mit digitalem Signal bei passender Auflösung von Video-Karte und LCD-
> Monitor war es auch bei den frühen Modellen sehr gut.

Manch einer hat den Monitor aber auch zwar digital, aber mit der 
falschen Auflösung betrieben, und interpoliert sah das Bild natürlich 
immer matschig aus. Bei einigen Monitoren war die Interpolation aber 
ganz besonders schlecht. Das wurde gerne mal gemacht, weil GUIs nicht 
brauchbar skaliert werden konnten - und oft bis heute nicht können. Dann 
hat man halt einfach die Auflösung runtergestellt, damit alles größer 
wird. Das war bei Röhrenmonitoren kein Problem, aber bei LCD-Monitoren 
schon.

> Ich habe mir vor über 20 Jahren einen 15" Monitor für deutlich über
> 2.000,00 DM gegönnt, weil ich davor mehrere Stunden täglich gearbeitet
> habe. Das war selbst gegenüber einem guten Sony-Monitor mit Bildröhre ein
> wohltuender Fortschritt.

Mein Umstieg von Röhrenmonitor auf LCD war etwas gemischt. Auf der einen 
Seite war der Monitor natürlich viel kompakter, das Bild war unverzerrt, 
farbkräftig und flimmerfrei, aber die Auflösung lies doch sehr zu 
wünschen übrig. Alles war plötzlich sehr pixelig, z.B. Treppenkanten an 
den Schrifträndern, die ich vorher so nicht hatte.

von Peter D. (peda)


Lesenswert?

Jan K. schrieb:
> Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung
> gebracht.

Ja, der Einbau einer SSD hat dem PC richtig Beine gemacht.
Ulkiger Weise wurde aber überall empfohlen, mehr RAM reinzustecken. Ich 
war aber regelmäßig enttäuscht, mehr RAM habe ich nie gemerkt. Der XP 
Medion-PC hatte z.B. 512MB. Später habe ich 2GB dazu gepackt und absolut 
nichts davon gemerkt. Schade um das verschwendete Geld.

Bei XP und W7 hat man auch stark gemerkt, wie durch die Updates immer 
mehr Hintergrundprozesse installiert wurden und das System immer 
langsamer wurde.

Beitrag #7005963 wurde vom Autor gelöscht.
von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Olaf schrieb:
> Oder wie die Kollegen damals eine CD (Rohling =15DM) gebrannt haben

Das Schreiben des ersten Treibers für einen Plasmon-CD-Brenner war auch 
noch ein Abenteuer. Mein Chef brachte den irgendwann an (ich glaube, der 
hat um die DEM 2000 gekostet), und ich hab's geschafft, den Treiber mit 
einem einzigen zerschossenen Rohling zu bauen. Die Laufwerke kannten ja 
einen "dummy mode", mit dem man die Daten hin schicken konnte, ohne 
wirklich eine CD zu brennen.

Das Einzige, wo der Datenstrom dann abbrach war beim Versuch, 
gleichzeitig noch zu drucken – was den Ghostscript anwarf (fürs 
PCL-Rendering), woraufhin er zu swappen begann. Upgrade des RAMs (von 4 
auf 8 MiB, kann sich heute keiner mehr vorstellen ;-) half dann auch 
dagegen, danach konnte man im vollen Betrieb (inklusive 
Grafik-Oberfläche) im Hintergrund CDs brennen.

von Polmann (Gast)


Lesenswert?

Kleinigkeiten unter OS/2., wie das benutzen von Disketten ohne das das 
ganze System blockiert und ruckelt, waren Dinge die alles gefühlt 
schneller machten.
OS/2 Warp fühlte sich insgesamt einfach gut und rund an
Seufz
Wenn es auch nur im Ansatz die Verbreitung hätte, wie heute Linux:-( 
Seufz

Wenn ich mir dagegen bis vor 5 Jahren den krampf mit Linux bis heute 
ansehe(Davor war es nicht mal einen Gedanken wert)
Dr-DOS PTS-DOS, musste alles mal drauf am Ende war es dann aber doch 
immer das MS Dos

von Polmann (Gast)


Lesenswert?

Wenn OS/2 sich durchgesetzt hätte, denke ich würde, würde an  Linux 
niemand auf dem Desktop auch nur einen Gedanken verschwenden außer 
natürlich den Basteln die immer gerne was anderes probieren wollen oder 
den Nerds die einfach anders sein wollen als der Rest

von Rolf M. (rmagnus)


Lesenswert?

Polmann schrieb:
> Kleinigkeiten unter OS/2., wie das benutzen von Disketten ohne das das
> ganze System blockiert und ruckelt, waren Dinge die alles gefühlt
> schneller machten.

Das war gerade auch eins der Dinge, die mich an Linux fasziniert hatten. 
Da war das auch so. Aber als ich zum ersten mal in OS/2 Wing Commmander 
in einem Fenster und nebenher noch einen MOD-Player hab laufen lassen, 
war das schon auch cool, wenn man davor DOS gewohnt war.

von Klaus W. (mfgkw)


Lesenswert?

Polmann schrieb:
> Wenn es auch nur im Ansatz die Verbreitung hätte, wie heute Linux:-(
> Seufz

Daß ich das noch erleben darf....

Linux als Maßstab für "verbreitet"!

von Linuxer (Gast)


Lesenswert?

Für mich:

1. Digital angesteuerter Flachbildschirm
2. Linux
3. SSD
4. CPU mit clock > 1 GHz

von Peter D. (peda)


Lesenswert?

Matte IPS-Displays waren auch ein großer Sprung. Damit konnte man 
erstmalig Notebooks auch im Zug benutzen, ohne Augenkrebs zu bekommen 
oder nen steifen Nacken, weil man einen ganz bestimmten Winkel zum 
Display einhalten mußte.

Beitrag #7006018 wurde vom Autor gelöscht.
von (prx) A. K. (prx)


Lesenswert?

Linuxer schrieb:
> Digital angesteuerter Flachbildschirm

Wobei bei einem guten Schirm (d.h. gute Signalerkennung) der Unterschied 
zwischen analoger und digitaler Ansteuerung auch bei FullHD nicht weiter 
auffällt.

> Matte IPS-Displays waren auch ein großer Sprung.

Wobei ich das nicht als grossen Sprung nach vorne empfand, sondern 
zwischenzeitlich als Rücksprung. Matt gab es m.W. schon von Anfang an, 
nur zwischendrin wurden Rasierspiegel modisch, bei Laptops allerdings 
nicht zuletzt als Folge der Touchscreen-Idee.

: Bearbeitet durch User
von Lotta  . (mercedes)


Lesenswert?

Oh, mann, es ist wieder mal absolut geil, alten weißen Männern
(auch OM's genannt)an ihren Erfahrungen teilhaben zu dürfen.

Respekt!!


mfg

von (prx) A. K. (prx)


Lesenswert?

Lotta  . schrieb:
> Oh, mann, es ist wieder mal absolut geil, alten weißen Männern
> (auch OM's genannt)an ihren Erfahrungen teilhaben zu dürfen.

Wie erkennst du übers Netz die Farbe? Per Vorurteil? ;-)

: Bearbeitet durch User
von Nachdenklicher (Gast)


Lesenswert?

c-hater schrieb:
> Ja, und ich habe den Vorteil davon nie verstanden. Also den Vorteil
> gegenüber der Möglichkeit, Fenster auf einer Arbeitsfläche beliebig
> anzuordnen und/oder zwischen ihnen zu wechseln.

Bei der Arbeit unverzichtbar. Alleine unser ERP-System macht direkt ein 
Dutzend Fenster auf, die auch alle in der Taskleiste und im 
Alt-Tab-Switcher auftauchen. Wenn man das in seine eigene 
Desktop-Sandbox steckt, hat man schon viel gewonnen.
Dann ein virtueller Desktop für die produktive Arbeit, einer für das 
Geraffel wie Mail und Teams und einer für den Browser, den man schnell 
verstecken kann, wenn Chefchen um die Ecke kommt.

Wenn ich programmiere, möchte ich möglichst viel der Bildschirmfläche 
für meinen Sourcecode haben und nicht nur durch ein kleines 
Schlüssellochfensterchen drauf schauen. Es ist sowieso schon immer ein 
Kampf zwischen "Schrift klein genug, um genug Code zu sehen" und 
"Schrift groß genug, um überhaupt was lesen zu können". Deshalb gibt's 
für den Code-Editor nur eins: Fullscreen. Monitor 2 hat dann das PDF mit 
dem Datenblatt des Controllers offen.

von (prx) A. K. (prx)


Lesenswert?


: Bearbeitet durch User
von Lotta  . (mercedes)


Lesenswert?

(prx) A. K. schrieb:
> Lotta  . schrieb:
>> Oh, mann, es ist wieder mal absolut geil, alten weißen Männern
>> (auch OM's genannt)an ihren Erfahrungen teilhaben zu dürfen.
>
> Wie erkennst du übers Netz die Farbe? Per Vorurteil? ;-)

Na klar per Vorurteil!
Genau so wie die meisten Trolle auf diesem Board hier keine sind,
wenn man zwischen den Zeilen interpretieren kann.
Hier kann man ne Menge lernen, auch von Trollen, das zeichnet
unsere Wiese hier gegenüber anderen Wiesen aus. ;-)

Achja:
Sogar ich kenne die Pegasus-Shareware-CD's noch, da
meine Familie diese aufgehoben hat.
Das ist der Vorteil von Datenträgern gegenüber dem
Netz, das ja mehr von Moden getrieben ist.

mfg

von Random .. (thorstendb) Benutzerseite


Lesenswert?

Als User (vor allem beruflich): TFT Monitore.
Dann die SSD bzw. M.2
Und für die Freizeitgestaltung die Entwicklung der Grafikkarten sowie 
MMOs :-)

Angefangen habe ich mit einem C64 mit Datasette (dann 1541 Floppy) und 
einem grünen Monitor einer Überwachungskamera.

: Bearbeitet durch User
von Programmierer (Gast)


Lesenswert?

Jens B. schrieb:
> Programmierer schrieb:
>> - Das bei Windows XP mitgelieferte ZIP-Programm. Mann, war das ne
>> Erleichterung!
> Zu faul 7Zip zu installieren?

Das war zu Win2k-Zeiten noch nicht sehr verbreitet, und die DAUs hatten 
auch nie die damals gängigen Programme (WinZip & Co) installiert. Es war 
immer ein ziemliches Gehedder die dazu zu überreden, sich das zu 
installieren, damit man was größeres verschicken konnte.

someone else schrieb:
> Es ist einfach nur krank, was da
> für Ressourcen ohne Mehrwert massiv verheizt werden, weil Programmierer
> nicht mehr Programmieren können oder dürfen. Stattdessen müssen dutzende
> gerade schwer angesagte Frameworks, Libs usw.

Können schon, aber dürfen nicht. Wenn der Boss erwartet dass in 2 Wochen 
eine funktionsfähige App da steht die mehr kann als die Konkurrenz, hast 
du wohl keine Wahl als alles an fertigen Libraries mitzunehmen was es 
gibt. Wenn du "nein" sagst schmeißt er dich raus und nimmt den nächsten. 
Mit "frisst weniger Speicherplatz als die Konkurrenz" kann man keine 
Werbung machen. Viele Programmiere würden liebend gerne clever 
effiziente Systeme bauen, aber dürfen nicht. Das ist sogar im 
Embedded-Umfeld so.

Rolf M. schrieb:
> Ich hab bis heute nicht verstanden, wozu das gut ist. Ist höllisch
> kompliziert, braucht diese seltsame DOS-Partition und bootet auch nur
> einfach den Rechner, das aber gerne mal etwas hakeliger.

Für den User sind die Vorteile von UEFI weniger sichtbar, mehr für die 
OS-Entwicklung. Aus User-Sicht wäre das der schnellere Boot-Vorgang, 
Auswahl des zu startenden OS direkt aus dem UEFI-Menü (d.h. eigentlich 
braucht man das Bootmenü z.B. von GRUB nicht mehr), automatisches 
Hinzufügen/Ändern von Bootmenü-Einträgen direkt aus dem OS(-Installer) 
heraus, d.h. (theoretisch) können die Installer von Windows, Linux, 
Whatever einheitlich Boot-Einträge anlegen und man muss nicht erst ein 
Bootmenü mit GRUB oder dem Windows-Bootmanager konfigurieren (wobei das 
mittlerweile ziemlich gut automatisch geht). Die UEFI-FAT-Partition als 
einheitlicher Ablageort für die Bootloader ist auch sinnvoller als ein 
ganzer Zoo aus unterschiedlich funktionierenden Bootloadern, einer davon 
im MBR... Habs nicht ausprobiert, aber ist es seit UEFI nicht auch 
möglich Windows zu installieren ohne dass es ein bestehendes Linux mit 
GRUB überbügelt? Außerdem ermöglicht UEFI die Verwendung von 
GPT-Partitionstabellen, welche flexibler sind.

René F. schrieb:
> ich finde es eher
> erstaunlich wie man sich im Laufe der letzten Jahre so abhängig gemacht
> hat von Treiber-Entwicklung, Signierung und der Komplexität der
> Schnittstelle.

So groß ist die Abhängigkeit nicht. Seit Windows 8 und 10 ist es 
einfach, USB-Geräte ohne Treiber zu entwickeln, indem man sie als 
WinUSB-Gerät deklariert. Aus Nutzersicht sieht das dann so aus: 
USB-Gerät einstecken. Zugehörige Anwendung starten. Funktioniert. Das 
ist sogar noch einfacher als Serial-Geräte, weil man keinen Port 
auswählen und keine Baudrate konfigurieren muss.

Nachdenklicher schrieb:
> Wenn ich programmiere, möchte ich möglichst viel der Bildschirmfläche
> für meinen Sourcecode haben

Ich auch. Jedes Mal, wenn ich jemanden sehe der mit einem winzigen 
Fenster (nicht maximiert) codet wo nur ein paar Zeilen sichtbar sind, 
denk ich mir "wie kannst du so arbeiten??". Zuhause hab ich einen 
4k-Monitor. Das hab ich anfangs für unnötig gehalten, aber im direkten 
Vergleich zum FullHD-Monitor auf Arbeit ist das schon klasse.

von DesKaisersNeueKleider (Gast)


Lesenswert?

Programmierer schrieb:
>Ich auch. Jedes Mal, wenn ich jemanden sehe der mit einem winzigen
>Fenster (nicht maximiert) codet wo nur ein paar Zeilen sichtbar sind,
>denk ich mir "wie kannst du so arbeiten??".

naja schon mal darangedacht einen Monitor hochkant zu stellen, das 
verdoppelt fast die Anzahl der darstellbaren Zeilen!

Wobei man ziemlich uninspiriert sein muß, wenn man seine 
Programmierleistung an der Anzahl der gleichzeitig dargestellten Zeilen 
fest macht. Da hat man eher den Eindruck, das derjenige nicht zu 
strukturierten Arbeit fähig ist, das er immer 80+ Zeilen auf einmal 
anschauen muß statt wohl geordnete Bibliotheken/routinen zu verwenden.

von rbx (Gast)


Lesenswert?

DesKaisersNeueKleider schrieb:
> Wobei man ziemlich uninspiriert sein muß,

und wieder sind wir beim Zeiger auf die persönliche Ebene + bescheuertes 
Beispiel, und ist das nicht das Markenzeichen von...
Herzlichen Glückwunsch! :)

von Nachdenklicher (Gast)


Lesenswert?

Programmierer schrieb:
> Ich auch. Jedes Mal, wenn ich jemanden sehe der mit einem winzigen
> Fenster (nicht maximiert) codet wo nur ein paar Zeilen sichtbar sind,
> denk ich mir "wie kannst du so arbeiten??". Zuhause hab ich einen
> 4k-Monitor. Das hab ich anfangs für unnötig gehalten, aber im direkten
> Vergleich zum FullHD-Monitor auf Arbeit ist das schon klasse.

Daheim hab ich mir sogar 2x 4k gegönnt. Auf der Arbeit bekommen wir nur 
2x FullHD. Es ist ein gewaltiger Unterschied.

DesKaisersNeueKleider schrieb:
> naja schon mal darangedacht einen Monitor hochkant zu stellen, das
> verdoppelt fast die Anzahl der darstellbaren Zeilen!

Ja, theoretisch schon. Wenn man aber gleichzeitig mit anderen Programmen 
arbeiten muß, die nur im Querformat sinnvoll nutzbar sind, ist das nicht 
besonders praktisch.

> Wobei man ziemlich uninspiriert sein muß, wenn man seine
> Programmierleistung an der Anzahl der gleichzeitig dargestellten Zeilen
> fest macht. Da hat man eher den Eindruck, das derjenige nicht zu
> strukturierten Arbeit fähig ist, das er immer 80+ Zeilen auf einmal
> anschauen muß statt wohl geordnete Bibliotheken/routinen zu verwenden.

Mit Programmierleistung hat das wenig zu tun, aber wenn man in Fremdcode 
von fragwürdiger Qualität rumwurschtelt, hilft es ungemein.
Oder wenn man embedded unterwegs ist, relativ neu auf der aktuell 
verwendeten Plattform und sich ums Verecken nicht merken kann, welche 
sinnvoll aber kryptisch abgekürzen Namen die Register, die man gerade 
braucht, haben... Irgendwer muß die Bibliotheken ja erst mal schreiben, 
auf denen es sich andere dann bequem machen können. ;-)

von Gerald K. (geku)


Lesenswert?

René F. schrieb:
> Natürlich gibt es auch USB-UART Bridges das ist in meinen Augen aber
> eher ein Workaround des eigentlichen Problems.

Wenn der MC, was meistens der Fall ist, USB nicht unterstützt, ist eine 
USB-UART Bridge (z.B. CP2102) notwendig.

von Olaf (Gast)


Lesenswert?

> Das Schreiben des ersten Treibers für einen Plasmon-CD-Brenner war auch
> noch ein Abenteuer. Mein Chef brachte den irgendwann an (ich glaube, der
> hat um die DEM 2000 gekostet),

Als ich damals die Anleitung geschrieben habe wie man den HP4020/CD2000 
repariert wenn er mitten im Brennen Rohlinge schrottet, haben mir 
Menschen aus der ganzen Welt, sogar aus Suedamerika, aus tiefempfundener 
Dankbarkeit einen leeren Rohling geschickt. :-)

Da konnte man auch noch jeden Tag seine Mails lesen und wusste man 
wuerde nette Menschen kennenlernen und keine Werbung die es durch die 
diversen Filter geschafft hat....

Olaf

von Programmierer (Gast)


Lesenswert?

DesKaisersNeueKleider schrieb:
> Wobei man ziemlich uninspiriert sein muß, wenn man seine
> Programmierleistung an der Anzahl der gleichzeitig dargestellten Zeilen
> fest macht.

Naja, wenn man über komplexe Strukturen nachdenkt ist es sehr hilfreich 
davon viel auf einmal sehen zu können. Visuell denkende Menschen (wie 
ich) können viel besser arbeiten wenn sie das "Werkstück" sehen können. 
Gilt z.B. auch für mathematische Beweise oder Umformungen, kann ich 
überhaupt nicht im Kopf, aber auf Papier kein Problem.

Gerald K. schrieb:
> Wenn der MC, was meistens der Fall ist, USB nicht unterstützt, ist eine
> USB-UART Bridge (z.B. CP2102) notwendig.

Naja, sehr viele Controller können das mittlerweile, insbesondere unter 
denen ab Cortex-M-Leistungsklasse. Auch auf 8-Bit-Controllern ist USB an 
sich kein Problem sofern man eine Peripherie dafür hat, bei Ethernet 
wird das schon eher schwierig.

Der Hardware-und Kostenaufwand für
- USB-fähiger-Controller
- ESD-Schutz-IC
- 2 Signale auf dem PCB
- USB-Buchse

kann durchaus geringer sein als

- UART-fähiger Controller
- FT232/CP2102/... o.ä. mit Beschaltung
- mehr als 4 Signale auf dem PCB
- USB-Buchse

und durchaus auch geringer als

- UART-fähiger Controller
- MAX232 o.ä. mit Beschaltung
- mehr als 4 Signale auf dem PCB
- DSUB-9-Buchse
- Ggf. separates Netzteil, Stecker usw. weil RS232 zu wenig Strom 
liefert

Von daher ist USB mittlerweile oft ein absoluter Gewinn, auch 
finanziell. Überlegt mal, Mäuse, Tastaturen & Co die in riesigen Mengen 
billigst produziert werden haben keine Probleme mit USB, und haben 
sicherlich einen extrem primitiven Controller (maskenprogrammiert, 8bit, 
ultrawenig ROM). Im Consumermarkt entscheidet der Preis absolut über den 
Erfolg einer Technologie, und USB hat sich hier durchgesetzt - dennoch 
ist es keine Frickellösung, sondern sauber spezifiziert (und die Spec 
kann man einfach so runterladen, keine Geheimniskrämerei), 
leistungsfähig, nutzerfreundlich, abwärtskompatibel. Unter vielen 
anderen Technologien fast schon mustergültig :)

von Nachdenklicher (Gast)


Lesenswert?

Programmierer schrieb:
> Der Hardware-und Kostenaufwand für
>(...)
> kann durchaus geringer sein als
>
>(...)
>
> und durchaus auch geringer als
>
> (...)

Für kommerzielle Projekte nachvollziehbar. Für privates Gebastel:
- Billiges USB-> 5V-UART-Kabel (einmal gekauft)
- auf der Platine 4-polige Stiftleiste +5V, RX, TX, GND und UART-fähiger 
Controller

Noch billiger geht's kaum, oder? ;-)

von Programmierer (Gast)


Lesenswert?

Nachdenklicher schrieb:
> Noch billiger geht's kaum, oder? ;-)

Die Stöpselei mit Jumperwires nervt mich da... Und im Hobbybereich 
kommt's sowieso nicht auf den letzten Cent an. Aber sowas wie die 
Bluepill-Boards (haben USB eingebaut) ist auch super billig, da kommt 
man kaum drunter.

von (prx) A. K. (prx)


Lesenswert?

Yep. Auf V.24 Pegel kann man da wirklich verzichten.

von Nachdenklicher (Gast)


Lesenswert?

Programmierer schrieb:
> Die Stöpselei mit Jumperwires nervt mich da... Und im Hobbybereich
> kommt's sowieso nicht auf den letzten Cent an.

Joa.. kommt es nicht, das stimmt. Aber da ich privat quasi alles mit AVR 
mache, ist es da mit USB eng. Bei Layouts, die Potential für längere 
Nutzung haben, habe ich ein Kombi-Footprint mit den vier Pins und einem 
UM2102N von ELV. Dann hab ich meine Mini-USB-Buchse und brauche mich um 
nichts weiter zu kümmern. ;-) Warum gerade der? Naja, irgendwann, als 
ich mal USB brauchte, hatte ich den halt gerade rumliegen. Da, wo ich 
den UART nur mal für ein Update via Bootloader brauche, stört mich auch 
das temporäre Andrahten nicht wirklich...

von TotoMitHarry (Gast)


Lesenswert?

MMX200 mit ATI Radeon All In Wonder..

darauf konnte man dann TV schauen und entschlüsseln..

Dazu gab es die ersten Multiplayer Simulatoren wie F22-Raptor, auf dem 
man Online schon recht Originalgetreu Luftkämpfe in einem ziemlich 
großen Luftraum abhalten konnte.

Das müsste so 1997/1998 gewesen sein.

von Hans H. (loetkolben)


Lesenswert?

Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs 
für den Heimgebrauch

Auf Softwareseite: Das erste "richtige" Betriebssystem mit 
Speicherschutz und präemptivem Multitasking für den Heimgebrauch 
(Windows XP)

von Nano (Gast)


Lesenswert?

Rainer Z. schrieb:
> Andreas B. schrieb:
>> Na, ja. Anfangs waren die wirklich mies.
>
> ... wenn sie mit einem analogen Videosignal gespeist wurden. Mit
> digitalem Signal bei passender Auflösung von Video-Karte und LCD-Monitor
> war es auch bei den frühen Modellen sehr gut. Ich habe mir vor über 20
> Jahren einen 15" Monitor für deutlich über 2.000,00 DM gegönnt, weil ich
> davor mehrere Stunden täglich gearbeitet habe. Das war selbst gegenüber
> einem guten Sony-Monitor mit Bildröhre ein wohltuender Fortschritt.

Als die ersten Flachbildschirme mit ihrem komischen 5:4 Seitenverhältnis 
und blassen Farben auf den Markt kamen, habe ich mir lieber noch einmal 
einen 22" NEC CRT Monitor gekauft.
Und der war kein Fehlkauf.
Er hatte eine große Bildschirmfläche, eine gestochen Scharfe Auflösung 
bei 1600x1200 Bildpunkten für einen CRT Monitor und ein sattes tiefes 
Schwarz und einen hohen Kontrast, sowie eine extrem geringe Latenzzeit, 
was mir damals als Gamer neben dem tiefen Schwarzton und der Farbenfülle 
immer noch wichtig war.

Die ganzen Flachbildschirme waren teuer und konnten da noch nicht 
mithalten. Die guten Flachbildschirme kamen erst etwas später, ungefähr 
nach der Zeit der Schminkspiegel.

Störend bei dem CRT war eigentlich nur der Platzverbrauch, die 
Wärmeentwicklung (im Sommer), das sehr hohe Gewicht, der Stromverbrauch 
und die Beschleunigung von Staub in der Raumluft gegen den Betrachter 
vor dem Bildschirm.

Leider ging er dann irgendwann kaputt und ich musste mir einen 
Flachbildschirm kaufen, aber da waren die dann schon so gut brauchbar, 
dass ich mir auch für mein Zweitgerät einen Flachbildschirm zulegte.

von KlammerAffe (Gast)


Lesenswert?

Ganz eindeutig Karl Klammer!

von Nano (Gast)


Lesenswert?

Olaf schrieb:
> Oder wie die Kollegen damals eine CD (Rohling =15DM) gebrannt haben und
> sich nicht getraut haben dabei unter Win3.11 auch nur mit der Maus zu
> wackeln weil sie Angst hatten das denen die Kiste dabei abkackt.

Das Problem hatte ich unter Windows 9x/Me gar nicht, da mein Rechner 
SCSI hatte. :p

Mein Adaptec SCSI Controller erledigte die Schwerstarbeit und sendete 
die Daten von der ISO auf der SCSI Festplatte an den SCSI CD Brenner 
während die CPU nichts zu tun hatte.

Einen Bufferunderrun, wie er bei EIDI Brennern noch vorkommen konnte, 
hatte ich somit gar nicht.

WinME lief zum Brennen ausreichend stabil und bei mir ist eher der 
Netscape Communicator oder Mozilla 0.9x abgestürzt, als WinME.

Klar, für ein richtig stabiles Windows brauchte man eines mit NT Kernel 
mit gescheiten Treibern, aber das war alles noch durchaus benutzbar.

von Nano (Gast)


Lesenswert?

Peter D. schrieb:
> Jan K. schrieb:
>> Als User: SSD. Hat den größten subjektiven Geschwindigkeitssprung
>> gebracht.
>
> Ja, der Einbau einer SSD hat dem PC richtig Beine gemacht.
> Ulkiger Weise wurde aber überall empfohlen, mehr RAM reinzustecken. Ich
> war aber regelmäßig enttäuscht, mehr RAM habe ich nie gemerkt. Der XP
> Medion-PC hatte z.B. 512MB. Später habe ich 2GB dazu gepackt und absolut
> nichts davon gemerkt. Schade um das verschwendete Geld.

Die Empfehlung mit dem "mehr RAM hilft" ist von früher als die Rechner 
gerade einmal 2-4 MB RAM hatte, da hatte ein Aufrüsten auf 8, 16 oder 32 
MB RAM wahre Wunder gewirkt, weil ansonsten Windows alles auf die 
Auslagerungsdatei auslagern musste.

Später, als jeder Rechner mehr als 32 MB RAM hatte, viel das natürlich 
nicht mehr ins Gewicht. Da brauchte man viel RAM nur noch dazu, um 
bestimmte Software laufen zu lassen, die eine gewisse Mindestmenge an 
RAM erforderte.
Battlefield 2 verlangt bspw. 2 GB RAM, mit weniger läuft es nicht.


> Bei XP und W7 hat man auch stark gemerkt, wie durch die Updates immer
> mehr Hintergrundprozesse installiert wurden und das System immer
> langsamer wurde.

Bei Windows 7 muss man die Desktop Suche bzw, Indexierung abschalten, 
dann läuft auch auf alten Rechnern alles viel flüssiger.
Windows 7 wurde auf meinem Pentium M Notebook erst mit dieser 
Einstellung brauchbar nutzbar.

von Programmierer (Gast)


Lesenswert?

Bin ich eigentlich der Einzige, der CDs kaum benutzt hat (i.W. zum Linux 
installieren), und direkt von Floppies auf USB-Sticks gegangen ist? 
Brennen fand ich immer total nervig und hab es so weit wie möglich 
vermieden. Größere Datenmengen hatte ich kaum, und wenn dann hab ich sie 
per LAN übertragen.

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> Da brauchte man viel RAM nur noch dazu, um
> bestimmte Software laufen zu lassen, die eine gewisse Mindestmenge an
> RAM erforderte.

Wie etwa der Virenscanner, der anfangs mit 256 MB glücklich war, aber 
mit der Zeit 512 und später 1024 MB RAM benötigte, um beim Aktualisieren 
nicht die Kiste lahm zu legen.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

Polmann schrieb:
> Wenn OS/2 sich durchgesetzt hätte, denke ich würde, würde an  Linux
> niemand auf dem Desktop auch nur einen Gedanken verschwenden außer
> natürlich den Basteln die immer gerne was anderes probieren wollen oder
> den Nerds die einfach anders sein wollen als der Rest

IBM hat massiv die PC Spieler vernachlässigt, die hätten dann noch viele 
weitere Jahre DOS mit DOS Extendern benutzt.

Microsoft kümmerte sich schon seit Windows 3.0 um die Gamer, um Windows 
auch zum Spielen schmackhaft zu machen.
Dafür wurde extra die WinG Bibliothek eingeführt, welche dann später 
durch DirectX ersetzt wurde.

https://de.wikipedia.org/wiki/WinG

IBM hatte in OS/2 nichts dergleichen.
Eine OpenGL Unterstützung kam sehr spät. Und eine direkten Zugriff auf 
das Grafik RAM bzw. die Grafikkarte, wie es WinG oder DirectDraw 
erlaubte, gab es gar nicht.

Hätte es kein Windows gegeben, dann wäre es erst einmal mit DOS eine 
Weile weiter gegangen und am Ende hätte wahrscheinlich BeOS OS/2 
verdrängt.

von Nano (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Nano schrieb:
>> die FPU?
>
> Die vom Pentium P54. Mit Rechenfehler. Aus sehr persönlichen Gründen.
> https://www.heise.de/ct/artikel/20-Jahre-FDIV-Bug-Die-Hintergruende-2438233.html
> http://www.khd-research.net/Tech/Computer/PBug/pbug_coe.txt

Die Pentium CPUs mit den Rechenfehlern habe ich alle übersprungen. ;)
Als ich dann meinen Pentium 2 hatte, gab's aber den klassischen Runtime 
Error 200 so mancher Turbo Pascal Programme.

von Nano (Gast)


Lesenswert?

Lotta  . schrieb:
> Achja:
> Sogar ich kenne die Pegasus-Shareware-CD's noch, da
> meine Familie diese aufgehoben hat.
> Das ist der Vorteil von Datenträgern gegenüber dem
> Netz, das ja mehr von Moden getrieben ist.
>
> mfg

Wenn man heute nach alter Shareware oder FreeWare Software sucht, dann 
findet man die heutzutage meist nur auf diesen Shareware CDs als 
downloadbare ISO auf Webseiten wie dem Internet Archiv:
https://de.wikipedia.org/wiki/Internet_Archive

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> Die Pentium CPUs mit den Rechenfehlern habe ich alle übersprungen. ;)

Ich glücklicherweise nicht, da hätte ich was verpasst. Eine Nacht 
rechnen lassen und es gab nicht mehr nur eine falsche Division, sondern 
~20. Die Trophäe ist erst vor 1-2 Jahren im Müll gelandet. ;-)

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

Olaf schrieb:
>> Das Schreiben des ersten Treibers für einen Plasmon-CD-Brenner war auch
>> noch ein Abenteuer. Mein Chef brachte den irgendwann an (ich glaube, der
>> hat um die DEM 2000 gekostet),
>
> Als ich damals die Anleitung geschrieben habe wie man den HP4020/CD2000
> repariert wenn er mitten im Brennen Rohlinge schrottet, haben mir
> Menschen aus der ganzen Welt, sogar aus Suedamerika, aus tiefempfundener
> Dankbarkeit einen leeren Rohling geschickt. :-)
>
> Da konnte man auch noch jeden Tag seine Mails lesen und wusste man
> wuerde nette Menschen kennenlernen und keine Werbung die es durch die
> diversen Filter geschafft hat....
>
> Olaf

Ist das deine Anleitung:
http://www.geocities.ws/SiliconValley/Bay/6893/old/fixg.htm

von manfred scheer (Gast)


Lesenswert?

..Ich glaube das A20 Gate gibt es noch immer, in virtueller Form - 
Einmal bei Pat Gelsinger nachfragen...

von (prx) A. K. (prx)


Lesenswert?

manfred scheer schrieb:
> Einmal bei Pat Gelsinger nachfragen...

... oder bei Andreas Stiller, ehem c't. Auf diesem Steckenpferd ist er 
recht oft geritten.

Wikpedia sagt indes: "... und ist auf x64-Prozessoren 
(64-Bit-x86-Architektur) ab ca. 2010 größtenteils nicht mehr 
implementiert." Virtuell war das noch nie ein Problem.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

Programmierer schrieb:
> Im Consumermarkt entscheidet der Preis absolut über den
> Erfolg einer Technologie, und USB hat sich hier durchgesetzt - dennoch
> ist es keine Frickellösung, sondern sauber spezifiziert (und die Spec
> kann man einfach so runterladen, keine Geheimniskrämerei),
> leistungsfähig, nutzerfreundlich, abwärtskompatibel. Unter vielen
> anderen Technologien fast schon mustergültig :)

Der USB Stecker Typ A und die dazu passende Buchse ist eine 
Frickellösung,
weil:

1. er sich mit wenig Gewalt falsch herum einstecken lässt und die Zunge 
in der Buchse dann dabei verbogen wird, inkl. möglicher größerer 
Schäden. Z.B. Kurzschluss. Bei Dunkelheit kann das schon relevant 
werden. Ohne Licht und draufsicht auf die Buchse oder das USB Symbol 
kann man den Stecker nicht sicher einstecken. Blindengerecht ist er 
definitiv nicht.

2. Die Steckzyklen sind begrenzt. USB Typ A hat nur ca. 1000 
Steckzyklen.

Der Stecker von Firewire (ieee 1394) ist da deutlich besser, da er 
definitiv nur in eine Richtung reinpasst und man auch mit Gewalt den 
nicht anders reinstecken kann.


Der neue Stecker von USB-C ist da gegenüber Typ A zwar ein großer 
Fortschritt, aber die Platinenbauer, die nun die filigranen Leiterbahnen 
einplanen müssen, beneide ich nicht.

von Nano (Gast)


Lesenswert?

Programmierer schrieb:
> Bin ich eigentlich der Einzige, der CDs kaum benutzt hat (i.W. zum Linux
> installieren), und direkt von Floppies auf USB-Sticks gegangen ist?
> Brennen fand ich immer total nervig und hab es so weit wie möglich
> vermieden. Größere Datenmengen hatte ich kaum, und wenn dann hab ich sie
> per LAN übertragen.

CD Medien stellten, CD-ROM Laufwerk vorausgesetzt, weit weniger 
Anforderungen an die Hardware als LAN Lösungen und funktionierten out of 
the Box. Im absoluten Notfall reichte eine DOS Boot Diskette mit MSCDEX 
und passendem CD-ROM Treiber. Da hatte ich immer eine Notfalldiskette in 
Bereitschaft.

Um fehlgebrannte CDs zu vermeiden habe ich mich einfach mit einem Haufen
CD-RW Medien eingedeckt, die konnte man auch wieder löschen und neu 
beschreiben, wenn etwas schief lief.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Hans H. schrieb:
> Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs
> für den Heimgebrauch

Es gab auch schon Multi-CPU-Computer vor der Erfindung der 
Multi-Core-CPUs. Die waren allerdings eher exotisch, zumindest im 
Heimgebrauch (Sun-Server mit 12 und mehr UltraSPARC-CPUs dagegen gab es 
schon sehr lange).

Nano schrieb:
> Das Problem hatte ich unter Windows 9x/Me gar nicht, da mein Rechner
> SCSI hatte. :p

Die ersten CD-Brenner waren alle SCSI. Trotzdem hatte man zu der Zeit 
mit Buffer underruns zu kämpfen.

von DesKaisersNeueKleider (Gast)


Lesenswert?

Jörg W. schrieb:
> Hans H. schrieb:
>> Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs
>> für den Heimgebrauch
>
> Es gab auch schon Multi-CPU-Computer vor der Erfindung der
> Multi-Core-CPUs. Die waren allerdings eher exotisch, zumindest im
> Heimgebrauch

Ich glaub die ct hatte schon in den Neunziger Dual-CPU boards 
vorgestellt.

https://www.heise.de/ct/hotline/Eine-oder-zwei-CPUs-311650.html
https://www.heise.de/ct/hotline/Ein-Prozessor-im-Dual-Pentium-II-Board-304362.html

https://www.hartware.de/2001/05/27/asus-cuv4x-d-dual-cpu-mainboard/

von Nano (Gast)


Lesenswert?

Jörg W. schrieb:
> Nano schrieb:
>> Das Problem hatte ich unter Windows 9x/Me gar nicht, da mein Rechner
>> SCSI hatte. :p
>
> Die ersten CD-Brenner waren alle SCSI. Trotzdem hatte man zu der Zeit
> mit Buffer underruns zu kämpfen.

Dieses Problem hatten überwiegend die EIDE ATAPI Brenner.

Bei SCSI hat der SCSI Controller wie schon gesagt die CPU massiv 
entlastet, so dass so etwas eigentlich nicht passierte.
Wer natürlich viel auf dem SCSI Bus zur Gleichen Zeit herumschob, für 
den kann das natürlich dann auch ein Problem gewesen sein, das dürfte 
aber dann doch die Ausnahme gewesen sein.

von c-hater (Gast)


Lesenswert?

Hans H. schrieb:

> Auf Softwareseite: Das erste "richtige" Betriebssystem mit
> Speicherschutz und präemptivem Multitasking für den Heimgebrauch
> (Windows XP)

Als nö. WindowsXP ist bereits Version 5 von WindowsNT. Sprich: die 
wesentlichen Eigenschaften, die du da oben aufzählst, brachte bereits 
WindowsNT.

Aber es gab natürlich auch noch andere OS für 386er, die diese 
Eigenschaften hatten, z.B. Linux oder auch Novell.

von (prx) A. K. (prx)


Lesenswert?

DesKaisersNeueKleider schrieb:
> Ich glaub die ct hatte schon in den Neunziger Dual-CPU boards
> vorgestellt.

Mein Pentium I P54 Board von ASUS war für 2 Sockel konzipiert. Den Platz 
vom zweiten Sockel nahm bei meinem Exemplar ein Regler/Kühlkörper ein.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

c-hater schrieb:
> Hans H. schrieb:
>
>> Auf Softwareseite: Das erste "richtige" Betriebssystem mit
>> Speicherschutz und präemptivem Multitasking für den Heimgebrauch
>> (Windows XP)
>
> Als nö. WindowsXP ist bereits Version 5 von WindowsNT. Sprich: die
> wesentlichen Eigenschaften, die du da oben aufzählst, brachte bereits
> WindowsNT.

Er sagte aber auch "für den Heimgebrauch".
Da gehört IMO auch Multimedia und Spielefähigkeit dazu, und Windows NT 
3.1 war dafür gewiss nicht geeignet.

Da könnte man frühstens Windows 2000 nehmen.

Windows NT 4.0 hat schon die Einschränkung, dass offiziell nur DirectX 
Version 3 unterstützt wird und Direct3d nicht dabei war.
Insofern ist Windows 2000 das erste auch für den Heimgebrauch und dessen 
übliche Nutzungsart brauchbare Windows NT.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Nano schrieb:
>> Die ersten CD-Brenner waren alle SCSI. Trotzdem hatte man zu der Zeit
>> mit Buffer underruns zu kämpfen.
>
> Dieses Problem hatten überwiegend die EIDE ATAPI Brenner.

Zu der Zeit, über die Olaf und ich reden, gab es solche schlicht noch 
nicht. Die gefürchteten Buffer Underruns gab es trotzdem schon …

Besagter Plasmon-Brenner war ein Monstrum, kam in eigener Kiste daher, 
nicht irgendwein 5.25"-Einbaukram wie später.

> Wer natürlich viel auf dem SCSI Bus zur Gleichen Zeit herumschob

Swappen war halt notgedrungen auch auf dem SCSI-Bus, weil die Kiste 
initial zu wenig RAM hatte. Mit mehr RAM war das Problem dann beseitigt.

: Bearbeitet durch Moderator
von Rolf M. (rmagnus)


Lesenswert?

Jörg W. schrieb:
> Hans H. schrieb:
>> Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs
>> für den Heimgebrauch
>
> Es gab auch schon Multi-CPU-Computer vor der Erfindung der
> Multi-Core-CPUs. Die waren allerdings eher exotisch, zumindest im
> Heimgebrauch (Sun-Server mit 12 und mehr UltraSPARC-CPUs dagegen gab es
> schon sehr lange).

Mein erster Dual-CPU-Rechner war einer mit Pentium II. Da hatte ich mir 
ein Board gekauft, auf das zwei CPUs passten, erst mal mit einer 
betrieben und dann etwas später noch eine zweite dazu gekauft. Aber ja, 
im Heimbereich war das eher selten vertreten, weil Windows damit nichts 
anfangen konnte.

von Nano (Gast)


Lesenswert?

Rolf M. schrieb:
> Aber ja,
> im Heimbereich war das eher selten vertreten, weil Windows damit nichts
> anfangen konnte.

WinXP konnte schon damals 2 CPUs nutzen.
Du brauchtest natürlich die Prof Version.

von Nano (Gast)


Lesenswert?

Sogar Win NT 4.0 und W2K konnten das schon.

von Rolf M. (rmagnus)


Lesenswert?

Nano schrieb:
> Rolf M. schrieb:
>> Aber ja,
>> im Heimbereich war das eher selten vertreten, weil Windows damit nichts
>> anfangen konnte.
>
> WinXP konnte schon damals 2 CPUs nutzen.
> Du brauchtest natürlich die Prof Version.

Als Windows XP auf den Markt kam, wurde die Produktion des Pentium II 
bereits eingestellt.

Nano schrieb:
> Sogar Win NT 4.0 und W2K konnten das schon.

Also genau die Systeme, die nicht für den Heimbereich gedacht waren.

von JJ (Gast)


Lesenswert?

Aus praktischer Sich würde ich sagen USB Speicher

von c-hater (Gast)


Lesenswert?

JJ schrieb:
> Aus praktischer Sich würde ich sagen USB Speicher

Genau. Disketten und optische Medien waren das Krebsgeschwür der IT.

von Nano (Gast)


Lesenswert?

Rolf M. schrieb:
> Nano schrieb:
>> Sogar Win NT 4.0 und W2K konnten das schon.
>
> Also genau die Systeme, die nicht für den Heimbereich gedacht waren.

W2K war für den Heimbereich geeignet. Ich habe es selbst auf einem 
meiner Rechner zum Gamen benutzt bis der Support eingestellt wurde.

Und letzten Endes bist du ja selber schuld, wenn du dir ein 2 CPU System 
kaufst und dann dir keine Gedanken darum machst, ob du das auf dem 
Betriebssystem deiner Wahl überhaupt nutzen kannst.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Nano schrieb:
> Und letzten Endes bist du ja selber schuld, wenn du dir ein 2 CPU System
> kaufst und dann dir keine Gedanken darum machst, ob du das auf dem
> Betriebssystem deiner Wahl überhaupt nutzen kannst.

Das Betriebssystem seiner Wahl konnte er ja offensichtlich darauf 
nutzen. ;-)

von Fpgakuechle K. (Gast)


Lesenswert?

Jörg W. schrieb:
> Hans H. schrieb:
>> Auf Hardwareseite: Von (theoretischem) Multitasking zu Mehr-Kern CPUs
>> für den Heimgebrauch
>
> Es gab auch schon Multi-CPU-Computer vor der Erfindung der
> Multi-Core-CPUs. Die waren allerdings eher exotisch, zumindest im
> Heimgebrauch

Ich mein, das gab es schon für den Commodore Amiga 500 Anfang Neunziger. 
Da zog man die CPU vom Sockel, packte stattdessen die richtige 
Turbokarte auf den Socket und steckte den 68000 neben den 68020 o.ä. auf 
der Turbokarte. Ob die beiden dann co-prozessierten ist ne andere Frage. 
Und x386 ist es auch nicht.

Allerdings könnte man auch übers 'Sidecar' und Bridge Cards sprechen, 
die eine Kopplung zwischen dem Amiga-Universum und der 80x8x Welt 
ermöglichten:

https://de.wikipedia.org/wiki/A1060_Sidecar
http://cbmmuseum.kuto.de/steck_a2088.html

von Rolf M. (rmagnus)


Lesenswert?

Nano schrieb:
> Und letzten Endes bist du ja selber schuld, wenn du dir ein 2 CPU System
> kaufst und dann dir keine Gedanken darum machst, ob du das auf dem
> Betriebssystem deiner Wahl überhaupt nutzen kannst.

Wie kommst du darauf? Das Betriebssystem meiner Wahl (Linux) hat das 
natürlich voll unterstützt. Ich war damit glücklich und hab mir im 
Anschluss dann wieder einen Rechner mit 2 CPUs gekauft, mit Athlon XP.
Trotzdem waren Rechner mit 2 CPUs im Heimbereich damals eher wenig 
üblich, weil die dafür gedachten Windows-Versionen es eben nicht 
konnten.

Beitrag #7007090 wurde vom Autor gelöscht.
von Programmierer (Gast)


Lesenswert?

Warum hat eigentlich noch keiner WLAN gewürdigt... WLAN im PC hat wohl 
in so manchem Haushalt die Vernetzung überhaupt erst ermöglicht, weil 
Verkabelung nicht in Frage kam. Ob fürs Internet oder lokale Netz, WLAN 
war ein gigantischer Vorteil. Wer kennt noch diesen skurrilen t-sinus 
WLAN Manager der WLAN unter Win2k möglich machte? Der war so schön bunt, 
und mit XP dann schon wieder obsolet weil das WLAN direkt unterstützte 
(DAS war eine Innovation!).

Beitrag #7007114 wurde von einem Moderator gelöscht.
von Rainer Z. (netzbeschmutzer)


Lesenswert?

Programmierer schrieb:
> Warum hat eigentlich noch keiner WLAN gewürdigt...

Doch, ist würdigenswert.

Wie so Vieles, was im Thread genannt wurde. Hat mir vor Augen geführt, 
dass wir Home-Computer, seine Entwicklung und seine Einsatzmöglichkeiten 
nicht hoch genug schätzen können.

von rbx (Gast)


Lesenswert?

Programmierer schrieb:
> weil
> Verkabelung nicht in Frage kam.

Da kann man durchaus anderer Meinung sein. Aber natürlich war es schon 
spannend, sich ein paar Gedanken über die Reichweite zu machen. Bei 
Übertragungen aufs Handy und zurück war Bluetooth schon mal eine 
deutlich nettere Technik als Infrarotübertragung verfügbar.
Mittlerweile kann man Usb nutzen - vorrausgesetzt die Kabel oder die 
Adapter gehen nicht verloren, das ist dann in entropie-freundlichen 
Umgebungen (Chaos..) eher blöd.

Umgekehrt gibt es auch negative Entwicklungen, ich meine früher waren 
die Dokumentationen besser. Ist das aber überhaupt PC-spezifisch? 
Möglicherweise ja, denn die Dokumentation der Rechnersysteme können für 
viele andere Bereiche Vorbild sein.

Wenn man alles neu macht, beispielsweise ein Haus in der Pampa, hat man 
auch erstmal kein Internet oder schlimmer noch: gar keinen Strom.
Zumindest kann man dank der Funktechnik ein paar (richtig gute) 
Handyvideos aus der Pampa vom Traktor in die Welt hinaus schicken, was 
natürlich die Wichtigkeit der Funktechnik noch einmal doppelt 
unterstreicht. ;)

von Likeme (Gast)


Lesenswert?

Die 400MB Festplatte habe ich wie einen Gral nachhause getragen, ebenso 
den aller ersten CD Brenner. Die CD´s aus diesem Brenner habe ich heute 
noch und die funktionieren einwandfrei.

von Rolf M. (rmagnus)


Lesenswert?

rbx schrieb:
> Umgekehrt gibt es auch negative Entwicklungen, ich meine früher waren
> die Dokumentationen besser. Ist das aber überhaupt PC-spezifisch?

Nein. In den 80ern war es nicht so ungewöhnlich, dass Geräte mit 
komplettem Schaltplan verkauft wurden und jeder Privatmensch die 
Ersatzteile einfach kaufen konnte. Gibt's heute alles nicht mehr, und 
zwar nicht, um sich die Doku zu sparen, sondern um die Reparierbarkeit 
zu verschlechtern.

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> Gibt's heute alles nicht mehr, und
> zwar nicht, um sich die Doku zu sparen, sondern um die Reparierbarkeit
> zu verschlechtern.

... und weil früher die Bauteile besser zugänglich, besser beschaffbar 
und besser austauschbar waren. Anfangs begegnete man sogar gesockelten 
ICs, und zwar nicht nur beim Prozessor und den RAMs.

Eine digitale Armbanduhr ist auch weniger leicht reparierbar als eine 
200 Jahre alte Turmuhr. Ist da auch böser Wille am Werk? ;-)

von Schlaumaier (Gast)


Lesenswert?

Software-Mäßig  : Klar die Entwicklung von mp3

Hardware-Mässig : Hm das AMD-Pendant zu Pentium 1. Wurde von Anfang an 
ohne Rechenfehler ausgeliefert.

von (prx) A. K. (prx)


Lesenswert?

Schlaumaier schrieb:
> Hardware-Mässig : Hm das AMD-Pendant zu Pentium 1. Wurde von Anfang an
> ohne Rechenfehler ausgeliefert.

AMD hatte auch seine Bugs. So war der 32MB-Bug des K6 von deutlich 
hässlicherer Art als der Divisionsfehler des Pentium I.
https://web.archive.org/web/20120515215109/http://membres.multimania.fr/poulot/k6bug.html

von Karl (Gast)


Lesenswert?

Nano schrieb:
> Programmierer schrieb:
>> - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt
>
> Oh ja, darauf habe ich auch sehr lange gewartet.

Wenn dann Windows 12 noch die Funktion "Immer im Vordergrund" mit bringt 
könnte man den Windowsdesktop fast als ebenbürtigen Linuxersatz ansehen.

von Programmierer (Gast)


Lesenswert?

rbx schrieb:
> Programmierer schrieb:
>> weil
>> Verkabelung nicht in Frage kam.
>
> Da kann man durchaus anderer Meinung sein.

Viele, viele Leute möchten keine sichtbaren Kabel in der Wohnung haben 
weil es die Ästhetik stört, und Netzwerkkabel nachträglich unter-Putz 
verlegen ist halt ein ganz schöner Aufwand.

rbx schrieb:
> Umgekehrt gibt es auch negative Entwicklungen, ich meine früher waren
> die Dokumentationen besser.

Doku liest doch eh keiner. Es wird erwartet dass alles einfach so 
funktioniert. Und die meiste Consumer-Technik tut das ja auch, und das 
ist auch gut so. Doku ist auch gerne mal fehlerhaft, veraltet oder 
missverständlich.

von Rolf M. (rmagnus)


Lesenswert?

Programmierer schrieb:
> rbx schrieb:
>> Umgekehrt gibt es auch negative Entwicklungen, ich meine früher waren
>> die Dokumentationen besser.
>
> Doku liest doch eh keiner. Es wird erwartet dass alles einfach so
> funktioniert. Und die meiste Consumer-Technik tut das ja auch, und das
> ist auch gut so.

Das Resultat sind dann Foren voller blöder Fragen oder dass die Benutzer 
über Jahre hinweg ihre Geräte unnötig umständlich benutzen, weil sie 
nicht erkannt haben, wie es eigentlich gedacht ist. Manchmal gehen sie 
auch ganz vorsichtig damit um, weil sich das Gerät sonst angeblich 
völlig merkwürdig verhält, weil nicht verstanden wurde, was die Idee 
dahinter ist.

von Rolf M. (rmagnus)


Lesenswert?

Karl schrieb:
> Nano schrieb:
>> Programmierer schrieb:
>>> - Die Multi-Desktop-Funktion von Win10 - heiß ersehnt
>>
>> Oh ja, darauf habe ich auch sehr lange gewartet.
>
> Wenn dann Windows 12 noch die Funktion "Immer im Vordergrund" mit bringt
> könnte man den Windowsdesktop fast als ebenbürtigen Linuxersatz ansehen.

Dann müsste es aber auch noch focus-follows-mouse brauchbar usmetzen. 
Oder gibt's da inzwischen was?

von (prx) A. K. (prx)


Lesenswert?

Rainer Z. schrieb:
> Wie so Vieles, was im Thread genannt wurde. Hat mir vor Augen geführt,
> dass wir Home-Computer, seine Entwicklung und seine Einsatzmöglichkeiten
> nicht hoch genug schätzen können.

Wenn ich die Entwicklung vom 6502 mit 4kB RAM, Kassettenrekorder als 
Datenspeicher, Kassendrucker und LED-Zeile als Display bis heute 
verfolge, dann gibts natürlich aberzig Punkte, die jeweils eine 
erhebliche Verbesserung darstellen. Die hier alle aufzuführen ist 
müssig.

Darunter ist auch die über mehr als 4 Jahrzehnte gehende Entwicklung von 
Bastelrechner für Nerds zum Gebrauchsgegenstand für Jedermann. Anfangs 
spielte Selbstbau eine entscheidende Rolle, einschliesslich ISA-Karte 
für Highspeed-Rechnerkopplung und Eigenbau-Betriebssytem. Dann habe ich 
für etliche Zeit den Rechner komponentenweise selbst zusammengestellt. 
Heute kaufe ich als Nicht-Gamer den Kram vorzugsweise fertig, und das 
effektiv viel günstiger als früher.

: Bearbeitet durch User
von Schlaumaier (Gast)


Lesenswert?

Karl schrieb:
> Wenn dann Windows 12 noch die Funktion "Immer im Vordergrund" mit bringt
> könnte man den Windowsdesktop fast als ebenbürtigen Linuxersatz ansehen.

Gib mehr Kohle aus, stelle die Taskleiste auf "immer im Vordergrund" , 
Aktive AREO (Für die mehr Kohle) und Spiele mit der 
Transparent-Funktion.

Programmierer schrieb:
> Viele, viele Leute möchten keine sichtbaren Kabel in der Wohnung haben
> weil es die Ästhetik stört, und Netzwerkkabel nachträglich unter-Putz
> verlegen ist halt ein ganz schöner Aufwand.

Wer so doof ist.

Ich habe Flachband-Netzwerkkabel unter den Teppich verlegt, dann ein 
ganz kleines Loch in die Fussbodenleiste und darin weiter.  Geht super.

Die meisten meiner Bekannten bevorzugen übriges eine Kombi. Kabel bis 
zum Strom-Adapter und von da via Stromnetz weiter.

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> das 3.5" Diskettenlaufwerk?

5,25" Floppy Disk statt 8" Laufwerk mit 230V-Antrieb. ;-)
https://youtu.be/vkoe8u1Sx7g

: Bearbeitet durch User
von Programmierer (Gast)


Lesenswert?

Rolf M. schrieb:
> Das Resultat sind dann Foren voller blöder Fragen oder dass die Benutzer
> über Jahre hinweg ihre Geräte unnötig umständlich benutzen

Kann passieren, aber ist das kleinere Übel gegenüber Geräten, die nur 
nach der Lektüre einer Anleitung bedienbar sind.

Habe gerade eine neue Spülmaschine bekommen, und im deutschen Teil der 
Anleitung ist ein Kapitel auf niederländisch! Die englische Anleitung 
ist aber vollständig, hurra. Schwer verständlich dank skurriler 
Formulierungen ist sie auch.

Hätte die Spülmaschine ein Touch-Display welches interaktiv durch die 
Menüs führen würde (z.B. Einstellung von Wasserhärte, Klarspüler, 
Timer...) bräuchte man die Anleitung gar nicht. Aus Kostengründen hat 
sie aber keins (verständlich); bei Geräten die sowieso ein Touch-Display 
haben kann man sich die Anleitung aber sparen.

Außerdem: Technisch versierte Leute überschätzen gerne mal das 
Leseverständnis des Durchschnitts-Kunden. Selbst Akademiker sind oft 
völlig ungeübt darin, einen Anleitungstext in die Tat umzusetzen, und 
nicht-studierte sowieso. Video-Tutorials sind besser, aber schlecht 
druckbar, und erfordern auch Geduld. Bevor jetzt jemand mit "die Jugend 
von heute" kommt - ich glaube nicht, dass das je anders war.

Schlaumaier schrieb:
> Ich habe Flachband-Netzwerkkabel unter den Teppich verlegt, dann ein
> ganz kleines Loch in die Fussbodenleiste und darin weiter.  Geht super.

Und wenn man keinen Teppich hat? Durch Türen und Wände kommt man so auch 
nicht. In Mietwohnungen möchte man keine Löcher durch Wände bohren.

von Schlaumaier (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Anfangs spielte Selbstbau eine entscheidende Rolle, einschliesslich ISA-Karte
> für Highspeed-Rechnerkopplung und Eigenbau-Betriebssytem. Dann habe ich
> für etliche Zeit den Rechner komponentenweise selbst zusammengestellt.
> Heute kaufe ich als Nicht-Gamer den Kram vorzugsweise fertig, und das
> effektiv viel günstiger als früher.

Stimmt. Mein ZX-81 habe ich selbst Zusammen gelötet.

Meine PC's habe ich bis auf den letzten selbst einzeln gekauft und 
Zusammengebaut.

Der letzte + aktuelle ist ein Zusammenbau nach meinen Wünschen und 
fertig vorinstalliert. Komponenten-Auswahl via Web-Script inkl. 
Damaliger High-End-Grafikkarte für schlappe 700 Euro. War Stressfreier 
als X-Lieferanten abfragen und unterm Strich ein Tick günstiger.

Die Entwicklung geht klar weiter. Aber irgendwie auch für mich wieder 
zurück.

Damals habe ich ein Fertigbausatz einen ZX-81 zusammen gelötet (hat 100 
DM gespart), heute löte ich Arduino-Chips in Modell-Autos die ich vorher 
Programmiere. Also naja, ich würde sagen, es bleibt irgendwie doch alles 
beim alten. ;)

von Schlaumaier (Gast)


Lesenswert?

Programmierer schrieb:
> Hätte die Spülmaschine ein Touch-Display welches interaktiv durch die
> Menüs führen würde (z.B. Einstellung von Wasserhärte, Klarspüler,
> Timer...) bräuchte man die Anleitung gar nicht. A

Meine Spülmaschine ist von Siemens, hat 1 Knopf (Poweronoff) und 2 
Led's. Kostenpunkt damals 1200 Euro.

Ich denke die macht alles automatisch o. es interessiert sie genauso 
wenig wie mich ;)

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> In den 80ern war es nicht so ungewöhnlich, dass Geräte mit
> komplettem Schaltplan verkauft wurden und jeder Privatmensch die
> Ersatzteile einfach kaufen konnte.

Das hat freilich auch was mit der Kundschaft zu tun, wer damit umgeht 
und wie.

Um 1980 herum waren private Mikrorechner etwas für Nerds. Man hatte 
ziemlich viel und ziemlich direkt mit den Bits auf unterster Ebene zu 
tun, in Hard- wie Software. Schaltpläne waren da nicht nur für Reparatur 
nützlich. Viele Anwender konnten etwas damit anfangen. Es waren ja auch 
sehr viel weniger Anwender (und Bits ;-).

Heute? Abgesehen von potentiellen Reparaturen ist diese Bitebene nur für 
Entwickler vom UEFI und manchen Gerätetreibern interessant. Der Rest der 
Anwender, also mindestens 99,99%, interessiert das einen Scheissdreck 
und ebenso viele könnten damit exakt garnichts anfangen.

Hier im Forum ist die Perspektive fachspezifisch verzerrt. Hier sammeln 
sich jene Leute, die auf dieser Ebene arbeiten, weil viele 
Mikrocontroller in etwa die Komplexitätsklasse der Rechnergenerationen 
der 80er Jahre haben. Die das deshalb lesen können.

von Olaf (Gast)


Lesenswert?

> Ist das deine Anleitung:
> http://www.geocities.ws/SiliconValley/Bay/6893/old/fixg.htm

Nein, steht doch ganz am Anfang. Das beruht nur auf meiner Anleitung,
wurde aber bis dahin wohl zweimal von anderen Leuten umgeschrieben.

Olaf

von (prx) A. K. (prx)


Lesenswert?

Schlaumaier schrieb:
> Aber irgendwie auch für mich wieder zurück.

Ja, das kenne ich von einem Bekannten mit Schlaganfall und Demenz. ;-)

> Also naja, ich würde sagen, es bleibt irgendwie doch alles
> beim alten. ;)

Ging mir so, als ich vor 2 Jahrzehnten anwendungsbedingt in die 
µC-Schiene einstieg, nach langer Zeit ohne direktem Lötkontakt bei 
Computern. Das kam mir alles sehr bekannt vor. Ungefähr Stand Ende der 
70er. Die Bauteile waren neu, das Niveau nicht.

: Bearbeitet durch User
von Andreas B. (bitverdreher)


Lesenswert?

(prx) A. K. schrieb:
> 5,25" Floppy Disk statt 8" Laufwerk mit 230V-Antrieb. ;-)

8 Zöller hatte ich auch noch in den Händen gehabt, aber daß die mit 230V 
liefen, wußte ich auch nicht. So etwas hatte man damals auch nicht 
zerlegt, vor allem wenn einem das nicht gehörte. ;-)

von (prx) A. K. (prx)


Lesenswert?

Andreas B. schrieb:
> So etwas hatte man damals auch nicht
> zerlegt, vor allem wenn einem das nicht gehörte. ;-)

Wenn man seinen Rechner mit solchem Massenspeicher mitsamt Gehäuse 
anreichert, dann schon. Grobmechanik. ;-)

: Bearbeitet durch User
von Schlaumaier (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Ungefähr Stand Ende der 70er.

Naja. Meine Speichererweiterung am ZX-81 hatte auch nur 16 KB. Ist also 
nicht soweit weg.

Und damals habe ich etwas gelernt was ich nun auch wieder anwenden muss.

Speicherplatz sparen. !!!!

Nix 4.3 GB nur für ein Grafikkartentreiber. ;) Aufpassen das man es 
nicht übertreibt. Sparsam mit Array etc.

Wie in alten Zeiten. Und der Arduino ist auch nicht viel schneller.

Und ich habe genau wie du, auch fast 25 Jahre lang kein Lötkolben 
angefasst.
Das anlöten einer abgerissenen Staubsaugerschnur zählt nicht, das war 
mit einen 8 Euro Lötkolben. ;)

von rbx (Gast)


Lesenswert?

Rolf M. schrieb:
> Gibt's heute alles nicht mehr, und
> zwar nicht, um sich die Doku zu sparen, sondern um die Reparierbarkeit
> zu verschlechtern.

Tatsächlich konnte man mitte der 90er Jahre noch seine Ataris oder 
Amigas reparieren, und bei Völkner oder anderen gab lokal es ganze 
Regalwände mit allen möglichen Einzelteilen für diese Geräte. Bestellen 
braucht man nichts, die hatten eigentlich alles auf Lager.

Bei den Synthesizern ging es krass vorwärts in Richtung digitalfilter 
oder in Richtung mehr Spielbarkeit, mehr musikalischer Spielwitz, 
Ausdrucksfähigkeit (in der Digitaltechnik) usw. Aber das (also die 
musikalische Ausdrucksstärke) wurde teilweise gar nicht weiter 
ausgenutzt, und so gehts heute dann eben zurück zur Analogtechnik, die 
aus sich heraus ausreichend musikalisch war.

Die Filter selber, also Moogfilter und die, kamen aber schon früh 
integriert daher, so dass man in Reparatursituationen eben die Chips 
bestellt bzw. bestellen musste, oder eben eigenen Filter (oder 
Ersatzteile oder Software für dies und das) entwickeln. Wär ja zur not 
auch gegangen, diese integrierten Chips konnte man aber z.B. bei 
Sequential Circuits nach dem Konkurs noch bei einem anderen 
(amerikanischen) Unternehmen, welche die Lagerbestände aufgekauft hatte, 
bestellen.

https://de.wikipedia.org/wiki/Sequential_Circuits

Der Access Virus von Christoph Kemper kann allerdings hervorragend 
musikalische Digitalfilterei und den Synth selber konnte man auch als 
Plugin kaufen, dass war auch eine richtungsweisende Neuerung.

Die Digitalfilter selber freilich..da muss man die Dokumentation halt 
selber schreiben..

Aber um die Kurve zurück zu bekommen, die FM-Synthese gab es ja auch 
schon im (Windows-)PC als Standard + dazu kam dann später die 
integrierte "Soundkarte" - nur Midi muss man halt nachrüsten - 
heutzutage wohl eher mit Usb.

Der Vorteil der Brenner war u.a. dass man aus einigen Spielen die Musik 
konvertieren auf CD brennen konnte oder was früher mix-tape hieß, hieß 
dann eben Mix-CD.

von Schlaumaier (Gast)


Lesenswert?

Andreas B. schrieb:
> 8 Zöller hatte ich auch noch in den Händen gehabt, aber daß die mit 230V
> liefen, wußte ich auch nicht.

Siemens Nixdorf. 5 MB Wechselfestplatte. 380 Volt Anschluss. Das Ding 
war größer als ein Autoreifen. Und mein erster Kontakt mit einer 
"Großrechner-Anlage".

Es gibt nix was es nicht gab. :)

Genau wie der Buchhalter die der 8 Zoll-Floppy-Disk Abends in den Ordner 
abheftete und sich dann bei der Firma beschwerte die Anlage würde nicht 
laufen.

Wenn man es aber richtig machte, konnte man ein 5 1/4 Zoll Diskette 
abheften. Haben die damals ziemlich gestaunt in meiner Zwangsausbildung.

von Nano (Gast)


Lesenswert?

Rolf M. schrieb:
> Nano schrieb:
>> Und letzten Endes bist du ja selber schuld, wenn du dir ein 2 CPU System
>> kaufst und dann dir keine Gedanken darum machst, ob du das auf dem
>> Betriebssystem deiner Wahl überhaupt nutzen kannst.
>
> Wie kommst du darauf? Das Betriebssystem meiner Wahl (Linux) hat das
> natürlich voll unterstützt. Ich war damit glücklich und hab mir im
> Anschluss dann wieder einen Rechner mit 2 CPUs gekauft, mit Athlon XP.
> Trotzdem waren Rechner mit 2 CPUs im Heimbereich damals eher wenig
> üblich, weil die dafür gedachten Windows-Versionen es eben nicht
> konnten.

Weil du Windows erwähnt hast.

Wer Windows und 2 Kerne nutzen wollte, hat einfach Windows 2000 und 
davor Windows NT gekauft. Für die Spiele konnte man DOS als Dual Boot 
System einrichten, sofern DOS Spiele noch erforderlich waren.
Selbst eine Bootdiskette und eine Fat Partition auf der Festplatte hätte 
genügt.

von Jörg W. (dl8dtl) (Moderator) Benutzerseite


Lesenswert?

Nano schrieb:
> Für die Spiele konnte man DOS als Dual Boot System einrichten, sofern
> DOS Spiele noch erforderlich waren.

Hatte ich Anfang der 1990er Jahre noch eine zeitlang, aber dann habe ich 
irgendwann festgestellt, dass ich das DOS eh nicht mehr boote, und habe 
das BSD auf die ganze Platte ausgedehnt.

Likeme schrieb:
> Die 400MB Festplatte habe ich wie einen Gral nachhause getragen

Meine erste 1-GB-Festplatte habe ich bei meinem damaligen Brötchengeber 
in Monatsraten abgestottert. Sie war dort gekauft worden, um an 
Data-General-Workstations benutzt zu werden, aber die weigerten sich 
irgendwie … da habe ich die für die Firma nutzlos gewordene Platte 
abgekauft, muss irgendwas um die DEM 1000 gekostet haben damals. Dürfte 
circa 1994 gewesen sein.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.