Forum: PC Hard- und Software wie konnte sich MS-DOS durchsetzen?


von W.S. (Gast)


Lesenswert?

Rolf Magnus schrieb:
(wegen Tool-Konzept)
> Ein vergleichbares Konzept habe ich im GUI-Bereich bisher noch nicht
> gesehen.

Das gibt es dort auch nicht - und zwar aus prinzipiellen Gründen.

Ein grafisches User-Interface ist nämlich nicht ein Bildchen und wie es 
aussieht, sondern ein möglichst echtzeitfähiges 
Multiprogram/Multithread-System und das hat mit einem Tool-Konzept rein 
garnix gemeinsam. Das GUI ist die Funktionalität hinter der sichtbaren 
Oberfläche.

W.S.

von Computerfachprofi (Gast)


Lesenswert?

Mark .. schrieb:

> Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu
> werden, obwohl es von der Funktionalität her Unix haushoch unterlegen
> war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen?
> (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert
> waren...)

Das hatte folgende Gründe:

1. Unix war teuer
2. Unix benötigte viele Resourcen, sowohl vom RAM Speicherbedarf als 
auch von der sonstigen CPU Leistung. Mehrbenutzerfähigkeit frißt nunmal 
auch RAM und Leistung.
3. Die Schutzfunktionen die ein Unix bot, gab es auf der x86 Architektur 
erst mit der Einfürhung des Protected Modes, also dem 80286er.
Unix hätte auf einem 8080 also gar nicht so funktioniert, wie man es von 
den Großrechnern kannte. -> Keine Abschottung der Prozesse 
untereinander.

Nun zu DOS:

4. Quick'n Dirty OS (also MS-DOS) war günstig
5. Der Resourcenverbrauch (RAM & CPU Leistung) war relativ niedrig.
6. Der 8080 Prozessor hatte eh keine Schutzfunktionen, DOS war also das 
ideale OS.
7. Aufgrund von 6 war auch an einen sicheren Mehrbenutzerbetrieb nicht 
zu denken, weswegen man das gleich sein lies. Für einen Personal 
Computer, also ein Computer der nur für eine Person gedacht war, war DOS 
also ideal. So dachte man damals jedenfalls.


Als das erste Unix für den PC umsetzbar war, es also Protected Mode 
fähige 80286er gab, war DOS schon so stark verbreitet und dieses Unix 
immer noch so sau teuer, dass es sich praktisch nicht auf dem Markt 
durchsetzen konnte.

Und der 80286 brachte da noch so seine Probleme mit sich, die auch 
Software Entwickler feststellen mußten, die versuchten aus DOS ein DOS 
zu machen, dass im Protected Mode läuft und zu alten DOS Programmen 
abwärtskompatibel ist.
Da brauchte es 3 Steppings des 80286er Prozessors, damit das wie 
gewünscht funktionieren konnte.


Der 80286er war letzten endes aufgrund seiner Segmentierung doch nicht 
so gut für ein Mehrbenutzerbetriebsystem geeignet unter dem Prozesse 
untereinander gut abgeschottet werden konnten, denn die Programmierung 
war aufwendig, was dazu führte, dass die eigentlich erst so richtig 
dafür geeignete CPU erst der 80386er war.
Der bot nämlich Pageing anstatt Segmentierung, hatte eine MMU und 
erlaubte auch einen Virtuellen RealMode.
Anmerkung: Dies ist übrigens einer der Hauptgründe, warum der Linux 
Kernel hauptsächlich nur für den 386er entwickelt wurde, obwohl es in 
der Anfangsphase versuche gab, eine 286er Version zu entwickeln.

Als dieser 386er aber dann endlich auf dem Markt war, da waren dann 
schon längst grafische Oberflächen wie man sie vom Apple oder Amiga 
kannte, der gute Ton.
Weswegen die Entwicklung gleich in OS/2 und Windows ging.

Kein Mensch wollte da ein überlicherweise Kommandozeilenbasiertes Unix 
haben und der X Server frisst nochmal extra viel RAM, was man auf einem 
typischen PC kaum vorfand.
Vor 1990 dürften die meisten nicht mehr als höchstens 2 MB RAM gehabt 
haben.
Durchschnittliche Rechner mit 8 MB fand man erst ab ca. 1993 in 
ausreichender Menge und für ein Unix mit X Window Manager sollte man 
besser 12 oder 16 MB einplanen und das gab's dann erst ca. 1996-1997 
standardmäßig im Rechner.
Zu dem Zeitpunkt war aber dann schon längst OS/2 Warp und Windows NT für 
die Zielgruppe auf dem Markt, die sich vielleicht ein Unix angeschafft 
hätte, während alle anderen weiterhin Windows 95 und DOS verwendeten.



Aus all diesen Gründen hatte Unix auf dem PC keine Chance.
Und ehe man Unix verwendete, setzte man eher auf Windows NT und OS/2.

von Computerfachprofi (Gast)


Lesenswert?

Uhu Uhuhu schrieb:

>
> Verhandlungen sind kein reines Lottospiel und wer zu hoch pokert, der
> hat schnell das Nachsehen. Technologisch war DR jedenfalls deutlich
> besser, als das, was Gates damals zu bieten hatte. (Die erste Version
> von MS-DOS hatte noch nichtmal ein hierarchisches Dateisystem.)

Das hatte CP/M auch nicht.

von Reinhard Kern (Gast)


Lesenswert?

Hallo,

ja es war ein harter Winter, bei uns graben die Wildschweine direkt 
neben den Häusern die letzten Äpfel aus - so ähnlich graben verzweifelte 
User aus Langeweile uralte Threads aus und fangen mit der Dikussion ganz 
von vorne wieder an. Wenns denn sein muss, meintewegen nochmal 200 
Posts, aber ohne mich.

Gruss Reinhard

von Computerfachprofi (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
> A. K. schrieb:
>> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive.
>
> Und genau den gab es beim PC nicht - so war es angekündigt worden und
> daran hielten sie sich. Es war das Open-Source-Konzept, das durch den PC
> ganz kräftigen Rückenwind bekam.
>
> Wäre der PC technisch innovativ gewesen, dann hätte er gute Chancen
> gehabt, in ein ähnliches Desaster, wie Lisa zu rennen.
>
> Das 8088-Zeug war schon so abgestanden, daß die weitere Entwicklung
> nicht mehr völlig im Nebel lag.

Der wenige Monate später erschienene 80286 er, der schon 1982 erschien 
war für den privaten Bedarf und für kleine Firmen schon ein absolutes 
Leistungswunder.

Der 8088 war zwar alt, aber mit dem 286er hatte der PC ein derart 
starkes Pferd, dass er damals alle Konkurrenz CPU Architekturen in 
diesem Marktbereich in Sachen Leistung und Features ausstach.


Der 8088 war der Anfang, aber der 286 verhalt damit praktisch dem PC von 
der Leistungskrone her betrachtet zum Sieg.

Und spätestens mit dem 386er hatten dann alle anderen verloren.

von Computerfachprofi (Gast)


Lesenswert?

Reinhard Kern schrieb:
>
> Hätte es MSDOS nicht gegeben, müssten wir heute noch Geschäftsbriefe mit
> 7bit-ASCII-Code schreiben.
>

Blödsinn.

Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch 
1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp.

Mit steigenden RAM Größen war aber dann überall abzusehen, dass sich 
Codes die auch nicht englische Zeichen unterstützen, definitiv 
durchsetzen würden.


Stell dir vor, vor der x86 PC Ära, als der Apple 2 & Co Standard war, 
gab es sogar Rechner für den privaten Bedarf, die nur Großbuchstaben 
schreiben konnten.

von Computerfachprofi (Gast)


Lesenswert?

Lukas K. schrieb:
> Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber
> rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's
> gettext zur Lokalisierung während der Laufzeit schon seit '95.

Gettext gibt's leider nur für GPL Programme.


> Auch
> sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch
> wen Windows intern anscheinend UTF-16 verwendet???), während der Rest
> der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.

Käse.
Windows 1252 gibt's aufgrund der Abwärtskompatibiltät.
Und UTF-8 können die Windows APIs auch, nur wird UTF-16 aus 
Geschwindigkeitsgründen für manche Dinge bevorzugt.

Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element 
Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine 
spezielle Behandlung die unter Umständen langsamer sein kann, als das 
etwas mehr Speicher fordernde UTF-16 Format.

Die Java VM verwendet übrigens ausschließlich nur UTF-16.

von Computerfachprofi (Gast)


Lesenswert?

A. K. schrieb:

>
> Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und
> die Systeme dazu rangieren unverändert ganz vorne.

Das hat man gesehen, als Apple von den PowerPCs zur x86 Architektur 
gewechselt sind.

Da hat so mancher Maccianer, der immer noch als ewig Gestriger auf das 
A20-Gate herumhakte, so richtig große Augen gemacht, als er sah, um wie 
viel schneller so ein x86er bei gleichem Geldeinsatz ist.




> Nur sind die schlicht
> zu teuer für Workstations. Eine Situation die Intel selbst nicht ganz
> unbekannt ist, haben sie sich doch beim Versuch, im Übergang zu 64 Bits
> die sehr leistungsstarken IA64 durchzusetzen, von AMD ausmanövrieren
> lassen. Mit der gleichen Methode, wie einst sie selbst gehen die RISCs.

Die IA64 Architektur hat sich aber unter anderem auch deswegen nicht 
durchgesetzt, weil sie völlig andere Compiler und eine andere Art der 
Programmierung Voraussetzte und dies sich in der Praxis dann nur sehr 
schwer umsetzen lies.
Siehe dazu der WP Artikel zur IA64 Architektur, da müsste einiges dazu 
stehen.

von Computerfachprofi (Gast)


Lesenswert?

MaWin schrieb:

> Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen
> sind die bessere Implementation als 16 bit wie es Windows tut.


Nein, das hängt davon ab, was man machen will.

UTF-16 ist wesentlich performanter.


Das mag bei Deutschsprachigem Text, der nur aus wenigen Sonderzeichen 
besteht, nicht auffallen.

Aber bei Chinesisch und so Zeugs schlägt UTF-16 in Sachen Performance 
UTF-8 um Längen.



Es gibt hier also kein, das ist besser als das andere, sondern es kommt 
ganz auf die Situation an.



Für eine API für das Programmieren ist eine feste Bytegröße (UTF-16) 
immer besser als eine Lauflängenkodierung (UTF-8), letztere gewinnt erst 
dann,
wenn a) nur wenige Sonderzeichen im Text verwendet werden und b) das 
Zeugs übertragen werden soll.
Für's Internet, also für Webseiten ist UTF-8 also ideal, weil es, sofern 
der Großteil des Textes weiterhin aus englischem Standardzeichen 
besteht, nur wenig Datenübertragungskapazität und Speicherplatz 
benötigt.
Auf der CPU aber, bremst UTF-8 den Rechner stärker als UTF-16.
Für eine Datenbank würde ich also nie und nimmer auf UTF-8 setzen 
wollen.

von Computerfachprofi (Gast)


Lesenswert?

skorpionx schrieb:
> „expanded memory“, „extended memory“,“upper memory“.
> Adresse = Segment*16 + Offset.
>
> Die waren Bremsen bei der Entwicklung in Computertechnik in achtziger
> und neunziger Jahren.
> Motorola Prozessoren (68000) mit linearem Bus waren besser. Wie viele
> Jahren hat die Entwicklung durch diesen Bremsen verloren...

Da der 386er 1985 auf dem Markt kam und der erste IBM PC 1981 sind das 
theoretisch nur 4 Jahre.

Praktisch hat's zwar länger gedauert, weil IBM ihr OS/2 unbedingt auch 
auf dem 286er laufen lassen können wollten, welcher ja schon den 
Protected Mode kannte, nur eben halt noch mit Segmentierung und 
Microsoft sich gerade deswegen dann erst von OS/2 abkoppelte um dann 
Windows NT zu entwickeln und all das hat leider etwas gedauert.

von Computerfachprofi (Gast)


Lesenswert?

Karl schrieb:
> Sven P. schrieb:
>> Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit
>> Zusatzprogrammen und Shareware war dem schon abzuhelfen.
>
> Das ist eine Feststellung die bis heute für MS gilt. Ohne Zusatzsoftware
> ist das Originalpaket vollkommen unbrauchbar. Das fängt mit dem Editor
> an und hört bei Sachen wie einem Vierenscanner noch lange nicht auf.

Quatsch.

Praktisch reicht WordPad um einen Brief zu schreiben.

Und damals gab's auch an den Ausdruck andere Anforderungen.
Mir hat da auch edit.exe gereicht, das war Bestandteil von MS-DOS 5.0.

Und wenn man schnell was berechnen wollte, dann konnte man das durchaus 
auch mit QBasic lösen, was ebenfalls Bestandteil von MS-DOS 5.0 war.
Man mußte zwar Programmieren können, aber Basic ist auch nicht viel 
komplizierter als die Bedienung und Schalteroptionen der ganzen Unix 
Tools awk, sed, vi usw. kennenzulernen.
In den Anfängen der Personal Computer gehörte das Programmieren können 
in Basic sogar zum Normalzustand.

von Computerfachprofi (Gast)


Lesenswert?

Wolfgang R. schrieb:
>
> Dass sich Qualität nicht durchsetzt sieht man immer wieder. Neuestes
> Beispiel Mobilfunk. An die Nokia Sprachqualität kommt keiner nahe ran.
> Aber gekauft werden heute Computer die als Nebeneffekt mehr schlecht als
> recht mobil telefonieren können.
> Optik ist alles, Bedienung andere Baustelle.

Hi, hi, kleine Anekdote.

Erst neulich habe ich eine junge Dame gesehen die als Handy wahrhaftig 
einen riesen Knochen in der Hand hielt und damit telefonierte.

Das ding war ein modernes Tabletartiges Smartphone und als Klapphandy 
konzipiert.

Ich könnte euch gar nicht vorstellen, wie ulkig das aussah, als sie 
diesen riesigen Knochen ans Ohr hielt um zu telefonieren und alle 
Personen darum sie nur staunend anschauten.

Die Abmessungen waren geschätzt ausgeklappt ca.
30 cm lang und 8,5 cm breit und dieses Riesenteil hielt sie an den Kopf.

von Computerfachprofi (Gast)


Lesenswert?

W7 schrieb:

> Es gelang aber nicht und
> AMD durfte dann doch mit seinen Clones auf den Markt, die damals zuerst
> direkt auf die Hauptplatinen angelötet waren und so konnte man sich dann
> auch einen DX Rechner leisten, durch einfachen Austausch der
> Hauptplatine. Erst AMD hat die Preisspirale nach unten eingeläutet und
> konnte auch Leistung bieten (wenn auch lange Zeit etwas den Intel Proz.
> hinterherhinkend). Cyrix (die andere Konkurrenz) taugte dagegen nix.


Das stimmt so auch nicht.

Gerade zur Zeit des Pentium 166 MHz hatte Cryix mit dem  Cyrix 6x86 eine 
CPU im Peto, die mit nur 133 MHz Taktfrequenz in der Integerleistung 
schneller als der höher getaktete Pentium 166 MHz war.

von Computerfachprofi (Gast)


Lesenswert?

MCUA schrieb:

> Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit
> Erweiterung gemacht, weil 'normal' Evolution und kompatibel,
> und nach AMD gibts ja auch noch VIA.


Nein, das hätte Intel nicht.

Hätte es AMD nicht gegeben, dann hätte Intel die x86 Architektur 
zugunsten des Itaniums sterben lassen.

Das wäre kein Problem für Intel gewesen, sie hätten nach etwas 
Anlaufzeit und Nutzung der IA64 Architektur im Hochpreissegment dann nur 
die Preise senken müssen, so dass diese auch Einzug in die normalen 
Haushalte erhalten hätte. Und das hätte Intel spielend machen können, 
denn Intel hat genug Barreserven auf der Hand um da einen sehr langen 
Atem zu haben.
Aber praktisch ging es dann nicht, solange AMD da war und eben 64 Bit 
auf x86 herausbrachte.

von Computerfachprofi (Gast)


Lesenswert?

troll schrieb:
> Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man
> jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere
> Hardware im  Vergleich zum IBM-AT.

Hatte er nicht.

Schon der 386er lies jeden Amiga alt aus sehen.
Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu 
programmierenden AGA Chipsatz.

von Computerfachprofi (Gast)


Lesenswert?

Carsten Sch. schrieb:

> Als ich ein paar Wochen Später dann das Spiel "Comanche" bekommen habe
> das 1. enorm viel freien Basisspeicher brauchte und 2. sich nicht mit
> EMM386 vertrug hat es nicht mal mehr eine halbe Stunde gedauert bis das
> auch lief -ohne spezielle Startdiskette.
> (Ab Dos 6.00 musste ich dann aber immer mit Startdiskette arbeiten weil
> das ja EMM386 immer geladen hat.)

Hat es nicht!

Ich habe mir MS-DOS 6.0 damals noch zugelegt und EMM386 wurde nur dann 
geladen wenn man es auch in die entsprechende Konfigurationsdateien 
eintrug. (autoexec.bat oder config.sys)


MS-DOS 6.0 hatte sogar den spitzen Vorteil, dass man Menüs anlegen 
konnte, womit man sich das mit den Startdisketten sparen konnte und man 
immer
die passende Konfiguration zur Verfügung hatte.

Ich hatte dann am Ende etwa die folgenden Kombinationen:

1. EMM386 ohne CD-ROM Treiber (ja, MSCDEX fraß ne Menge Speicher und 
manche Spiele hatte ich noch auf Diskette)
2. XMS ohne CD-ROM Laufwerk, kein EMM386
3. EMM386 mit CD-ROM Treiber
4. XMS mit CD-ROM Treiber aber kein EMM386
5. EMM386 ohne CD-ROM Treiber und ohne Maus Treiber
6. Windows 3.1 mit CD-ROM Treiber

Dazu kamen dann noch so paar weitere Sachen die dazu geladen wurden.
Wie z.B. ein VESA 2.0 BIOS, das nachgeladen wurde, weil die Grafikkarte 
keine derartige VESA Version auf der Karte hatte. War aber per SW 
schnell nachrüstbar.
Treiber für den SCSI Adaptec Controller.




> Als ich dann DREI JAHRE Später das erste mal mit Linux in Kontakt kam
> und meine Versuche damit machte, da dauerte es erst einmal Tage bis
> überhaupt die Hardware im PC richtig erkannt und initialisiert wurde.

Alles richtig.

Linux war zu der Zeit keineswegs das einfache "auto konfigurier dich 
selbst OS", wie es dein Vorposter behauptete.

Wenn es ganz schlimm war und z.B. man noch ISA Karten im Rechner hatte, 
dann mußten die I/O Ports, IRQs und der DMA Kanal ebenfalls noch 
konfiguriert werden und das war in den Tiefen der Konfigurationsdateien 
und Optionen wesentlich schwieriger als bei MS-DOS oder Windows 3.1.

Um die SOundkarte in einem DOS Spiel zu nutzen, mußte man zwar bei fast 
jedem Spiel die SETUP.EXE Datei einmalig ausführen, aber dafür bekam man 
dann in der Regel ein einfaches Menü geboten und dann lief die Karte im 
Spiel.
Und die 2 Zeilen die man in die Config.sys (oder AUtoexec.bat) bezüglich 
der Soundkarte eintragen mußte, das war auch kein Hinderniss.


Unter Linux mußte man aber erstmal darauf achte, dass man mit modprobe 
den richigen Treiber lud und das auch entsprechend in der /etc/modules 
Config eingetragen hatte.

Im großen und ganzen kann man aber sagen, dass Linux erst als IBM auf 
der CeBit 1998 angekündigt hat, auf Linux zu setzen, auch Linux erst so 
richtig populär wurde.

Davor war es in Computerzeitschriften überwiegend kein Thema und 
bestenfalls ne Randnotiz.

Automatisch per Autokonfiguration konfigurierbar war es eigentlich erst 
ab Ubuntu Dapper Drake. Dürfte 6.06 gewesen sein.*
Ansonsten mußte man immer hier und da Hand anlegen, auch bei Suse mußte 
man in Yast herumkonfigurieren.



* Hier sei gesagt, dass es weniger an Ubuntu festgelegt ist, sondern 
eher an den Sachen unter der Haube die alle Linux Distributionen 
betrafen.
Also udev und so Zeugs.








>
> ICh denke manche sehen das ganze einfach zu sehr durch die NERD
> Brille...
> JA - es mag sein das MS DOS und Windows (3.1 war bei mir auch dabei) vom
> technischen Hintergrund weitaus primitiver waren als Unix/LInux zu der
> Zeit.

Als Windows 3.1 auf dem Markt war, war Linux ne ziemliche Alpha Version 
mit 0.9* Kernel.
Als Produktivsystem also absolut unbrauchbar und als Win9x auf dem Markt 
kam, gab's ziemlich großes Staunen in der Linux Szene, wie 
fortschrittlich die grafische Oberfläche von Windows 9x gegenüber dem 
bekannten (X Window, Window Manager und auch Windows 3.1) war.

Halbwegs brauchbar war Linux erst ab Kernel 2.0 und das auch nur auf 
Kommandozeilenebene.
Für den grafischen Desktop hat es noch ne ganze Weile gedauert, bis 
endlich KDE 1.1 draußen war. Die erste halbwegs akzeptable Oberfläche, 
die featuretechnisch mit Windows 95 halbwegs mithalten konnte, schön war 
sie da aber noch lange nicht, das kam erst mit KDE 2.x (oder meinetwegen 
auch Gnome 1.x, was aber erhebliche Feature und Usabilitymängel in der 
1.x Version hatte).

Ach ja und an den geringen Resourcenbedarf von Windows 9x oder Windows 
3.1 kam kein Linux + X Window Oberfläche heran.

Für den reinen Kommandozeilenmodus sollte es bei einem 2.2er Kernel 
mindestens 8 MB RAM Sein.
DOS + Windows 3.1 lief da schon mit nur 4 MB sehr gut.
Und Windows 9x konnte man ab ca. 8-16 MB ganz gut nutzen, wobei Linux 
mit KDE erst ab ca. 64 MB RAM Spaß machte.







> Da damals die Vernetzung der PCs untereinander selbst in vielen Firmen
> -besonders den kleineren- alles andere als Selbstverständlich war und
> von WWW für Normalbürger noch lange keine Rede war (Es gab BTX und dann
> hörte man noch was von Compuserve für 7DM die Stunde + Telefongebühren
> die damals für mich bis zum nächsten Einwalpunkt auch 8DM die Stunde
> gewesen wären!)

Es gab noch die Möglichkeit mit einem speziellen Gerät einen Dienst zu 
nutzen, der Programme und Infos über das Fernsehsignal laden konnte, 
welches wie der Videotext zwischen den Zeilensprüngen verbreitet wurde.

Den Namen hab ich allerdings vergessen.

Ich kann mich nur noch daran erinnern, dass ich auf der Hobby-Elektronik 
in Stuttgart um das Jahr 1994 herum so ein Teil kaufen wollte, aber dazu 
kam es dann nicht und wenige Zeit später wurde der Dienst dann auch 
eingestellt, so dass es im Nachhinein kein Fehler war, auf dieses Gerät 
zu verzichten.

Und mit dem damals aufkommenden Großangebot an vielen CD-ROMs mitsamt 
PD-, Patch- und Sharewaresammlungen war der Bedarf auch gar nicht mehr 
so groß.

von Computerfachprofi (Gast)


Lesenswert?

Unixer schrieb:

> Da muss ich Dir zu 100% zustimmen. Die ganze 80x86 Architektur ist aus
> meiner Sicht Müll. Intel hätte ab dem 8086 diese begraben sollen und
> einen neuen Proz. mit vernünftiger Architektur entwickeln sollen.
> Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren
> entwickelt. Teilweise auch die Hardware. Das waren (leider waren)
> Architekturen die bspw. nicht so verkrampfte Adressierungarten hatten
> wie der Intel-Schrott. Und Maschinenbefehle, wo man schon fast meinen
> könnte man würde in C programmieren. Entsprechend optimal war auch der
> C-Compiler.

Am dem 386er im Protected Mode ist die x86 Architektur aus 
Programmierersicht definitiv kein Müll mehr und ab dem Pentium 2 sogar 
eine schlanke RISC Architektur mit MicroOpcodes.


CISC hat damals übrigens den Vorteil gegenüber RISC geboten, dass man 
sehr kleine speichersparende Programme schreiben konnte, während man in 
RISC vieles erst mühsam in Software umschreiben mußte und das den Code 
aufblähte.

Als der IBM PC also eingeführt wurde, war CISC ganz klar ein Vorteil und 
kein Nachteil.
Denn RAM Speicher war damals sehr knapp bemessen und schweineteuer.





> Wenn ich mir jedoch heute die aktuellen Windoofversionen anschaue, muss
> ich feststellen, dass die für den Anwender komplizierter und
> unübersichtlicher geworden sind als aktuelle Linux Versionen (bspw.
> Ubuntu).

Dem muss ich entschieden widersprechen.

Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu 
ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung 
auf, meistens, wenn Updates eingespielt werden, dann ist der Benutzer 
meistens aufgeschmissen, weil der Rechner nicht mehr so funktioniert wie 
er sollte.
Entweder geht plötzlich der Sound, der Drucker oder das Netzwerk nicht 
mehr
und all das meistens genau dann, wenn man es am dringensten braucht.

Diese Erfahrung habe ich jetzt schon ständig machen müssen und ich bin 
beileibe kein unerfahrener Linuxer, ich muss also letzten Endes meist 
selbst Hand anlegen um ein Problem zu fixen, das gar nicht hätte 
passieren dürfen.


Windows 7 läuft dagegen auf meinem Rechner seit der Erstinstallation 
rockstabil und bis jetzt hat kein einziges Update dessen Funktionalität 
außer Kraft gesetzt.

Ubuntu kann da von Windows 7 also noch sehr viel lernen.

Richtig ist lediglich, dass Windows XP recht Umständlich bei der der 
Konfiguration und Usability ist, wenn man mal etwas konfigurieren und 
sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe 
ja inzwischen Windows 7 und das ist meiner Meinung nach ganz klar das 
bisher beste Windows, welches MS auf dem Markt gebracht hat.


Windows 8 dagegen ist ein schlechter Witz, welcher hoffentlich so 
schnell wieder verschwindet wie Windows Vista.



Windows 7 ist jedenfalls ein sehr gutes, robustes, ausgereiftes und 
ordentliches OS, ich kann da nicht meckern.
Und das sage ich dir als Linuxer der Linux neben Windows schon > 14 
Jahre auch als Hauptsystem im Einsatz hat.

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Matthias Sch. schrieb:
>> ach schrieb:
>>> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den
>>> Abhängigkeiten in autoexec.bat und config.sys haben. Eine
>>> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch
>>
>> Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde
>> auch auf der 386er Platform entwickelt.
>
> DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder
> weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra
> einen neuen Betriebsmodus eingeführt, damit Multitasking mit
> Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086
> genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter
> verbessertem Multitasking, und es wurde extra noch die Möglichkeit in
> die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren
> zu können, damit auch alte Programme darin weiter benutzt werden können.
> Und DOS hat ihn als schnelleren 8086 genutzt. Das einzige, was von den
> neuen Prozessoren bei DOS so halbwegs angekommen ist, ist die
> Möglichkeit, mehr Speicher anzusprechen, allerdings nur über üble
> Krücken.
> Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das
> Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie
> Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese
> Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo
> sie eigentlich nicht hingehört. Und Jahre später steckte dann das
> Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und
> das eigentliche Betriebssystem war zum Bootloader verkommen.


MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das 
zukünftige OS werden.

Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected 
Mode des 386er laufen konnte und diesen recht weitgehend nutzte.

Probleme gab es nur noch mit dem Zugriffsschutz, denn der war in Windows 
3.1 noch nicht implementiert und DOS hatte im Notfall noch das sagen.

Aber spätestens mit Windows NT änderte sich all das ja.

von Computerfachprofi (Gast)


Lesenswert?

Mario K. schrieb:
> Schönes Thread schön zu lesen! Könnte auch ein Buch werden.

Ich habe mal fleißig daran weitergearbeitet und ein ganzes neues Kapitel 
hinzugefügt. ;)

von AntiHirnWäscher (Gast)


Lesenswert?

Computerfachprofi schrieb:
> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected
> Mode des 386er laufen konnte und diesen recht weitgehend nutzte.

Wenn jedes DOS Programm die Kiste abschiessen konnte, kann von protected 
Mode nutzen keine Rede sein.

von AntiHirnWäscher (Gast)


Lesenswert?

Computerfachprofi schrieb:
> Aber spätestens mit Windows NT änderte sich all das ja.

Unix konnte das schon 15-20 Jahre früher.

von AntiHirnWäscher (Gast)


Lesenswert?

Computerfachprofi schrieb:
> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu
> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung
> auf, meistens, wenn Updates eingespielt werden

LTS Version ?

von Computerfachprofi (Gast)


Lesenswert?

Sven P. schrieb:
> Lukas K. schrieb:
>> So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer
>> würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern?
>> Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen
>> Talk.
> Ja und nein.
> Bis zu irgendeiner Windows-NT-Kernversion war das tatsächlich getrennt
> und der Graphikmist saß im Usermode. Dann hat man das wohl für zu
> ineffizient befunden und in den Kern verschoben. Das war dann die totale
> Neuerung und sollte die graphische Oberfläche um Welten flotter machen
> und so weiter.

Die ganze Geschichte des Wechsels vom Userspace in den Kernelspace kann 
man hier nachlesen:

http://technet.microsoft.com/en-us/library/cc750820.aspx

von Computerfachprofi (Gast)


Lesenswert?

AntiHirnWäscher schrieb:
> Computerfachprofi schrieb:
>> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected
>> Mode des 386er laufen konnte und diesen recht weitgehend nutzte.
>
> Wenn jedes DOS Programm die Kiste abschiessen konnte, kann von protected
> Mode nutzen keine Rede sein.

Doch, denn ich bezog mich hier auf den linearen Speicherzugriff, der mit 
dem 386er und im Protected Mode nun möglich war.

Das die Sicherheit da noch nicht gewährleistet war, habe ich hier auch 
irgendwo schon erwähnt.

von Computerfachprofi (Gast)


Lesenswert?

AntiHirnWäscher schrieb:
> Computerfachprofi schrieb:
>> Aber spätestens mit Windows NT änderte sich all das ja.
>
> Unix konnte das schon 15-20 Jahre früher.

Ja und? Ist nicht das Thema hier.

Die Nachteile von Unix sind bekannt, insbesondere zur Zeit der 
Einführung des PCs. Dazu habe ich ja oben genug geschrieben.

von Computerfachprofi (Gast)


Lesenswert?

AntiHirnWäscher schrieb:
> Computerfachprofi schrieb:
>> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu
>> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung
>> auf, meistens, wenn Updates eingespielt werden
>
> LTS Version ?

Die auch.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
>> Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und
>> die Systeme dazu rangieren unverändert ganz vorne.
>
> Das hat man gesehen, als Apple von den PowerPCs zur x86 Architektur
> gewechselt sind.

Die Leistung selbst ist da, aber IBMs Implementierungen adressierten 
damals wie heute den Server-Bereich. Für Desktop/Notebook-Prozessoren 
war Motorola zuständig gewesen, und die bekamen es im Rahmen des viel 
kleineren Marktes nicht gebacken.

Die Preis/Leistungs-Relation stimmt bei den IBMs im 
Desktop/Notebook-Sektor nicht. Die Leistung selbst ist da, die POWER 
Prozessoren sind nach wie vor vorne.

> Da hat so mancher Maccianer, der immer noch als ewig Gestriger auf das
> A20-Gate herumhakte,

Hehe... Ob Andreas Stiller hier wohl mitliest? ;-)

> so richtig große Augen gemacht, als er sah, um wie
> viel schneller so ein x86er bei gleichem Geldeinsatz ist.

Die Masse machts. Mit genug Motor fliegt auch ein Scheunentor und mit 
genug leidlich kompetent investiertem Geld läuft auch ein x86 schnell. 
Aber dieses Geld kommt nur mir Masse wieder rein, wenn das Produkt 
bezahlbar bleiben soll. Diese Masse war bei der PowerPCs nicht gegeben.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> ab dem Pentium 2 sogar eine schlanke RISC Architektur mit MicroOpcodes.

Eine schnelle Architektur, aber keine schlanke. Der in Hardware statt 
Software umzusetzende Wasserkopf blieb. Es störte nur nicht mehr, weil 
die Chiptechnik weit genug war, um den gegenüber RISC zusätzlichen 
Aufwand mitschleppen zu können. Dito Intel Atom vs. ARM Cortex A15. Der 
Wasserkopf ist da, aber der effektive Unterschied für den Anwender 
nicht.

Dass der Wasserkopf aber als nicht völlig irrelevant betrachtet wurde, 
bewies Intel mit dem Pentium 4. Denn dessen Trace-Cache adressiert ja 
massgeblich eben diesen Wasserkopf. Das ging zwar in die Hose, aber 
Reste dieser Technik finden sich in den aktuellen Intels wieder.

von AntiHirnWäscher (Gast)


Lesenswert?

Computerfachprofi schrieb:
> AntiHirnWäscher schrieb:
>> Computerfachprofi schrieb:
>>> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu
>>> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung
>>> auf, meistens, wenn Updates eingespielt werden
>>
>> LTS Version ?
>
> Die auch.

10.4 macht es bei mir seit 3 Jahren ziemlich gut. Weniger Aufwand als 
unter XP.

von Computerfachprofi (Gast)


Lesenswert?

A. K. schrieb:
> Computerfachprofi schrieb:
>> ab dem Pentium 2 sogar eine schlanke RISC Architektur mit MicroOpcodes.
>
> Eine schnelle Architektur, aber keine schlanke. Der in Hardware statt
> Software umzusetzende Wasserkopf blieb. Es störte nur nicht mehr, weil
> die Chiptechnik weit genug war, um den gegenüber RISC zusätzlichen
> Aufwand mitschleppen zu können.

Welcher Wasserkopf?
Durch die MicroOpcodes ist die CPU ein RISC Kern und mit diesen werden 
dann die CISC Instruktionen der x86 Architektur nachgebildert.

Ein normaler RISC macht hier auch nichts anderes, als mehrere Opcodes 
hintereinander auszuführen um einen Befehl auszuführen, den ein einziger 
CISC Befehl ausführen wurde. Bei den normalen RISC CPUs nennt man das 
eben nur nicht µOpcodes.

> Dito Intel Atom vs. ARM Cortex A15. Der
> Wasserkopf ist da, aber der effektive Unterschied für den Anwender
> nicht.

Gerade der Atom ist AFAIK KEIN Intel RISC, wie eben der Pentium 2 bzw. 
genauer der Pentium Pro ( ich vergesse leider immer wieder, dass es den 
Pro gab, die RISC microopcode Bauweise fing natürlich mit dem Pro an, 
nicht mit dem P2).

von Robert L. (lrlr)


Lesenswert?

@ Computerfachprofi


>Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element
>Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine
>spezielle Behandlung die unter Umständen langsamer sein kann, als das
>etwas mehr Speicher fordernde UTF-16 Format.

das stimmt so nicht..
hier der ERSTE absatz:
http://www.unicode.org/faq/utf_bom.html

nicht jedes "zeichen" in UFT_16 ist 2 Byte lang...

>Blödsinn.

>Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch
>1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp.

DAS wäre jetzt interessant
im RAM ??

(ich kenne das nur von serieller übertragung (terminal) dass man sich 
das 1 bit sparte, aber im RAM ?? dort war doch immer schon 1 Byte = 8 
Bit ??


(der 386 war auch nicht IN ALLEN BELANGEN besser als der AMiga, aber das 
lassen wir jetzt mal...)

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> Welcher Wasserkopf?

Dekodierung von Befehlen mit stark variabler Länge und mit Präfixen, die 
die Erkennung der Länge der Befehle beeinflussen. Der Pentium 1 und die 
Nexgen/AMDs verwendeten deshalb Predecoding mit 1-5 zusätzlichen Bits 
pro Byte im I-Cache. Ebenso der Trace-Cache (zzgl. eines anderen 
Vorteils) vom Pentium 4 und der microop cache vom Sandy Bridge.

NB: Auch 68020 und Nachfolger hatten arg aufwendig superskalar zu 
dekodierende Befehle.

> Gerade der Atom ist AFAIK KEIN Intel RISC

Sicher, aber am Problem der superskalaren Dekodierung ändert das nichts. 
Verlängert mindestens die Pipeline, vergrössert ggf. die Fläche durch 
zusätzliche Caches oder -bits.

> wie eben der Pentium 2 bzw.
> genauer der Pentium Pro ( ich vergesse leider immer wieder, dass es den
> Pro gab, die RISC microopcode Bauweise fing natürlich mit dem Pro an,
> nicht mit dem P2).

Die Methode hatten andere ziemlich zeitgleich zu Intel allerdings auch 
drauf, wie Nexgen (Nx586, aus dem Nx686 Design wurde letztlich der AMD 
K6) und AMD (K5). Ich meine mich zu erinnern, dass zumindest 
publizistisch Nexgen vorne lag.

von Mandy (Gast)


Lesenswert?

Computerfachprofi schrieb:
> AntiHirnWäscher schrieb:
>> Computerfachprofi schrieb:
>>> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu
>>> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung
>>> auf, meistens, wenn Updates eingespielt werden
>>
>> LTS Version ?
>
> Die auch.

Die Patches von MS sind auch nicht ohne, aber die notwendigen 
Virenscanner Updates sind eine viel größeres Risiko.

von Mandy (Gast)


Lesenswert?

Mandy schrieb:
> Die Patches von MS sind auch nicht ohne, aber die notwendigen
> Virenscanner Updates sind eine viel größeres Risiko.

Kaum schreibt man es, schon passiert es: 
http://www.heise.de/newsticker/meldung/Microsoft-zieht-Sicherheitsspatch-fuer-Windows-und-Windows-Server-zurueck-1840771.html

von Computerfachprofi (Gast)


Lesenswert?

Robert L. schrieb:
> @ Computerfachprofi
>
>
>>Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element
>>Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine
>>spezielle Behandlung die unter Umständen langsamer sein kann, als das
>>etwas mehr Speicher fordernde UTF-16 Format.
>
> das stimmt so nicht..
> hier der ERSTE absatz:
> http://www.unicode.org/faq/utf_bom.html
>
> nicht jedes "zeichen" in UFT_16 ist 2 Byte lang...

Okay, dann hat sich das im Laufe der Zeit geändert.
Hast Recht.




>
>>Blödsinn.
>
>>Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch
>>1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp.
>
> DAS wäre jetzt interessant
> im RAM ??
>
> (ich kenne das nur von serieller übertragung (terminal) dass man sich
> das 1 bit sparte, aber im RAM ?? dort war doch immer schon 1 Byte = 8
> Bit ??

Wenn Speicherplatz knapp war, dann hat man das Zeugs eben Bitweise ins 
RAM kodiert.

Ältere Rechner hatten dazu auch eine andere Wortbreite.

Die Wortbreite 1 Byte = 8 Bit hat sich später dann durchgesetzt

Es gab aber auch Computer mit völlig unterschiedlicher Wortbreite.
http://en.wikipedia.org/wiki/Word_%28computer_architecture%29#Word_size_choice

Auch nachzulesen in dem Buch Computerarchitekur von Andrew Tanenbaum.
http://www.amazon.de/Computerarchitektur-Strukturen-Grundlagen-Andrew-Tanenbaum/dp/3827371511/

von Np R. (samweis)


Lesenswert?

Computerfachprofi schrieb:
> Schon der 386er lies jeden Amiga alt aus sehen.
Hm? Jeden? Jeden A500?
Also, ich habe meinen A4000 mit 68060/50 noch bis über die 
Jahrtausendwende benutzt.

von (prx) A. K. (prx)


Lesenswert?

Um alt auszusehen dürfte er da aber schon qualifiziert gewesen sein.

von Rolf M. (rmagnus)


Lesenswert?

Computerfachprofi schrieb:
> troll schrieb:
>> Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man
>> jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere
>> Hardware im  Vergleich zum IBM-AT.
>
> Hatte er nicht.
>
> Schon der 386er lies jeden Amiga alt aus sehen.

Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen 
mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein, 
dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC 
alles aufwendig in Software erledigt werden mußte.

> Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu
> programmierenden AGA Chipsatz.

VGA hat aber praktisch keine Features. Nicht mal einen Blitter gab es. 
Jeden Pixel mußte man einzeln in Software auf den Bildschirm malen. Und 
aus unerfindlichen Gründen wurde der Speicher im 320x200-Modus nicht 
einfach linear adressiert, sondern auf eine Art, durch die 3/4 des 
Grafikspeichers brach lagen. Eine lineare Adressierung wurde dann in der 
Grafikkarte emuliert. Für Sachen wie double buffering mußte man deshalb 
den Chain4-Modus abschalten und das dabei entstehende Adressierungschaos 
zu Fuß lösen.

Computerfachprofi schrieb:
> Richtig ist lediglich, dass Windows XP recht Umständlich bei der der
> Konfiguration und Usability ist, wenn man mal etwas konfigurieren und
> sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe
> ja inzwischen Windows 7

Hmm, also ich finde mich bei Windows 7 noch schlechter zurecht, als bei 
XP. Die Konfigurations-Optionen erscheinen mir noch versteckter, und 
wenn man einmal falsch klickt, hat man gleich wieder einen völlig 
nutzlosen Wizard an der Backe, der 3 Minuten lang eine nichtssagende 
Animation darstellt und dann ganz lapidar sagt, daß ihm auch keine 
Lösung für das Problem einfällt.

Computerfachprofi schrieb:
> MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das
> zukünftige OS werden.
>
> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected
> Mode des 386er laufen konnte und diesen recht weitgehend nutzte.

Es lief aber dennoch unter DOS. Und ich hätte es für logischer erachtet, 
diese Funktionalität erstmal in DOS einzubauen und in der graphischen 
Oberfläche dann zu nutzen, denn es ist logisch betrachtet eine 
Basisfunktion des Betriebssystems und nicht Teil einer graphischen 
Oberfläche.

von Computerfachprofi (Gast)


Lesenswert?

np rn schrieb:
> Computerfachprofi schrieb:
>> Schon der 386er lies jeden Amiga alt aus sehen.
> Hm? Jeden? Jeden A500?
> Also, ich habe meinen A4000 mit 68060/50 noch bis über die
> Jahrtausendwende benutzt.

Nunja, mir ging es mehr um den 386 als Architektur mit modernem Design, 
nicht als konkreter Chip. Also Protected Mode mit Paging, MMU und 
Virtual 8086 RealMode.
Und hier war der 386er einfach Wegweisend und bezüglich der 
Geschwindigkeit kann man hier auch den Pentium oder 486DX4 gegen den 
68060/60 antreten lassen.

Den 486er deswegen, weil er im Prinzip den 386er weitgehend geerbt hat 
und nur noch die FPU integriert wurde und ein bisschen am Cache und den 
Taktraten geschraubt wurden. Im Kern war es doch ein 386er. Es machte ja 
auch keinen Sinn mehr, den 386er mit höheren Taktraten anzubieten, wenn 
das Feld schon lange an den 486er übergeben wurde.

Und den Pentium kann man nehmen, weil man, als der 68050/60 dann endlich 
auf dem Markt war, der Pentium zu der Zeit als dieser 68050/60 erschien 
das eigentliche CPU Gegenstück für teils auch weniger Geld war und nicht 
der ca. 9 Jahre ältere 386er.

Technisch auf den PC bezogen betrachtet war der 386er der Beginn des 
Ende des Amiga.
Beim 286er war das noch nicht ganz so klar.

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Computerfachprofi schrieb:
>> troll schrieb:
>>> Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man
>>> jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere
>>> Hardware im  Vergleich zum IBM-AT.
>>
>> Hatte er nicht.
>>
>> Schon der 386er lies jeden Amiga alt aus sehen.
>
> Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen
> mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein,
> dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC
> alles aufwendig in Software erledigt werden mußte.

Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah 
auch im Sound der Amiga alt aus.
Die Erweiterbarkeit ist schließlich auch ein Feature des PC.

Und was die CPU betrifft war die nicht nur von der Rechenleistung 
besser,
sondern der 386er hatte auch schon eine MMU, was erst spätere 68k 
Prozessoren bekamen.
Die gängigen Amigas, also der Amiga 500, 600, 1200 und 2000 hatten alle 
keine MMU und von denen gab es lediglich für die CPU 68020 des Amiga 
1200 einen Baustein um eine MMU nachzurüsten, aber ob das im konkreten 
Amiga 1200 Modell dann auch möglich gemacht wurde, das ist mir nicht 
bekannt.

Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und 
vielen Farben in die Tasche.

>> Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu
>> programmierenden AGA Chipsatz.
>
> VGA hat aber praktisch keine Features. Nicht mal einen Blitter gab es.
> Jeden Pixel mußte man einzeln in Software auf den Bildschirm malen. Und
> aus unerfindlichen Gründen wurde der Speicher im 320x200-Modus nicht
> einfach linear adressiert, sondern auf eine Art, durch die 3/4 des
> Grafikspeichers brach lagen. Eine lineare Adressierung wurde dann in der
> Grafikkarte emuliert. Für Sachen wie double buffering mußte man deshalb
> den Chain4-Modus abschalten und das dabei entstehende Adressierungschaos
> zu Fuß lösen.

Der Amiga hatte das Problem, dass er für animierte Spiele bestenfalls 
nur AFAIK 64 Farben im EHB Modus gleichzeitig darstellen konnte und um 
das zu realisieren war das ansteuern der Bits ziemlich umständlich, 
während mit VGA 256 Farben gleichzeitig auf einfache Weise möglich waren 
und dies auch einfach zu adressieren waren 1 Byte/Pixel => 256 Farben.
Der HAM Modus mit 4086 Farben war für Bewegtbilder weitgehend 
unbrauchbar.

Und als dann für den PC die VESA Modi verfübar waren, sah es für den 
Amiga dann ganz alt aus.


Grafikkarten mit Blitter gab es durchaus, nur waren die nicht 
Bestandteil des VGA Standards.
IBM versuchte mit dem IBM PS/2 Modell der im April 1987 erschien und der 
darin verbauten IBM 8514 Grafikkarte den VGA Standard zu erweitern und 
diese Karte hatte dann auch schon einen Blitter integriert:

http://en.wikipedia.org/wiki/IBM_8514

Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder 
an sich zu reißen, war die Unterstützung dieses erweiterten 
Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA 
Standard.

In der Zwischenzeit kamen von Grafikkartenherstellern natürlich immer 
weitere SVGA Karten heraus, die VGA konnte und noch weitere zusätzliche 
Modi und Features wie 2d Beschleuningsfeatures inkl. Blitter boten, nur 
mußte man diese Features mangels Standardisierung eben extra ansprechen 
und somit für jedes SW Produkt eigene Treiber dafür schreiben, weswegen 
bei den Spielen bis auf wenige Ausnahmen (z.B: der FS Flight Simulator) 
die meisten Spiele sich auf den kleinsten gemeinsamen Nenner, also VGA 
einigten.

Mit Windows 3.1 und der WinG API sollten diese Blitter aber, sofern es 
zu der jeweiligen Grafikkarte einen speziellen Grafiktreiber für Windows 
3.1 gab, der diese Features anbot, für Spiele verwendbar sein.
Praktisch wurde die WinG API und Windows 3.1 natürlich sehr schnell von 
Windows 9x abgelöst, womit der Nachfolger der WinG API, also DirectX das 
Feld übernahm, aber die Richtung war klar.





>
> Computerfachprofi schrieb:
>> Richtig ist lediglich, dass Windows XP recht Umständlich bei der der
>> Konfiguration und Usability ist, wenn man mal etwas konfigurieren und
>> sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe
>> ja inzwischen Windows 7
>
> Hmm, also ich finde mich bei Windows 7 noch schlechter zurecht, als bei
> XP. Die Konfigurations-Optionen erscheinen mir noch versteckter, und
> wenn man einmal falsch klickt, hat man gleich wieder einen völlig
> nutzlosen Wizard an der Backe, der 3 Minuten lang eine nichtssagende
> Animation darstellt und dann ganz lapidar sagt, daß ihm auch keine
> Lösung für das Problem einfällt.

Die Admin User Trennung bei XP ist grottig, sie ist so schlecht, dass 
der größte Teil der User Windows XP ständig im Administratormodus 
verwendet hat.

Mit Windows 7 (bzw. genauer Visa) wurde dieses Problem gelöst.
Man kann hier als normaler Benutzer mit einfachen Rechten arbeiten und 
wenn es etwas zu Konfigurieren oder Installieren gibt, dann wird von der 
der normalen Benutzersession aus, nach dem Adminpasswort gefragt um dann 
diese Aufgaben, die höhere Adminprivilegien erfordern, durchführen zu 
können.

Unter Windows XP gab's so etwas nur mit dem Kommandozeilenbefehl 
runas.exe
und damit brachen sich nur die wenigsten einfachen User den Arm ab.

Das es in der Anordnerung der GUI auch Änderungen hier und da gab und 
der erfahrene Benutzer nun seinen Gerätemanager unter einer neuen 
Menüführung suchen muss und damit aus reinen Gewohnheitsgründen nicht so 
gut klar kommt, ist klar, aber das ist eben nur eine Frage der 
Gewohnheit.
Objektiv betrachtet ist die Menüführung logischer und damit besser 
geworden.

Hier mußt du einfach mal unvoreingenommene Benutzer, die noch nie einen 
Computer* gesehen haben, an eine Windows XP und Windows 7 Maschine 
setzen und dann vergleichen lassen.
* Gibt's im Gefängniss bei >  15 Jahre Häftlingen.



>
> Computerfachprofi schrieb:
>> MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das
>> zukünftige OS werden.
>>
>> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected
>> Mode des 386er laufen konnte und diesen recht weitgehend nutzte.
>
> Es lief aber dennoch unter DOS. Und ich hätte es für logischer erachtet,
> diese Funktionalität erstmal in DOS einzubauen und in der graphischen
> Oberfläche dann zu nutzen, denn es ist logisch betrachtet eine
> Basisfunktion des Betriebssystems und nicht Teil einer graphischen
> Oberfläche.

DOS war aber eine Sackgasse, es lief im Real Mode und alle Programme die 
für DOS geschrieben wurden erwarteten daher, auch, dass sie direkten 
Zugriff auf die Hardware und das BIOS haben.
Mit so einem alten Gaul kannst du kein neues OS stemmen, es bedarf dazu 
einer völligen Neuentwicklung und die kam mit Windows NT und OS/2.

Was aber MS für die Übergangslösung richtig gemacht hat war, dass sie 
wenigstens mit Windows 3.x die Anwendungsprogramme durch die WinAPI von 
der Hardware und dem darunterliegenden OS abstrahiert haben und damit 
später ein Wechsel nach Windows NT sehr einfach wurde.

Der Schritt hat sich ausgezahlt und war goldrichtig.

Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an.
Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten.

Microsoft konnte mithilfe von Windows 3.1 die Windows Anwendungen nach 
Windows NT hinüber retten.
Und die Windows Anwendungen waren stark verbreitet, weil Windows 3.1 
noch auf einem DOS lief und die Einstiegshürden in die Windows Welt also 
sehr einfach war.

Ein genialer Schachzug, sozusagen.

Und wenn man es ganz genau will, dann war eigentlich Windows 95 genau 
das was du gerne hättest.
Im Prinzip eine Weiterentwicklung von DOS, die schnell in den Protected 
Mode sprang und den DOS Unterbau weitgehend mit einer weiterentwickelten 
Win9x Kernellösung ersetzte.

Das diese DOS Altlasten aber weiterhin ihre Nachteile mit sich brachten, 
das konnte dann trotzdem jeder Windows 9x/Me User an den vielen 
BlueScreens erleben.

Wer von den DOS Altlasten seine Ruhe wollte, der mußte auf Windows NT 
und ordentliche Windows NT Treiber setzen.


Im Prinzip muss man also Microsoft für den Schachzug Windows 3.x und 
WinAPI geradezu gratulieren. Auch wenn die WinAPI aus heutiger Sicht 
schon so manchem Programmierer die Nackenhaare zu Berge stehen läßt, hat 
sie aus damaliger Sicht doch eine einheitliche Programmierumgebung für 
Anwendungsprogrammierer geschaffen und somit Zusatzhardware und 
Spezialfeatures (wie z.B. Grafikkarten mit 2d Beschleuigungsfunktionen, 
Soundkarten usw.) unter einer einheitlichen HW Ansteuerung den Weg 
geebnet.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> Den 486er deswegen, weil er im Prinzip den 386er weitgehend geerbt hat
> und nur noch die FPU integriert wurde und ein bisschen am Cache und den
> Taktraten geschraubt wurden. Im Kern war es doch ein 386er.

Der Kern war zwar unverändert klassisch CISC, aber mit viel 
ausgeprägterem Pipelining als beim 386. Der Pentium 1 übernahme die 
(Integer-) Pipeline, nur doppelt. Am Cache des 386 Prozessors konnte man 
intern nicht schrauben, denn er hatte überhaupt keinen an Bord. Extern 
anfangs oft auch nicht. Der 486 war also eine weitgehend neue 
Entwicklung.

von Rolf M. (rmagnus)


Lesenswert?

Computerfachprofi schrieb:
>> Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen
>> mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein,
>> dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC
>> alles aufwendig in Software erledigt werden mußte.
>
> Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah
> auch im Sound der Amiga alt aus.

Klar konnte man eine Soundkarte einbauen. Aber die konnte dann (wenn 
überhaupt) auch nur ein einzelnes Sample abspielen. Beim Amiga konnte 
der Soundchip schon von sich aus vier Samples zusammenmischen. Auf dem 
PC mußte man auch das umständlich in Software machen, was schon mal 
einen gewissen Teil des Leistung aufgefressen hat. Die Stärke des Amiga 
waren die dedizierten Hardware-Einheiten, die den Prozessor entlasteten.

> Und was die CPU betrifft war die nicht nur von der Rechenleistung
> besser, sondern der 386er hatte auch schon eine MMU, was erst spätere 68k
> Prozessoren bekamen.

Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt 
hätte.

Computerfachprofi schrieb:
> Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und
> vielen Farben in die Tasche.

Was gab es denn für 3D-Grafik beim 386? Da lief ja gerade mal DOOM 1 
einigermaßen drauf, und das hatte kein echtes 3D.

Computerfachprofi schrieb:
> Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder
> an sich zu reißen, war die Unterstützung dieses erweiterten
> Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA
> Standard.

Da gab es aber auch nur höhere Auflösungen und mehr Farben, aber keine 
zusätzlichen Funktionen.

Computerfachprofi schrieb:
> Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an.
> Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten.

Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war, 
was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch 
geführt hat. Ich hatte mir zusammen mit meinem ersten 486er OS/2 2.0 
gekauft. Da war DOS und Windows 3.0 gleich mit dabei, so daß man 
darunter auch DOS- und Windows-Programme laufen lassen konnte. 
DOS-Programme entweder im Full-Screen oder im Fenster, für Windows gab 
es sogar einen eigenen kompletten Windows-Desktop, aber man konnte die 
Programme auch voll in den OS/2-Desktop integriert laufen lassen. Dabei 
wurde sogar auch schon die Hardware virtualisiert, so daß DOS-Programme 
meinten, direkt auf die Hardware zuzugreifen.
Systemanforderung für OS/2 war 4MB, aber ich mußte feststellen, daß man, 
wenn man darunter auch ein Programm laufen lassen wollte, mehr 
benötigte. Deshalb habe ich mir dann eine Woche später DOS und Windows 
gekauft.

von (prx) A. K. (prx)


Lesenswert?

Rolf Magnus schrieb:
> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
> hätte.

Beispiele mit DOS-Bezug:

EMM386/QEMM für Speichernutzung,
VM/386: Hypervisor für mehrere DOS Instanzen gleichzeitig,
DESQview: Mehrere DOS Programme parallel.

Und natürlich die Unixe. Bis auf EMM386 wurde nichts davon in der 
grossen Masse eingesetzt, aber es gab schon so allerhand.

von Rolf M. (rmagnus)


Lesenswert?

A. K. schrieb:
> Rolf Magnus schrieb:
>> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
>> hätte.
>
> Beispiele mit DOS-Bezug:
>
> EMM386/QEMM für Speichernutzung,

Das nutzt aber auch nur den Nebeneffekt der 386-MMU, daß man damit die 
Begrenzung der Adressen auf 16 Bit umgehen kann.
Die eigentlichen MMU-Features wie Speicherschutz und Paging verwendet es 
aber nicht.

von (prx) A. K. (prx)


Lesenswert?

Rolf Magnus schrieb:
> Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war,
> was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch
> geführt hat.

OS/2 war wesentlich besser als das damals grossflächig eingesetzte Win 
3.x, hatte aber eine recht schaurige interne Struktur. WinNT war da als 
konsequente Neuentwicklung eine echte Erlösung.

Der 16-Bit Vorgänger OS/2 V1 war bimodal und wurde mit dynamischer 
Umschaltung zwischen protected mode und real mode eingesetzt. DOS 
Programme liefen im real Mode quasi parallel zu protected mode OS/2 
Programmen.

Intel hatte es aber in voller Absicht vermieden, einen Weg vom protected 
mode zurück in den real mode zu implementieren. Wer das benötigte, wie 
eben OS/2 V1, der musste es via Reset durchführen (wortwörtlich, oder 
mit Hacks wie dem triple fault). Device driver waren folglich ebenfalls 
bimodal, mussten also in beiden Modi unverändert laufen, was die 
Programmierung nicht unbedingt erleichterte.

OS/2 V2 war intern ein Hybrid aus 16-Bit und (anfangs nur wenig) 32-Bit 
Komponenten. Die Abbildung der Speicherverwaltungen aufeinander 
widerspiegelte das aufs Unschönste. Weshalb man Probleme bekam, wenn 
Speicherblöcke quer über einer 64KB-Grenze lagen. Die 16-Bit Komponenten 
des Systems konnten die nämlich nicht geschlossen ansprechen.

Im weiteren Verlauf litt OS/2 unter einem unpassend implementierten 
Filesystem. HPFS war zwar strukturell ok, die Implementierung hielt aber 
mit den wachsenden Speicherkapazitäten nicht mit. Bei HPFS386 legte sich 
Microsoft quer (das war ja deren Entwicklung) um OS/2 zu bremsen und das 
alte reine 16-Bit HPFS konnte kaum vernünftig cachen. IBM hatte zwar in 
AIX ein schönes JFS, konnte den Code aber aufgrund seiner Unix-Historie 
schon aus rechtlichen Gründen nicht verwenden, technisch wohl auch 
nicht. IBM entwickelte zwar ein portables JFS2, aber für OS/2 kam das zu 
spät.

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Computerfachprofi schrieb:
>>> Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen
>>> mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein,
>>> dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC
>>> alles aufwendig in Software erledigt werden mußte.
>>
>> Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah
>> auch im Sound der Amiga alt aus.
>
> Klar konnte man eine Soundkarte einbauen. Aber die konnte dann (wenn
> überhaupt) auch nur ein einzelnes Sample abspielen.

Für das Software Mixing hatte man ja die leistungsstarke CPU.
Schon bei Spielen wie AFAIK X-Wing konnte ich im Setup selbst 
einstellen, wieviele Samples meine Soundblaster Pro gleichzeitig 
ausgeben soll.




>> Und was die CPU betrifft war die nicht nur von der Rechenleistung
>> besser, sondern der 386er hatte auch schon eine MMU, was erst spätere 68k
>> Prozessoren bekamen.
>
> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
> hätte.

Irrtum!
Viele spätere DOS Spiele verwendeten den DOS/4G extender um mehr 
Speicher verwenden zu können, dieser schaltete dann die CPU in den 
Protected Mode und wenn das Spiel beendet wurde, wieder zurück in den 
Real Mode.
Letzteres war der Hauptgrund warum für DOS/4G und viele spätere DOS 
Spiele überhaupt ein 386er notwendig war, denn nur dieser konnte 
problemlos vom Protected Mode wieder in den Real Mode zurückschalten.
Beim 286er war dies nicht wirklich vorgesehen, auch wenn es durch 
umständliche Tricks ging, war da immer noch das Problem mit der 
Speichersegmentierung, weswegen man für spätere DOS Spiele mindestens 
einen 386er voraussetzte.
http://en.wikipedia.org/wiki/DOS/4G





>
> Computerfachprofi schrieb:
>> Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und
>> vielen Farben in die Tasche.
>
> Was gab es denn für 3D-Grafik beim 386? Da lief ja gerade mal DOOM 1
> einigermaßen drauf, und das hatte kein echtes 3D.

Elite 1 ist ein echtes 3d Spiel und kam schon 1984 auf den Markt.
http://de.wikipedia.org/wiki/Elite_%28Computerspiel%29

Das setzte zwar noch keinen 386er vorraus, aber X-Wing tat es auf alle 
Fälle.
Ebenfalls ein echtes 3d Spiel.

Und der Nachfolger von Elite, also Elite 2 Frontier lief auf dem Amiga 
500 stark ruckelig, während es auf dem PC flüssig lief.





>
> Computerfachprofi schrieb:
>> Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder
>> an sich zu reißen, war die Unterstützung dieses erweiterten
>> Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA
>> Standard.
>
> Da gab es aber auch nur höhere Auflösungen und mehr Farben, aber keine
> zusätzlichen Funktionen.

Habe ich auch nicht behauptet.



>
> Computerfachprofi schrieb:
>> Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an.
>> Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten.
>
> Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war,
> was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch
> geführt hat. Ich hatte mir zusammen mit meinem ersten 486er OS/2 2.0
> gekauft. Da war DOS und Windows 3.0 gleich mit dabei, so daß man
> darunter auch DOS- und Windows-Programme laufen lassen konnte.
> DOS-Programme entweder im Full-Screen oder im Fenster, für Windows gab
> es sogar einen eigenen kompletten Windows-Desktop, aber man konnte die
> Programme auch voll in den OS/2-Desktop integriert laufen lassen. Dabei
> wurde sogar auch schon die Hardware virtualisiert, so daß DOS-Programme
> meinten, direkt auf die Hardware zuzugreifen.
> Systemanforderung für OS/2 war 4MB, aber ich mußte feststellen, daß man,
> wenn man darunter auch ein Programm laufen lassen wollte, mehr
> benötigte. Deshalb habe ich mir dann eine Woche später DOS und Windows
> gekauft.


Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig 
waren es die fehlenden Anwendungen. Das Speicherproblem löste sich mit 
der Zeit ja von allein.

von Computerfachprofi (Gast)


Lesenswert?

A. K. schrieb:

>
> Und natürlich die Unixe. Bis auf EMM386 wurde nichts davon in der
> grossen Masse eingesetzt, aber es gab schon so allerhand.


DOS4/G wurde Massenhaft eingesetzt, schade das das oft vergessen wird.

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
> A. K. schrieb:
>> Rolf Magnus schrieb:
>>> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
>>> hätte.
>>
>> Beispiele mit DOS-Bezug:
>>
>> EMM386/QEMM für Speichernutzung,
>
> Das nutzt aber auch nur den Nebeneffekt der 386-MMU, daß man damit die
> Begrenzung der Adressen auf 16 Bit umgehen kann.
> Die eigentlichen MMU-Features wie Speicherschutz und Paging verwendet es
> aber nicht.

Doch, Paging wird verwendet, sobald du den Speicher im Protected Mode 
ansteuerst.
Und das war ein eigentliches Feature der MMU.


Der Speicherschutz war unter DOS kein Thema, aber wer den haben wollte, 
der bekam das mit OS/2.

Aber ich weiß auch gar nicht, warum du daran herumnörgelst. Die frühen 
Amigas hatten gar keine MMU und keinen Speicherschutz, also selbst wenn 
man wollte, ging es nicht. Beim 386er ging es immer mit OS/2 und später 
Win NT.

von Computerfachprofi (Gast)


Lesenswert?

Dieser 286 und 386 protected Mode Mischmasch bei OS/2 war übrigens einer 
der Hauptgründe, warum Microsoft mit IBM die zusammenarbeit abbrach.

IBM wollte nämlich unbedingt, dass OS/2 auch auf dem 286er funktioniert, 
während Microsoft die Nachteile, die durch den Protected Mode des 286er 
auftraten, nicht akzeptieren wollte.
Das Ergebnis war dann am Ende, dass IBM OS/2 weiter entwickelte und 
Microsoft mit Windows NT ein reines ab 386er Betriebssystem entwickelte.

von Computerfachprofi (Gast)


Lesenswert?

Heisenberg schrieb im Beitrag #3127206:

> DOS hat das meiste aus der Hardware geholt weil es praktisch nichts als
> ein Bootloader ist.

Es ist auch ein Disk Operating System.
Es verwaltet also das Dateisystem und bietet Funktionen für den Schreib 
und Lesezugriff auf das Dateisystem.


> Witzigerweise hat das OS dann später die Hardware vorgegeben. Für
> Windows 95 brauchte man x MB RAM. Nur für das Betriebssystem! Vorher war
> die Hardware egal solange man genügend Ressourcen für sein Programm
> hatte. DOS lief immer, egal ob auf einem 8088 oder einem Pentium. Und es
> wurde ja immer schlimmer im Lauf der Zeit. Auch Linux war hier nicht
> besser. Ein ressourcenfressendes Betriebssystem ist wie ein Land das zu
> 50% aus Beamten besteht ... und hier sind wir wieder bei Griechenland
> angelangt.

Naja, man kann DOS mit den späteren Betriebssystemen nicht vergleichen.
Letztere bieten so viel mehr als DOS.

Beispiele:
- Speicherverwaltung (also das RAM, nicht nur das Dateisystem)
- Journaling Dateisysteme
- Treiber und eine standardisierte API für den Zugriff auf 
unterschiedlichste HW. Bei DOS mußten die Anwendungen alle Treiber noch 
selber programmieren oder darauf vertrauen, dass es einen einheitlichen 
Hardwarestandard gab. (z.B. VGA oder VESA).
- Multitasking
- einheitlichen Zugriff auf das Netzwerk über standardisierte Protokolle

Das ist nur eine Auswahl der wichtigsten Features eines modernen OS und 
das so etwas im Hintergrund natürlich einiges an Speicher benötigt, das 
ist klar.

Ich möchte diese Features übrigens auch nicht mehr missen, es wurde also 
nicht schlimmer, sondern besser.

Windows NT war im Vergleich zu DOS ein Segen.
Natürlich braucht es mehr Ressourcen, aber wer damals eine stabile 
Arbeitsumgebung haben wollte, der hat einfach das Geld in mehr Speicher 
investiert.
Ein Speicherausbau mit bis zu 16 MB war auch damals kein Problem.

Es kostete halt mehr Geld, aber wenn man daran denkt, was man für den 
IBM PC bezahlte, waren die 16 MB RAM für den > 386er geradezu günstig.

Und ob sich die Sache dann finanziell rentierte, das hing natürlich ganz 
vom Job ab. Das ist klar.

von (prx) A. K. (prx)


Lesenswert?

Heisenberg schrieb im Beitrag #3127206:
> und die PC Hardware war zu schwach für effektives Multitasking.

Aus heutiger Sicht betrachtet waren damalige Rechner natürlich völlig 
unbrauchbar, konnte man doch nicht einmal einen einzigen 3D-Desktop mit 
1920x1080 drauf laufen lassen. ;-)

In den 80ern war die Konsole die Norm. Bereits auf einen PDP-11 in der 
70ern haben mehrere Leute gleichzeitig gearbeitet, später sassen an 
einer VAX-750 mit 4MB RAM schon mal 10 Leute gleichzeitig dran. Und die 
war nicht schneller als eine 68000.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> DOS4/G wurde Massenhaft eingesetzt, schade das das oft vergessen wird.

Sorry dass ich das vergass, aber meine Beispiele waren ohnehin nicht als 
vollständige Auflistung aller Dosenöffner gedacht. Den von Rational 
kannte ich ausserdem nur als Dreingabe von Zortech.

von Rolf M. (rmagnus)


Lesenswert?

Computerfachprofi schrieb:
>>> Und was die CPU betrifft war die nicht nur von der Rechenleistung
>>> besser, sondern der 386er hatte auch schon eine MMU, was erst spätere
>>> 68k Prozessoren bekamen.
>>
>> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
>> hätte.
>
> Irrtum!
> Viele spätere DOS Spiele verwendeten den DOS/4G extender um mehr
> Speicher verwenden zu können, dieser schaltete dann die CPU in den
> Protected Mode und wenn das Spiel beendet wurde, wieder zurück in den
> Real Mode.

Um genau zu sein: DOS/4GW, die für Watcom angepaßte und etwas 
beschnittene Version von DOS/4G. Damit habe ich selbst programmiert. 
Aber auch hier wurde das nur genutzt, um das beschränkte Speichermodell 
mit Segmentierung und 16-Bit-Adressregistern und einem Adressraum von 
insgesamt maximal 1MB zu umgehen - etwas, das beim Amiga gar nicht nötig 
war. Also kann man gerade bei diesem Einsatzszenario nicht wirklich 
davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga 
gebracht hätte.

> Elite 1 ist ein echtes 3d Spiel und kam schon 1984 auf den Markt.
> http://de.wikipedia.org/wiki/Elite_%28Computerspiel%29
>
> Das setzte zwar noch keinen 386er vorraus, aber X-Wing tat es auf alle
> Fälle.
> Ebenfalls ein echtes 3d Spiel.
>
> Und der Nachfolger von Elite, also Elite 2 Frontier lief auf dem Amiga
> 500 stark ruckelig, während es auf dem PC flüssig lief.

Ok, mag sein. Bei 3D war der Amiga natürlich nicht so schnell, da er da 
dann auch keine Hardware-Einheit dafür hatte und es deshalb wie der PC 
in Software machen mußte. Dabei zeigt sich dann direkt der Unterschied 
in der Rechenleistung. Das war allerdings damals auch noch nicht gerade 
der Haupt-Anwendungsfall.

> Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig
> waren es die fehlenden Anwendungen.

Worauf ich hinaus wollte, war, daß OS/2 anfangs auch DOS und Windows 
enthalten hat und damit auch ein Großteil der dafür programmierten 
Anwendungen auch unter OS/2 liefen, zusätzlich zu denen für OS/2 selbst.

Computerfachprofi schrieb:
> Aber ich weiß auch gar nicht, warum du daran herumnörgelst.

Ich "nörgle" nicht, sondern lasse die MMU als großen Vorteil gegenüber 
anderen Plattformen nur nicht gelten, wenn der einzige Anwendungsfall 
damals war, das limitierte Speichermodel des x86 im Real-Mode zu 
umgehen. Vor allem, wenn die Vergleichsplattform für den gleichen 
Anwendungsfall gar keine MMU braucht, weil ihr Speichermodell schon von 
vornherein nicht so eingeschränkt ist.

von Arc N. (arc)


Lesenswert?

A. K. schrieb:
> Heisenberg schrieb im Beitrag #3127206:
>> und die PC Hardware war zu schwach für effektives Multitasking.

Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives 
Multitasking auf Home-Computern

> Aus heutiger Sicht betrachtet waren damalige Rechner natürlich völlig
> unbrauchbar, konnte man doch nicht einmal einen einzigen 3D-Desktop mit
> 1920x1080 drauf laufen lassen. ;-)

Na, ganz so schlimm war es nicht... Nur nicht weitverbreitet... 1981 als 
MSDOS rauskam, gab's auch den Xerox Star (GUI, Ethernet, Maus) ;-)
RTOS-UH/Pearl wird da auch gerne vergessen (die erste DIN-Norm ist 
ebenfalls aus dem Jahr 1981...)

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:

>
> Um genau zu sein: DOS/4GW, die für Watcom angepaßte und etwas
> beschnittene Version von DOS/4G. Damit habe ich selbst programmiert.
> Aber auch hier wurde das nur genutzt, um das beschränkte Speichermodell
> mit Segmentierung und 16-Bit-Adressregistern und einem Adressraum von
> insgesamt maximal 1MB zu umgehen - etwas, das beim Amiga gar nicht nötig
> war. Also kann man gerade bei diesem Einsatzszenario nicht wirklich
> davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga
> gebracht hätte.

Doch, aber um das nachzuvollziehen solltest du dir mal anschauen, wie 
eine MMU auf dem 386er funktioniert:

Ohne MMU kein Paging.
Ohne Paging kein RAM > 1 MiB (auf dem 386er).

http://de.wikipedia.org/wiki/Virtuelle_Speicherverwaltung#Funktionsweise


Die MMU ist also ein essentieller Bestandteil.
Speicherschutz zwischen den Prozessen ist nur noch ein weiteres Feature, 
das mit der MMU möglich wird.





> Ok, mag sein. Bei 3D war der Amiga natürlich nicht so schnell, da er da
> dann auch keine Hardware-Einheit dafür hatte und es deshalb wie der PC
> in Software machen mußte. Dabei zeigt sich dann direkt der Unterschied
> in der Rechenleistung. Das war allerdings damals auch noch nicht gerade
> der Haupt-Anwendungsfall.

Eigentlich schon.
Der PC war bei (Spiele) Simulationen und sonstigen 3d Spielen die 
dominierende Plattform.

Falcon 3.0 (die letzte Falcon Version für den Amiga war Falcon 1)
Elite 2 Frontier
Wing Commander 2
X-Wing
Tie-Fighter
Gunship 2000
F-19 Stealth Fighter
F-15 Strike Eagle 3
Subwar
MS Flight Simulator
Red Baron
Aces over Europe
Aces of the Pacific
Battle of Britain - Their finest hour
Task Force 1942
Secret Weapons of the Luftwaffe
M1 Tank Platoon


Das ein oder andere Spiel gab es auch für den Amiga, aber der PC war 
hier immer schneller und besser, denn er bot mehr Rechenleistung und 
damit war die 3d Grafik wesentlich flüssiger.



Wer Simulationen oder 3d Spiele spielen wollte, der hat also, sofern das 
Geld da war, einen PC gekauft und keine Amiga.


Das Genre der Simulationen und sonstigen 3d Spiele hat eindeutig dem PC 
gehört.
Das der Rundenstrategiespiele übrigens auch.

Der Amiga begnügte sich daher eher mit Jump & Runs und sonstigen 2d 
Spielen.

Adventures und RPGs gab es auf beiden Plattformen gleichermaßen.


Die VGA Grafik dominierte hierbei sehr schnell das Feld bei den PC 
Simulationsspielen.
Lediglich beim Sound mußte man, sofern keine Soundkarte vorhanden war, 
in der Anfangszeit hier und da gegenüber einer Amiga Version abstriche 
machen,
aber mit Soundkarte war auch dieses Problem behoben.

Tank Platoon und Battle of Britain gehören hierbei sicher zu den 
ältesten in der obigen Liste und Adlib Support konnten die schon alle.




>
>> Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig
>> waren es die fehlenden Anwendungen.
>
> Worauf ich hinaus wollte, war, daß OS/2 anfangs auch DOS und Windows
> enthalten hat und damit auch ein Großteil der dafür programmierten
> Anwendungen auch unter OS/2 liefen, zusätzlich zu denen für OS/2 selbst.

Hier muss man aufpassen.
Es gab verschiedene Varianten.
Eine mit dem von MS lizenzierten Windows und eine ohne Windows.
DOS war immer in Form von IBM DOS dabei.

Daraus folgt, man konnte auch OS/2 ohne Windows 3.x kaufen.

Aber für OS/2 und dem Anwendungssupport war das keine Hilfe, sondern 
sogar im Endeffekt ein Nachteil.
Denn die Softwarefirmen entwickelten verstärkt für Windows 3.*, lief ja 
schließlich auch unter OS/2 in einer Windows 3.* Umgebung.
Damit gab es keinen Bedarf, die Anwendungen direkt nativ auf OS/2 zu 
supporten.

Und das ist das problem, native OS/2 Anwendungen gab es nur sehr wenige 
und das war auch der Grund warum OS/2 im Endeffekt trotz Warp Versionen 
usw. das Rennen gegen Windows verlor.

Der Anwendungssupport von Windows war einfach viel zu groß und das dank 
Windows 3.x, dem genialen Schachzug von MS, wie bereits oben erwähnt.

Darüberhinaus gilt, wer unter OS/2 Windows nutzen können wollte, der 
mußte den Aufpreis für die OS/2 Variante mit integriertem Windows 
bezahlen.
Es kostete also auch mehr Geld und war damit keine Lösung.


Entscheident waren also die nativen Anwendungen.

Und im Privatbereich war OS/2 insofern ein Problem, weil IBM einfach 
vergessen hat, die Spieler mit einer schnellen API zu versorgen, die 
einen schnellen Zugriff auf die Hardware zuläßt.

Microsoft bot so etwas mit der WinG API in Windows 3.1 und später dann 
mit DirectX in Windows 95.

Als OS/2 dann endlich OpenGL konnte, war es zu spät. Die Spielebranche 
hatte sich bereits auf Windows 95 eingeschossen und kräftig Spiele für 
Windows 95 ausgeliefert.

Und für die Privatpersonen gab es dann natürlich für viele auch keinen 
Grund daheim OS/2 zu verwenden, weswegen Windows dominierte.

Und Firmen bevorzugten Windows NT, weil daheim jeder sich mit zumindest 
Windows 3.x oder Windows 9x auskannte.



Zusammenfassend hat IBM also bei OS/2 folgende Fehler gemacht:

1. Support des 286er
2. Keine grafische Oberfläche für DOS, die die API Funktionen von OS/2 
anbot um die Anwendungsentwickler auf die API von OS/2 einzuspielen. 
Also kein Vendor-Lock-In
3. Keine Unterstützung der Bedürfnisse der Spielehersteller -> kein 
schneller Zugriff auf die Hardware über API Funktionen


Das OS/2, genauso wie Windows NT dann noch einen hohen Speicherbedarf 
hatte, verschärfte das Problem zusätzlich, war aber jetzt kein 
Designfehler, da es nicht anders ging und Windows NT das gleiche Problem 
hatte.






>
> Computerfachprofi schrieb:
>> Aber ich weiß auch gar nicht, warum du daran herumnörgelst.
>
> Ich "nörgle" nicht, sondern lasse die MMU als großen Vorteil gegenüber
> anderen Plattformen nur nicht gelten, wenn der einzige Anwendungsfall
> damals war, das limitierte Speichermodel des x86 im Real-Mode zu
> umgehen. Vor allem, wenn die Vergleichsplattform für den gleichen
> Anwendungsfall gar keine MMU braucht, weil ihr Speichermodell schon von
> vornherein nicht so eingeschränkt ist.

Wie schon gesagt, es gab Protected Mode Betriebssysteme die den 
Speicherschutz anboten.
Wer wollte, der konnte das nutzen.

von Computerfachprofi (Gast)


Lesenswert?

Arc Net schrieb:
> A. K. schrieb:
>> Heisenberg schrieb im Beitrag #3127206:
>>> und die PC Hardware war zu schwach für effektives Multitasking.
>
> Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives
> Multitasking auf Home-Computern

Aber ohne Speicherschutz.

OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und 
Speicherschutz.
Der Amiga 500 erschien im gleichen Jahr.

von Rolf M. (rmagnus)


Lesenswert?

Computerfachprofi schrieb:
>> Also kann man gerade bei diesem Einsatzszenario nicht wirklich
>> davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga
>> gebracht hätte.
>
> Doch, aber um das nachzuvollziehen solltest du dir mal anschauen, wie
> eine MMU auf dem 386er funktioniert:
>
> Ohne MMU kein Paging.
> Ohne Paging kein RAM > 1 MiB (auf dem 386er).

Und wo ist da jetzt der Vorteil gegenüber dem Amiga? Das Paging war nur 
nötig, um das auch dem real (bzw. virtual x86) mode durch Einblendung 
von Teilblöcken in die unteren 1MB zugänglich zu machen. Im Protected 
Mode hat der 386 auch ohne Paging 4GB Adressraum.
Aber nochmal: Die MMU wurde bei EMM386 und Konsorten ausschließlich 
benutzt, um eine Limitierung zu umgehen, die der Amiga gar nicht hatte. 
Also ist das kein Vorteil gegenüber dem Amiga, sondern höchstens 
gegenüber dem 286. Ein Vorteil ergibt sich erst, wenn die MMU richtig 
genutzt wird und nicht nur als Krücke.

von Arc N. (arc)


Lesenswert?

Computerfachprofi schrieb:
>> Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives
>> Multitasking auf Home-Computern
>
> Aber ohne Speicherschutz.
>
> OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und
> Speicherschutz.
> Der Amiga 500 erschien im gleichen Jahr.

Der 1000er 1985, der QL 1984, zudem war OS-halbe zu der Zeit noch ein 
16-Bit OS, und nicht zu vergessen: der 68k kannte keinen Protected-Mode, 
man hätte allerdings z.B. über die extern signalisierten Function Codes 
zw. User und Supervisor Modus unterscheiden können und damit was 
"basteln" können...

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
>
> Und wo ist da jetzt der Vorteil gegenüber dem Amiga? Das Paging war nur
> nötig, um das auch dem real (bzw. virtual x86) mode durch Einblendung
> von Teilblöcken in die unteren 1MB zugänglich zu machen. Im Protected
> Mode hat der 386 auch ohne Paging 4GB Adressraum.

Nein, Paging wird IMMER verwendet.
Das macht die MMU Immer.

Und mithilfe Paging löst die MMU auch den Speicherschutz.
Der Amiga hat das nicht.

Ein lineare Adressraum der direkt angesprochen wird, reicht nicht, um 
Speicherschutz zu realisieren.



> Aber nochmal: Die MMU wurde bei EMM386 und Konsorten ausschließlich
> benutzt, um eine Limitierung zu umgehen, die der Amiga gar nicht hatte.

Nein.


> Also ist das kein Vorteil gegenüber dem Amiga, sondern höchstens
> gegenüber dem 286. Ein Vorteil ergibt sich erst, wenn die MMU richtig
> genutzt wird und nicht nur als Krücke.

So ein Quatsch.

von Computerfachprofi (Gast)


Lesenswert?

Arc Net schrieb:
> Computerfachprofi schrieb:
>>> Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives
>>> Multitasking auf Home-Computern
>>
>> Aber ohne Speicherschutz.
>>
>> OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und
>> Speicherschutz.
>> Der Amiga 500 erschien im gleichen Jahr.
>
> Der 1000er 1985, der QL 1984, zudem war OS-halbe zu der Zeit noch ein
> 16-Bit OS,

Ja und?
Es war ein Protected Mode OS mit Multitasking.
Ob 16 Bit oder nicht, ist nebensächlich.




> und nicht zu vergessen: der 68k kannte keinen Protected-Mode,
> man hätte allerdings z.B. über die extern signalisierten Function Codes
> zw. User und Supervisor Modus unterscheiden können und damit was
> "basteln" können...

Ne Softwarelösung....
Echter Schutz erfolgt durch Hardware.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> Nein, Paging wird IMMER verwendet.
> Das macht die MMU Immer.

CR0.PG: http://en.wikipedia.org/wiki/Control_register#CR0

Eine Funktion von EMM386 war, mehr Speicher in den unteren 1MB zur 
Verfügung zu stellen. Dazu war Paging unvermeidlich, denn es wurden 
Adressbereiche für RAM genutzt, in denen die Hardware überhaupt kein RAM 
zur Verfügung stellte.

Die Funktion von DOS Extendern z.B. von Phar Lap war es, in DOS auch 
Programme jenseits von 1MB laufen lassen zu können. Dafür ist Paging 
nicht prinzipiell erforderlich, zumal es das auch als 16-Bit Version für 
286 gab.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.