Forum: PC Hard- und Software wie konnte sich MS-DOS durchsetzen?


von Mark .. (mork)


Lesenswert?

Hallo!

ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil 
wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu 
verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit 
durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte 
bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, 
also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff.

Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu 
werden, obwohl es von der Funktionalität her Unix haushoch unterlegen 
war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen? 
(was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert 
waren...)

: Verschoben durch Admin
von Jürgen W. (lovos)


Lesenswert?

> Unix beim 8086
???

Unix war erst beim 80386 möglich

von Robert L. (lrlr)


Lesenswert?


von J.-u. G. (juwe)


Lesenswert?

Jürgen W. schrieb:
> Unix war erst beim 80386 möglich

Nein. Es gab auch Unixe für 8086 und 8088.

Bitte nicht Unix und Linux verwechseln.

von Jürgen W. (lovos)


Lesenswert?

> http://de.wikipedia.org/wiki/Xenix
> und 256 kByte RAM benötigte, die IBM-PCs aber nur mit 32 bis 64 kByte RAM 
ausgeliefert wurden.

Genau, das hat eben nicht funktioniert ...

von (prx) A. K. (prx)


Lesenswert?

Mark .. schrieb:
> Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu
> werden, obwohl es von der Funktionalität her Unix haushoch unterlegen
> war?

IBM hatte anfangs kein gesteigertes Interesse, sich das gute Geschäft 
mit den dicken Kisten abzugraben. Dieser Gedanke beeinflusste sowohl das 
Design der Hardware, als auch die anfänglich verfügbare Software. Damals 
wie auch noch später hatte IBM aus diesem Grund beinahe den 
RISC/Unix-Erfolg verpennt.

MSDOS hatte einen populären Vorläufer: CP/M. Dafür gab es allerlei 
Software, die sich relativ leicht auf das davon stark inspirierte MSDOS 
portieren liess.

von Peter D. (peda)


Lesenswert?

Mark .. schrieb:
> Unix war doch schon deutlich früher da und hatte
> bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems,
> also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff.

Die ersten PCs hatten noch keine Festplatte und Multitasking auf ner 
4,77MHz CPU willst Du nicht wirklich.

Und die ersten Windows-Versionen hatten Startzeiten, da konnte man ein 
Ei hart kochen.


Peter

von Karl H. (kbuchegg)


Lesenswert?

Mark .. schrieb:

> verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit
> durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte
> bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems,
> also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff.

Und wozu brauchst du das bei einem Rechner mit 64kB Speicher und 1 oder 
2 Diskettenlaufwerken (der Ur-PC hatte überhaupt nur ein 
Kasettenrecorderinterface)? Noch dazu im kommerziellen Umfeld, also 
Banken und Firmen, die ihre Korrespondenz damit erledigen wollen und die 
einen Apple][ als Bastlerlösung ablehnen.

'Schutzmechanismen' für Dateien hieß: Die Diskette kommt in den Tresor.
Multiuser? Was willst du mit Multiuser auf einer derartigen Plattform? 
Wenn das Teil eine Textverarbeitung läuft, dann ist das mehr als genug.
Multitasking? Wozu? Der einzige 'parallele' Task, der damals relevant 
war, war der Druckertask. Nimm einen Drucker, der ein paar KB 
Pufferspeicher hat und du kannst ihm dein Textdokument in den Speicher 
blasen und der Rechner ist nach ein paar Sekunden wieder frei während 
der Drucker druckt. Es war nicht immer so wie heute, dass selbst 
simpelste Sachen mit mindestens 100kB zu Buche schlagen! Eine 
durchschnittlich vollgeschriebene Seite Din A4 in der 
Firmenkorrespondenz hatte nicht selten weniger als 1KB Speicherbedarf.
Das Erstellen und Warten einer Autoexec.bat bzw. einer Config.sys 
stellte sowieso viele Firmen schon vor unüberwindbare Probleme. Unix mit 
seinem minimalistischen Ansatz in den Shells hätten da kein Mensch 
akzeptiert. Wenn die Durchschnittssekretärin einen DIR kannte und wußte, 
wie man die Textverarbeitung startet, dann war das schon sehr viel. Es 
ist mehr als einmal vorgekommen, dass ich von befreundeten 
Firmenbesitzern noch ca. 1990 rum gebeten wurde, mich ihrer Festplatte 
anzunehmen und mit ihnen gemeinsam Dateien zu löschen und aufzuräumen, 
weil sie das alleine nicht hinkriegen.

von Uhu U. (uhu)


Lesenswert?

Mark .. schrieb:
> Wie konnte da MS-DOS es überhaupt schaffen

Als IBM den PC heraus brachte, gab es einen anderen Platzhirsch auf dem 
Microprozessor-OS-Markt Digital Research mit seinem CP/M.

http://de.wikipedia.org/wiki/Digital_Research

DR war wohl etwas zu dämlich, bei IBM einen Fuß auf den Boden zu 
kriegen. Diese Situation nutzte Bill Gates mit Chutzpe "seinem" DOS, das 
keineswegs seine Entwicklung war und noch weit primitiver war, als die 
späteren Versionen, mit IBM ins Geschäft zu kommen.

http://de.wikipedia.org/wiki/MS-DOS

von (prx) A. K. (prx)


Lesenswert?


von Harald W. (wilhelms)


Lesenswert?

Mark .. schrieb:
> Hallo!
>
> ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil
> wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu
> verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit
> durchsetzen konnte?!? Unix war doch schon deutlich früher da

Unix benötigte in der Anfangszeit einen wesentlich grösseren Speicher,
sodas Unix-Rechner mindestens doppelt so teuer waren. Ausserdem waren 
Unix-Rechner komplizierter in der Bedienung und deshalb als Bürorechner
kaum geeignet. Ein "Standardbetriebssystem" gabs beim Aufkommen von
MS-DOS sowieso nicht, sondern mindestens fünf Alternativen. Welche
davon sich durchsetzen würde, war damals nicht absehbar.
Gruss
Harald

von Uhu U. (uhu)


Lesenswert?

Harald Wilhelms schrieb:
> Ein "Standardbetriebssystem" gabs beim Aufkommen von
> MS-DOS sowieso nicht, sondern mindestens fünf Alternativen.

So kann man das nicht sagen. In der 8-Bit-Welt war CP/M sehr verbreitet 
und es gab sogar eine Multiuser-Version davon: MP/M

Die Kerle von DR hatten eigentlich die besten Karten, waren aber zu 
vernagelt, sie zu nutzen.

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Die Kerle von DR hatten eigentlich die besten Karten, waren aber zu
> vernagelt, sie zu nutzen.

Sie haben im Verhandlungspoker verloren. Wollten pro Exemplar bezahlt 
werden, IBM aber nur einmal blechen. Welche Strategie da sinnvoller ist 
weiss man oft erst hinterher, denn die Gabe der Voraussage ist 
hauptsächlich jenen gegeben, die hinterher genau wissen wie sie früher 
selbst in der gleichen Situation entschieden hätten.

Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt 
geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die 
geleimten gewesen. Microsofts Glück war, dass in kurzer Zeit alle Welt 
den PC nachbaute - erst mit diesen Kunden wurde MS gross.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt
> geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die
> geleimten gewesen.

Der PC war von vorn herein so angelegt, daß er kein reines IBM-Produkt 
bleiben würde - das wurde auch so kommuniziert, als er heraus kam und 
die Hardware-Dokumentation war hervorragend. Nur hat man das bei DR 
entweder nicht begriffen, oder nicht ernst genommen.

Verhandlungen sind kein reines Lottospiel und wer zu hoch pokert, der 
hat schnell das Nachsehen. Technologisch war DR jedenfalls deutlich 
besser, als das, was Gates damals zu bieten hatte. (Die erste Version 
von MS-DOS hatte noch nichtmal ein hierarchisches Dateisystem.)

Gates Vorteil war, daß er damals nur zu gewinnen hatte. Ich habe noch 
gut in Erinnerung, wie verblüfft wir damals waren, als wir hörten, daß 
DR nicht zum Zug kam.

> Microsofts Glück war, dass in kurzer Zeit alle Welt den PC nachbaute -
> erst mit diesen Kunden wurde MS gross.

Sagen wir so: MS' Glück war, daß das IBM-PC-Konzept aufging. Wäre es 
nicht so geplant gewesen, dann hätte jeder Nachbauer ganz schnell ein 
Problem mit der IBM-Rechtsabteilung bekommen.

von Karl H. (kbuchegg)


Lesenswert?

Uhu Uhuhu schrieb:
> A. K. schrieb:
>> Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt
>> geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die
>> geleimten gewesen.
>
> Der PC war von vorn herein so angelegt, daß er kein reines IBM-Produkt
> bleiben würde - das wurde auch so kommuniziert, als er heraus kam und
> die Hardware-Dokumentation war hervorragend.

Nennen wir die Dinge beim Namen.
Der PC war bei IBM ein ungeliebtes Kind, das in kürzester Zeit aus dem 
Boden gestampft werden musste, weil es eigentlich keinen bei IBM 
wirklich interessierte, was aus ihm wird. IBM baute und verkaufte 
Großrechner.

von Uhu U. (uhu)


Lesenswert?

Karl Heinz Buchegger schrieb:
> Nennen wir die Dinge beim Namen.
> Der PC war bei IBM ein ungeliebtes Kind, das in kürzester Zeit aus dem
> Boden gestampft werden musste, weil es eigentlich keinen bei IBM
> wirklich interessierte, was aus ihm wird.

Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt 
hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des 
Konzerns nach der ENIAC-Blamage wiederhergestellt haben.

Daß das Ganze die Betriebswirtschftler in der Konzernspitze überfordert 
hat, liegt auf der Hand. Die waren - weder bei DR, noch bei IMB - jemals 
treibende Kraft des technischen Fortschritts, insofern überrascht das 
nicht.

Daß die Rechtsabteilung nicht gegen den Nachbau tat, ist ein weiterer 
Hinweis in diese Richtung. Manchmal sind Juristen eben - wider Willen - 
kreativ...

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt
> hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des
> Konzerns nach der ENIAC-Blamage wiederhergestellt haben.

Die hatten sie schon in der 60ern längst ausgebügelt. Als sie eine 
Typen-Reihe brachten, die anders als bisher üblich ein breites Spektrum 
an Leistungs- und Anwendungsbereichen umfasste und die nicht in jeder 
Generation neu programmiert werden mussten.

Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-). 
Der Apple-II machte vor, wo der Weg lang gehen kann. IBM hatte das 
letztlich nur auf anderer Hardware-Basis etwas professioneller 
gestaltet. Und eine Plattform mit mehr Luft nach oben erwischt, während 
Apple sich danach mir Lisa selbst der Weg zunagelte.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-).
> Der Apple-II zeigte, wo der Weg langgeht. IBM hatte sich da letztlich
> nur rangehängt und das etwas professioneller gestaltet.

Das der PC schon technisch überholt war, als er heraus kam, ist richtig 
und wurde auch damals schon bemängelt. Diese professionellere Gestaltung 
gab aber letztlich den Nachbauern den Mut, sich auf dieser Schiene zu 
betätigen. Es war erkennbar kein Bastler-, oder Freak-Projekt.

Hätten sie Apple-II-Clones auf den Markt geworfen, wären sie in eine 
Sackgasse gerannt, die aller Wahrscheinlichkeit tödlich enden würde.

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Hätten sie Apple-II-Clones auf den Markt geworfen, wären sie in eine
> Sackgasse gerannt.

Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. 
Nur war da wenig Luft nach oben, das gab die 6502 CPU nicht her. Intels 
8088 war zwar nicht grad das Ei des Kolumbus, aber bissel mehr als 6502 
denn schon.

Apples Nachfolger Lisa hatte dann zwar eine brauchbare CPU, aber damit 
erschöpften sich die Vorzüge auch schon. Über den Rest davon hat man 
bald den Mantel des Schweigens geworfen.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive.

Und genau den gab es beim PC nicht - so war es angekündigt worden und 
daran hielten sie sich. Es war das Open-Source-Konzept, das durch den PC 
ganz kräftigen Rückenwind bekam.

Wäre der PC technisch innovativ gewesen, dann hätte er gute Chancen 
gehabt, in ein ähnliches Desaster, wie Lisa zu rennen.

Das 8088-Zeug war schon so abgestanden, daß die weitere Entwicklung 
nicht mehr völlig im Nebel lag.

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
>> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive.
>
> Und genau den gab es beim PC nicht - so war es angekündigt worden und
> daran hielten sie sich.

Jedenfalls ein paar kurze Jährchen hielten sie sich dran. Mit dem 
Microchannel-Bus wollten sie dann die Kontrolle wieder zurück gewinnen. 
Das Ergebnis ist bekannt.

Es war allerdings massgeblich auch Apple, die das Rennen dieser offenen 
Systeme verloren haben. Weil sie auf mehreren Wegen genau jene Vorzüge 
aufgaben, die den Apple-II ursprünglich ausmachten. Die Chancen waren 
da, Apple hatte es versiebt, IBM nicht.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Jedenfalls ein paar kurze Jährchen hielten sie sich dran. Mit dem
> Microchannel-Bus wollten sie dann die Kontrolle wieder zurück gewinnen.
> Das Ergebnis ist bekannt.

Und was schließen wir daraus? Wenn die Wi"Wi"s das Ruder übernehmen, 
gehen nur sehr robuste Konzepte nicht über den Jordan ;-)

von (prx) A. K. (prx)


Lesenswert?

Und wenn Techniker das Ruder behalten, dann kommt die nächste Version 
erst raus, wenn sie perfekt ist. Also nie. Gleiches Ergebnis. ;-)

von Uhu U. (uhu)


Lesenswert?

Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? Die innere 
Reibung eines Büromaschinen-Weltkonzerns, die technische Innovation im 
Keim erstickt?

von Karl H. (kbuchegg)


Lesenswert?

Uhu Uhuhu schrieb:
> Und ws ist dann das eigentliche Erfolgsgeheimnis des PC?

So wie ich die Zeit damals erlebt habe:
Das er von IBM war. Das war schon was. IBM war damals nicht einfach 
irgendwer.

von Hans Ulli K. (Gast)


Lesenswert?

Karl Heinz Buchegger schrieb:
> Uhu Uhuhu schrieb:
>> Und ws ist dann das eigentliche Erfolgsgeheimnis des PC?
>
> So wie ich die Zeit damals erlebt habe:
> Das er von IBM war. Das war schon was. IBM war damals nicht einfach
> irgendwer.

das kann ich bestätigen.
Ich hatte mal eine Veranstalltung in Bezug auf Datensicherheit vor ca. 
20 Jahren besucht. Die wurde von einem IBM Mitarbeiter gehalten.

Er sagte dann zu uns, das er öfters ohne jede Identitätsfeststellung bis 
ins Rechenzentrum vorgedrungen ist.
Hat halt nur "Ich komme von IBM" beim Pförtner gesagt und den bekannten 
Anzug getragen.

von Jens M. (Gast)


Lesenswert?

A. K. schrieb:
> Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-).

Naja, 2 Typen von denen der eine ne Motorola Standardapplikation um edge 
connectors erweitert hat. Die Dinger hat er auch nicht erfunden sondern 
gekauft. Der andere, ein Unsympath vor dem Herrn hat das ganze dann 
vermarktet.

Das war's auch schon. Später haben Sie dann bei Xerox Maus und Windows 
geklemmt und daraus nen richtigen Flop produziert.

Genial ist das Marketing. Den ganzen Rübennasen zu verklickern das auf 
einmal Intel das Maß aller Prozessordinge ist wenn es denn vom 
Sektenführer persönlich verdongelt wird ist schon eine Meisterleistung. 
Vor allem nachdem 15 Jahre gepredigt wurde (und von man allen Seiten zu 
hören bekam) wie geil doch der PowerPc wäre  während den jeder Profi 
bestenfalls in irgendwelchen Laserdruckern verortete.

Bei MSDOS (ein Zukauf von Gates und Co) das dann als PCDOS in den ersten 
IBM PCs als OS diente gibt es nicht viel zu sagen. Es war allen völlig 
egal.

Nach den absolut inkompatiblen benutzerfeindlichen und ständig sich 
veränderten Maschinchen der vor PC Ära wollten einfach alle einen 
Standard.

Als das Wörtchen IBM auf den ersten Stand hat sich die genervte 
Anwenderschaar sofort darauf gestürzt und das andere gekrampfe in den in 
Orkus gekippt. Eine Art informellen Absprache um einen Standard zu 
geschaffen.

Ähnlich ist das später beim iPhone gelaufen wo endlich mal was aus einem 
Guss den Konsumenten von dem Technikgewürge befreite (vom zwar bei Braun 
und Co.geklauten aber erstklassigen Design mal abgesehen).

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Und seien wir mal ehrlich, gegen CP/M war MS-DOS schon richtig gut, 
command.com hatte 'dir' schon eingebaut :-)
Ausserdem war es schon beim Bau des IBM-PC klar, das Intel an grösseren 
Prozessoren arbeitete, IBM hat zwar nie einen PC mit dem 8086 
rausgebracht, aber der 8088 mit 8-Bit Krüppelbus kam ja nach dem 8086.
Das Steckplatzkonzept des Apple ][ zeigte schon, das sowas eine gute 
Idee war, der IBM-PC hatte ja auch bis auf den Tastaturport keine 
einzige Schnittstelle und auch keine Grafikkarte.
Für den 6502 gab es ja nie einen stärkeren Nachfolger, dieser war auch 
damals schon das Ende dieer CPU Schiene. Motorola hatte damit auch 
nichts zu tun, diese haben zur gleichen Zeit Prozessoren wie den 
6800/6802 gefertigt. Der 6502 hingegen war von MOS und als bessere 
Alternative zum 6800 gedacht:
http://en.wikipedia.org/wiki/MOS_Technology_6502

von Peter D. (peda)


Lesenswert?

Kennt noch jemand die PC-Welt, wo man Assemblerprogramme abtippen konnte 
und dann mit Debug.exe daraus .com Programme gemacht hat.

Peter

von Purzel H. (hacky)


Lesenswert?

Ich war damals auch dabei. IBM hatte den Bedarf von  PCs irgendwann 
vorher auf ein paar Hundert weltweit geschaetzt. Daher lohnte sich eine 
Entwicklung eines Betriebssystems nicht. Sie fanden einen kleinen 
Bastler, der das aus der Garage heraus anbot, und dabei schlau genug 
war, die Rechte daran zu behalten. Seltsamerweise war damals nichts neu. 
Der Trendsetter war und blieb Rank Xerox, die eine Denkfrabik laufen 
liess. Die hatten schon graphische Oberflaechen und Maeuse, bevor Apple 
oder Windows sie hatten. Daher waren weder Apple, noch Microsoft 
innovativ.

Mein erster PC im '83 kostete 4500Fr, hatte eine 10MB Plarre und 640kB 
RAM. Ich hatte schon ein oder zwei Jahre vorher die Vorlaeufer bestaunt. 
Ohne Festplatte, dafuer 4 mal so teuer.

von Uhu U. (uhu)


Lesenswert?

Zwoelf von Siebzehn schrieb:
> IBM hatte den Bedarf von  PCs irgendwann vorher auf ein paar Hundert
> weltweit geschaetzt.

Ich glaube, du verwechselst das mit der "Marktanalyse" i.S. Enigma. Die 
war ihnen Ende der 40er angeboten worden und sie lehnten wegen ähnlich 
kümmerlicher Erwartungen ab.

von Purzel H. (hacky)


Lesenswert?

Etwa '85 kamen dann die '286 raus, ich konnte mir dann aber keinen 
leisten, war mit dem XT noch zufrieden. An einer IT Messe wagte ich mich 
an einen Intel Stand und frage nach dem geplanten '386. Und wurde von 
Intel gefragt was ich denn mit dieser gigantischen Rechenleistung machen 
moechte.

von Michael B. (laberkopp)


Lesenswert?

> wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit
> durchsetzen konnte?!?

Die ersten PCs hatten 16kByte Hauptspeicher, da lief kein Unix.

Das MS-DOS 1.1 war weitestgehend kompatibel mit CP/M, welches
auf dem 8080/Z80 lief aber für den 8086 noch nicht fertig war,
also nahm man MS-DOS.

Mit MS-DOS 2.0 für Maschinen mit mindestens 64kByte wurden
unix-ähnliche Funktionen hinzugefügt,
danach gab es keinen Bedarf für Unix (Xenix) mehr.

von Uhu U. (uhu)


Lesenswert?

Michael Bertrandt schrieb:
> Das MS-DOS 1.1 war weitestgehend kompatibel mit CP/M, welches
> auf dem 8080/Z80 lief

Das beschränkte sich aber auf die eingebauten Kommandos. Die 
Betriebsystem-schnittstelle war es nicht - wie auch, denn CP/M ist ein 
8-Bit System, während der 8088 ein 8 1/2-Bitter war ;-)

> aber für den 8086 noch nicht fertig war, also nahm man MS-DOS.

So banal wars nicht...

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Das beschränkte sich aber auf die eingebauten Kommandos. Die
> Betriebsystem-schnittstelle war es nicht

Ach?

Dann vergleiche doch mal den BDOS API von CP/M
http://www.seasip.demon.co.uk/Cpm/bdosfunc.html
mit dem MS-DOS Int21
http://www.i8086.de/dos-int-21h/dos-int-21h.html

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Dann vergleiche doch mal den BDOS API von CP/M

Schon den int21, der der Einsprung in PCDOS ist, gibts auf 8080/Z80 
nicht... Ganz zu schweigen vom viel größeren Adreßraum des 8088 und den 
sehr unterschiedlichen Speichermodellen.

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Schon den int21, der der Einsprung in PCDOS ist, gibts auf 8080/Z80
> nicht...

Muss das jetzt wirklich auf derart unterirdischem Niveau landen?

Willst du mir ernsthaft erzählen, dass ein Betriebssystem-API auf 
verschiedenen Plattformen allein schon dadurch ein völlig anderer wird, 
weil er nicht mit exakt dem gleichen Einsprungbefehl aufgerufen wird?

> Ganz zu schweigen vom viel größeren Adreßraum des 8088 und den
> sehr unterschiedlichen Speichermodellen.

Sicher. Aus DE wurde DS:DX oder so. Und?

Es behauptet doch niemand, dass CP/M Programme Bit für Bit und Byte für 
Byte exakt lauffähig waren. Ein 8088 ist halt kein 8080. Aber der MS-DOS 
Int21 ist eindeutig direkt aus dem BDOS-API abgeleitet. Viel Arbeit beim 
Portieren von Programmen machte das nicht - und genau darum ging es 
dabei.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Sicher. Aus DE wurde DS:DX oder so. Und?

Das eine sind 16 Bit, das andere 32, die zu einer 20-Bit-Adresse 
kombiniert werden. Diese Kompatibilität ist reine Augenwischerei, denn 
sehr viele Programme aus der 8-Bit-Welt waren in ASM geschrieben - da 
bedeutet Portierung Neuschreiben.

Das war einfach Anlehnung an das Vorbild CP/M, mangels besserer Ideen.

Ich hatte mal einen Job, bei dem es darum ging, einen Programmteil in 
PL/M zu schreiben. Das war ein Fehlschlag, weil das Compilat viel zu 
riesig und das Zeitverhalten zu behäbig war, als daß man es auf einem 
8080 mit 64 KB RAM einsetzen konnte. Der Compiler war einfach bescheiden 
- und furchtbar langsam.

von Michael_ (Gast)


Lesenswert?

Die Leute von CP/M waren damals im Urlaub. Da haben sie eben DOS 
genommen.

von Frank (Gast)


Lesenswert?

Um das ganze Thema auch ein wenig medial zu untermauern, empfehle ich 
eine Doku und einen Speilfilm:

1. "Eine kurze Geschichte des PC", z.B. hier: 
http://de.sevenload.com/videos/5pMjAyu-Eine-kurze-Geschichte-des-PC

2. "Die Silicon Valley Story", z.B. hier: 
http://www.new-video.de/film-die-silicon-valley-story/

Den Spielfilm leider nicht hier öffentlich als Link, gibts aber, wenn 
man ein wenig sucht ... ;-)

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Matthias Sch. schrieb:
> IBM hat zwar nie einen PC mit dem 8086
> rausgebracht

Das ist nicht richtig; PS/2 Model 25 und 30 nutzten den 8086. Und die 
Dinger kamen erst 1987 auf den Markt, als es bereits den AT mit 286 gab.

Den '30 gab es ein Jahr später als ernstgemeintes System 30/286, das 
ein mit 10 MHz getakter AT war, einer der netteren IBM-Rechner, und ohne 
diesen MCA-Kram.

von (prx) A. K. (prx)


Lesenswert?

Matthias Sch. schrieb:
> Für den 6502 gab es ja nie einen stärkeren Nachfolger,

Doch. Eine 16-Bit Version: http://en.wikipedia.org/wiki/WDC_65816/65802
Aber das war ein Design zum Abgewöhnen.

von Hans Franz (Gast)


Lesenswert?

Zu dem Erfolg von IBM-PC, MS-DOS und x86 hat nicht zuletzt INTEL selbst 
durch Wahrung der strikten Rückwärtskompatibilität bei der 
Weiterentwicklung seiner Prozessoren (insb. ab 386) beigetragen.
Die Altleichen (z.B. A20-Gate) führten bzw. führen immer wieder zu 
Problemen und unschönen workarounds, aber bewährt hat sichs dennnoch.

Noch heute kann ich auf einem aktuellen Core I-irgenwas von einer 
MS-DOS-Startdiskette booten und Commander Keen spielen (theoretisch 
jedenfalls) ;-)

von (prx) A. K. (prx)


Lesenswert?

Hans Franz schrieb:
> Noch heute kann ich auf einem aktuellen Core I-irgenwas von einer
> MS-DOS-Startdiskette booten und Commander Keen spielen (theoretisch
> jedenfalls) ;-)

Lang lebe MS-DOS ;-). Versuch aber nicht, auf einen aktuellen Server ein 
Win2003 drauf zu kriegen. Das geht nicht mehr, jedenfalls nicht mit den 
üblichen Inst-Medien.

von Hans Franz (Gast)


Lesenswert?

A. K. schrieb:
> Versuch aber nicht, auf einen aktuellen Server ein
> Win2003 drauf zu kriegen. Das geht nicht mehr, jedenfalls nicht mit den
> üblichen Inst-Medien.

Das hat aber andere Gründe ;-)

von MCUA (Gast)


Lesenswert?

>1. "Eine kurze Geschichte des PC", z.B. hier:
>http://de.sevenload.com/videos/5pMjAyu-Eine-kurze-...
Der Film erwähnt die Minicomputer (u.a. Digital mit PDP8) nichteinmal!, 
das waren eigentlich die ersten PCs. Auch gab es neben dem Altair (der 
ein ganz schön komisches Bussystem hatte) weitere ähnliche Bauten mit 
Intel-Chips. Auch Bill Gates hatte sich an der Hardware versucht.

von Guido Körber (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
> Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt
> hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des
> Konzerns nach der ENIAC-Blamage wiederhergestellt haben.

Wie schnell doch Geschichte umgeschrieben wird...

Das waren keine Visionäre, sondern Bastler. Es wurde ein Prototyp für 
ein neues Terminal kurzerhand zu einem PC ungefriemelt und das mit 
technischen Rückschritten gegenüber dem was zu dem Zeitpunkt bereits auf 
dem Markt war.

Statt eines ordentliches Busses wurde der CPU Bus auf Stecker 
verlängert, damit war die DIP-Schalter-Arie erfunden. 
Interruptpriorisierung? Wozu das denn, einfach druff, die Software wird 
schon irgendwie rausfinden welche Karte sich da melden wollte.

Tatsache ist, dass IBM keine neue Rechnerklasse wollte, sondern eine 
möglichst miese Kiste, die dazu dienen sollte die Kunden so schnell wie 
möglich davon zu überzeugen, dass diese Microcomputer Spielzeug sind und 
man doch besser die "professionellen" Computer kaufe sollte.

Dank der damals üblichen detaillierten Hardwaredokumentation und dem 
Einsatz ausschließlich von Standardteilen war es jeglichem Mitbewerber 
möglich die Dinger sofort zu kopieren, das "Betriebssystem" war ja 
ohnehin bei Microsoft käuflich.

Unfall im Marktgeschehen nennt man so was, nicht geplanter Erfolg. Und 
schon gar nicht "das Bessere wird sich durchsetzen", tatsächlich hat 
sich das Schlechtere durchgesetzt, sowohl was das Betriebssystem 
betrifft, als auch was den Treppenwitz von einem Prozessor angeht. 
Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende 
Architektur auf dem Desktop. Etwa so, als wenn das Ford Modell T nie 
abgelöst, sondern nur aufgemotzt worden wäre, alle würden heute noch mit 
Blattfedern fahren.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
> Der Film erwähnt die Minicomputer (u.a. Digital mit PDP8) nichteinmal!,
> das waren eigentlich die ersten PCs.

Nicht wirklich. PC heisst persönlicher Computer und persönliche 
zugeordnete Rechner waren die Minicomputer dann doch nicht. Sie hatten 
zwar keinen RZ-Betrieb, aber es waren eher Arbeitsgruppenrechner oder 
projektbezogen. Sowas ähnliches gabs in den 50ern auf Röhrenbasis, als 
IBM 650.

von (prx) A. K. (prx)


Lesenswert?

Guido Körber schrieb:
> Statt eines ordentliches Busses wurde der CPU Bus auf Stecker
> verlängert, damit war die DIP-Schalter-Arie erfunden.

Das war auch nicht als Design für Jahrzehnte gedacht, sondern für 
einfach und billig. Intels x86-Architektur ebensowenig, auch Intel hat 
mehrfach bewiesen, dass sie nicht weiter als bis zum nächsten 
Laternenpfahl denken konnten oder wollten.

Interessant wurde es anno AT, also dem 16-Bit ISA-Bus. Weil da ein 
Timing eingeführt wurde, das streng genommen nicht funktionieren kann. 
Weil ein aus Adressleitungen abgeleitetes Signal eigentlich bereits 
vorhanden sein muss, noch bevor die Adressleitungen offiziell gültig 
sind.

> Interruptpriorisierung?

Also sachte, die gab es von Anfang an! Blöd war nur, dass Intel sich 
dabei für positiv flankengetriggerte statt negativ pegelgetriggerte 
Interrupts entschieden hatte.

von (prx) A. K. (prx)


Lesenswert?

Guido Körber schrieb:
> Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende
> Architektur auf dem Desktop.

Das wär was für "Wetten Dass" auf Nerdisch: Jemand, der behauptet, 
sämtliche historischen und aktuellen x86-Befehle am Opcode zu erkennen, 
und welcher Prozessor welche implementiert. ;-)

von B e r n d W. (smiley46)


Lesenswert?

> Dank der damals üblichen detaillierten Hardwaredokumentation

Der PC hat sich durch das offene System durchgesetzt. Deckel auf, andere 
Karte rein, Deckel zu. Am Anfang gab es noch kein Plug and Play, es war 
trotzdem das flexibelste bezahlbare System auf dem Markt. Das 
Betriebssystem hieß am Anfang PC-Dos und wurde von Microsoft für IBM 
programmiert. Den halbfertigen Quellcode hatten sie von einer anderen 
Firma übernommen. Dann hat Microsoft es geschafft, sich das Recht am 
Quellcode durch winklige Schachzüge unter den Nagel reissen. Schon seit 
dieser Zeit beschäftigen die mehr Anwälte als Programmierer.

> Und die ersten Windows-Versionen hatten Startzeiten,
> da konnte man ein Ei hart kochen.

Ein Windows 2.0 hat auf einem 386er 12 Sekunden zum hochgefahren 
gebraucht. Heute werden zwar viel mehr Prozesse gestartet, aber die 
Rechner sind auch 1000 mal schneller.

Aber sind sie das wirklich? Durch das aktuelle Betriebssystem und neuere 
Software wird der Rechner regelmäßig bis zur Schmerzgrenze 
runtergebremst
(Meine subjektives Empfinden). Das Antivirus will vor dem Start schon 
updaten, und bis dann alle Anderen nach Hause telefoniert haben könnte 
man ein Ei hartkochen.

von (prx) A. K. (prx)


Lesenswert?

B e r n d W. schrieb:
> Aber sind sie das wirklich?

Nur die virtuellen, die sind so schnell aus dem BIOS/UEFI raus, dass man 
ernste Probleme dabei hat, überhaupt in die BIOS-Config reinzukommen.

Wenn du aber einem ordentlichen Server aus Blech mal beim Booten 
zusiehst, dann ist das Ei schon geniessbar, noch bevor das Betriebsystem 
überhaupt zum Zuge kam.

von MCUA (Gast)


Lesenswert?

Also für eine PDP (insbes PDP8) musste man keine Unsummen wie für 
Grossrechner zahlen.
Somit waren diese (Mini)Computer (erstmals v DEC 1968) die ersten,
die für einzelne Personals (mehr oder weniger) erschwinglich waren.

>Statt eines ordentliches Busses wurde der CPU Bus auf Stecker
>verlängert,
Und beim Altair (wollte halt eher mal schnell was verkaufen, nicht lange 
entwickeln) verliefen manche Busleitungen quasi Leere.


>tatsächlich hat
>sich das Schlechtere durchgesetzt, sowohl was das Betriebssystem
>betrifft, als auch was den Treppenwitz von einem Prozessor angeht.
>Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende
>Architektur auf dem Desktop.
Ja, nur wegen Rückw-Kompatibilität.

von christian b. (Firma: bieber24) (phetine)


Lesenswert?

DOS wurde anfangs gratis den Rechnern beigelegt als eine reine OEM 
Systemvariante.

von Uhu U. (uhu)


Lesenswert?

MCUA schrieb:
> Also für eine PDP (insbes PDP8) musste man keine Unsummen wie für
> Grossrechner zahlen.
> Somit waren diese (Mini)Computer (erstmals v DEC 1968) die ersten,
> die für einzelne Personals (mehr oder weniger) erschwinglich waren.

Du weißt, was das für Brocken waren?

von Reinhard Kern (Gast)


Lesenswert?

Hallo,

eine der wesentlichen Ursachen für den Erfolg von DOS war die bessere 
Kundenorientierung bzw. deren völliges Fehlen bei den Unix-Anbietern. 
Wir wollten z.B. unsere Kunden namens Müller auch so anschreiben, nicht 
als Mueller, und das auch auf den SUN-Computern für die Technik, nicht 
nur auf dem PC. Darauf erhielten wir nur die extrem unverschämte Antwort 
"wer nicht Englisch kann, ist für den Umgang mit unseren Unixcomputern 
nicht qualifiziert", eine deutsche Tastatur gab es nicht. Die 
Unixfraktion hat sich noch jahrelang erbittert gegen die Lokalisierung 
gewehrt, bei dem angeblichen Schrottsystem MSDOS war dagegen die 
Anpassung an Länderspezifika von vornherein selbstverständlich - ein 
Quantensprung in der IT-Entwicklung!

Hätte es MSDOS nicht gegeben, müssten wir heute noch Geschäftsbriefe mit 
7bit-ASCII-Code schreiben.

Mit freundlichen Gruessen Reinhard

PS ich würde heute noch so entscheiden: lieber ein ab und zu 
abstürzendes System, das Deutsch kann, als ein stabiles, mit dem man nur 
englische Texte schreiben kann.

von Reinhard Kern (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
> Du weißt, was das für Brocken waren?

Die ersten eigenständigen CAD-Systeme von Racal-Redac basierten auf DEC 
VAX. Meiner Erinnerung nach, ich habe mal solche Systeme besichtigt, die 
uns gebraucht angeboten wurden, waren die Preise ca. 700000 DM für die 
VAX und 280000 DM für den Farbbildschirm. Plus Software natürlich.

Unsumme ist halt ein relativer Begriff.

Gruss Reinhard

von Lukas K. (carrotindustries)


Lesenswert?

Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber 
rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's 
gettext zur Lokalisierung während der Laufzeit schon seit '95. Auch 
sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch 
wen Windows intern anscheinend UTF-16 verwendet???), während der Rest 
der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.

von Roman (Gast)


Lesenswert?

Hallo Reinhard,

CAD, CNC, DNC und so weiter hatten wir schon auf dem Vorläufer der VAX 
einer PDP-11 betrieben, mit Präprozessor und Grafikausgabe. War ein 
Schweizer Produkt, saugut aber auch sauteuer.

Gruss

Roman

P.S: Der seine erste Datenverwaltung in Fortan auf PDP-11 schrieb.

von Peter II (Gast)


Lesenswert?

Lukas K. schrieb:
> gettext zur Lokalisierung während der Laufzeit schon seit '95.

das ist ja wohl ein witzt, texte tauschen kann jeder. Lokalsierung ist 
ein wenig mehr (links rechts ausrichtung, andere einheiten, 
Satzstellung,  usw.).

Und dann wird es noch so weit getrieben das sogar der compiler die 
Meldungen übersetzt und keiner mehr versteht was das bedeuten soll. Aber 
Hauptsache Lokalisiert.

von Lukas K. (carrotindustries)


Lesenswert?

Peter II schrieb:
> links rechts ausrichtung, andere einheiten,
> Satzstellung,  usw.
Ausrichtung: Dafür gibt's Unicode, hebräische Schrift ist automatisch 
rechtsbündig.
Satzstellung: was meinst du damit? Gettext hat damit kein Problem, der 
Übersetzer muss nur die Platzhalter richtig verteilen. Und auch 
Pluralbildung geht mit gettext. Kein Krampf wie '1 Objekt(e) ausgewählt' 
mehr. Wenn ich mich recht erinnere hat microsoft das mittlerweile aber 
auch in den Griff bekommen (hab' grad nur Windows 2000 zur Hand).

Peter II schrieb:
> Und dann wird es noch so weit getrieben das sogar der compiler die
> Meldungen übersetzt und keiner mehr versteht was das bedeuten soll. Aber
> Hauptsache Lokalisiert.

Macht microsoft genauso schlimm. Dagegen kann ich auf Unix einfach 
LANG=C make aufrufen und hab die Compiler-Ausgaben in nicht 
lokalisierter Form.

von Reinhard Kern (Gast)


Lesenswert?

Lukas K. schrieb:
> bei den Zeilenumbrüchen sieht es ähnlich aus.

Heute ist aber CR-LF praktisch der Standard, nicht das LF-only von Unix. 
Und rasch ist auch ein sehr relativer Begriff. Die traditionellen 
Anbieter wie HP und Sun haben das Eingehen auf Kundenanforderungen 
einfach für unter ihrer Würde gehalten (dass es technisch gegangen wäre, 
ist ja zutreffend, aber man wollte einfach nicht). Die Folge war, dass 
neben jeder Workstation jahrelang ein PC stand, um die "trivialen" 
Aufgaben der Verwaltung zu erledigen. Dumm nur für Unix, dass die PCs 
sehr schnell immer leistungsfähiger wurden und nach und nach die 
Workstations weitgehend ersetzt haben. Ein normaler PC leistet heute 
auch als CAD-System weit mehr als eine millionenteure Anlage aus dem 
Unix-Zeitalter, mit der man nicht mal eine Rechnung schreiben konnte. 
Man hätte also nicht müssen, aber man hats versaut.

Gruss Reinhard

von Lukas K. (carrotindustries)


Lesenswert?

Reinhard Kern schrieb:
> Heute ist aber CR-LF praktisch der Standard, nicht das LF-only von Unix.

Ich hab mal diverse populäre Webseiten untersucht, nur microsoft.com 
verwendet CRLF, der Rest sendet nur ein LF. Das Verwundert auch nicht 
weiter, denn außerhalb von Microsoft ist ja praktisch alles 
UNIX-ähnlich: Linux, Mac OS, Android, iOS, etc..

von Arc N. (arc)


Lesenswert?

Lukas K. schrieb:
> Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber
> rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's
> gettext zur Lokalisierung während der Laufzeit schon seit '95.

Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber 
stricken.

> Auch sonst Microsoft hält immer noch an Windows-1252 als Encoding fest
> (auch wen Windows intern anscheinend UTF-16 verwendet???), während der Rest
> der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.

Weil es UTF-8 noch nicht gab als MS mit der NT Entwicklung begonnen 
hatte. Bei den ersten Versionen war es noch UCS-2, erst ab afair W2k war 
es UTF-16.
Zeilenumbrüche macht eigentlich nur Windows/DOS richtig. Line Feed 
alleine bringt nichts, wenn der Druckkopf noch an der falschen Stelle 
steht scnr.

Wenn heute immer noch CR,CR+LF,LF genutzt wird, könnte man auch fragen 
warum niemand den Standard nutzt: U+2028 (Line separator) 
http://www.unicode.org/charts/PDF/U2000.pdf

von Jens G. (jensig)


Lesenswert?

@Lukas K. (Firma: carrotIndustries) (carrotindustries)

>Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber
>rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's

Was ist da hardcoded?

>gettext zur Lokalisierung während der Laufzeit schon seit '95. Auch
>sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch

Wie kommst Du darauf? 1252 wird nur in Mittel/Westeuropa benutzt, bzw. 
Ländern mit ähnlichem Zeichensatz. Die Russen, Griechen, ... müssen also 
nicht unbedingt eine angeblich hart reincodierte 1252 nehmen (mussten 
noch nie).

>wen Windows intern anscheinend UTF-16 verwendet???), während der Rest
>der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.

Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine 
andere Codpage benutzen, wenn Du die vorher aktiviert hast. In dem einen 
Notepad schreibst du in russisch, im anderen Notepad in deutsch. Und 
wenn du willst, auch beide Zeichensätze in einem Notepad.
Windows benutzt UCS-2 (UTF-16 bei den neueren Versionen möglicherweise, 
was aber bei den üblichen Sprahcen keinen Unterschied macht).

Daß Systemmeldungen weiterhin in der voreingestellten Sprache ausgegeben 
werden, ist eine andere Sache.

von Lukas K. (carrotindustries)


Lesenswert?

Jens G. schrieb:
> Was ist da hardcoded?

Die Lokalisierung steht in der Binärdatei mit drin. Ist jedenfalls bei 
Windows 2000 so, bei XP afaik auch noch, mit Vista wurd's dann besser.

Jens G. schrieb:
> Wie kommst Du darauf? 1252 wird nur in Mittel/Westeuropa benutzt, bzw.
> Ländern mit ähnlichem Zeichensatz. Die Russen, Griechen, ... müssen also
> nicht unbedingt eine angeblich hart reincodierte 1252 nehmen (mussten
> noch nie).

Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte 
Problemlos einen Text mit griechischen, kyrillschen und Lateinischen 
Zeichen schreiben.

Jens G. schrieb:
> Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine
> andere Codpage benutzen,

Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode.

Arc Net schrieb:
> Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber
> stricken.
Klar, dass führt dann aber dazu, dass jeder sein eigenes Süppchen kocht. 
Dank gettext reicht eine Umgebungsvariable um die Lokalisierung aller 
Programme zu ändern.

Was die Zeilenumbrüche anbetrifft. Microsoft könnte sich jedenfalls mal 
die Mühe geben, wenigstens Unix-Zeilenunbrüche zu unterstützen, sprich 
als solche darzustellen.

von MaWin (Gast)


Lesenswert?

> während Windows bis XP Hardcoded-Lokalisiert war, gibt's
> gettext zur Lokalisierung während der Laufzeit schon seit '95.

Man muß arg verbrettert sein, um darin die Wahrheit zu sehen.

> Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine
> andere Codpage benutzen

Das konnte Microsoft seit der EGA-Graphikkarte, also seit 1980,
in MS-DOS, und natürlich in jedem Windows und OS/2.

Seit WindowsNT ist das jedoch Geschichte, seit WindowsNT basieren
alle Microsoft-Systeme auf Unicode.

Unter Linux kommt erst neuerdings UTF8 als Basiszeichensatz z.B.
für Dateinamen, also bereits in der Installation, auf:
http://nebelwelt.net/studies/visionen-articles/utf-8-unter-linux/
RedHat 2003, Suse 2004, also 10 Jahre nach Microsoft.

Modernste Betriebssysteme, wie iOS, können es immer noch nicht,
dort ist z.B. setlocale von C nur für "C" und "POSIX" möglich.

von Jens G. (jensig)


Lesenswert?

>Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte
>Problemlos einen Text mit griechischen, kyrillschen und Lateinischen
>Zeichen schreiben.

Win benutzt intern auch nur ein Encoding, schon länger, als das bei 
Linux üblich war? (oder was meinst Du sonst mit EIN Encoding?)

>Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode.

Was glaubst Du, was 1252 ist - ein Codeset, welches letztendlich als 
Codepage in einem Computer verwendet wird. So ist es auch in Unicode, 
welches z.B. als UTF-x verwendet wird.
Letztendlich meinte ich aber, daß Win grundsätzlich mit jedem Zeichen 
klarkommt (weil intern Unicode verwendet wird). Nur die Interaktion mit 
dem User muß zumindest  bei der Eingabe auf z.B. ein Codeset 
eingeschränkt werden, weil so große Tastaturen für alle Zeichen hat man 
ja nicht.
Und die Programme müssen natürlich Unicodefähig sein, was je nach 
Programm nicht unbedingt der Fall sein muß.

von Jens G. (jensig)


Lesenswert?

@MaWin (Gast)

>> Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine
>> andere Codpage benutzen

>Das konnte Microsoft seit der EGA-Graphikkarte, also seit 1980,
>in MS-DOS, und natürlich in jedem Windows und OS/2.

Ich meinte gleichzeitig in mehreren Programmen zur selben Laufzeit ....

von Lukas K. (carrotindustries)


Lesenswert?

Was die Codepages anbetrifft: Das Umschalten jener ist altertümlich.

Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber 
nicht ohne Abstraktion an die Anwendungen weiterreichen sondern 
Regionsspezifische Encodings verwenden???

von (prx) A. K. (prx)


Lesenswert?

Lukas K. schrieb:
> Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber
> nicht ohne Abstraktion an die Anwendungen weiterreichen sondern
> Regionsspezifische Encodings verwenden???

Es gibt schlicht beides. Der Windows-API stammt aus Zeiten vor Unicode, 
folglich müssen Programme mit den alten 8-Bit Zeichensätzen unterstützt 
werden. Wem das zu blöd ist, der verwendet die API-Funktionen in ihrer 
Unicode-Variante direkt, völlig ohne Codepage. Das geht nämlich sehr 
wohl.

Linux und Unix haben andererseits das Problem, dass es keinen 
festgelegten Charset für Filesysteme gibt. Wenn eine Anwendung aus 
historischen Gründen die Filenamen mit ISO-Charset schreibt und darauf 
aber auch ein Samba mit UTF-8 stitzt, dann gibts Chaos. Ähnlich Probleme 
gibts bei Backup-Software. Windows speichert in definiertem Charset und 
konvertiert je nach Art des API.

von Jens G. (jensig)


Lesenswert?

@Lukas K. (Firma: carrotIndustries) (carrotindustries)

>Was die Codepages anbetrifft: Das Umschalten jener ist altertümlich.

>Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber
>nicht ohne Abstraktion an die Anwendungen weiterreichen sondern
>Regionsspezifische Encodings verwenden???

Ich sagte doch:
>Und die Programme müssen natürlich Unicodefähig sein, was je nach
>Programm nicht unbedingt der Fall sein muß.

Wenn die Programme nur für 8bit-Zeichensätze ausgelegt sind, dann nützt 
denen natürlich auch kein Unicode. Und wenn Win aktuelle auf 1252 
eingestellt ist, und man jubelt einen ollen Programm Zeichen unter, die 
eigentlich als 1253 zu interpretieren währen, dann kommt nur npoch 
Datenmüll heraus, weil diese dann als 1252 interpretiert werden (wen man 
Glück hat, enthalten die Daten nur den Basiszeichen satz (die ersten 
127Byte), dann wird sogar noch was draus).
Sieht man sehr schön mit der Kommandozeile, die man mit chcp auf 437 
oder 1252 einstellen kann. Bei 437 kommt Datenmüll heraus, wenn man eine 
1252-codierte Textdatei mit type anschauen will

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Lukas K. schrieb:
> Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode.

Wird von ernstgemeinten Windows-Versionen seit 1993 genutzt.

von Arc N. (arc)


Lesenswert?

Lukas K. schrieb:
> Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte
> Problemlos einen Text mit griechischen, kyrillschen und Lateinischen
> Zeichen schreiben.

Jein...
http://lfsbook.linuxfromscratch.org/blfs/view/svn/introduction/locale-issues.html
usw. usf.

> Arc Net schrieb:
>> Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber
>> stricken.
> Klar, dass führt dann aber dazu, dass jeder sein eigenes Süppchen kocht.
> Dank gettext reicht eine Umgebungsvariable um die Lokalisierung aller
> Programme zu ändern.

Genau das wollen ich und einige andere (Kunden) nicht. Bspw. nutzte 
ich zwar meist das OS in Deutsch, die IDEs aber grundsätzlich in 
Englisch (früher auch mit englischer Tastaturbelegung). Einige Kunden 
wollen grundsätzlich eine xyz-sprachige Oberfläche, egal was das OS sagt 
(inkl. Zahlen/Datumsformat/Einheiten etc.)

von Bernd (Gast)


Lesenswert?

Reinhard Kern schrieb:
> Die
> Unixfraktion hat sich noch jahrelang erbittert gegen die Lokalisierung
> gewehrt, bei dem angeblichen Schrottsystem MSDOS war dagegen die
> Anpassung an Länderspezifika von vornherein selbstverständlich - ein
> Quantensprung in der IT-Entwicklung!

meinst du
"Einfach gesagt, ist ein Quantensprung eine Zustandsänderung in einem 
sehr kleinen System, also eine sehr kleine Änderung der Wirklichkeit."
(http://de.wikipedia.org/wiki/Quantensprung)

von Helmut S. (helmuts)


Lesenswert?

Unix war zwischen 1985 bis 2000 ein ziemlich elitäres System. Es war 
ausschließlich auf sündhaft teuren Workstations im Einsatz. Damit konnte 
das schon mal kein Massenbestriebssystem werden. Im Gegnsatz dazu war 
MS-DOS und später Windows von Anfang an für jedermann ausgelegt. 
Außerdem hat Intel dann dafür gesorgt, dass sie ab 2002 auch noch die 
besseren Prozessoren hatten. Das gab dann den Unix-Workstations den 
Rest. Damit hat MS-Windows dann auch noch den Workstation Markt 
abgeräumt.

von (prx) A. K. (prx)


Lesenswert?

Helmut S. schrieb:
> Unix war zwischen 1985 bis 2000 ein ziemlich elitäres System. Es war
> ausschließlich auf sündhaft teuren Workstations im Einsatz.

Für normale PCs gab es auch einige Unixe. Sogar schon für 286.
Ab Mitte der 90er gab es dann die freien BSD-Derivate.

> Außerdem hat Intel dann dafür gesorgt, dass sie ab 2002 auch noch die
> besseren Prozessoren hatten.

Der Schlüssel war bereits 1995 der Pentium Pro, der zu den RISCs 
aufschliessen konnte. Im weiteren Verlauf entschied dann der bei 
vergleichbarer Leistung günstigere Preis der x86-Massenware.

von Helmut S. (helmuts)


Lesenswert?

Klar gab es auch ein bisschen Unix auf PCs, aber das waren Exoten. Die 
haben keinen nennnenswerten Marktanteil errungen. Ich sag nur SCO.

> Im weiteren Verlauf entschied dann der bei vergleichbarer Leistung günstigere 
Preis der x86-Massenware.

Leider ware es viel schlimmer für die Unix-Fraktion. Deren workstations 
konnten leistungsmäßig den Intel-Rechnern(Windows PCs) ab 2002 nicht 
mehr das Wasser reichen.

von (prx) A. K. (prx)


Lesenswert?

Helmut S. schrieb:
> Leider ware es viel schlimmer für die Unix-Fraktion. Deren workstations
> konnten leistungsmäßig den Intel-Rechnern(Windows PCs) ab 2002 nicht
> mehr das Wasser reichen.

Das hing aber direkt mit der Preis-Situation zusammen. Entwicklung 
solcher Highend-Prozessoren ist von Generation zu Generation immer teuer 
- und zwar vorfinanziert. Da die x86 Entwicklung auf viel mehr Exemplare 
umgelegt werden konnte, waren die Resourcen einfach nicht gegeben, eine 
adäquate Entwicklung weiter zu führen. Die Alpha-Architektur wurde dann 
ausserdem von Intel mit dem Ziel aufgekauft, diese unliebsame Konkurrenz 
einzustampfen.

Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und 
die Systeme dazu rangieren unverändert ganz vorne. Nur sind die schlicht 
zu teuer für Workstations. Eine Situation die Intel selbst nicht ganz 
unbekannt ist, haben sie sich doch beim Versuch, im Übergang zu 64 Bits 
die sehr leistungsstarken IA64 durchzusetzen, von AMD ausmanövrieren 
lassen. Mit der gleichen Methode, wie einst sie selbst gehen die RISCs.

von Zottel (Gast)


Lesenswert?

Ja. Es gab das SCO. Das war aber extrem teuer, und bei weitem nicht so 
komfortabel wie die heutigen Linuxe. Alleine die Administration war ein 
Alptraum.

von (prx) A. K. (prx)


Lesenswert?

Es gab auch Microport Unix, das war keineswegs extrem teuer.

Klar, konsequent durch Tools wie smit (AIX) oder yast (Suse) gestützte 
Administration war damals in Unix/Linux nicht sonderlich verbreitet. Das 
ist bis heute nicht durchgängig der Fall (z.B. BSD, debian).

Für Windows-Jünger ist die Administration von Unix-Systemen auch heute 
noch ein Alptraum (und umgekehrt - in welcher von zig Dialogboxen war 
die verdammte Einstellung noch mal und wo finde ich die?). Das hat aber 
auch Vorteile: Wer es kann wird besser bezahlt. ;-)

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Matthias Sch. schrieb:
>> IBM hat zwar nie einen PC mit dem 8086
>> rausgebracht
>
> Das ist nicht richtig; PS/2 Model 25 und 30 nutzten den 8086. Und die
> Dinger kamen erst 1987 auf den Markt, als es bereits den AT mit 286 gab.

Haha, ja richtig, die Dinger habe ich völlig verdrängt. Dabei hatten wir 
Ende der 80'er sogar ein Modell 25 als Startrechner für eine IBM AS400. 
Mann, die hatten doch sogar so ein merkwürdiges Bussystem, auf dessen 
Name ich jetzt nicht komme. Dadrin war eine gefrickelte Karte mit 
komischen IBM Chips(2*2cm grosse Metallrechtecke), die über ein 
Multicore mit der AS400 verbunden war. Neben einem Z80 Computer mit 
Oasis Betriebssystem und einer 10MByte HDD (8-Zoll!) war das eine der 
merkwürdigsten Arrangements meiner Computerlaufbahn.

von MaWin (Gast)


Lesenswert?

> weshalb das aber nicht ohne Abstraktion an die Anwendungen weiterreichen

Tut Windows, alle Funktionen gibt es als W (widechar=unicode),
nur gibt es auch Programmierer die so wie du nicht wissen was
Unicode ist und das nicht verwenden, für diese Uninformieretn
gibt es alle Funktionen noch mal als A-Funktionen im lokalen
Zeichensatz, eigentlich gedacht als Rückwärtskompatible.

Es gibt unter Windows auch sehr schöne header-Dateien mit denen
man das automatisch machen kann, unter Linux muss man sich die
selber schreiben.

Lukas, du bist so uninformiert, du solltest lieber die Füsse
still halten. Linuxs hat erst 10 Jahre später Unicode umgesetzt
(und es funktioniert dort immer noch nicht überall).

Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen
sind die bessere Implementation als 16 bit wie es Windows tut.

von Jens G. (jensig)


Lesenswert?

@Matthias Sch. (Firma: Matzetronics) (mschoeldgen)

>Haha, ja richtig, die Dinger habe ich völlig verdrängt. Dabei hatten wir
>Ende der 80'er sogar ein Modell 25 als Startrechner für eine IBM AS400.

Was - brauchte die AS400 einen Anlasser?

von Jens G. (jensig)


Lesenswert?

@MaWin (Gast)

>Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen
>sind die bessere Implementation als 16 bit wie es Windows tut.

UTF8 ist universeller ausgelegt, und kommt verglichen mit UTF16/UCS2 mit 
vergleichsweise weniger Speicherplatz aus, sofern man mal bei 
lateinischen Zeichen bleibt.
Allerdings hat das auch den Nachteil, daß UTF8-Strings keine 
vorhersagbare Bytelänge haben - will man also eine Stringvariable haben, 
die sämtliche UTF8-Zeichen aufnehmen können muß, dann muß man notfalls 
4Byte/Zeichen vorsehen (gilt auch für UTF16, nicht aber UCS2).
Auch der generelle Prozessing-Overhead ist höher, weil man einfach 
1/2/3/4-Byte-Zeichen unterscheiden muß (bei UCS2 generell kein Problem, 
bei UTF8 erst ab 3Byte-Zeichen)

Das ursprüngliche UCS2 und jetzige UTF16 betrachte ich also nicht so 
sehr als unglücklich.

von (prx) A. K. (prx)


Lesenswert?

Jens G. schrieb:
> Was - brauchte die AS400 einen Anlasser?

Alte IBM-Tradition: Servicerechner steuert Hauptrechner. Mindestens bei 
den früheren Maschinen war es auch hardwareseitig sparsamer, die 
diversen Kompenten des Hauptrechners durch Software auf dem 
Servicerechner zu initialisieren, als dazu eigens Hardware einzubauen.

NB: Intels aktuelle Prozessoren haben einen Microcontroller an Bord, der 
beispielsweise die thermische Situation kontrolliert (PCU = power 
control unit). Kann schon sein, dass der noch mehr macht als nur das.

von Lukas K. (carrotindustries)


Lesenswert?

MaWin schrieb:
> (und es funktioniert dort immer noch nicht überall).

Also ich hatte in meinem Linux-Leben (mittlerweile 7 Jahre) nie 
Probleme mit mangelnder UTF-8 Unterstützung.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Jens G. schrieb:
> Was - brauchte die AS400 einen Anlasser?

Ja. Die AS400 hatte eigentlich nur die Twinax Netzwerkanschlüsse (bei 
uns warens 2 für 2 Segmente) und einen Steckplatz für die 
Multicore-Verbindungskarte zum Modell 25. Auf dem Model 25 wurde nach 
dem Booten von MS-DOS ein Progamm zum Starten und Verwalten der AS400 
gestartet.

Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau 
von 512 kByte auf 1 MByte auf der AS400. Der IBM-Mann kam vorbei, zog 
sie Handschuhe an und öffnete das AS400 Gehäuse. Nach kurzem Suchen 
entfernte er einen Jumper und strahlte uns an:"So, jetzt haben sie 1 
Megabyte RAM!".

von W.S. (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
> Und ws ist dann das eigentliche Erfolgsgeheimnis des PC?

Die Offenheit. Jeder konnte sich selbst eine Zusatzkarte bauen und 
reinstecken, der recht simple 8088-Bus war einfach zu handhaben und die 
Anwendungsprogramme konnten direkt in die Hardware greifen. Keine 
virtuelle Adressierung und trotzdem dank Segmentregistern auf 
verschiedene Adressen ladbare Programme, von denen auch mehrere 
gleichzeitig geladen sein konnten ("TSR")
Kurzum, mit dem IBM-PC....XT....AT konnte man viel mehr machen als mit 
allen in sich geschlossenen Systemen.


Mark .. schrieb:
> Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu
> werden, obwohl es von der Funktionalität her Unix haushoch unterlegen
> war?

Ach Mark, du redest seltsam daher.
MSDOS war von Anfang an ein PC-Betriebssystem - ganz im Gegensatz zu 
Unix, was übrigens damals m.W. stinketeuer war.

Unix ist im Sinne der Rechenzentren der späten 60er Jahre konzipiert: es 
gibt eine strikte Trennung von Usern und Administratoren, keinerlei 
Hardwarezugriff durch User, Volumina müssen vom Admi aufgelegt und dem 
betreffenden User in seinen Homebereich gemountet werden - und später 
wieder unmounted werden. Systempflege aller Art durch User war 
ausgeschlossen und das direkte Steuern von irgendwelcher Hardware 
außerhalb des Mainframes war nicht vorgesehen. Die Benutzung durch die 
User war im wesentlichen auf Rechen- und Organisations-Aufgaben 
beschränkt, falls die überhaupt direkten Kontakt zum Rechner hatten. 
Viel üblicher war der Job-Betrieb. Da gab man einen Blechkasten mit 
wohlsortierten Lochkarten an einer Luke des Rechenzentrums ab und kam am 
nächsten Tag vorbei, um die Ergebnisse abzuholen und den Job zu 
bezahlen.

Glaubst du, ein Betriebsystem, das für solch ein Environment konzipiert 
ist, wäre auch nur ansatzweise geeignet gewesen für einen PC, also einen 
Persönlichen Rechner? Hier muß der Besitzer alles selbst machen, er saß 
(wie heute auch) höchstpersönlich vor dem Ding um es zu benutzen und so 
einzurichten, wie er es braucht. Und nochwas: RAM war damals sauteuer! 
Und ne grandiose Festplatte mit 8 MB (später 20 MB) war ebenfalls 
sauteuer - man könnte auch sagen "unbezahlbar". Und hier referiert ein 
ahnungsloser Frischling von "haushoch unterlegen" daher...

Nee, Unix war und ist auch heute noch an die Bedürfnisse in den Gefilden 
der persönlichen Rechenkisten nicht wirklich angepaßt - und genau 
darum geht es.

Alle typischen Männer-Diskussionen, wer am größten oder dicksten oder 
stärksten ist, sind Mumpitz. Sinnvolle Angepaßheit von Lösungen ist das 
eigentliche Thema.

MSDOS war an die Verhältnisse am IBM-PC gut angepaßt, CP/M-86 war es 
nicht. Ich hatte beide wahlweise auf der Kiste, die damals ja noch von 
Floppy gebootet wurde. Zuerst satte 360 K Byte, später dann auch 720 K. 
Da hat MSDOS draufgepaßt, jaja. (waren das wirklich 360 K? ist schon zu 
lange her...)

W.S.

von nennonnem (Gast)


Lesenswert?

Also wenn in der Firma mal frage wer sich noch mit DOS Befehlen auskennt 
und wer noch mit Unix (war zu gleichen Zeit im Einsatz zumindest hier in 
der Firma) wissen von Dos noch viele was aber Unix ist eher weg .

Irgend was war einprägsamer für den User was auch immer.

von B e r n d W. (smiley46)


Lesenswert?

> waren das wirklich 360 K?
Ja, die 5" Floppys hatten 360k. Die haben später immer noch in die 3,5" 
Laufwerke gepasst (zusammengefaltet ;). Für den Commodore 64 musste ein 
Loch reingestanzt werden.

Auf einem XP mit zwei dieser Laufwerke hab ich mein erstes Embedded 
Projekt entwickelt. Dazu hab ich drei Disketten benötigt. Quellcode, 
Editor, Compiler, Linker und Eprom-Programmierer haben auf zwei Floppys 
leider nicht draufgepasst. Später gabs dann einen AT mit 20MByte 
Festplatte.

von Jens G. (jensig)


Lesenswert?

@Lukas K. (Firma: carrotIndustries) (carrotindustries)
>MaWin schrieb:
>> (und es funktioniert dort immer noch nicht überall).

>Also ich hatte in meinem Linux-Leben (mittlerweile 7 Jahre) nie
>Probleme mit mangelnder UTF-8 Unterstützung.

sagt ja auch keiner, daß es allgemein nicht funktioniert.
Aber soweit ich weis, ist das Linux-Filesystem z.B. nicht explizit auf 
Unicode ausgelegt, der Kernel auch nicht. Die Dateinamen werden einfach 
in der Codepage gespeichert, in der diese übergeben werden.
In Win ist das Filesystem schon entsprechend ausgelegt. Man kann in Win 
keine Dateinnamen in irgendeiner ASCII-Codepage anlegen, nur weil ein 
olles 1252-Programm (wie die Cmd line) das so will, sondern es wird fein 
säuberlich in Unicode abgelegt (wird also vorher in Unicode 
umgewandelt).
In Linux wird das meines Wissens so abgelegt, wie das Programm das 
übergeben hat - da kann man also Zeichencodierungen in allen Codepages 
wiederfinden, incl. Unicode natürlich, wenn man mit entsprechenden 
Umgebungen drauf zugreift. Hat man da was kyrilisch (8bit Codepage) 
abgespeichertes abgelegt, muß man wissen, daß es kyrillisch sein soll, 
sonst sieht man nur Müll. Da nützt mir auch eine sonst unicodefähige 
Umgebung nix, denn die zeigt auch nur Müll an. Man braucht also etwas, 
was die Zeichen als kyrilisch interpretiert.
Solange irgendwelche Programme diese Dateinamen uninterpretiert 
verarbeiten, ist das kein Problem.
Bei Linux ist also das Unicode nur augepfropft, aber nicht integriert.

von Jens M. (Gast)


Lesenswert?

B e r n d W. schrieb:
> Auf einem XP mit zwei dieser Laufwerke hab ich mein erstes Embedded
> Projekt entwickelt.

Ich auf einem XT, mit 320k Ram und 2x 5 1/4 Floppy. Auch 3 Disketten.

Dann kam Autocad mit 14 Floppys, ging aber auch, irgendwie wenn auch 
langsam. Den Plotter haben wir von ner HP Anlage geliehen 5 stellige 
Summe und das LPT - HP-IB Interface das mit den 3 embedded Floppys 
entwickelt wurde ging auch, irgendwie.

Hat sich aber gelohnt, irgendwie, so über die Jahre ;-).

von Jens G. (jensig)


Lesenswert?

@ Matthias Sch. (Firma: Matzetronics) (mschoeldgen)

>Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau
>von 512 kByte auf 1 MByte auf der AS400. Der IBM-Mann kam vorbei, zog
>sie Handschuhe an und öffnete das AS400 Gehäuse. Nach kurzem Suchen
>entfernte er einen Jumper und strahlte uns an:"So, jetzt haben sie 1
>Megabyte RAM!".

Das waren die wohl unserer Zeit weit voraus ;-) Denn heute ist doch 
sowas gang und gäbe:
- Autos/Motorräder (deren Motoren) werden künstlich gedrosselt, um 
unterschiedliche PS-Zahlen anbieten zu können (bei gleichem Motor)
- in irgendwelchen Geräten oder SW lassen sich zusätzliche Features 
freischalten - man muß nur wissen, wie
- die ganze Druckertechnik wird künstlich gegängelt
- naja - usw ...

IBM hat also damals schon gezeigt, wie man das macht ;-)

von Jens G. (jensig)


Lesenswert?

@ nennonnem (Gast)

>Also wenn in der Firma mal frage wer sich noch mit DOS Befehlen auskennt
>und wer noch mit Unix (war zu gleichen Zeit im Einsatz zumindest hier in
>der Firma) wissen von Dos noch viele was aber Unix ist eher weg .

>Irgend was war einprägsamer für den User was auch immer.

Naja - DOS war einfach einfacher, nicht so verwirrend in den Kommandos, 
übersichtlicher - das läßt sich einfacher merken.

von (prx) A. K. (prx)


Lesenswert?

Matthias Sch. schrieb:
> Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau
> von 512 kByte auf 1 MByte auf der AS400.

Da wird noch heute ein Prinzip draus. Ein paar der grösseren Rechner von 
dem Verein werden mit "performance on demand" verkauft, sicherlich auch 
bei den Nachfolgern der AS/400. Da deren zu Grunde liegende Technik 
ohnehin etliche Prozessoren auf einem Modul hat, kannst du einen Teil 
davon kaufen und die anderen bleiben abgeschaltet. Leg Geld nach und du 
kriegst sie freigeschaltet.

Komischerweise ist Intel noch nicht auf diese Idee gekommen. Die 
verkaufen zwar auch Chips mit abgeschalteten Funktionen, in schier 
endlos vielen Permutationen, aber Nachlizenzieren des bestehenden Chips 
ist nicht drin.

von Steffen W. (derwarze)


Lesenswert?

B e r n d W. schrieb:
> Ja, die 5" Floppys hatten 360k. Die haben später immer noch in die 3,5"
>
> Laufwerke gepasst (zusammengefaltet ;). Für den Commodore 64 musste ein
>
> Loch reingestanzt werden.

Da hast Du was durcheinandergebracht. Die 5 1/4" Floppys passen 
natürlich in keiner Weise in ein 3,5" Laufwerk.
Die 5 1/4" ergingen aber in das gleichgroße Foppylaufwerk des C64. nur 
das konnte die Dinger nur einseitig nutzen. Der berühte Locher war dazu 
da eine Kerbe für die Schreibschutzabfrage zu Stanzen. Dann konnte man 
die Diskette wenden und auch die andere Seite nutzen.
Später gab es dann auch ein 3,5" Laufwerk für den C64 das ganz normal 
beide Seiten beschreiben konnte.
Habe noch einige der alten 5 1/4" C64 Disketten (den C64 natürlich auch, 
erstaunlich was man damals mit nur 64k Speicher alles gemacht hatte, 
ähnliches auf dem PC heute kommt nicht unter 5MB daher) und oh Wunder 
die sind sogar noch lesbar. Gleiches kann man von den 3,5" Disketten 
leider nicht sagen.

von B e r n d W. (smiley46)


Lesenswert?

>> Ja, die 5" Floppys hatten 360k. Die haben später immer noch in
>> die 3,5" Laufwerke gepasst (zusammengefaltet ;)

> Da hast Du was durcheinandergebracht. Die 5 1/4" Floppys passen
> natürlich in keiner Weise in ein 3,5" Laufwerk.

Doooch, lies den Satz bitte nochmal ganz genau!
Außerdem haben die später auf die selbe Weise auch noch ins CD-ROM 
gepasst.

von alter ITler (Gast)


Lesenswert?

Steffen Warzecha schrieb:
> Der berühte Locher war dazu
> da eine Kerbe für die Schreibschutzabfrage zu Stanzen. Dann konnte man
> die Diskette wenden und auch die andere Seite nutzen.

Umdrehen?

Bei den 3,5er gab es einen Locher, damit die 720er als 1,44Mer liefen.
Sonst: 
http://de.wikipedia.org/wiki/Floppy#Tabellen.C3.BCbersicht_der_Diskettenformate

von MN (Gast)


Lesenswert?

alter ITler schrieb:
> Bei den 3,5er gab es einen Locher,

Den Locher gab es nicht für die 3,5" sondern für die 5,25"-Disketten.

von Sven P. (Gast)


Lesenswert?

Jens G. schrieb:
> Bei Linux ist also das Unicode nur augepfropft, aber nicht integriert.
Das ist aber auch nur die halbe Wahrheit.

Selbst FAT32 speichert in erster Linie Dateinamen in 8.3 (ja, wirklich). 
Erst mit der VFAT-Tabelle können bis zu 255 16-Bit-Zeichen hinterlegt 
werden. Bei FAT32 sind also sogar lange Dateinamen (länger als 8.3) nur 
aufgepfropft. Erst NTFS speichert Dateinamen immer mit 16-Bit breiten 
Zeichen. Das muss allerdings kein Unicode sein, bietet sich aber 
natürlich für UTF16 an. Das aber geht also in jedem Fall in die Hose, 
denn Unicode-Zeichen können auch doppelt so breit sein.

Die ext-Dateisysteme von Linux/Unix speichern Dateinamen neutral in 255 
Bytes. Deren Interpretation ist, wie du ja schon bemerkt hast, dem 
Betriebssystem bzw. dem Anwender überlassen. Das ist prinzipiell auch 
die sinnvollere Methode, finde ich.

Spätestens mit POSIX geht der UTF16-Schwachsinn wieder schief, denn 
fopen() und Konsorten erwarten Dateinamen aus 'char', also Bytes. Das 
geht mit UTF16 nicht, es geht aber wunderbar mit UTF8. Darum gibts im 
Windows-API dann wieder solche Krücken wie 'wfopen' und die proprietären 
'CreateFileW'.

UTF16 ist in meinen Augen und aus heutiger Sicht eine Sackgasse und 
Speicherverschwendung.

von Sven P. (Gast)


Lesenswert?

Nachtrag:
Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv 
arbeiten konnte. Das Mistding konnte ja effektiv garnix. Ewige Zeiten 
konnte man ja nichtmal einen eingegebenen Befehl korrigieren oder 
wiederholen. Nur von hinten zurück löschen oder neu eingeben.

von (prx) A. K. (prx)


Lesenswert?

Sven P. schrieb:
> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv
> arbeiten konnte. Das Mistding konnte ja effektiv garnix.

Vergleich das nicht mit heute, sonder mit damals. Und zwar nicht mit den 
damaligen dicken Kisten, sondern den anderen Mikroprozessor-Lösungen.

> konnte man ja nichtmal einen eingegebenen Befehl korrigieren

Man konnte aber Tools einsetzen, die das taten.

Mit der Bourne-Shell von Unix ging das übrigens auch nicht. Die C-Shell 
konnte es zwar, das Verfahren war aber für Fernschreiber optimiert und 
auf Terminals sehr gewöhnungsbedürftig.

Zur Erinnerung: Man konnte früher sogar mit Lochkarten erfolgreich 
programmieren (ich hatte noch kurz das Vergnügen). Das war garantiert 
deutlich bequemer, als auf dem ENIAC Kabel zu stecken.

von Helmut S. (helmuts)


Lesenswert?

> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv
arbeiten konnte.

99% der großen erfolgreichen Firmen haben MS-DOS und später WIN benutzt. 
WIN benutzen sie auch heute noch. Die waren alle glücklich mit MS-DOS. 
Endlich hatte man Rechner und OS für wenig Geld. Anwender von UNIX 
wurden hemmungslos von den UNX-Anbietern mit teueren Rechnern, 
teuren-Unix-Lizenzen und teuren Anwendungsprogrammen über den Tisch 
gezogen.

von Sven P. (Gast)


Lesenswert?

A. K. schrieb:
> Vergleich das nicht mit heute, sonder mit damals. Und zwar nicht mit den
> damaligen dicken Kisten, sondern den anderen Mikroprozessor-Lösungen.
> [...]
Naja, schon klar.

Aber der DOS-PS sollte doch attraktiv für den ARBEITSPLATZ sein. Das war 
ja der Witz, dass man nicht mehr am Fernschreiber klemmte, sondern eine 
Kiste unterm Schreibtisch stehen hatte.
Da wärs ja nochmal umso interessanter gewesen, den Komfort zu bieten.

Und selbst wenn man das mit knapper Rechenleistung und so weiter 
rechtfertigen würde. Der technische Fortschritt von MS-DOS war über den 
gesamten Lebenszyklus eher lächerlich, oder?

Da wäre effektiv mehr drin gewesen. Machbar wars ja, die ganzen 
TSR-Helferlein, die da aufkamen... ordentliche Befehlszeile, 
Bildschirmseiten scrollen, rudimentäres Netzwerk, später mal Copy&Pasta 
mit der Maus auf dem Textbildschirm und so weiter. Fast nichts davon hat 
irgendwie zeitnah Einzug in MS-DOS gehalten...

von (prx) A. K. (prx)


Lesenswert?

Sven P. schrieb:
> Fast nichts davon hat
> irgendwie zeitnah Einzug in MS-DOS gehalten...

Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig 
entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie 
schneller und hat den Markt schon längst in der Tasche.

von Sven P. (Gast)


Lesenswert?

A. K. schrieb:
> Sven P. schrieb:
>> Fast nichts davon hat
>> irgendwie zeitnah Einzug in MS-DOS gehalten...
>
> Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig
> entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie
> schneller und hat den Markt schon längst in der Tasche.
Und das istn Grund, dass fast geschlagene ZEHN JAHRE gedauert hat, bis 
man es mit Doskey serienmäßig einigermaßen bedienbar gemacht hat?

von Christian B. (casandro)


Lesenswert?

A. K. schrieb:
> Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig
> entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie
> schneller und hat den Markt schon längst in der Tasche.

Naja, aber neue Versionen sollten immerhin ein wenig neue Funktionen 
beinhalten. Bei MS-DOS wurde ja noch nicht mal der Bug für den das 
A20-Gate eingebaut wurde behoben.

Ich denke der Hauptgrund warum sich Unix da nicht auf dem Billigmarkt 
durchgesetzt hat war, dass damals Unix ziemlich kommerziell war und viel 
Geld gekostet hat. Die wieder freien Unixe, die wir heute kennen, gab es 
erst ab den 1990gern. Die ganzen modernen BSD Varianten mussten 
beispielsweise große Teile des Codes neu entwickeln.
Dazu kam auch, dass die Rechner nicht genügend Arbeitsspeicher und nur 
selten Festplatten hatten.

Die Leute, die sich es leisten konnten, haben schon immer unixoide 
Rechner benutzt. Das war früher halt teuer, hat sich aber im technischen 
Bereich sicherlich rentiert. Die Mehrkosten spielt man da locker in 
höherer Produktivität wieder rein. (Das merke ich immer dann, wenn ich 
einen Kollegen an seinem Tabellenkalkulationsprogramm verzweifeln sehe, 
und er dann nach stundenlanger Arbeit ein Bild hervorbringt, das unnötig 
schwer zu interpretieren ist und nichts Relevantes zeigt)

Hier ein Artikel aus dem Jahre 1990:
http://www.websalon.de/chalisti_ausgaben/chalisti_06/007_FRC6.html
"Um es vorweg zu nehmen, ein richtiges Unix System fuer unter
15.000 DM zu bekoemmen wird auf legalem Wege ohne Ausnutzung
von (sehr selten gewaehrten Studenten/Universitaeten/oder sonst
welchen Rabatten) nahezu ein Ding der Unmoeglichkeit sein.
Aber mit dieser Praemisse sind wir bzw. bin ich an den Start
gegangen um die Messe abzusuchen."

Übrigens das mit dem CR/LF ist ein anderer Brauch. Der stammt von der 
DEC Seite, deren Betriebssysteme schon vor Unix für das Internet 
verwendet wurden. Deshalb benutzen die meisten Protokolle im Internet 
CR/LF als Zeilenendzeichen. Unix im Internet gab es erst grob ab den 
frühen 1980ger Jahren.

von Der Rächer der Transistormorde (Gast)


Lesenswert?

Sven P. schrieb:
> Und selbst wenn man das mit knapper Rechenleistung und so weiter
> rechtfertigen würde. Der technische Fortschritt von MS-DOS war über den
> gesamten Lebenszyklus eher lächerlich, oder?

Es hat niemanden Interessiert, zumindest keinen der für das ganze 
bezahlt hat ;-).

Selbst wenn DOS nicht mehr als einen start batch  (autoexec.bat) geboten 
hätte.

Entscheidend war das es Anwendungen gab. Da hat Microsoft und der ganze 
Rest der Branche sich drauf gestürzt. Mit Word und Excel wurden zwei 
"Programme" (knallhart dahingestrikte Betaversionen um den Markt zu 
besetzen) geliefert.

Nicht der Unox Nerd der mit seinem OS rumspielt sondern die Bürohengste 
und -stuten entscheiden. Da spielte die Musik.

Von denen hat hat jeder die Kommandozeile gemieden wie die Pest. Es war 
besser da nichts drüber zu wissen. Eine klare WinWin ;-) Situation für 
Admin und Anwender.

von (prx) A. K. (prx)


Lesenswert?

Christian Berger schrieb:
> Naja, aber neue Versionen sollten immerhin ein wenig neue Funktionen
> beinhalten. Bei MS-DOS wurde ja noch nicht mal der Bug für den das
> A20-Gate eingebaut wurde behoben.

It's not a bug, it's a feature. ;-)

> Ich denke der Hauptgrund warum sich Unix da nicht auf dem Billigmarkt
> durchgesetzt hat war, dass damals Unix ziemlich kommerziell war und viel
> Geld gekostet hat.

Microport Unix kam 1985 für anfangs $99 raus. Aber eben erst 1985. 
Ausserdem war mit den ersten PCs an Unix nicht zu denken. Mit 8088, 
Floppydisk und 64KB war da kein Blumentopf zu gewinnen.

von Christian B. (casandro)


Lesenswert?

Ach ja noch was. In den 1990ger Jahren wurde auch der 386ger von den 
Unix-Leuten unterschätzt. Mit dem war es endlich möglich ein "modernes" 
Unix (mit Speicherschutz) laufen zu lassen. Eigentlich hätte Sun, damals 
(einer?) der Marktführer gleich ein auf dem 386ger basiertes Produkt 
herausbringen müssen, und Cross-Compiler dafür anbieten müssen. Damit 
hätte man einen billigeren Markt bedienen können.

Ach ja, der kommerzielle Unixmarkt war natürlich auch noch stark 
zerstritten. Es gab also dutzende von teilweise inkompatiblen Versionen. 
Gleichzeitig haben damals die Softwarefirmen den Quellcode nicht an den 
Kunden weitergegeben und Compiler waren teuer.

Hier übrigens mal eine Fernsehsendung zum Thema Unix aus dem Jahre 1985. 
Toll ist auch die aus heutige Sicht totale Fehleinschätzung des 
Softwaretesters, dass Unix auf dem Arbeitsplatz nichts verloren hat.
http://www.youtube.com/watch?v=g7P16mYDIJw

Gegen 4:00 auch ein Satz den man sich einrahmen müsste,

     "A lot of people don't really understand UNIX".

 Wobei der Typ der danach spricht, übrigens Garry Kindall, der Chef von 
Digital Research, offensichtlich auch Unix nicht verstanden hat.

von MaWin (Gast)


Lesenswert?

> Bei FAT32 sind also sogar lange Dateinamen (länger als 8.3) nur
> aufgepfropft.

Natürlich.

FAT32 war ja auch vorher da, bevor es überhaupt Unicode gab,
und die rückwärtskompatble Erweiterung war so genial,
daß es darauf sogar eine Patenterteilung gab.

Du hast ein Henne/Ei Problem.

von (prx) A. K. (prx)


Lesenswert?

Christian Berger schrieb:
> Eigentlich hätte Sun, damals
> (einer?) der Marktführer gleich ein auf dem 386ger basiertes Produkt
> herausbringen müssen,

Dazu hätte Sun allerdings korrekt vorhersagen müssen, dass die x86er 
eines Tages die Fliesskomma-Leistung der damaligen Highend-Prozessoren 
erreichen würden. Das aber war erst bedingt beim Pentium und wirklich 
beim Pentium Pro der Fall. Davor war der Unterschied der RISCs zu x86 
eklatant. Und genau die Fliesskommaleistung war der Markt der 
Workstations.

> Ach ja, der kommerzielle Unixmarkt war natürlich auch noch stark
> zerstritten.

Das allerdings war ein grosses Problem. Und wurde eigentlich erst 
dadurch einigermassen gelöst, dass das erfolgreiche Linux den Weg vorgab 
und die verbliebenen Unixe sich dem anpassten.

> Toll ist auch die aus heutige Sicht totale Fehleinschätzung des

Dieser Eindruck kommt fast immer auf, wenn man sich Vorhersagen in der 
Rückschau betrachtet. Völlig egal um was es dabei geht.

Vielen Menschen gelingt noch nicht einmal eine annähernd korrekte 
Einschätzung der Vergangenheit, geschweige der Gegenwart. Weshalb sollte 
das dann bei der Zukunft besser sein? Auch professionelle Wahrsager 
irgendwelcher Institute sind dabei nicht viel besser.

von Christian B. (casandro)


Lesenswert?

A. K. schrieb:
> Dazu hätte Sun allerdings korrekt vorhersagen müssen, dass die x86er
> eines Tages die Fliesskomma-Leistung der damaligen Highend-Prozessoren
> erreichen würden.

Nö, sicherlich gibt es einige Anwendungen, für die Fließkommazahlen 
wichtig sind, ein Unix ist aber auch ohne schon sinnvoll. Ja Unix 
Workstations waren schnelle Kisten, aber auch langsame Unix Rechner 
konnte man vernünftig nutzen. Zur Not hat man halt die Datenverarbeitung 
im Hintergrund gemacht.

In dem Video kommt noch mal ein Softwartest von Paul Schindler (gegen 
25:00) für ein Programm, das unter Unix trivial durch eine Liste mit 
Wörtern und grep ersetzt werden kann. Unter MS-DOS gab es damals kein 
grep.

von ??????? (Gast)


Lesenswert?

grep ist doch nicht Betriebssystemabhängig. C-Compiler gab es auch 
damals schon für MS-DOS

von MaWin (Gast)


Lesenswert?

> Unter MS-DOS gab es damals kein grep.

Natürlich doch.
FINDSTR.
Du kennst dich mit MS-DOS nicht so ganz aus, gelle ?

http://www.it.murdoch.edu.au/units/ICT306/dosfilters.html

von Christian B. (casandro)


Lesenswert?

Ja anonymer Autor. Man konnte auch für MS-DOS ein grep bekommen. Nur 
woher? Mitgeliefert wurde es nicht. Das Internet gab es damals auch für 
MS-DOS Nutzer in aller Regel nicht. Und einen C-Compiler musst man sich 
für MS-DOS auch erst mal dazu kaufen. Das waren früher viele hundert DM. 
Und selbst dann war es schwierig beispielsweise mehr als 64 Kilobyte an 
RAM am Stück zu nutzen, was Werkzeuge wie sort oder Texteditoren recht 
aufwändig macht.

Eine der wichtigsten Einflüsse bei der Anwendung eines Systems ist die 
Faulheit. Die Nutzer/Entwickler gehen immer den Weg des geringsten 
Wiederstandes. Der geht unter Unix in der Regel durch viele kleine Tools 
wie grep, awk, sed, usw. Ganz einfach weil die in aller Regel einfach da 
sind. So wie manche Windows Fanbois solche Sachen mit Excel Macros 
machen, weil Excel einfach da ist.

von (prx) A. K. (prx)


Lesenswert?

Christian Berger schrieb:
> Nö, sicherlich gibt es einige Anwendungen, für die Fließkommazahlen
> wichtig sind, ein Unix ist aber auch ohne schon sinnvoll.

Das was ich beschrieb war der Hauptmarkt der Unix-Workstations. Nicht 
das, wozu man sie einsetzen kann.

> Unter MS-DOS gab es damals kein grep.

Bei mir schon. ;-)

von Sven P. (Gast)


Lesenswert?

Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit 
Zusatzprogrammen und Shareware war dem schon abzuhelfen. Mit der 
Shareware-Szene kamen dann aber auch schon bessere Shells, als die 
primitive von MS.

Ein 'nacktes' DOS konnte man einschalten und wieder ausschalten. Das 
wars im Wesentlichen auch schon ;-)

Das war aber im Nachinein auch zwangsläufig so; der Vergleich mit dem 
grep ist unsinnig. Von Unix/Linux alleine hat der Anwender auch nicht 
sonderlich viel. Interessant wirds ja erst mit dem ganzen Userland 
(GNU-Werkzeuge, heute auch die Desktops mit Anhang -> KDE, Gnome, ...). 
Das Userland von DOS war aber 'das DOS', also die Shell mit eingebauten 
Befehlen und dazu noch eine Reihe von eigenständigen Befehlen. Und das 
war eben ziemlich bescheiden.

Ohne dieses bisschen Userland bleibt von DOS nicht mehr allzu viel 
übrig, das war der Unterschied. Die unixoiden arbeiteten theoretisch(!) 
ohne Userland. Das Userland war halt für den Bediener gedacht und hinten 
herum konnten Daemonen weiterarbeiten. Dazu war DOS aber nie gemacht, 
DOS ist Userland.

von Christian B. (casandro)


Lesenswert?

A. K. schrieb:
> Das was ich beschrieb war der Hauptmarkt der Unix-Workstations. Nicht
> das, wozu man sie einsetzen kann.

Ja, das ist ein interessantes Phänomen. Unterschiedliche Märkte belegen 
unterschiedliche Systeme, unabhängig davon wie geeignet das ist. Um mein 
CAD-Programm zu starten brauche ich kein Unix, trotzdem wurde das früher 
häufig gemacht. Dahingegen ist Unix ideal für Textverarbeitung und 
Bürokommunikation... was aber leider selten gemacht wird. Solche Leute 
verbringen dann Monate damit Excel-Sheets umzuformatieren.

von Christian B. (casandro)


Lesenswert?

Sven P. schrieb:
> Von Unix/Linux alleine hat der Anwender auch nicht
> sonderlich viel.

Ahh, da sieht man den Fehler. Auch wenn Linux nur ein Kernel ist, und 
das ganze System eigentlich GNU/Linux heißt war Unix schon immer das 
komplette System, sprich Kernel und Userland. Von der Philosphie her 
sogar eher Userland als Kernel. Deshalb kannst du mit Cygwin auch in 
Windows-System fast zu was brauchbaren aufrüsten. ;) (Ja ich bin gemein)

In einem "nackten" Unix-System hast Du halt schon die wichtigsten Tools 
drin.

von skorpionx (Gast)


Lesenswert?

„expanded memory“, „extended memory“,“upper memory“.
Adresse = Segment*16 + Offset.

Die waren Bremsen bei der Entwicklung in Computertechnik in achtziger 
und neunziger Jahren.
Motorola Prozessoren (68000) mit linearem Bus waren besser. Wie viele 
Jahren hat die Entwicklung durch diesen Bremsen verloren...

von (prx) A. K. (prx)


Lesenswert?

Christian Berger schrieb:
> Dahingegen ist Unix ideal für Textverarbeitung und
> Bürokommunikation... was aber leider selten gemacht wird.

Ich hatte damals sogar von der Stückzahl her eher mit denen zu tun als 
mit CAD-Systemen. Beispielsweise ca. 20 Schmalspur-RISCs (IBM 220, nicht 
besser als damalige PCs) an 2 Servern, für grafische Einsatzplanung.

Aber das war, weil es diese Software damals so gab, nicht weil das 
billiger gewesen wäre. Und weil X11 als Basis damals mehr hergab und 
mehr Geschichte hatte als die sehr frischen und bei Vernetzung und 
Client/Server noch durchwachsenen Win3 oder OS/2. Das änderte sich 
markant mit NT.

von Sven P. (Gast)


Lesenswert?

Christian Berger schrieb:
> Sven P. schrieb:
>> Von Unix/Linux alleine hat der Anwender auch nicht
>> sonderlich viel.
>
> Ahh, da sieht man den Fehler. Auch wenn Linux nur ein Kernel ist, und
> das ganze System eigentlich GNU/Linux heißt war Unix schon immer das
> komplette System, sprich Kernel und Userland. Von der Philosphie her
> sogar eher Userland als Kernel.
Ja dann, dann zieht der Vergleich ja doch viel eher, als ich eigentlich 
gedacht hatte. Die Verkaufsstrategie hinter den Unix damals kann ich 
nicht beurteilen - das war vor meiner Zeit.

von ach (Gast)


Lesenswert?

Christian Berger schrieb:
> Eine der wichtigsten Einflüsse bei der Anwendung eines Systems ist die
> Faulheit. Die Nutzer/Entwickler gehen immer den Weg des geringsten
> Wiederstandes. Der geht unter Unix in der Regel durch viele kleine Tools
> wie grep, awk, sed, usw. Ganz einfach weil die in aller Regel einfach da
> sind.

Ach. Nach dieser Theorie hätte sich DOS nie durchsetzen können.

von STK500-Besitzer (Gast)


Lesenswert?

Schuld ist doch nur der Installer.
Wenn ich mir die Geschichte mit YAST von Suse angucke:
Bei den ersten Linuxen musste man ganz schön tief in die Materie 
eindringen und bei der Installation eine Menge FachTLAs wissen oder 
nachschlagen ==> Viele Aufwand.

Bei DOS und später bei Windows konnte man einfach eine Diskette ins 
Laufwerk stecken und fertig.
Die Disketten konnte man auch wunderbar kopieren, womit der Privat-Markt 
gesättig wurde, was dazu führte, dass Firmen die Lizenzen kaufen 
musste... (aber das ist eine andere Geschichte...)

von (prx) A. K. (prx)


Lesenswert?

ach schrieb:
> Ach. Nach dieser Theorie hätte sich DOS nie durchsetzen können.

Hat es ja auch nicht. Oder wo siehst du heute PCs mit MS-DOS? ;-)

von ach (Gast)


Lesenswert?

STK500-Besitzer schrieb:
> Schuld ist doch nur der Installer.
> Wenn ich mir die Geschichte mit YAST von Suse angucke:
> Bei den ersten Linuxen musste man ganz schön tief in die Materie
> eindringen und bei der Installation eine Menge FachTLAs wissen oder
> nachschlagen ==> Viele Aufwand.

Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den 
Abhängigkeiten in autoexec.bat und config.sys haben. Eine 
Linuxinstallation lief meist ohne weiters zutun des Nutzers durch und 
die Standardḱonfiguration war im Gegensatz zu der von DOS oder Windows 
auch nutzbar.

von (prx) A. K. (prx)


Lesenswert?

An jene, die den längeren Teil der Karriere noch vor sich haben:

(1) Im Raum sitzt ein externer Supporter, der 2 Tage lang fast 
unterbechungsfrei im vi unlesbaren Konfigurationskram eintippt. Ohne 
Doku zu bemühen.

(2) Anderer Supporter, andere Software: Der Installateur sitzt eine 
Woche vor allerlei GUI-Fenstern und klickt die Maus kaputt.

Preisfrage: Wer von den beiden wird besser bezahlt? Wer erntet vom Chef 
ein "Wow!" und wer ein "Hmm, das sieht ja aus wie bei mir zu Hause, kann 
doch jeder!"?

von MaWin (Gast)


Lesenswert?

> Wer von den beiden wird besser bezahlt?

Ach du Scheisse, ABM Arbeitsbeschaffungsmaßnahmen von ansonsten 
arbeitslosen Dumpfbacken die für richtige Arbeit zu bld sind.

Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige 
nutzlose Konfigurationsarbeit die nur durch unzureichende Software 
verursacht wird.

Wenn überhaupt was eingestellt werden soll weil der Zustand nach der 
Installation nicht passend war (was eiegntlich nicht vorkommen darf), 
dann bitte vom Endanweder in einem übersichtlichen Dialog.

von Lukas K. (carrotindustries)


Lesenswert?

MaWin schrieb:
> Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige
> nutzlose Konfigurationsarbeit die nur durch unzureichende Software
> verursacht wird.

Es gibt eben nicht nur auspacken-installieren-benutzen Software.
Praktisch jede Serversoftware bedarf händischer Konfiguration, oder 
erwartest du von einem DHCP-Server gleich zu wissen, welche IPs er 
verteilen soll?

von Sven P. (Gast)


Lesenswert?

MaWin schrieb:
> Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige
> nutzlose Konfigurationsarbeit die nur durch unzureichende Software
> verursacht wird.
>
> Wenn überhaupt was eingestellt werden soll weil der Zustand nach der
> Installation nicht passend war (was eiegntlich nicht vorkommen darf),
> dann bitte vom Endanweder in einem übersichtlichen Dialog.
Aha. Zum Glück kann man ja mit einer Universalinstallation alle 
Anwendungsfälle abdecken...

Apple kann das ganz gut. Was halt nicht da ist, braucht der Anwender 
nicht. Per Definition.

von (prx) A. K. (prx)


Lesenswert?

MaWin schrieb:
> Ach du Scheisse, ABM Arbeitsbeschaffungsmaßnahmen von ansonsten
> arbeitslosen Dumpfbacken die für richtige Arbeit zu bld sind.

Es gibt neben MS-Office auf Windows auch Software, die in jeder 
einzelnen Installation hochgradig kundenspezifisch eingerichtet wird. 
Weils jeder Kunde anders haben will. Die wird natürlich nicht 
millionenfach verkauft, aber davon gibts andererseits recht viel. Kann 
freilich sein, dass dir sowas nicht über den Weg läuft. Mir schon.

Szenario (1) hatte ich vor gut 12 Jahren so erlebt. Sowohl die Software 
als auch die Server-Hardware von damals sind noch im Einsatz und werden 
es wohl noch ein paar Jahre sein. Kann man nicht meckern.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

ach schrieb:
> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den
> Abhängigkeiten in autoexec.bat und config.sys haben. Eine
> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch

Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde 
auch auf der 386er Platform entwickelt. Und viel Ahnung war da nicht 
nötig. Ohne CD ROM gabs eigentlich nur die Umstellung auf die deutsche 
Tastatur - das wars.
Entscheidend für den Anwender war ja nicht, wie toll sich ein Programm 
installieren lässt (das war bei MS-DOS ohne HDD auch gar nicht nötig), 
sondern wie benutzbar ein Programm war. Ich kannte Firmen, die sich 
komplett mit Lotus-123 und Sidekick durch die Daten gewurschtelt haben 
und nie etwas anderes benötigt haben. Du konntest mit 2 
Diskettenlaufwerken arbeiten, ohne dauernd Schwabbelscheiben zu wechseln 
und hattest eine enorme Erleichterung gegenüber der Fakturierung mit 
Schreibmaschine und Kohlepapier. Das war der entscheidende Vorteil.
Zusätzlich gab es tonnenweise Klone des XT (und auch des AT) die billig 
waren und gegen die sich IBM nie wirklich gewehrt hat. Mein erstes 
medizinisches Plotprogramm hab ich damals mit Turbopascal auf einem 
2-Disketten Zenith Klon geschrieben. Eine selbstgebaute 4-Kanal A/D 
Karte mit ISA und eigenem 8048 Subprozessor hat da die Daten gesammelt 
und an die langsame Zenith Schüssel weitergereicht.

von Christian B. (casandro)


Lesenswert?

Naja, als die 486ger populär waren, war Windows noch nicht so viel 
benutzt und Linux war schon ganz brauchbar. Ich hab irgendwo einen alten 
Zeitschriftenartikel (ich glaube aus der MC) in dem über die MS-DOS auf 
Linux Umstellung einer Universität berichtet wurde. Wohlgemerkt auf dem 
Desktop. Das müsste so um 1993 gewesen sein.

von Karl (Gast)


Lesenswert?

Sven P. schrieb:
> Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit
> Zusatzprogrammen und Shareware war dem schon abzuhelfen.

Das ist eine Feststellung die bis heute für MS gilt. Ohne Zusatzsoftware 
ist das Originalpaket vollkommen unbrauchbar. Das fängt mit dem Editor 
an und hört bei Sachen wie einem Vierenscanner noch lange nicht auf.

von Wolfgang R. (portside)


Lesenswert?

Christian Berger schrieb:

>
> In einem "nackten" Unix-System hast Du halt schon die wichtigsten Tools
> drin.

Dies war aber auch im Preis mit drin. Und, der Quellcode war nicht frei. 
Alles was man heute an Unix Tools auf dem Markt findet ist reverse 
engeneering. Wenn Mann als Rentner dann mal Zeit hat mal den Code 
anschauen und vergleichen. Original PDP-11 Unix Quellcode von 1980 liegt 
noch auf meiner archivierten Platte.

Mit verbockt hat Novell die ganze Unix Sache. Als auf der Intel 
Plattform mit Unixware eine relative preiswerte Lizenz vorhanden war 
gibt das unfähige Management Marketing an SCO ab und diese schränken die 
unbegrenzte Anzahl Arbeistplätze wieder ein und kassieren bei SCO-Unix 
ab. SCO Unix ist eben Schrott. Unixware war 200% stabiler.
Nun ja Novell hat es später nochmals mit Suse Linux versucht und 
ebenfalls Schiffbruch erlitten.
Auch die Motorala 68000 Welt war anfangs nicht einfach. Für Unix hat SUN 
damals zuerst eine Hardware Memory-Management-Unit um den 68000 herum 
entwickelt und damit Unix lauffähig gemacht - lineare Addressierung ist 
eben nicht alles.

Steve Jobs ist wohl einer der wenigen die erkannt haben was läuft. Bei 
Apple zurückgekommen auf Berkley Unix umgestiegen - eigene Oberfläche 
drauf und durchgestartet.

Dass sich Qualität nicht durchsetzt sieht man immer wieder. Neuestes 
Beispiel Mobilfunk. An die Nokia Sprachqualität kommt keiner nahe ran.
Aber gekauft werden heute Computer die als Nebeneffekt mehr schlecht als 
recht mobil telefonieren können.
Optik ist alles, Bedienung andere Baustelle.
Viel Spass mit Touchscreen und Win8 auf dem Desktop.

Mast- und Schootbruch alte Seefahrer

von MCUA (Gast)


Lesenswert?

> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv
> arbeiten konnte. Das Mistding konnte ja effektiv garnix.
Man konnte immerhin grundlegende  OS- u. Datei-Operationen damit machen, 
und viel Zusatzsoftware gab es auch. Und oft geht Commandline schneller 
als Mausgeklickse.

>Übrigens das mit dem CR/LF ist ein anderer Brauch. Der stammt von der
>DEC Seite...
Und das kommt ursprüngl. von Schreibmaschinen und Fernschreiber. Es muss 
halt CR und LF sein, damit der Text nicht in gleicher Zeile 
überschrieben wird.
Und der Asci-Code 127 mit deshalb mit DEL belegt, weil mit den ganzen 
1-en (nein, mit den Löchern) man beim Lochstreifen nachträglich das 
(falsche) Zeichen ungültig machen konnte. ..ist also eine Festlegung die 
schon uralt ist.

von W7 (Gast)


Lesenswert?

Christian Berger (casandro) schrieb:

> Naja, als die 486ger populär waren, war Windows noch nicht so viel
> benutzt und Linux war schon ganz brauchbar. Ich hab irgendwo einen alten
> Zeitschriftenartikel (ich glaube aus der MC) in dem über die MS-DOS auf
> Linux Umstellung einer Universität berichtet wurde. Wohlgemerkt auf dem
> Desktop. Das müsste so um 1993 gewesen sein.

Das ist wirklich Geschichtsfälschung in Reinform. Du bist genau so ein 
Jungspund wie Sven P. (haku) der selber gerade mal Baujahr 1989 ist aber 
hier sich groß über die MS-DOS Zeit äußert, die keiner von euch beiden 
selbst erlebte. Nur mal zu deiner Information, schon MS-DOS war damals 
sehr erfolgreich, weil es z.B. ein gutes Schreibprogramm sprich 
Textverarbeitung wie Word Perfect gab und gute eine Tabellenkalkulation. 
Mein erster Rechner war ein 80386SX mit 16 MHz und 4MByte RAM, den ich 
mir zur Studienzeit damals gerade so leisten konnte (40MHz DX Rechner 
kosteten damals ein gefühltes Vermögen von um die 3500 DM). Darauf lief 
zunächst ein Windows 3.0, dann 3.1 dann WFW 3.11 und das war in etwa die 
von dir beschriebene Zeit. Im Rechnerraum der FH lief kein Unix und 
schon gar kein Linux, sondern Novell NetWare und das stabil über Jahre. 
Auf den Clients durfte man Borland Turbopascal starten, Turbo C++ und 
anderes Zeugs. Einen Unix Großrechner gab es dennoch zu Übungszwecken. 
War eine alte ausrangierte Gurke mit der damals dennoch beachtlicher 
Rechenleistung von 4 Prozessoren und viel, viel RAM (heute lächerlich). 
Die Studies hatten nach und nach alle einen PC mit Windows, darauf wurde 
programmiert und das Schriftgut in WYSIWYG abgewickelt und auf dem 
damals gängigen HP 500 Deskjet ausgedruckt. CAD Programme waren ACAD für 
die Zeichenübungen und ORCAD 386 für Schaltungsdesign. Das waren DOS 
Programme mit eigenen Grafiktreibern und den damals üblichen 
Bildschirmauflösungen von meist 800x600 Pixel oder bei den 5000 DM 20 
Zöllern auch mehr. Wie gesagt, wir reden hier die ganze Zeit noch über 
DOS und dann Windows 3.x, noch nicht mal über das damals sehr 
erfolgreiche (weil erstmals echte 32-bit Windows 95). Keiner der mit Win 
3.x begann hätte damals die Umstallung auf Windows 95 ausgeschlagen, um 
zu Linux zu wechseln. Dessen Zeit lief da langsam erst an. Die SuSE GmbH 
hatte sich 1992 gegründet, aber erst im Mai 1996 also nach Windows 95' 
ihre erste Distribution herausgebracht. Vorher war da nur Slackware. Die 
hatte ich auch, als ich mein erstes Doublespeed Mitsumi CD-ROM gekauft 
hatte (nein der 386SX hatte noch kein CD-ROM eingebaut ;)) für damals 
rund 300 DM und Treiber für DOS. War eine nette Spielerei, aber nicht 
mal ansatzweise das was man heute unter "Linux" subsummiert.

Also bitte keine Geschichtsfälschung betreiben. Wie Helmut S. (helmuts) 
schon schrieb,

"99% der großen erfolgreichen Firmen haben MS-DOS und später WIN 
benutzt.
WIN benutzen sie auch heute noch. Die waren alle glücklich mit MS-DOS.
Endlich hatte man Rechner und OS für wenig Geld. Anwender von UNIX
wurden hemmungslos von den UNX-Anbietern mit teueren Rechnern,
teuren-Unix-Lizenzen und teuren Anwendungsprogrammen über den Tisch
gezogen."

PCs waren inzwischen gegenüber Unixrechnern (in meinem Firmenumfeld VAX 
und VAX Clones) verdammt billig und bei ESCOM als Massenware zu haben. 
Unixrechner wurden 1995 nicht mehr neu angeschafft, statt dessen kamen 
mehr und mehr PCs mit den neusten Intel Prozessoren. Der Pentium 60 
hielt Einzug und das war damals gegenüber den alten Unixrechnern bereits 
eine verdammt schnelle Kiste. Der Trend war klar erkennbar.

Aus heutiger Sicht mag Win95 in der ersten Release elend erscheinen. 
Aber gegenüber Win311 war es bereits ein Quantensprung und in der 
inoffiziellen OSR 2.0 dann auch ganz brauchbar. ;)

Das war übrigens alles noch die Zeit ohne DSL. Das muss man dabei immer 
im Hinterkopf behalten und den Begriff "Flatrate" kannte keiner. 14,4 
kbsp Modem war angesagt, später dann 56 kbps und sauteure Onlinekosten.

von W7 (Gast)


Lesenswert?

Was mir damals an Intel ziemlich auf den Geist gegangen ist und bis 
heute tief in mir verwurzelt ist, ist der Versuch von Intel damals die 
aufkommende Konkurrenz AMD im 386er Prozessorenbereich zu verhindern. 
Intel Prozessoren waren einzeln nur sauteuer (für viele praktisch 
unbezahlbar) zu erhalten und sie haben damals alle Hebel in Bewegung 
gesetzt, um die Billigkonkurrenz AMD zu verhindern. Damit hat Intel 
damals aktiv den Markt behindert (die Schw..e). Es gelang aber nicht und 
AMD durfte dann doch mit seinen Clones auf den Markt, die damals zuerst 
direkt auf die Hauptplatinen angelötet waren und so konnte man sich dann 
auch einen DX Rechner leisten, durch einfachen Austausch der 
Hauptplatine. Erst AMD hat die Preisspirale nach unten eingeläutet und 
konnte auch Leistung bieten (wenn auch lange Zeit etwas den Intel Proz. 
hinterherhinkend). Cyrix (die andere Konkurrenz) taugte dagegen nix.

von (prx) A. K. (prx)


Lesenswert?

Wobei diese Nummer noch nicht durch ist. Auch Intels zweiten Versuch, 
das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu 
zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt. Es 
war ja nicht Intels Idee, die x86er zu 64 Bits auszubauen. Dazu wurde 
Intel durch AMDs Schachzug regelrecht gezwungen.

Aber da AMD technisch mit Intel nicht mehr so recht mithalten kann, sind 
wir grad wieder in einer Situation, in der Intel die Chance hat, ein 
Monopol der Highend-x86er zu errichten. AMD liegt pro Core weit hinter 
Intel, sowohl in blanker Rechenleistung als auch in Rechenleistung pro 
Watt. Jedenfalls wenn man das ATI-Erbe der integrierten Grafik aussen 
vor lässt.

Einzig die nicht zuletzt dank Tablets gewonnene Erkenntnis, dass man für 
einen Internet-Browser nicht zwingend einen 100W Desktop-Prozessor oder 
ein mit einem völlig überteuerten Prozessor ausgestattetes Ultrabook 
benötigt, erspart uns vorerst den Durchmarsch Intels, insgesamt gesehen. 
In diesem Sinne gehört ausgerechnets Apples Hardwareschmiede zu den 
grösseren Hindernissen für Intel - Apples selbst designte ARM-Cores sind 
nämlich recht beachtlich.

von Sven P. (Gast)


Lesenswert?

W7 schrieb:
> Sven P. (haku) der selber gerade mal Baujahr 1989
Woher hast du denn das Datum?

> ist aber
> hier sich groß über die MS-DOS Zeit äußert, die keiner von euch beiden
> selbst erlebte. Nur mal zu deiner Information, schon MS-DOS war damals
> sehr erfolgreich, weil es z.B. ein gutes Schreibprogramm sprich
> Textverarbeitung wie Word Perfect gab und gute eine Tabellenkalkulation.
Also anders formuliert, die Anwenderprogramme waren erfolgreich und 
MS-DOS war eben grad da...

Ich bin mir der Problematik dieser Zeit schon bewusst. Und natürlich 
erlebe ich vieles davon nur als Retrospektive, obwohl ich mich 
tatsächlich über diverse DOS-Versionen und -Klone, Win3.1 und 3.11 bis 
zu Win95 durchgehangelt habe, da ich fast immer nur anderweitig 
ausrangierte Hardware hatte.
Aber weil auf praktisch jeder kleinen Maschine MS-DOS lief, muss das ja 
nicht automatisch auch bedeutet, dass MS-DOS so unheimlich gut war. Es 
boten sich ja auch nicht viele Alternativen dazu. Ich schrieb ja auch 
'es erschließt sich mir nicht'. Da können ja durchaus noch Aspekte sein, 
die ich nicht berücksichtige, mit denen es sich mir aber vielleicht 
erklären wird.

Ich empfand die Bedienung einer DOS-Maschine jedenfalls als schmerzhaft. 
Eine längere Befehlszeile getippt -- wie hieß der Dateiname noch? Ach 
Mist. Befehlszeile löschen und 'dir' rufen. Ach ja, so hieß er. Also die 
ganze lange Befehlszeile nochmal eintippen. Programmieren mit der Shell 
erübrigte sich, meistens hatte ich schneller ein Programm mit Pascal 
oder QuickBasic zusammengehauen.

Solche Dinge und noch viele andere hätte man doch wirklich in den über 
zehn Jahren des MS-DOS-Lebens mal verbessern können.

von Christian B. (casandro)


Lesenswert?

W7 schrieb:
> "99% der großen erfolgreichen Firmen haben MS-DOS und später WIN
> benutzt.

Wir reden aneinander vorbei. Ich rede nicht davon was "99% der 
erfolgreichen Firmen" gemacht haben. Das ist mir genau so egal wie die 
angeblichen >50% Marktanteil die Windows heute auf dem Desktop haben 
soll. Das betrifft mich nicht.
Es ging mir darum, was man damals machen hat können, was es damals schon 
gab, und was die Leute die wirklich ein gutes System haben wollten auch 
schon langsam gemacht haben.

Das die Masse schon immer nach dem Grundsatz "Was der Bauer nicht kennt, 
frisst er nicht" handelt ist normal. Schau in ein übliches schlechtes 
Systemhaus und Du wirst richtige "Linuxphobiker" finden, die ernsthaft 
Angst vor Linux haben und glauben sie wüssten irgendwas von Windows, 
dann aber an simplen Aufgaben unter Windows scheitern.
Das ist nicht der Standard nach dem ich handeln will. Ich will für jede 
Aufgabe das richtige Werkzeug benutzen, egal ob das jetzt ein Xubuntu 
Linux, OS/2, Windows oder CP/M ist.

von MCUA (Gast)


Lesenswert?

>Damit hat Intel damals aktiv den Markt behindert ....
Das ist fast immer so, wenn es nur noch weniger Mitspieler gibt

>Da können ja durchaus noch Aspekte sein, die ich nicht berücksichtige,
Schonmal dran gedacht, dass Grafik- und Miltimediakrams sehr Speicher- 
und rechenintensiv sind? (jedenfalls damals)
Deshalb sind viele Anwendungen (blitzschnell) im Textmodus gelaufen (und 
in manchen Fällen konnte man in den Grafikmodus umschalten).
Heute "muss" für jeden Kickifacks gleich ne umfangr. Grafik her, obwohl 
noch vieles im Textmodus möglich wäre. Aber (fast) Alle denken, wenn man 
kein KlickiBunti sieht, muss es alt sein.


Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit 
Erweiterung gemacht, weil 'normal' Evolution und kompatibel,
und nach AMD gibts ja auch noch VIA.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
> Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit
> Erweiterung gemacht, weil 'normal' Evolution und kompatibel,

Soweit mir bekannt ist hatte Intel das nicht vor. Sondern wollte für den 
Desktop/Mobilmarkt solange weiter 32-Bit x86 anbieten, bis die 
Kundschaft freiwillig auf bis zum Anschlag zupatentierten IA64er 
wechselt.

Mindestens die erste Itanium/IA64-Generation hatte einen 
x86-Kompatibilitätsmodus an Bord, einen eher traurigen allerdings. Im 
weiteren Verlauf wäre es wohl eher auf dynamic code translation 
rausgelaufen, wie HP es für Programme der alten PA-Maschinen 
implementierte.

Nur kam dann AMD64 und Intel merkte, dass sie mit ihrer Strategie in die 
Falle laufen. Und machte eine Kehrtwendung mit der exakten Übernahme 
dieser Architektur. Eine eigene x86-64er Variante durften sie nicht 
bringen, dagegen legte Microsoft sein Veto ein. Nun steht dafür HP etwas 
im Regen, weil Itanium langsam absäuft.

> und nach AMD gibts ja auch noch VIA.

Naja. VIA taugt doch nicht einmal als Feigenblatt zur Abwehr von 
Monopolvorwürfen.

von MCUA (Gast)


Lesenswert?

> bis die Kundschaft freiwillig..
Aber was die Kundschaft mal gewöhnt ist (X86(!)bei PCs), will sie auch 
behalten.
Deshalb gingen die damals auch nicht zur anderen Intel-Archit oder zum 
68k. Das weiss Intel doch.

>wäre es wohl eher auf dynamic code translation...
das ist schon mal gescheitert

>Naja. VIA taugt doch nicht einmal...
VIA wird für viele Embedd-PCs benutzt, und nicht immer ist sehr hohe 
Leistung gefordert. Viele Dinge gehen damit.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
> Deshalb gingen die damals auch nicht zur anderen Intel-Archit oder zum
> 68k. Das weiss Intel doch.

AMD hatte damals nicht nur AMD64 parat, sondern zudem auch noch 
gleichzeitig die klar bessere Hardware. Die Opterons waren den damaligen 
Intels schlicht deutlich voraus, sowohl bei der Performance als auch 
beim Systemdesign. Intel hatte sich gleichzeitig nicht nur bei der 
Befehlssatz-Architektur verspekuliert, sondern auch bei der 
Netburst-Architektur des Pentium 4. Die sah auf dem Papier brilliant 
aus. In der Praxis fing das Papier leider zu schnell Feuer und 
verbrannte.

Wäre AMD ungefähr im heutigen Ausmass hintendran gewesen (GPU 
ausgenommen), dann hätte Intels Strategie möglicherweise funktioniert.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
> VIA wird für viele Embedd-PCs benutzt, und nicht immer ist sehr hohe
> Leistung gefordert. Viele Dinge gehen damit.

Schon, aber das ist in der Entscheidung von Highend-Architekturen völlig 
irrelevant. VIA konkurriert nicht mit Intel oder AMD, sondern letztlich 
mit ARM.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
>>wäre es wohl eher auf dynamic code translation...
> das ist schon mal gescheitert

Einmal ja, bei Transmeta. Ansonsten siehst du sie an allen Ecken im 
Einsatz. So ist mit Androids Dalvik-VM der Smartphone-Markt von dieser 
Technik geprägt.

Die ursprüngliche Virtualisierungstechnik von VMware ist ebenfalls eng 
damit verwandt. x86 ist ja eigentlich nicht virtualisierbar, weshalb man 
böse Tricks anwenden musste, um es trotzdem möglich zu machen.

von W.S. (Gast)


Lesenswert?

Sven P. schrieb:
> Ich bin mir der Problematik dieser Zeit schon bewusst.

So? Meinst du?
Ich nicht. Ich zitiere dich mal:
"Auch wenn Linux nur ein Kernel ist, und das ganze System eigentlich 
GNU/Linux heißt war Unix schon immer das komplette System, sprich Kernel 
und Userland."

Siehst du es jetzt?

Also, wenn hier Unix mit MSDOS verglichen wird, dann sollte man es 
richtig tun: Unix ("das komplette System") vergleichen mit MSDOS und den 
auf MSDOS laufenden Apps (die zu 99% nicht von IBM kamen, sondern von 
Tausenden von SW-Schreibern, kommerziellen wie privaten). Also 
"komplettes" System gegen komplettes System.

Oder wenn man es spartanisch will, den Unix-Kernel nebst einer Shell 
(aber OHNE jegliche Tools - bash ohne ls usw... ;-) ) vergleichen mit 
dem nackten MSDOS - und dann mal nachfragen, welches von beiden auf eine 
360K Diskette paßt.

Aber so langsam ermüdet einen dieser trostlose Thread, der auf einer 
geradezu frappierenden Unkenntnis jeglicher jüngerer Geschichte begonnen 
hat. Ich frag mich loß, wie das mal in Zukunft werden soll, wenn das so 
weitergeht. Gesellschaftlicher Alzheimer?

W.S.

von troll (Gast)


Lesenswert?

Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man 
jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere 
Hardware im  Vergleich zum IBM-AT. Und sich dann doch nicht durchsetzten 
weil für DOS/Win bekanntere Anwendungen verbreitet waren. Der 
Markterfolg eines Betriebssystems wird von der Werbung und von der 
passenden Anwendungssoftware bestimmt - und nicht von Leistungsfähigkeit 
und Flexibilität des Betriebssystems selber.

von Sven P. (Gast)


Lesenswert?

W.S. schrieb:
> Siehst du es jetzt?
Nein, aber du siehst es ja ebensowenig.

Eingangs hatte ich MSDOS mit den nackten UNIX-Kern verglichen, genau wie 
du es nun vorschlägst. Man hat mich dann darauf aufmerksam gemacht, dass 
das Userland damals integraler Bestandteil eines 'UNIX' war.

> Also, wenn hier Unix mit MSDOS verglichen wird, dann sollte man es
> richtig tun: Unix ("das komplette System") vergleichen mit MSDOS und den
> auf MSDOS laufenden Apps (die zu 99% nicht von IBM kamen, sondern von
> Tausenden von SW-Schreibern, kommerziellen wie privaten). Also
> "komplettes" System gegen komplettes System.
Nein, offenbar ist das ja nicht so. Ein frisch gekauftes UNIX 
beinhaltete bereits viele Werkzeuge. Ein frisch gekauftes MSDOS 
beinhaltete praktisch nichts. Beide Systeme dabei unmittelbar ab Werk 
vom Hersteller.

Es erscheint mir ab diesem Punkt aber nur logisch, dass sich um MSDOS 
eine größere Entwicklerkultur gebildet hat, weil ja jeder an das System 
heran kam. Das ist dann wohl auch  der Trend, der heute Linux so 
vorantreibt. Da erübrigt sich ja beinahe schon der Vergleich...

> Oder wenn man es spartanisch will, den Unix-Kernel nebst einer Shell
> (aber OHNE jegliche Tools - bash ohne ls usw... ;-) ) vergleichen mit
> dem nackten MSDOS - und dann mal nachfragen, welches von beiden auf eine
> 360K Diskette paßt.
Es gibt nach wie vor Linux-Distributionen, die auf einer Floppy (ok, 
1,5MB) Platz finden. Inklusive Werkzeug und Netzwerk.

> Aber so langsam ermüdet einen dieser trostlose Thread, der auf einer
> geradezu frappierenden Unkenntnis jeglicher jüngerer Geschichte begonnen
> hat. Ich frag mich loß, wie das mal in Zukunft werden soll, wenn das so
> weitergeht. Gesellschaftlicher Alzheimer?
Dafür sorgen andere Institutionen ja schon recht erfolgreich...

Ich bemühe mich ja wenigstens, solche Zusammenhänge zu verstehen. Ich 
habe noch mit DOS gearbeitet (arbeiten müssen). Das DOS- und 
Windows-Lager betreibt aber mindestens genauso eifrig 
Geschichtsverzerrung, wie alle anderen Gruppen und Randgruppen auch. 
Insofern fällt es zumindest mir zugegebenermaßen nicht leicht, den 
Dünnpfiff daraus auszusortieren.

von Michael_ (Gast)


Lesenswert?

Ich verstehe nicht, warum man den Vergleich von DOS mit UNIX-Rechnern 
herstellen will.
Dieser Vergleich geht doch genauso schief, wie wenn man einen heutigen 
PC mit einem heutigen UNIX-System vergleichen will.
Nehmen wir mal das Jahr 1985. Da ist eher der Vergleich mit Commodore 
und Apple angebracht. Und dann waren da ja noch die in Massen vertretene 
CP/M-Rechner. Die Konzeption unterschied sich nur unwesentlich.
Die Begriffe auf der Befehlszeile waren auch ähnlich.
Wer CP/M bedienen kann, der kann auch DOS bedienen.
Meist wurden ja auf beiden vor allem Programme für das Büro verwendet.
Musikwiedergabe wurde auf dem PC etwa erst 1992 populär, und hinkte 
dabei den Apple und Commodore so 5 Jahre hinterher.
Ich denke, es ist ein Zufall der Geschichte. Sonst hätten wir heute eben 
alles genauso auf Basis von CP/M und ZILOG, oder AMIGA?
Und eigentlich ist es doch wurscht, welcher Konzern die Soft- oder 
Hardware bereitstellt. Wir werden uns noch über Gooooogle wundern.
Obwohl ich zu der Zeit ein Fan von DR-DOS und OS/2 war.

von W7 (Gast)


Lesenswert?

Sven P. (haku) schrieb:

W7 schrieb:
>> Sven P. (haku) der selber gerade mal Baujahr 1989
> Woher hast du denn das Datum?

hehe, das Internet ist eine Verräterplattform. :)

Quelle:
Beitrag "Re: Balla Balla, na super, der Topic wird abgewiesen"

oder haste geschummelt?

von Reinhard Kern (Gast)


Lesenswert?

A. K. schrieb:
> Auch Intels zweiten Versuch,
> das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu
> zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt.

Ich weiss ja nicht an was du "erfolgreich" fest machst, aber ich würde 
dazu empfehlen:

Rechne einfach mal die Gewinne der Firmen Intel und AMD der letzten 15 
oder 20 Jahre zusammen und vergleiche die beiden. Mir ist das im Moment 
zuviel Mühe, aber dabei ist wohl eher die Frage, ob AMD summa summarum 
überhaupt Geld verdient hat, während es sich bei Intel um zig Milliarden 
handelt. Erfolgreich für AMD würde ich das nicht nennen, "tapfer" würde 
besser passen. Erinnert mich irgendwie an Asterix und Konsorten.

Für den Thread ist das allerdings nicht weiter relevant, denn ohne AMD 
wäre x86 vielleicht schon teurer geblieben, aber doch eine 
Grössenordnung billiger als Unix-Hardware.

Gruss Reinhard

von Arc N. (arc)


Lesenswert?

Michael_ schrieb:
> Meist wurden ja auf beiden vor allem Programme für das Büro verwendet.
> Musikwiedergabe wurde auf dem PC etwa erst 1992 populär, und hinkte
> dabei den Apple und Commodore so 5 Jahre hinterher.

1992
Amiga 1200 und 4000, 8-Bit Sound, Stereo
Macintosh, 8-Bit Sound (afair einige nur Mono)

Atari Falcon, 68030 CPU, 56001 DSP, 16-Bit, 50 kHz, Stereo (ähnlich wie 
die NeXTstation/cube afair 1990?)

> Ich denke, es ist ein Zufall der Geschichte. Sonst hätten wir heute eben
> alles genauso auf Basis von CP/M und ZILOG, oder AMIGA?

Der legendäre Z80000 oder das noch legendärere Missmanagement bei 
Commodore und Atari ;-)

> Und eigentlich ist es doch wurscht, welcher Konzern die Soft- oder
> Hardware bereitstellt. Wir werden uns noch über Gooooogle wundern.
> Obwohl ich zu der Zeit ein Fan von DR-DOS und OS/2 war.

von (prx) A. K. (prx)


Lesenswert?

Reinhard Kern schrieb:
>> Auch Intels zweiten Versuch,
>> das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu
>> zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt.
>
> Ich weiss ja nicht an was du "erfolgreich" fest machst, aber ich würde
> dazu empfehlen:

Ich bin jetzt etwas irritiert, denn das klingt für mich wie gezielt 
missverstanden durch Ausnutzung sprachlicher Doppeldeutigkeit.

Nenn es einen Phyrrussieg, wenn du willst, denn um AMD ist es 
wirtschaftlich nicht gut gestellt. Aber ein Architekturmonopol hat AMD 
erfolgreich verhindert. Auf der finanziellen Seite waren sie im Volumen 
und über die Gesamtzeit gesehen erfolglos.

Aber das sind zwei verschiedene Aussagen. Weil du auch als armer Mann 
erfolgreich eine Strasse überqueren kannst - das besagt nämlich nur, 
dass du drüben lebend ankommst, nicht dass du drüben reich ankommst.

> Für den Thread ist das allerdings nicht weiter relevant,

Klar, denn im Thread geht es eigentlich um MS-DOS. In der Zeit, auf die 
sich keine Aussage bezieht, war MS-DOS längst Schnee von gestern. 
Insofern war das ein wenig offtopic.

> wäre x86 vielleicht schon teurer geblieben, aber doch eine
> Grössenordnung billiger als Unix-Hardware.

Weshalb? Zumal das auch nicht immer zutraf. Jedenfalls nicht, was die 
Grundkosten der Hardware angeht. Und die Kosten eventuell mitverkaufter 
Software sind ein anderes Thema.

Dass eine Unix-Workstation mit einem PowerPC 604 Prozessor dennoch 
deutlich teurer verkauft wurde, als ein Aldi-PC mit einem Pentium drin, 
lag weder an der verbauten Technik noch am Marktpreis des Prozessors. 
Beim Hersteller besagter Unix-Workstation waren auch die PCs deutlich 
teurer als bei Aldi.

Allerdings war das schon in einer Ära, in der es nicht mehr um MS-DOS 
ging. Seitens der Ansprüche an die Hardware-Ressourcen unterschied sich 
Windows NT nicht mehr von Unix.

von Carsten S. (dg3ycs)


Lesenswert?

Hi,

ach schrieb:
> STK500-Besitzer schrieb:
>> Schuld ist doch nur der Installer.
>> Wenn ich mir die Geschichte mit YAST von Suse angucke:
>> Bei den ersten Linuxen musste man ganz schön tief in die Materie
>> eindringen und bei der Installation eine Menge FachTLAs wissen oder
>> nachschlagen ==> Viele Aufwand.
>
> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den
> Abhängigkeiten in autoexec.bat und config.sys haben. Eine
> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch und
> die Standardḱonfiguration war im Gegensatz zu der von DOS oder Windows
> auch nutzbar.

BITTE???
Das ist aber wohl ein absolutes Gerücht!
Ok, meine Erfahrungen reichen nicht so weit zurück wie die einiger 
wirklich alten Hasen in diesem Forum, ich selbst habe im Februar 1993 
meinen ersten PC bekommen der zugleich vielleicht der vierte oder fünfte 
PC war der überhaupt in meiner Klassenstufe (immerhin vier Klassen) 
zuhause stand und m.w. der erste der einem Schüler selbst gehörte.
Das war ein 486SX25 mit 4MB RAM und 120MB Festplatte für 1400 DM. damit 
war ich über ein Jahr der mit dem schnellsten Privatrechner in meinem 
gesamten bekannten Umfeld überhaupt! (heute -egal wieviel man ausgibt- 
ja undenkbar über so einen langen zeitraum-) Wobei ich da -wie viele 
andere auch- von einer Fehlkalkulation von "Quelle" enorm profitiert 
habe. Dieser REchner stand für den PReis im Katalog und Tagespreise 
haben die damals noch nicht gehabt. Kurz nach Drucklegung des KAtaloges 
sind aber wohl die PReise für Speichermodule und ähnliches rasant 
angezogen. Selbst bei Escom und Vobis war zu dem Zeitpunkt das 
vergleichbare Gerät rund 400 DM teurer. Von den lokalen Händlern ganz zu 
schweigen. Es warn aber auch 5 Wochen Lieferzeit...

Aber BTT: ICh war zu dem Zeitpunk 13 Jahre alt, bin im März 14 geworden 
-wobei mir meine Eltern und Verwandschaft im Februar dann schon einen 
Vorschuss gewährt haben - Ursprünglich war aber auch von 8 Wochen 
Lieferzeit die Rede!
Wie es da als 13Jähriger so ist probiert man ein wenig rum usw. löscht 
auch mal etwas und dann ist mir versehentlich das "Del *.*" im 
Verzeichniss C:\ statt im beabsichtigten Unterverzeichniss 
rausgerutscht.

 Erst große Panik weil nichts mehr lief - und niemand da der sich 
auskannte
Dann über den IT-Verantwortlichen in der Fa. wo mein Vater damals 
arbeitete zumindest die Infos bekommen das wohl die Autoexec.Bat und 
besonders die Config.sys jetzt fehlen und wo ich im HAndbuch für MSDOS 
5.0 -das damals ja noch als PApierausgabe dabeilag- die Infos zur 
Neuerstellung mit erklärung der Parameter finde.
Ca. drei Stunden hat gedauert bis ich als absoluter PC Anfänger dann 
wieder eine vernünftige Einstellung gezaubert hatte auf der auch 
speicherhungrige Dinge liefen - also auch mit Loadhigh usw... und nicht 
nur alles in die unteren 640kB geladen... Und das noch ganz ohne 
Memmaker u.ä.
Als ich ein paar Wochen Später dann das Spiel "Comanche" bekommen habe 
das 1. enorm viel freien Basisspeicher brauchte und 2. sich nicht mit 
EMM386 vertrug hat es nicht mal mehr eine halbe Stunde gedauert bis das 
auch lief -ohne spezielle Startdiskette.
(Ab Dos 6.00 musste ich dann aber immer mit Startdiskette arbeiten weil 
das ja EMM386 immer geladen hat.)

Als ich dann DREI JAHRE Später das erste mal mit Linux in Kontakt kam 
und meine Versuche damit machte, da dauerte es erst einmal Tage bis 
überhaupt die Hardware im PC richtig erkannt und initialisiert wurde. 
Vom Beherschen des Systems ganz zu schweigen!!! Und das trotz inzwischen 
Mehrjähriger PC Erfahrung und Programmierkenntnissen - sowie der 
Vorgeschichte mit Computer (C64) im Haus seit meinem 7.en LEbensjahr und 
Programmierkenntnissen auf C64 und CPC464 lange vor meiner PC Zeit 
(dieses Wissen war ja der Grund für das starke Sponsoring des PC Kaufes 
durch die Verwandschaft den ich mir als 13.Jähriger sonst nie hätte 
leisten können)

ICh denke manche sehen das ganze einfach zu sehr durch die NERD 
Brille...
JA - es mag sein das MS DOS und Windows (3.1 war bei mir auch dabei) vom 
technischen Hintergrund weitaus primitiver waren als Unix/LInux zu der 
Zeit. Und es mag auch sein das dadurch vielleicht sogar resourcen 
verschwendet wurden. (Wobei mich die Hintergründe des Betriebssystem nie 
interessiert haben und es auch heute nicht tun! - kann es also gar nicht 
sicher beurteilen)
Aber bei der Verbreiteten PC Nutzung ging es eben darum das der PC genau 
wie es der Name schon sagt ein "Persöhnlicher" Computer war und der 
absolute Großteil dieser Rechner wohl auch nur als bessere 
Schreibmaschine von Sekräterinnen usw. bedient wurden, oder halt für 
andere Anwendungsprogramme wie CAD oder sonstige Zeichenprogramme. Die 
vielen Speziellen Buchhaltungs- und LAgerbestandsapplikationen nicht zu 
vergessen.
Das Betriebssystem war für diese RIESEN Gruppe einfach nur ein Mittel 
zum Zweck um möglichst schnell das gewünschte Programm aufzurufen. Und 
das sollte so einfach wie möglich sein... Hier hatte DOS einfach die 
Nase vorne. Die ganzen Features die Unix/Linux mehr bot waren für die 
meisten Anwender ja absolut unnötig, ja sogar kontraproduktiv da 
verkomplizierend.
Da damals die Vernetzung der PCs untereinander selbst in vielen Firmen 
-besonders den kleineren- alles andere als Selbstverständlich war und 
von WWW für Normalbürger noch lange keine Rede war (Es gab BTX und dann 
hörte man noch was von Compuserve für 7DM die Stunde + Telefongebühren 
die damals für mich bis zum nächsten Einwalpunkt auch 8DM die Stunde 
gewesen wären!)
Und als persöhnlicher alleinstehender Rechner war damals eine trennung 
von User und Admin wie in großen Netzen absolut Sinnvoll einfach 
unnötig!

Die bessere Verfügbarkeit von Software tat dann ihr Übriges. Wie in 
vielen anderen Fällen auch schon. (Ich denke das ist beispielsweise ein 
Grund warum sich z.B. der C64 so enorm durchgesetzt hat während der im 
grunde für Büroanwendungen Leistungsfähigere Amstrad CPC64 in der 
Versenkung verschwand)

Sven P. schrieb:
> Ich empfand die Bedienung einer DOS-Maschine jedenfalls als schmerzhaft.
> Eine längere Befehlszeile getippt -- wie hieß der Dateiname noch? Ach
> Mist. Befehlszeile löschen und 'dir' rufen. Ach ja, so hieß er. Also die
> ganze lange Befehlszeile nochmal eintippen. Programmieren mit der Shell
> erübrigte sich, meistens hatte ich schneller ein Programm mit Pascal
> oder QuickBasic zusammengehauen.

Programmieren in der Befehlszeile von DOS?
Das ist aber auch etwas was nie jemand vorgesehen hat. Womöglich noch in 
ASM und dann mit dem Systemtool (war das nicht die Debug.EXE?) 
übersetzt?
Genau dafür gab es doch die Hochsprachenumgebungen. QuickBasic gehörte 
ja zu DOS dazu. C oder PAscal leider nicht.
Und längere Komandozeilen waren in DOS auch eher eine seltenheit. Gerade 
das war ja der Vorteil von dos. Simpel, die wichtigsten Grundfunktionen 
konnte man auch der Sekräterin in einigen Minuten erklären.

MN schrieb:
> alter ITler schrieb:
>> Bei den 3,5er gab es einen Locher,
>
> Den Locher gab es nicht für die 3,5" sondern für die 5,25"-Disketten.
Es gab BEIDES:
Wie schon geschrieben den Locher für die zweite Schreibschutzkerbe auf 
der gegenüberliegenden Seite wenn man beim C64 die 5 1/2 Disketten 
doppelseitig nutzen wollte. Denn das Diskettenlaufwerk schrieb und laß 
bei diesem nur einseitig. (Schere und ruhige hand funktionierten aber 
auch)

UND es gab zu späteren Zeiten der 3,5" Disketten spezielle Locher um aus 
720KB Disketten  1,44MB Disketten zu machen. (Ein Bohrer tats aber auch)
Allerdings war das immer noch mit einem kleinen Restrisiko behaftet. Für 
die 720er Disketten war ja eine geringe Qualität der Magnetschicht 
ausreichend - zu Anfang waren diese auchs dem Grund zusammen mit den 
technischen Gegebenheiten bei der Produktion der Schreib-Lese Köpfe ja 
auch der Standard.
Erst mit immer weiter vortschreiten der Produktionstechnik war es dann 
möglich ohne irgendwelche Merhkosten die für 1,44MB notwendige Qualität 
zu produzieren. Da es natürlich billiger war nur eine Sorte von 
Innenleben herzustellen haben viele HErsteller dann von diesem Zeitpunkt 
an für ihre HD und DD Disketten dasselbe Innenleben verwendet. Da war 
ein nachlochen problemlos möglich.
Aber es bestand immer das Risiko das man eine DD Diskette erwischte 
deren Innenleben tatsächlich nur für DD geeignet war was dann bei HD 
Nutzung zu Datenverlust führen konnte. Besonders bei Alten Disketten 
oder NoName Produkten unbekannter oder gar wechselnder Hersteller war 
also immer etwas vorsicht ratsam. Zumal die Einsparmöglichkeiten 
insbesondere zu späteren Zeiten ja auch mächtig nachließen.

Gruß
Carsten

von asmhobbyist (Gast)


Lesenswert?

Das wurde alles weiter oben schon geschrieben,

Hauptsächlich
(Rückwärts-)Kompatibilität (schade, denn die 68000er waren (und sind) 
nicht schlecht
Einfachheit
IBM und Datenbanksoftware
Kundenfreundlich (abschalten)

Coole Programme (Quake Multiuser-Geballere ;), Basic, Pascal, Debug, 
Softice.
Quake (u.a.) mussten Windows verlassen um performant (ohne Directx) zu 
laufen)
Sonderzeichen (Linuxe legen englisches Tastaturlayout nahe)
Diskettenfreundlich (Os Diskette raus, Programmdiskette rein, Programm 
diskette raus, Datendiskette rein, Format A: eingeben zum Formatieren)
Viele Unixprogramme gibts auch für Dos (und umgekehrt)
Vergleichsweise günstig (+viele alte Programme; teure Apple Computer mit 
wenig Programmen)
Vorteil vom PC u.a. auch: wird schnell leistungsstärker + viele nutzbare 
Anwendungen im Rucksack.

Und eigentlich hat sich (neben der Intel Hardware) auch nicht Dos 
durchgesetzt, sondern die gereiftere Form von Windows mit 
Dos-Kompatibilität (d.h. Viele Spiele, Viele Anwendungspramme, 
Mischlösungen, günstige und leistungsstarke Mainboards usw.)

von Unixer (Gast)


Lesenswert?

Guido Körber schrieb:
> als auch was den Treppenwitz von einem Prozessor angeht.
> Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende
> Architektur auf dem Desktop. Etwa so, als wenn das Ford Modell T nie
> abgelöst, sondern nur aufgemotzt worden wäre, alle würden heute noch mit
> Blattfedern fahren.

Da muss ich Dir zu 100% zustimmen. Die ganze 80x86 Architektur ist aus 
meiner Sicht Müll. Intel hätte ab dem 8086 diese begraben sollen und
einen neuen Proz. mit vernünftiger Architektur entwickeln sollen.
Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren
entwickelt. Teilweise auch die Hardware. Das waren (leider waren) 
Architekturen die bspw. nicht so verkrampfte Adressierungarten hatten
wie der Intel-Schrott. Und Maschinenbefehle, wo man schon fast meinen
könnte man würde in C programmieren. Entsprechend optimal war auch der
C-Compiler.
Unser Unix-Maschine die wir 1986 auf den Markt gebracht haben, lief mit 
einem 10 MHz NS32016, 2 MB Ram und einer 20 MB Festplatte. Die bediente 
problemlos vier VT100 Terminals mit 38400 Baud. Und war damals mit einem 
VK von 9000,- DM ein Schnäppchen.

Aber zurück zur Frage, warum DOS alles in den Schatten stellte:

Da schon viele Antworten gegeben worden sind, nur ein Zusatz:
Die Unix-Lizenzen waren damals sehr teuer, DOS bekam man im Vergleich 
nachgeschmissen oder beim Taiwan-Nachbau kostenlos dazu.
DOS ist nach Wordstar, die am meisten illegal kopierte Software der
Welt. Stand mal so im PC-Magazine.

Wenn ich mir jedoch heute die aktuellen Windoofversionen anschaue, muss 
ich feststellen, dass die für den Anwender komplizierter und 
unübersichtlicher geworden sind als aktuelle Linux Versionen (bspw. 
Ubuntu).

von (prx) A. K. (prx)


Lesenswert?

Unixer schrieb:
> Intel hätte ab dem 8086 diese begraben sollen und
> einen neuen Proz. mit vernünftiger Architektur entwickeln sollen.

Haben sie ja auch. Versucht. Vernünftig geriet iAPX432 freilich nicht, 
also musste x86 weiterleben.

Der nächste Versuch einer eigenständigen 32-Bit Architektur geriet mit 
i860 auch nicht wirklich grandios. Intel hatte einfach kein Händchen 
dafür. Intels einzige brauchbare 32-Bit Architektur war i960, und die 
haben sie (deshalb? ;-) wieder eingestampft.

> Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren
> entwickelt. Teilweise auch die Hardware.

Ebendiese Architektur hätte dank ihrer extrem inkrementellen 
Befehlscodierung arge Probleme mit superskalarer Dekodierung bekommen. 
Die war in der Hinsicht weit schlimmer als x86.

von Michael_ (Gast)


Lesenswert?

Arc Net schrieb:
> 1992
> Amiga 1200 und 4000, 8-Bit Sound, Stereo
> Macintosh, 8-Bit Sound (afair einige nur Mono)
>
> Atari Falcon, 68030 CPU, 56001 DSP, 16-Bit, 50 kHz, Stereo (ähnlich wie
> die NeXTstation/cube afair 1990?)

Zu dieser Zeit habe ich meinem AT286 Musik beigebracht. Mit einem 
Soundblaster mono für stolze 99DM.
Es war eine wilde Zeit so 1990 - 1995.
Es gab da auch noch einen engl. RISC-Home-Computer. Ich hätte ihn bald 
gekauft.
Es war wohl der A5000 Archimedes von ACORN.

von Winfried J. (Firma: Nisch-Aufzüge) (winne) Benutzerseite


Lesenswert?

und du vergisst den Atari8bit der bereits über 4 Audiokanäle verfügte 
welche aber Dummerweise zu einem Monokanal onboard zusammengemischt 
wurden
tststs

von Andreas B. (andreas_b77)


Lesenswert?

Wolfgang R. schrieb:
> Dies war aber auch im Preis mit drin. Und, der Quellcode war nicht frei.
> Alles was man heute an Unix Tools auf dem Markt findet ist reverse
> engeneering. Wenn Mann als Rentner dann mal Zeit hat mal den Code
> anschauen und vergleichen. Original PDP-11 Unix Quellcode von 1980 liegt
> noch auf meiner archivierten Platte.

Welches genau? Vielleicht gar etwas, das nicht im Unix Tree 
http://minnie.tuhs.org/cgi-bin/utree.pl nachzulesen ist?

Tiefer eingelesen habe ich mich nur in die Sixth Edition mit dem Lion's 
Commentary. Steinzeit-C ist schon echt harter Stoff.

> Steve Jobs ist wohl einer der wenigen die erkannt haben was läuft. Bei
> Apple zurückgekommen auf Berkley Unix umgestiegen - eigene Oberfläche
> drauf und durchgestartet.

Da stimmt die Reihenfolge aber nicht ganz, das war ja keine 
Neuentwicklung. Apple hat das von Steve Jobs gegründete NeXT aufgekauft, 
um deren Betriebssystem NeXTstep als Nachfolger von MacOS zu verwenden. 
Jobs wurde erst ein halbes Jahr nach dem Kauf Interims-CEO von Apple.

von Heinz History (Gast)


Lesenswert?

Mark .. schrieb:
> ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil
> wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu
> verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit
> durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte
> bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems,
> also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff.
>
> Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu
> werden, obwohl es von der Funktionalität her Unix haushoch unterlegen
> war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen?
> (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert
> waren...)

Personal Computer waren, wie der name schon sagt persönlich also für 
einen einzelnen Nutzer gedacht. Für einen solchen rechner 
(Schreibmaschine) braucht es kein mutliuser und netzwerk, das 
überfordert nur den Anwender. Auch gab es für Unix kaum Büroanwendungen 
und keine Videospiele, eben das was man von einem personal computer 
erwartet. Unix ist was für Server und netzwanwendungen und damit kam die 
breite Masse erst Mitte der Neunziger zurecht.

MfG,

von Rolf Magnus (Gast)


Lesenswert?

Matthias Sch. schrieb:
> ach schrieb:
>> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den
>> Abhängigkeiten in autoexec.bat und config.sys haben. Eine
>> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch
>
> Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde
> auch auf der 386er Platform entwickelt.

DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder 
weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra 
einen neuen Betriebsmodus eingeführt, damit Multitasking mit 
Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086 
genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter 
verbessertem Multitasking, und es wurde extra noch die Möglichkeit in 
die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren 
zu können, damit auch alte Programme darin weiter benutzt werden können. 
Und DOS hat ihn als schnelleren 8086 genutzt. Das einzige, was von den 
neuen Prozessoren bei DOS so halbwegs angekommen ist, ist die 
Möglichkeit, mehr Speicher anzusprechen, allerdings nur über üble 
Krücken.
Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das 
Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie 
Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese 
Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo 
sie eigentlich nicht hingehört. Und Jahre später steckte dann das 
Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und 
das eigentliche Betriebssystem war zum Bootloader verkommen.

von Icke ®. (49636b65)


Lesenswert?

Rolf Magnus schrieb:
> Und Jahre später steckte dann das
> Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und
> das eigentliche Betriebssystem war zum Bootloader verkommen.

Das trifft nur auf die 9x-Versionen zu. Das schon vor Win95 existente NT 
war bereits ein echtes 32-Bit Multitasking-System, auf dem alle 
folgenden Versionen ab W2K basieren.
Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man 
konnte ähnlich wie bei Unix zwischen den Konsolen umschalten.

von (prx) A. K. (prx)


Lesenswert?

Icke ®. schrieb:
> Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man
> konnte ähnlich wie bei Unix zwischen den Konsolen umschalten.

Es gab lange vor NT auch ein paar heute längst vergessene Erweiterungen 
für normales DOS, mit denen mehrere parallele virtualisierte 
DOS-Sessions möglich wurden.

von Unixer (Gast)


Lesenswert?

A. K. schrieb:
> Ebendiese Architektur hätte dank ihrer extrem inkrementellen
> Befehlscodierung arge Probleme mit superskalarer Dekodierung bekommen.
> Die war in der Hinsicht weit schlimmer als x86.

Du solltest Dir die NS32xxx Prozessoren erst einmal genau anschauen, 
bevor Du solche Aussagen in den Raum stellst.
National hatte einfach den Zug verschlafen und das Marketing 
vernachlässigt.
NS32xxx und die Motorola CPUs waren einfach die besseren Prozessoren und 
damals Intel um Jahre voraus.

Wenn ich nur an den Krampf mit A20 denke....

Nur Dank Mickysoft konnte sich die x86 Archtitekur so gewaltig 
durchsetzen.


http://de.wikipedia.org/wiki/NS320xx
bzw.
http://stuff.mit.edu/afs/sipb/contrib/doc/specs/ic/cpu/ns32532.pdf

von W7 (Gast)


Lesenswert?

A. K. (prx) schrieb:

Icke ®. schrieb:
>> Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man
>> konnte ähnlich wie bei Unix zwischen den Konsolen umschalten.

> Es gab lange vor NT auch ein paar heute längst vergessene Erweiterungen
> für normales DOS, mit denen mehrere parallele virtualisierte
> DOS-Sessions möglich wurden.

Nur wollte DR-DOS damals kaum einer ernsthaft auf seinem Rechner haben. 
Das hatte nämlich ein paar Kompatibilitätshänger gegenüber MS-DOS. Noch 
dazu gabs die Disketten zunächst auch nicht umsonst, sondern lediglich 
günstiger als das damalige MS-DOS.

Also aufpassen, dass hier keine Mythen gestrickt werden.

;)

von MaWin (Gast)


Lesenswert?

> DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder
> weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra
> einen neuen Betriebsmodus eingeführt, damit Multitasking mit
> Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086
> genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter
> verbessertem Multitasking, und es wurde extra noch die Möglichkeit in
> die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren
> zu können, damit auch alte Programme darin weiter benutzt werden können.
> Und DOS hat ihn als schnelleren 8086 genutzt.


Du siehst also, daß es gar nicht so einfach ist, eine Software auf eine 
neue Plattform umzuschreiben.

Das können sich manche Hardwaredeppen, die ständig inkompatibles Zeug 
konstruieren, offenbar gar nicht denken.

von Np R. (samweis)


Lesenswert?

Ein Argument für MS-DOS ist hier noch gar nicht genannt worden:

Vitamin B

"Bill Gates Mutter Mary hatte über die Wohltätigkeitsorganisation 
„United Way“, in welchem sie im Vorstand war, Kontakte zu John Opel, dem 
Präsidenten von IBM. Über diese Verbindung bereitete sie für ihren Sohn 
den Weg zu „Big Blue“."
Quelle: http://de.wikipedia.org/wiki/Microsoft

von MaWin (Gast)


Lesenswert?

> Die ganze 80x86 Architektur ist aus meiner Sicht Müll.

Aus deiner Sicht.
Was mehr über deine Blindheit aussagen, als über den 80x86, der sich 
nämlich gegen all die "angeblich besseren" 68k, 32k, etc. durchgesetzt 
hat.

Es war nämlich verdammt schlau, schon 1976, als noch gar nicht genügend 
grosse Chips möglich waren sondern nur von Gordon Moore postuliert 
wurden, eine Architektur eines Grossrechners (Burroughs 5500) der damals 
als fortschrittlich und gut galt, so zusammenzustreichen, daß er als 16 
bit Prozessor implementierbar war, das ging eben in dem man die ganze 
Speicherverwaltung auf simple Addition zusammenstrich.
Die Leute bei Intel waren nämlich im Gegensatz zu dir nicht uninformiert 
und doof, sondern ihrer Zeit voraus.
Der 286 ist dann die Realisierung dieser Burroughs als single chip mit 
Segmenten und Speicherschutz und allem pi pa po. Leider hat man das 
dirty bit vergessen.
Daß dann Windows NT wieder den Rückschritt machte, war der DEC Alpha zu 
verdanken, die war nämlich zu blöd für Segmente, und seit dem haben wir 
den Salat, wo eine DLL mehrfach in den Speicher muß weil reloziert 
werden muß, also der Code im Speicher auch nicht dem Code auf der Platte 
entspricht, sondern je nach Prozess anders sein muß. Der Idiot hiess 
David N. Cutler.

von Joe (Gast)


Lesenswert?

Ihr seid alle viel zu jung.

MS-Dos ist keine eigene Entwicklung und erst recht keine Erfindung von 
Bill Gates.
Große Betriebssysteme gab es schon vor 1970. Für die kleinen CPUs 8004, 
8008 und 6800 begann die Entwicklung Angang der 70er.
Um ca. 1976 habe ich schon mit dem Betriebssystem FLEX auf einer 
6800-CPU mit 1 MHz gearbeitet. FLEX konnte zu Beginn über ein 
Controller-IC zwei Diskettenlaufwerke mit je 128kB bedienen. Meine 
Platinen und die Pläne waren selbstgemacht. Im Betriebssystem FLEX hat 
man I/O-Adressen an die eigene Hardware angepasst und dann lief das 
System. Assemblerlistings waren frei verfügbar und somit konnte FLEX 
sehr gut angepasst werden.

Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die 
80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben.

Bevor Windows auf den Markt kam, gab es den Atari-ST mit einer 
graphischen Benutzeroberfläche und Mausbedienung. Auch hier hat Bill 
Gates mit seinen Leuten nur eine Übertragung für 80xx-CPUs gemacht und 
nichts Neues vorgestellt.

Joe

von (prx) A. K. (prx)


Lesenswert?

Unixer schrieb:
> Du solltest Dir die NS32xxx Prozessoren erst einmal genau anschauen,
> bevor Du solche Aussagen in den Raum stellst.

Ich habe diese Architektur einstmals recht genau angesehen - und eben 
darauf gründet meine Aussage.

Eine superskalare Befehlscodierung davon, also mehrere Befehle pro Takt, 
erfordert einen beachtlich hohen Aufwand. Der Aufbau eines Befehls ist 
extrem variabel und die Länge von maximal 4 möglichen Displacements im 
jedem einzelnen Displacement selbst zu codieren bedeutet, dass Länge des 
Befehls und Position der sehr vielen Komponenten des Befehls nur 
aufwendig zu ermitteln sind.

Speicherindirekte Adressierungen jedes der beiden möglichen Operanden 
führt zu eine hohen internen Komplexität bei der Umsetzung von Befehlen, 
wenn sie erheblich schneller sein sollen als das sequentielle 
Ausführungsprinzip der ersten Generation.

> National hatte einfach den Zug verschlafen und das Marketing
> vernachlässigt.

Und hatte soweit ich mich erinnere erkleckliche Probleme, die erste 
Generation dieser Prozessoren überhaupt leidlich fehlerarm zu 
implementieren. Was bei 2-Adress-Architekturen damals nicht so ganz 
einfach war. Motorola hatte den langsamen Weg des Microcode-Interrupts 
eingeschlagen, um sich das eine oder andere Problem vom Hals zu halten. 
NS setzte auf Retry, was schneller und eleganter war, aber ohne 
OOO-Ausführung bei mehreren Speicheroperanden nicht wirklich einfach 
ist.

Die Architektur erinnert nicht zufällig an die VAX und die Probleme 
waren ähnlich. DEC musste in deren Weiterentwicklung derart viel 
Resourcen reinstecken, dass sie danach den Notausgang wählten und mit 
Alpha eine neue wesentlich einfacher implementierbare Architektur 
brachten. Der unproduktive Overhead einer Architektur wie VAX oder NS32K 
liess sich in einfacher verarbeitbaren Architeturen produktiv umsetzen.

> NS32xxx und die Motorola CPUs waren einfach die besseren Prozessoren und
> damals Intel um Jahre voraus.

Das waren sie, als sie neu waren und die meisten Leute Rechner wie 
besagte VAX im Kopf hatten. Ein paar Leuten war freilich schon damals 
klar, dass dieser Weg problematisch ist. Einer sass bei IBM und sein 
Ergebnis wurde totgeschwiegen, weil es den Erfolg der Mainframes 
gefährdet hätte.

Aber die Architekturen entstanden in einer Zeit, in der kaum jemand an 
einen realisierbaren Durchsatz von einem Befehl pro Takt dachte, 
geschweige denn von mehreren. Und genau da haben diese Architekturen 
gewaltige Probleme bekommen. Weshalb 68K und NS32K letztlich eingestellt 
wurden. Intel x86 lebte weiter, weil Intel aufgrund des Finanzvolumens 
der PC-Prozessoren die Resourcen hatte, mit dem Pentium Pro den 
gordischen Knoten zu durchschlagen. Der freilich etwas einfacher zu 
implementieren war als ein äquivalenter NS32K Prozessor.

Mit der heute möglichen Komplexität der Implementierung wäre eine NS32K 
wieder machbar. Aber nicht lohnend.

> Wenn ich nur an den Krampf mit A20 denke....

Das hat nicht Intel verbockt. Versteh mich nicht falsch: x86 ist 
grausig. Aber ich betrachte das hier aus Sicht einer Implementierung der 
Hardware, nicht aus logischer Sicht eines Programmierers.

von (prx) A. K. (prx)


Lesenswert?

Joe schrieb:
> Ihr seid alle viel zu jung.

;-)

> Im Betriebssystem FLEX hat
> man I/O-Adressen an die eigene Hardware angepasst und dann lief das
> System.

Ich habe in Erinnerung, dass das Filesystem von FLEX die Files 
sektorweise verkettete. Viel Vergnügen bei random access, also 
beispielsweise jedweder Form von Datenbank. Da ist sogar FAT besser, 
weil zwar auch verkettet, aber viel dichter zusammen und daher 
pufferbar.

von (prx) A. K. (prx)


Lesenswert?

A. K. schrieb:
> Eine superskalare Befehlscodierung davon, also mehrere Befehle pro Takt,

Gemeint war Befehlsdecodierung.

von Jens G. (jensig)


Lesenswert?

@Joe (Gast)

>Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die
>80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben.

Ja - und Unix hat von DOS abgeschrieben - die haben nämlich auch einen 
echo-Befehl ... ;-)

Ich dachte eher, Gates hatte CP/M als Grundlage genommen, denn da sind 
die meisten Gemeinsamkeiten deswegen zu finden.

von heinz (Gast)


Lesenswert?

es gibt doch DOS Emulatoren für Windows oder?

dann muss es doch auch Windows Emulatoren für DOS geben!

von Reinhard Kern (Gast)


Lesenswert?

heinz schrieb:
> dann muss es doch auch Windows Emulatoren für DOS geben!

Klar, nennt sich Windows 3. Einfach WIN und return tippen. Oder dachtest 
du an eine Art Windows 7, das unter DOS läuft? Am besten im Real Mode 
mit 640 kB Speicher?

Gruss Reinhard

von Michael_ (Gast)


Lesenswert?

Bis Windows ME gab es das. Nannte sich glaube ich DOS-7.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Komischerweise ist Intel noch nicht auf diese Idee gekommen. Die
> verkaufen zwar auch Chips mit abgeschalteten Funktionen, in schier
> endlos vielen Permutationen, aber Nachlizenzieren des bestehenden Chips
> ist nicht drin.

Das hat schätzungsweise einen ganz simplen Grund: Die Intel-Prozessoren 
sind Massenware und da ist die Wahrscheinlichkeit, daß irgend welche 
Hacker den Freischaltmechanismus knacken, eher groß. Wenn so ein Hack 
das Licht der Öffentlichkeit erblickt, hätte das zur Folge, daß Intel 
das Geschäft unter dem Hintern wegbricht.

von W.S. (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das
> Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie
> Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese
> Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo
> sie eigentlich nicht hingehört. Und Jahre später steckte dann das
> Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und
> das eigentliche Betriebssystem war zum Bootloader verkommen.

Tja, mein Lieber, da liegst du eben ganz falsch. Aber mach dir nix 
draus, hunderte von Linuxern denken genauso falsch wie du, weil sie die 
Funktionalität hinter einer grafischen Oberfläche nicht begreifen 
wollen/können und deshalb allzeit predigen, daß man den 
Betriebssystemkern nebst seinen Peripheriefunktionen möglichst 
säuberlich von der grafischen Oberfläche getrennt halten müsse.

Diese Knaller müssen noch viel dazulernen, bis sie endlich begreifen, 
daß die grafische Oberfläche eben nicht aus ein paar Rändern, Flächen, 
Bildchen und etwas Text besteht, sondern aus hunderten von Programmen, 
die alle von einem möglichst schnell reagierenden Multitasking-Kernel 
bedient sein wollen - und dazu braucht man den Scheduler eben mitten 
drin in der grafischen Oberfläche.

Ein davon separater "Betriebssystem"-Kernel ist hingegen völlig 
überflüssig. Die paar Dienste, die abseits der Oberfläche im PC so 
herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten.

Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem 
Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw. 
zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung 
auf eigene Beine zu stellen und anschließend den Rest (sprich Linux) 
einfach in die Tonne zu treten. Solche Systeme wie Android oder Bada 
haben ja schon mal einen ersten Eindruck geliefert: Bei beiden dient das 
darunterliegende Linux nur noch als eine Art Fußabtreter. Bei Bada sogar 
offiziell, denen ist es relativ wurscht, was sie für ein System 
unterhalb von Bada nehmen, um Dateien lesen und schreiben zu können.

DOS war zu keiner Zeit als Multitasking-BS gedacht, sondern als 
Dienstleister, der es gestattet, Applikationen (z.B. Word oder Excel) zu 
starten und der anschließend nur noch zum Dateiverkehr benötigt wurde.

W.S.

von Arc N. (arc)


Lesenswert?

Joe schrieb:
> Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die
> 80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben.

Definitiv nicht...
MS hat, nach dem sie den Deal mit IBM hatten, QDOS inkl. Entwickler 
eingekauft und dann das System umgestrickt, da QDOS mehr oder weniger 
ein CP/M-Clone war. Daher wohl auch die angebliche Zahlung von IBM an 
DR, obwohl dem Gericht damals die Unterschiede groß genug waren und DR 
den Prozess verloren hat.

 > Bevor Windows auf den Markt kam, gab es den Atari-ST mit einer
> graphischen Benutzeroberfläche und Mausbedienung.

Windows gibt's auch seit 1985, ebenso wie den Amiga

> Auch hier hat Bill
> Gates mit seinen Leuten nur eine Übertragung für 80xx-CPUs gemacht und
> nichts Neues vorgestellt.

TOS = GEM+DOS 1)
Bei den GUIs haben ALLE bekannten Hersteller (Apple, DR (für Atari), MS, 
Amiga/später Commodore) bei Xerox abgekupfert.
Erster Rechner mit GUI: Xerox Alto von 1973 auf dem es dann auch die 
ersten Smalltalk-Versionen liefen.

1) Deshalb war bei den meisten Programmen
http://www.drdos.net/documentation/sysprog/chap4.htm
http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT
Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen...


> Weshalb 68K und NS32K letztlich eingestellt wurden.
Na, ganz so schlimm ist es dem 68k nicht ergangen... Freescale listet 
die immer noch, auch 040 und 060 (MC68060RC60 für schlappe 458.61 USD 
bei 10k...) und in den ColdFire-Varianten steckt auch noch viel 68k.

von Reinhard Kern (Gast)


Lesenswert?

Jens G. schrieb:
> Ja - und Unix hat von DOS abgeschrieben

Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl 
nicht (nur) daran, dass alle vorneinander abgeschrieben haben (dass sie 
teilweise anders heissen wie ls bei Unix oder DPV bei Siemens ändert 
daran garnichts). Ich habe schon lange vor CP/M ein 
Floppy-Betriebssystem geschrieben für einen heute nicht mehr bekannten 
Prozessor (F8), und ganz ohne was abschreiben zu können hatte das System 
annähernd die gleichen Befehle. Jeder Programmierer der seine Tassen 
halbwegs im Schrank hatte, wäre etwa auf das Gleiche gekommen.

Gruss Reinhard

von Michael_ (Gast)


Lesenswert?

Reinhard Kern schrieb:
> Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl

Die Befehle waren damals (TM) Allgemeingut. Egal in welchem 
Betriebssystem, Programmiersprache oder Prozessor wurden die verwendet.
Aus dem Monitor und dem BASIC meines Z-1013 Bausatzes von 1986 waren die 
üblich.

von Jens G. (jensig)


Lesenswert?

@Reinhard Kern (Firma: RK elektronik GmbH) (rk-elektronik)

>Jens G. schrieb:
>> Ja - und Unix hat von DOS abgeschrieben

>Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl
>nicht (nur) daran, dass alle vorneinander abgeschrieben haben (dass sie

Ich wollte damit nur die Absurdität von Joe's FLEX als Basis der 
DOS-Befehle unterstreichen ... Das mußt Du also Joe sagen, nicht mir.

von Andreas D. (rackandboneman)


Lesenswert?

http://en.wikipedia.org/wiki/Worse_is_better irgendwann kapiert man dass 
der Ansatz seinen Wert hat - und dass der Markt ihm immer wieder Recht 
gibt. Sowohl bei DOS als auch bei UNIX hat es funktioniert.

von Sven P. (Gast)


Lesenswert?

W.S. schrieb:
> Die paar Dienste, die abseits der Oberfläche im PC so
> herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten.
Das ist dann auch der Grund, weshalb sich Windows so bahn-brechend gut 
in Embedded-Systeme integrieren lässt...

> Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem
> Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw.
> zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung
> auf eigene Beine zu stellen und anschließend den Rest (sprich Linux)
> einfach in die Tonne zu treten.
Ist dir überhaupt ansatzweise bewusst, was der Kernel leistet? Und 
warum man das nicht in die GUI integriert? Und dass Windows 
ebenfalls einen dedizierten Kernel besitzt? Und ist dir auch bewusst, 
dass die Benutzeroberfläche in Windows ebenfalls vom Kernel getrennt 
ist?

von Lukas K. (carrotindustries)


Lesenswert?

Sven P. schrieb:
> W.S. schrieb:
>> Die paar Dienste, die abseits der Oberfläche im PC so
>> herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten.
> Das ist dann auch der Grund, weshalb sich Windows so bahn-brechend gut
> in Embedded-Systeme integrieren lässt...
>
>> Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem
>> Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw.
>> zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung
>> auf eigene Beine zu stellen und anschließend den Rest (sprich Linux)
>> einfach in die Tonne zu treten.
> Ist dir überhaupt ansatzweise bewusst, was der Kernel leistet? Und
> warum man das nicht in die GUI integriert? Und dass Windows
> ebenfalls einen dedizierten Kernel besitzt? Und ist dir auch bewusst,
> dass die Benutzeroberfläche in Windows ebenfalls vom Kernel getrennt
> ist?

So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer 
würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern?
Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen 
Talk.

von Mario K. (Gast)


Lesenswert?

Schönes Thread schön zu lesen! Könnte auch ein Buch werden.

von Sven P. (Gast)


Lesenswert?

Lukas K. schrieb:
> So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer
> würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern?
> Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen
> Talk.
Ja und nein.
Bis zu irgendeiner Windows-NT-Kernversion war das tatsächlich getrennt 
und der Graphikmist saß im Usermode. Dann hat man das wohl für zu 
ineffizient befunden und in den Kern verschoben. Das war dann die totale 
Neuerung und sollte die graphische Oberfläche um Welten flotter machen 
und so weiter.

Allerdings wird ein verkorkstes Framework halt nicht besser, wenn man 
Hardware und Rechenleistung draufschmeißt. Heute noch ruckelt und 
zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen 
Binaries extrahiert wurden und so weiter. Ehrlich, eine schneller 
reagierende Benutzeroberfläche hatte man selbst mit X11 über Netzwerk 
schon...

Die Folgen davon, alles in einen 'Kern' zu packen, sind dann zum 
Beispiel, dass irgendein total nebensächlicher Prozess abstirbt und 
plötzlich das ganze System verstopft. Ich sag nur Windows und 
Druckerspooler stöhn

von MaWin (Gast)


Lesenswert?

> 1) Deshalb war bei den meisten Programmen
> http://www.drdos.net/documentation/sysprog/chap4.htm
> http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT
> Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen...

Scherzkeks, welch Wunder daß die Nummern übereinstimmen,
DR DOS war von Digital Research,
und GEM war von Digital Research,
und das DOS unter dem GEM war ein ? DR-DOS, was sonst.

Herr wirf Hirn oder erkläre den Kindern mal die Geschichte.

von Arc N. (arc)


Lesenswert?

MaWin schrieb:
>> http://www.drdos.net/documentation/sysprog/chap4.htm
>> http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT
>> Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen...
>
> Scherzkeks, welch Wunder daß die Nummern übereinstimmen,
> DR DOS war von Digital Research,
> und GEM war von Digital Research,
> und das DOS unter dem GEM war ein ? DR-DOS, was sonst.
>
> Herr wirf Hirn oder erkläre den Kindern mal die Geschichte.

Ach, um was ging's in der Diskussion nochmal?
DR DOS ist von 1988 und ist definitiv nicht GEMDOS.
GEM wurde von Atari Leuten die zu DR geschickt wurden portiert, das 
GEMDOS "darunter" wurde deshalb genommen, da CP/M-68k immer noch kein 
hierarchisches Dateisystem hatte und dazu grottenlahm war und - GEMDOS 
wurde in Anlehnung an (eher Clone von) MS-DOS entwickelt, nicht 
andersrum.

von MaWin (Gast)


Lesenswert?


von Arc N. (arc)


Lesenswert?

MaWin schrieb:
> http://de.wikipedia.org/wiki/TOS_(Betriebssystem)

http://en.wikipedia.org/wiki/DR-DOS
1984 Concurrent DOS, dann die abgespeckte DOS Plus-Variante, "It did not 
perform well, and Digital Research made another attempt, this time a 
native DOS system. This new disk operating system was launched in 1988 
as DR DOS."

> Du meinst wohl Mint
>
> http://de.wikipedia.org/wiki/MiNT

Nein, das kam mehr oder weniger raus als das letzte Gerät (Falcon) nach 
kurzem Marktauftritt abgekündigt wurde.

Hier gibt's die Geschichte etwas ausführlicher
http://www.atarimagazines.com/startv3n1/threeyearsofst.html ab "HARD 
CHOICES, HARD TIMES"
und um den Satz von oben zu ende zu führen: "Deshalb war bei den meisten 
Programmen" die ich für den ST geschrieben habe die erste Aktion, das OS 
auszuschalten. Auch bei den Programmen, die GEM genutzt haben, war es 
üblich alles von Hand zu zeichnen oder die Line-A-Routinen zu nehmen 
(auch wenn das hieß erst mal für alle Auflösungen/Farbtiefen optimierte 
Algorithmen zu schreiben, ST, TT, Falcon).

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Sven P. schrieb:
> Heute noch ruckelt und
> zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen
> Binaries extrahiert wurden und so weiter.

Das liegt nur an der Implementierung des Windows Explorer, und der läuft 
im user mode.

> Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst mit X11
> über Netzwerk schon...

X11 über Netzwerk ist schon ab einem Ping von 10ms bei vielen Programmen 
katastrophal langsam. Und das betrifft nicht nur neue Frameworks.

von hach (Gast)


Lesenswert?

>> Heute noch ruckelt und
>> zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen
>> Binaries extrahiert wurden und so weiter.

Du sollst mit Windows eben immer das Flagschiff von Intel einsetzen und 
irgendwie muss es doch eine Notwendigkeit geben, immer die schnellste 
CPU und Platte zu kaufen.

von ja (Gast)


Lesenswert?

hach schrieb:
> Du sollst mit Windows eben immer das Flagschiff von Intel einsetzen und
> irgendwie muss es doch eine Notwendigkeit geben, immer die schnellste
> CPU und Platte zu kaufen.

Ganz meiner Meinung. Ein Pentium III 650 MHz sollte es schon für Win XP 
sein...

von Rolf M. (rmagnus)


Lesenswert?

MaWin schrieb:
> Du siehst also, daß es gar nicht so einfach ist, eine Software auf eine
> neue Plattform umzuschreiben.

Nein, ich sehe nur, daß Microsoft das am falschen Ende getan hat.

Andy D. schrieb:
> http://en.wikipedia.org/wiki/Worse_is_better irgendwann kapiert man dass
> der Ansatz seinen Wert hat - und dass der Markt ihm immer wieder Recht
> gibt. Sowohl bei DOS als auch bei UNIX hat es funktioniert.

Das schöne am klassischen Unix-Ansatz ist, daß jedes Tool nur genau eine 
Aufgabe löst, diese aber möglichst gut und daß sich diese Tools auf 
einfache Weise kombinieren lassen, um komplexere Aufgaben zu lösen.
Ein vergleichbares Konzept habe ich im GUI-Bereich bisher noch nicht 
gesehen.

Andreas Schwarz schrieb:
>> Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst
>> mit X11 über Netzwerk schon...
>
> X11 über Netzwerk ist schon ab einem Ping von 10ms bei vielen Programmen
> katastrophal langsam. Und das betrifft nicht nur neue Frameworks.

10 ms sind aber für ein LAN auch schon sehr viel.
Ich habe auch schon OpenGL-Anwendungen (natürlich keine Spiele) und 
Videoplayer über Remote-X flüssig laufen lassen, und das war bei einem 
100-MBit-Netz.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.