Hallo! ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff. Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu werden, obwohl es von der Funktionalität her Unix haushoch unterlegen war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen? (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert waren...)
:
Verschoben durch Admin
Jürgen W. schrieb: > Unix war erst beim 80386 möglich Nein. Es gab auch Unixe für 8086 und 8088. Bitte nicht Unix und Linux verwechseln.
> http://de.wikipedia.org/wiki/Xenix > und 256 kByte RAM benötigte, die IBM-PCs aber nur mit 32 bis 64 kByte RAM ausgeliefert wurden. Genau, das hat eben nicht funktioniert ...
Mark .. schrieb: > Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu > werden, obwohl es von der Funktionalität her Unix haushoch unterlegen > war? IBM hatte anfangs kein gesteigertes Interesse, sich das gute Geschäft mit den dicken Kisten abzugraben. Dieser Gedanke beeinflusste sowohl das Design der Hardware, als auch die anfänglich verfügbare Software. Damals wie auch noch später hatte IBM aus diesem Grund beinahe den RISC/Unix-Erfolg verpennt. MSDOS hatte einen populären Vorläufer: CP/M. Dafür gab es allerlei Software, die sich relativ leicht auf das davon stark inspirierte MSDOS portieren liess.
Mark .. schrieb: > Unix war doch schon deutlich früher da und hatte > bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, > also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff. Die ersten PCs hatten noch keine Festplatte und Multitasking auf ner 4,77MHz CPU willst Du nicht wirklich. Und die ersten Windows-Versionen hatten Startzeiten, da konnte man ein Ei hart kochen. Peter
Mark .. schrieb: > verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit > durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte > bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, > also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff. Und wozu brauchst du das bei einem Rechner mit 64kB Speicher und 1 oder 2 Diskettenlaufwerken (der Ur-PC hatte überhaupt nur ein Kasettenrecorderinterface)? Noch dazu im kommerziellen Umfeld, also Banken und Firmen, die ihre Korrespondenz damit erledigen wollen und die einen Apple][ als Bastlerlösung ablehnen. 'Schutzmechanismen' für Dateien hieß: Die Diskette kommt in den Tresor. Multiuser? Was willst du mit Multiuser auf einer derartigen Plattform? Wenn das Teil eine Textverarbeitung läuft, dann ist das mehr als genug. Multitasking? Wozu? Der einzige 'parallele' Task, der damals relevant war, war der Druckertask. Nimm einen Drucker, der ein paar KB Pufferspeicher hat und du kannst ihm dein Textdokument in den Speicher blasen und der Rechner ist nach ein paar Sekunden wieder frei während der Drucker druckt. Es war nicht immer so wie heute, dass selbst simpelste Sachen mit mindestens 100kB zu Buche schlagen! Eine durchschnittlich vollgeschriebene Seite Din A4 in der Firmenkorrespondenz hatte nicht selten weniger als 1KB Speicherbedarf. Das Erstellen und Warten einer Autoexec.bat bzw. einer Config.sys stellte sowieso viele Firmen schon vor unüberwindbare Probleme. Unix mit seinem minimalistischen Ansatz in den Shells hätten da kein Mensch akzeptiert. Wenn die Durchschnittssekretärin einen DIR kannte und wußte, wie man die Textverarbeitung startet, dann war das schon sehr viel. Es ist mehr als einmal vorgekommen, dass ich von befreundeten Firmenbesitzern noch ca. 1990 rum gebeten wurde, mich ihrer Festplatte anzunehmen und mit ihnen gemeinsam Dateien zu löschen und aufzuräumen, weil sie das alleine nicht hinkriegen.
Mark .. schrieb: > Wie konnte da MS-DOS es überhaupt schaffen Als IBM den PC heraus brachte, gab es einen anderen Platzhirsch auf dem Microprozessor-OS-Markt Digital Research mit seinem CP/M. http://de.wikipedia.org/wiki/Digital_Research DR war wohl etwas zu dämlich, bei IBM einen Fuß auf den Boden zu kriegen. Diese Situation nutzte Bill Gates mit Chutzpe "seinem" DOS, das keineswegs seine Entwicklung war und noch weit primitiver war, als die späteren Versionen, mit IBM ins Geschäft zu kommen. http://de.wikipedia.org/wiki/MS-DOS
Mark .. schrieb: > Hallo! > > ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil > wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu > verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit > durchsetzen konnte?!? Unix war doch schon deutlich früher da Unix benötigte in der Anfangszeit einen wesentlich grösseren Speicher, sodas Unix-Rechner mindestens doppelt so teuer waren. Ausserdem waren Unix-Rechner komplizierter in der Bedienung und deshalb als Bürorechner kaum geeignet. Ein "Standardbetriebssystem" gabs beim Aufkommen von MS-DOS sowieso nicht, sondern mindestens fünf Alternativen. Welche davon sich durchsetzen würde, war damals nicht absehbar. Gruss Harald
Harald Wilhelms schrieb: > Ein "Standardbetriebssystem" gabs beim Aufkommen von > MS-DOS sowieso nicht, sondern mindestens fünf Alternativen. So kann man das nicht sagen. In der 8-Bit-Welt war CP/M sehr verbreitet und es gab sogar eine Multiuser-Version davon: MP/M Die Kerle von DR hatten eigentlich die besten Karten, waren aber zu vernagelt, sie zu nutzen.
Uhu Uhuhu schrieb: > Die Kerle von DR hatten eigentlich die besten Karten, waren aber zu > vernagelt, sie zu nutzen. Sie haben im Verhandlungspoker verloren. Wollten pro Exemplar bezahlt werden, IBM aber nur einmal blechen. Welche Strategie da sinnvoller ist weiss man oft erst hinterher, denn die Gabe der Voraussage ist hauptsächlich jenen gegeben, die hinterher genau wissen wie sie früher selbst in der gleichen Situation entschieden hätten. Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die geleimten gewesen. Microsofts Glück war, dass in kurzer Zeit alle Welt den PC nachbaute - erst mit diesen Kunden wurde MS gross.
A. K. schrieb: > Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt > geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die > geleimten gewesen. Der PC war von vorn herein so angelegt, daß er kein reines IBM-Produkt bleiben würde - das wurde auch so kommuniziert, als er heraus kam und die Hardware-Dokumentation war hervorragend. Nur hat man das bei DR entweder nicht begriffen, oder nicht ernst genommen. Verhandlungen sind kein reines Lottospiel und wer zu hoch pokert, der hat schnell das Nachsehen. Technologisch war DR jedenfalls deutlich besser, als das, was Gates damals zu bieten hatte. (Die erste Version von MS-DOS hatte noch nichtmal ein hierarchisches Dateisystem.) Gates Vorteil war, daß er damals nur zu gewinnen hatte. Ich habe noch gut in Erinnerung, wie verblüfft wir damals waren, als wir hörten, daß DR nicht zum Zug kam. > Microsofts Glück war, dass in kurzer Zeit alle Welt den PC nachbaute - > erst mit diesen Kunden wurde MS gross. Sagen wir so: MS' Glück war, daß das IBM-PC-Konzept aufging. Wäre es nicht so geplant gewesen, dann hätte jeder Nachbauer ganz schnell ein Problem mit der IBM-Rechtsabteilung bekommen.
Uhu Uhuhu schrieb: > A. K. schrieb: >> Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt >> geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die >> geleimten gewesen. > > Der PC war von vorn herein so angelegt, daß er kein reines IBM-Produkt > bleiben würde - das wurde auch so kommuniziert, als er heraus kam und > die Hardware-Dokumentation war hervorragend. Nennen wir die Dinge beim Namen. Der PC war bei IBM ein ungeliebtes Kind, das in kürzester Zeit aus dem Boden gestampft werden musste, weil es eigentlich keinen bei IBM wirklich interessierte, was aus ihm wird. IBM baute und verkaufte Großrechner.
Karl Heinz Buchegger schrieb: > Nennen wir die Dinge beim Namen. > Der PC war bei IBM ein ungeliebtes Kind, das in kürzester Zeit aus dem > Boden gestampft werden musste, weil es eigentlich keinen bei IBM > wirklich interessierte, was aus ihm wird. Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des Konzerns nach der ENIAC-Blamage wiederhergestellt haben. Daß das Ganze die Betriebswirtschftler in der Konzernspitze überfordert hat, liegt auf der Hand. Die waren - weder bei DR, noch bei IMB - jemals treibende Kraft des technischen Fortschritts, insofern überrascht das nicht. Daß die Rechtsabteilung nicht gegen den Nachbau tat, ist ein weiterer Hinweis in diese Richtung. Manchmal sind Juristen eben - wider Willen - kreativ...
Uhu Uhuhu schrieb: > Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt > hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des > Konzerns nach der ENIAC-Blamage wiederhergestellt haben. Die hatten sie schon in der 60ern längst ausgebügelt. Als sie eine Typen-Reihe brachten, die anders als bisher üblich ein breites Spektrum an Leistungs- und Anwendungsbereichen umfasste und die nicht in jeder Generation neu programmiert werden mussten. Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-). Der Apple-II machte vor, wo der Weg lang gehen kann. IBM hatte das letztlich nur auf anderer Hardware-Basis etwas professioneller gestaltet. Und eine Plattform mit mehr Luft nach oben erwischt, während Apple sich danach mir Lisa selbst der Weg zunagelte.
A. K. schrieb: > Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-). > Der Apple-II zeigte, wo der Weg langgeht. IBM hatte sich da letztlich > nur rangehängt und das etwas professioneller gestaltet. Das der PC schon technisch überholt war, als er heraus kam, ist richtig und wurde auch damals schon bemängelt. Diese professionellere Gestaltung gab aber letztlich den Nachbauern den Mut, sich auf dieser Schiene zu betätigen. Es war erkennbar kein Bastler-, oder Freak-Projekt. Hätten sie Apple-II-Clones auf den Markt geworfen, wären sie in eine Sackgasse gerannt, die aller Wahrscheinlichkeit tödlich enden würde.
Uhu Uhuhu schrieb: > Hätten sie Apple-II-Clones auf den Markt geworfen, wären sie in eine > Sackgasse gerannt. Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. Nur war da wenig Luft nach oben, das gab die 6502 CPU nicht her. Intels 8088 war zwar nicht grad das Ei des Kolumbus, aber bissel mehr als 6502 denn schon. Apples Nachfolger Lisa hatte dann zwar eine brauchbare CPU, aber damit erschöpften sich die Vorzüge auch schon. Über den Rest davon hat man bald den Mantel des Schweigens geworfen.
A. K. schrieb: > Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. Und genau den gab es beim PC nicht - so war es angekündigt worden und daran hielten sie sich. Es war das Open-Source-Konzept, das durch den PC ganz kräftigen Rückenwind bekam. Wäre der PC technisch innovativ gewesen, dann hätte er gute Chancen gehabt, in ein ähnliches Desaster, wie Lisa zu rennen. Das 8088-Zeug war schon so abgestanden, daß die weitere Entwicklung nicht mehr völlig im Nebel lag.
Uhu Uhuhu schrieb: >> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. > > Und genau den gab es beim PC nicht - so war es angekündigt worden und > daran hielten sie sich. Jedenfalls ein paar kurze Jährchen hielten sie sich dran. Mit dem Microchannel-Bus wollten sie dann die Kontrolle wieder zurück gewinnen. Das Ergebnis ist bekannt. Es war allerdings massgeblich auch Apple, die das Rennen dieser offenen Systeme verloren haben. Weil sie auf mehreren Wegen genau jene Vorzüge aufgaben, die den Apple-II ursprünglich ausmachten. Die Chancen waren da, Apple hatte es versiebt, IBM nicht.
A. K. schrieb: > Jedenfalls ein paar kurze Jährchen hielten sie sich dran. Mit dem > Microchannel-Bus wollten sie dann die Kontrolle wieder zurück gewinnen. > Das Ergebnis ist bekannt. Und was schließen wir daraus? Wenn die Wi"Wi"s das Ruder übernehmen, gehen nur sehr robuste Konzepte nicht über den Jordan ;-)
Und wenn Techniker das Ruder behalten, dann kommt die nächste Version erst raus, wenn sie perfekt ist. Also nie. Gleiches Ergebnis. ;-)
Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? Die innere Reibung eines Büromaschinen-Weltkonzerns, die technische Innovation im Keim erstickt?
Uhu Uhuhu schrieb: > Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? So wie ich die Zeit damals erlebt habe: Das er von IBM war. Das war schon was. IBM war damals nicht einfach irgendwer.
Karl Heinz Buchegger schrieb: > Uhu Uhuhu schrieb: >> Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? > > So wie ich die Zeit damals erlebt habe: > Das er von IBM war. Das war schon was. IBM war damals nicht einfach > irgendwer. das kann ich bestätigen. Ich hatte mal eine Veranstalltung in Bezug auf Datensicherheit vor ca. 20 Jahren besucht. Die wurde von einem IBM Mitarbeiter gehalten. Er sagte dann zu uns, das er öfters ohne jede Identitätsfeststellung bis ins Rechenzentrum vorgedrungen ist. Hat halt nur "Ich komme von IBM" beim Pförtner gesagt und den bekannten Anzug getragen.
A. K. schrieb: > Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-). Naja, 2 Typen von denen der eine ne Motorola Standardapplikation um edge connectors erweitert hat. Die Dinger hat er auch nicht erfunden sondern gekauft. Der andere, ein Unsympath vor dem Herrn hat das ganze dann vermarktet. Das war's auch schon. Später haben Sie dann bei Xerox Maus und Windows geklemmt und daraus nen richtigen Flop produziert. Genial ist das Marketing. Den ganzen Rübennasen zu verklickern das auf einmal Intel das Maß aller Prozessordinge ist wenn es denn vom Sektenführer persönlich verdongelt wird ist schon eine Meisterleistung. Vor allem nachdem 15 Jahre gepredigt wurde (und von man allen Seiten zu hören bekam) wie geil doch der PowerPc wäre während den jeder Profi bestenfalls in irgendwelchen Laserdruckern verortete. Bei MSDOS (ein Zukauf von Gates und Co) das dann als PCDOS in den ersten IBM PCs als OS diente gibt es nicht viel zu sagen. Es war allen völlig egal. Nach den absolut inkompatiblen benutzerfeindlichen und ständig sich veränderten Maschinchen der vor PC Ära wollten einfach alle einen Standard. Als das Wörtchen IBM auf den ersten Stand hat sich die genervte Anwenderschaar sofort darauf gestürzt und das andere gekrampfe in den in Orkus gekippt. Eine Art informellen Absprache um einen Standard zu geschaffen. Ähnlich ist das später beim iPhone gelaufen wo endlich mal was aus einem Guss den Konsumenten von dem Technikgewürge befreite (vom zwar bei Braun und Co.geklauten aber erstklassigen Design mal abgesehen).
Und seien wir mal ehrlich, gegen CP/M war MS-DOS schon richtig gut, command.com hatte 'dir' schon eingebaut :-) Ausserdem war es schon beim Bau des IBM-PC klar, das Intel an grösseren Prozessoren arbeitete, IBM hat zwar nie einen PC mit dem 8086 rausgebracht, aber der 8088 mit 8-Bit Krüppelbus kam ja nach dem 8086. Das Steckplatzkonzept des Apple ][ zeigte schon, das sowas eine gute Idee war, der IBM-PC hatte ja auch bis auf den Tastaturport keine einzige Schnittstelle und auch keine Grafikkarte. Für den 6502 gab es ja nie einen stärkeren Nachfolger, dieser war auch damals schon das Ende dieer CPU Schiene. Motorola hatte damit auch nichts zu tun, diese haben zur gleichen Zeit Prozessoren wie den 6800/6802 gefertigt. Der 6502 hingegen war von MOS und als bessere Alternative zum 6800 gedacht: http://en.wikipedia.org/wiki/MOS_Technology_6502
Kennt noch jemand die PC-Welt, wo man Assemblerprogramme abtippen konnte und dann mit Debug.exe daraus .com Programme gemacht hat. Peter
Ich war damals auch dabei. IBM hatte den Bedarf von PCs irgendwann vorher auf ein paar Hundert weltweit geschaetzt. Daher lohnte sich eine Entwicklung eines Betriebssystems nicht. Sie fanden einen kleinen Bastler, der das aus der Garage heraus anbot, und dabei schlau genug war, die Rechte daran zu behalten. Seltsamerweise war damals nichts neu. Der Trendsetter war und blieb Rank Xerox, die eine Denkfrabik laufen liess. Die hatten schon graphische Oberflaechen und Maeuse, bevor Apple oder Windows sie hatten. Daher waren weder Apple, noch Microsoft innovativ. Mein erster PC im '83 kostete 4500Fr, hatte eine 10MB Plarre und 640kB RAM. Ich hatte schon ein oder zwei Jahre vorher die Vorlaeufer bestaunt. Ohne Festplatte, dafuer 4 mal so teuer.
Zwoelf von Siebzehn schrieb: > IBM hatte den Bedarf von PCs irgendwann vorher auf ein paar Hundert > weltweit geschaetzt. Ich glaube, du verwechselst das mit der "Marktanalyse" i.S. Enigma. Die war ihnen Ende der 40er angeboten worden und sie lehnten wegen ähnlich kümmerlicher Erwartungen ab.
Etwa '85 kamen dann die '286 raus, ich konnte mir dann aber keinen leisten, war mit dem XT noch zufrieden. An einer IT Messe wagte ich mich an einen Intel Stand und frage nach dem geplanten '386. Und wurde von Intel gefragt was ich denn mit dieser gigantischen Rechenleistung machen moechte.
> wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit > durchsetzen konnte?!? Die ersten PCs hatten 16kByte Hauptspeicher, da lief kein Unix. Das MS-DOS 1.1 war weitestgehend kompatibel mit CP/M, welches auf dem 8080/Z80 lief aber für den 8086 noch nicht fertig war, also nahm man MS-DOS. Mit MS-DOS 2.0 für Maschinen mit mindestens 64kByte wurden unix-ähnliche Funktionen hinzugefügt, danach gab es keinen Bedarf für Unix (Xenix) mehr.
Michael Bertrandt schrieb: > Das MS-DOS 1.1 war weitestgehend kompatibel mit CP/M, welches > auf dem 8080/Z80 lief Das beschränkte sich aber auf die eingebauten Kommandos. Die Betriebsystem-schnittstelle war es nicht - wie auch, denn CP/M ist ein 8-Bit System, während der 8088 ein 8 1/2-Bitter war ;-) > aber für den 8086 noch nicht fertig war, also nahm man MS-DOS. So banal wars nicht...
Uhu Uhuhu schrieb: > Das beschränkte sich aber auf die eingebauten Kommandos. Die > Betriebsystem-schnittstelle war es nicht Ach? Dann vergleiche doch mal den BDOS API von CP/M http://www.seasip.demon.co.uk/Cpm/bdosfunc.html mit dem MS-DOS Int21 http://www.i8086.de/dos-int-21h/dos-int-21h.html
A. K. schrieb: > Dann vergleiche doch mal den BDOS API von CP/M Schon den int21, der der Einsprung in PCDOS ist, gibts auf 8080/Z80 nicht... Ganz zu schweigen vom viel größeren Adreßraum des 8088 und den sehr unterschiedlichen Speichermodellen.
Uhu Uhuhu schrieb: > Schon den int21, der der Einsprung in PCDOS ist, gibts auf 8080/Z80 > nicht... Muss das jetzt wirklich auf derart unterirdischem Niveau landen? Willst du mir ernsthaft erzählen, dass ein Betriebssystem-API auf verschiedenen Plattformen allein schon dadurch ein völlig anderer wird, weil er nicht mit exakt dem gleichen Einsprungbefehl aufgerufen wird? > Ganz zu schweigen vom viel größeren Adreßraum des 8088 und den > sehr unterschiedlichen Speichermodellen. Sicher. Aus DE wurde DS:DX oder so. Und? Es behauptet doch niemand, dass CP/M Programme Bit für Bit und Byte für Byte exakt lauffähig waren. Ein 8088 ist halt kein 8080. Aber der MS-DOS Int21 ist eindeutig direkt aus dem BDOS-API abgeleitet. Viel Arbeit beim Portieren von Programmen machte das nicht - und genau darum ging es dabei.
A. K. schrieb: > Sicher. Aus DE wurde DS:DX oder so. Und? Das eine sind 16 Bit, das andere 32, die zu einer 20-Bit-Adresse kombiniert werden. Diese Kompatibilität ist reine Augenwischerei, denn sehr viele Programme aus der 8-Bit-Welt waren in ASM geschrieben - da bedeutet Portierung Neuschreiben. Das war einfach Anlehnung an das Vorbild CP/M, mangels besserer Ideen. Ich hatte mal einen Job, bei dem es darum ging, einen Programmteil in PL/M zu schreiben. Das war ein Fehlschlag, weil das Compilat viel zu riesig und das Zeitverhalten zu behäbig war, als daß man es auf einem 8080 mit 64 KB RAM einsetzen konnte. Der Compiler war einfach bescheiden - und furchtbar langsam.
Die Leute von CP/M waren damals im Urlaub. Da haben sie eben DOS genommen.
Um das ganze Thema auch ein wenig medial zu untermauern, empfehle ich eine Doku und einen Speilfilm: 1. "Eine kurze Geschichte des PC", z.B. hier: http://de.sevenload.com/videos/5pMjAyu-Eine-kurze-Geschichte-des-PC 2. "Die Silicon Valley Story", z.B. hier: http://www.new-video.de/film-die-silicon-valley-story/ Den Spielfilm leider nicht hier öffentlich als Link, gibts aber, wenn man ein wenig sucht ... ;-)
Matthias Sch. schrieb: > IBM hat zwar nie einen PC mit dem 8086 > rausgebracht Das ist nicht richtig; PS/2 Model 25 und 30 nutzten den 8086. Und die Dinger kamen erst 1987 auf den Markt, als es bereits den AT mit 286 gab. Den '30 gab es ein Jahr später als ernstgemeintes System 30/286, das ein mit 10 MHz getakter AT war, einer der netteren IBM-Rechner, und ohne diesen MCA-Kram.
Matthias Sch. schrieb: > Für den 6502 gab es ja nie einen stärkeren Nachfolger, Doch. Eine 16-Bit Version: http://en.wikipedia.org/wiki/WDC_65816/65802 Aber das war ein Design zum Abgewöhnen.
Zu dem Erfolg von IBM-PC, MS-DOS und x86 hat nicht zuletzt INTEL selbst durch Wahrung der strikten Rückwärtskompatibilität bei der Weiterentwicklung seiner Prozessoren (insb. ab 386) beigetragen. Die Altleichen (z.B. A20-Gate) führten bzw. führen immer wieder zu Problemen und unschönen workarounds, aber bewährt hat sichs dennnoch. Noch heute kann ich auf einem aktuellen Core I-irgenwas von einer MS-DOS-Startdiskette booten und Commander Keen spielen (theoretisch jedenfalls) ;-)
Hans Franz schrieb: > Noch heute kann ich auf einem aktuellen Core I-irgenwas von einer > MS-DOS-Startdiskette booten und Commander Keen spielen (theoretisch > jedenfalls) ;-) Lang lebe MS-DOS ;-). Versuch aber nicht, auf einen aktuellen Server ein Win2003 drauf zu kriegen. Das geht nicht mehr, jedenfalls nicht mit den üblichen Inst-Medien.
A. K. schrieb: > Versuch aber nicht, auf einen aktuellen Server ein > Win2003 drauf zu kriegen. Das geht nicht mehr, jedenfalls nicht mit den > üblichen Inst-Medien. Das hat aber andere Gründe ;-)
>1. "Eine kurze Geschichte des PC", z.B. hier: >http://de.sevenload.com/videos/5pMjAyu-Eine-kurze-... Der Film erwähnt die Minicomputer (u.a. Digital mit PDP8) nichteinmal!, das waren eigentlich die ersten PCs. Auch gab es neben dem Altair (der ein ganz schön komisches Bussystem hatte) weitere ähnliche Bauten mit Intel-Chips. Auch Bill Gates hatte sich an der Hardware versucht.
Uhu Uhuhu schrieb: > Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt > hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des > Konzerns nach der ENIAC-Blamage wiederhergestellt haben. Wie schnell doch Geschichte umgeschrieben wird... Das waren keine Visionäre, sondern Bastler. Es wurde ein Prototyp für ein neues Terminal kurzerhand zu einem PC ungefriemelt und das mit technischen Rückschritten gegenüber dem was zu dem Zeitpunkt bereits auf dem Markt war. Statt eines ordentliches Busses wurde der CPU Bus auf Stecker verlängert, damit war die DIP-Schalter-Arie erfunden. Interruptpriorisierung? Wozu das denn, einfach druff, die Software wird schon irgendwie rausfinden welche Karte sich da melden wollte. Tatsache ist, dass IBM keine neue Rechnerklasse wollte, sondern eine möglichst miese Kiste, die dazu dienen sollte die Kunden so schnell wie möglich davon zu überzeugen, dass diese Microcomputer Spielzeug sind und man doch besser die "professionellen" Computer kaufe sollte. Dank der damals üblichen detaillierten Hardwaredokumentation und dem Einsatz ausschließlich von Standardteilen war es jeglichem Mitbewerber möglich die Dinger sofort zu kopieren, das "Betriebssystem" war ja ohnehin bei Microsoft käuflich. Unfall im Marktgeschehen nennt man so was, nicht geplanter Erfolg. Und schon gar nicht "das Bessere wird sich durchsetzen", tatsächlich hat sich das Schlechtere durchgesetzt, sowohl was das Betriebssystem betrifft, als auch was den Treppenwitz von einem Prozessor angeht. Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende Architektur auf dem Desktop. Etwa so, als wenn das Ford Modell T nie abgelöst, sondern nur aufgemotzt worden wäre, alle würden heute noch mit Blattfedern fahren.
MCUA schrieb: > Der Film erwähnt die Minicomputer (u.a. Digital mit PDP8) nichteinmal!, > das waren eigentlich die ersten PCs. Nicht wirklich. PC heisst persönlicher Computer und persönliche zugeordnete Rechner waren die Minicomputer dann doch nicht. Sie hatten zwar keinen RZ-Betrieb, aber es waren eher Arbeitsgruppenrechner oder projektbezogen. Sowas ähnliches gabs in den 50ern auf Röhrenbasis, als IBM 650.
Guido Körber schrieb: > Statt eines ordentliches Busses wurde der CPU Bus auf Stecker > verlängert, damit war die DIP-Schalter-Arie erfunden. Das war auch nicht als Design für Jahrzehnte gedacht, sondern für einfach und billig. Intels x86-Architektur ebensowenig, auch Intel hat mehrfach bewiesen, dass sie nicht weiter als bis zum nächsten Laternenpfahl denken konnten oder wollten. Interessant wurde es anno AT, also dem 16-Bit ISA-Bus. Weil da ein Timing eingeführt wurde, das streng genommen nicht funktionieren kann. Weil ein aus Adressleitungen abgeleitetes Signal eigentlich bereits vorhanden sein muss, noch bevor die Adressleitungen offiziell gültig sind. > Interruptpriorisierung? Also sachte, die gab es von Anfang an! Blöd war nur, dass Intel sich dabei für positiv flankengetriggerte statt negativ pegelgetriggerte Interrupts entschieden hatte.
Guido Körber schrieb: > Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende > Architektur auf dem Desktop. Das wär was für "Wetten Dass" auf Nerdisch: Jemand, der behauptet, sämtliche historischen und aktuellen x86-Befehle am Opcode zu erkennen, und welcher Prozessor welche implementiert. ;-)
> Dank der damals üblichen detaillierten Hardwaredokumentation Der PC hat sich durch das offene System durchgesetzt. Deckel auf, andere Karte rein, Deckel zu. Am Anfang gab es noch kein Plug and Play, es war trotzdem das flexibelste bezahlbare System auf dem Markt. Das Betriebssystem hieß am Anfang PC-Dos und wurde von Microsoft für IBM programmiert. Den halbfertigen Quellcode hatten sie von einer anderen Firma übernommen. Dann hat Microsoft es geschafft, sich das Recht am Quellcode durch winklige Schachzüge unter den Nagel reissen. Schon seit dieser Zeit beschäftigen die mehr Anwälte als Programmierer. > Und die ersten Windows-Versionen hatten Startzeiten, > da konnte man ein Ei hart kochen. Ein Windows 2.0 hat auf einem 386er 12 Sekunden zum hochgefahren gebraucht. Heute werden zwar viel mehr Prozesse gestartet, aber die Rechner sind auch 1000 mal schneller. Aber sind sie das wirklich? Durch das aktuelle Betriebssystem und neuere Software wird der Rechner regelmäßig bis zur Schmerzgrenze runtergebremst (Meine subjektives Empfinden). Das Antivirus will vor dem Start schon updaten, und bis dann alle Anderen nach Hause telefoniert haben könnte man ein Ei hartkochen.
B e r n d W. schrieb: > Aber sind sie das wirklich? Nur die virtuellen, die sind so schnell aus dem BIOS/UEFI raus, dass man ernste Probleme dabei hat, überhaupt in die BIOS-Config reinzukommen. Wenn du aber einem ordentlichen Server aus Blech mal beim Booten zusiehst, dann ist das Ei schon geniessbar, noch bevor das Betriebsystem überhaupt zum Zuge kam.
Also für eine PDP (insbes PDP8) musste man keine Unsummen wie für Grossrechner zahlen. Somit waren diese (Mini)Computer (erstmals v DEC 1968) die ersten, die für einzelne Personals (mehr oder weniger) erschwinglich waren. >Statt eines ordentliches Busses wurde der CPU Bus auf Stecker >verlängert, Und beim Altair (wollte halt eher mal schnell was verkaufen, nicht lange entwickeln) verliefen manche Busleitungen quasi Leere. >tatsächlich hat >sich das Schlechtere durchgesetzt, sowohl was das Betriebssystem >betrifft, als auch was den Treppenwitz von einem Prozessor angeht. >Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende >Architektur auf dem Desktop. Ja, nur wegen Rückw-Kompatibilität.
DOS wurde anfangs gratis den Rechnern beigelegt als eine reine OEM Systemvariante.
MCUA schrieb: > Also für eine PDP (insbes PDP8) musste man keine Unsummen wie für > Grossrechner zahlen. > Somit waren diese (Mini)Computer (erstmals v DEC 1968) die ersten, > die für einzelne Personals (mehr oder weniger) erschwinglich waren. Du weißt, was das für Brocken waren?
Hallo, eine der wesentlichen Ursachen für den Erfolg von DOS war die bessere Kundenorientierung bzw. deren völliges Fehlen bei den Unix-Anbietern. Wir wollten z.B. unsere Kunden namens Müller auch so anschreiben, nicht als Mueller, und das auch auf den SUN-Computern für die Technik, nicht nur auf dem PC. Darauf erhielten wir nur die extrem unverschämte Antwort "wer nicht Englisch kann, ist für den Umgang mit unseren Unixcomputern nicht qualifiziert", eine deutsche Tastatur gab es nicht. Die Unixfraktion hat sich noch jahrelang erbittert gegen die Lokalisierung gewehrt, bei dem angeblichen Schrottsystem MSDOS war dagegen die Anpassung an Länderspezifika von vornherein selbstverständlich - ein Quantensprung in der IT-Entwicklung! Hätte es MSDOS nicht gegeben, müssten wir heute noch Geschäftsbriefe mit 7bit-ASCII-Code schreiben. Mit freundlichen Gruessen Reinhard PS ich würde heute noch so entscheiden: lieber ein ab und zu abstürzendes System, das Deutsch kann, als ein stabiles, mit dem man nur englische Texte schreiben kann.
Uhu Uhuhu schrieb: > Du weißt, was das für Brocken waren? Die ersten eigenständigen CAD-Systeme von Racal-Redac basierten auf DEC VAX. Meiner Erinnerung nach, ich habe mal solche Systeme besichtigt, die uns gebraucht angeboten wurden, waren die Preise ca. 700000 DM für die VAX und 280000 DM für den Farbbildschirm. Plus Software natürlich. Unsumme ist halt ein relativer Begriff. Gruss Reinhard
Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's gettext zur Lokalisierung während der Laufzeit schon seit '95. Auch sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch wen Windows intern anscheinend UTF-16 verwendet???), während der Rest der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.
Hallo Reinhard, CAD, CNC, DNC und so weiter hatten wir schon auf dem Vorläufer der VAX einer PDP-11 betrieben, mit Präprozessor und Grafikausgabe. War ein Schweizer Produkt, saugut aber auch sauteuer. Gruss Roman P.S: Der seine erste Datenverwaltung in Fortan auf PDP-11 schrieb.
Lukas K. schrieb: > gettext zur Lokalisierung während der Laufzeit schon seit '95. das ist ja wohl ein witzt, texte tauschen kann jeder. Lokalsierung ist ein wenig mehr (links rechts ausrichtung, andere einheiten, Satzstellung, usw.). Und dann wird es noch so weit getrieben das sogar der compiler die Meldungen übersetzt und keiner mehr versteht was das bedeuten soll. Aber Hauptsache Lokalisiert.
Peter II schrieb: > links rechts ausrichtung, andere einheiten, > Satzstellung, usw. Ausrichtung: Dafür gibt's Unicode, hebräische Schrift ist automatisch rechtsbündig. Satzstellung: was meinst du damit? Gettext hat damit kein Problem, der Übersetzer muss nur die Platzhalter richtig verteilen. Und auch Pluralbildung geht mit gettext. Kein Krampf wie '1 Objekt(e) ausgewählt' mehr. Wenn ich mich recht erinnere hat microsoft das mittlerweile aber auch in den Griff bekommen (hab' grad nur Windows 2000 zur Hand). Peter II schrieb: > Und dann wird es noch so weit getrieben das sogar der compiler die > Meldungen übersetzt und keiner mehr versteht was das bedeuten soll. Aber > Hauptsache Lokalisiert. Macht microsoft genauso schlimm. Dagegen kann ich auf Unix einfach LANG=C make aufrufen und hab die Compiler-Ausgaben in nicht lokalisierter Form.
Lukas K. schrieb: > bei den Zeilenumbrüchen sieht es ähnlich aus. Heute ist aber CR-LF praktisch der Standard, nicht das LF-only von Unix. Und rasch ist auch ein sehr relativer Begriff. Die traditionellen Anbieter wie HP und Sun haben das Eingehen auf Kundenanforderungen einfach für unter ihrer Würde gehalten (dass es technisch gegangen wäre, ist ja zutreffend, aber man wollte einfach nicht). Die Folge war, dass neben jeder Workstation jahrelang ein PC stand, um die "trivialen" Aufgaben der Verwaltung zu erledigen. Dumm nur für Unix, dass die PCs sehr schnell immer leistungsfähiger wurden und nach und nach die Workstations weitgehend ersetzt haben. Ein normaler PC leistet heute auch als CAD-System weit mehr als eine millionenteure Anlage aus dem Unix-Zeitalter, mit der man nicht mal eine Rechnung schreiben konnte. Man hätte also nicht müssen, aber man hats versaut. Gruss Reinhard
Reinhard Kern schrieb: > Heute ist aber CR-LF praktisch der Standard, nicht das LF-only von Unix. Ich hab mal diverse populäre Webseiten untersucht, nur microsoft.com verwendet CRLF, der Rest sendet nur ein LF. Das Verwundert auch nicht weiter, denn außerhalb von Microsoft ist ja praktisch alles UNIX-ähnlich: Linux, Mac OS, Android, iOS, etc..
Lukas K. schrieb: > Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber > rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's > gettext zur Lokalisierung während der Laufzeit schon seit '95. Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber stricken. > Auch sonst Microsoft hält immer noch an Windows-1252 als Encoding fest > (auch wen Windows intern anscheinend UTF-16 verwendet???), während der Rest > der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus. Weil es UTF-8 noch nicht gab als MS mit der NT Entwicklung begonnen hatte. Bei den ersten Versionen war es noch UCS-2, erst ab afair W2k war es UTF-16. Zeilenumbrüche macht eigentlich nur Windows/DOS richtig. Line Feed alleine bringt nichts, wenn der Druckkopf noch an der falschen Stelle steht scnr. Wenn heute immer noch CR,CR+LF,LF genutzt wird, könnte man auch fragen warum niemand den Standard nutzt: U+2028 (Line separator) http://www.unicode.org/charts/PDF/U2000.pdf
@Lukas K. (Firma: carrotIndustries) (carrotindustries) >Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber >rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's Was ist da hardcoded? >gettext zur Lokalisierung während der Laufzeit schon seit '95. Auch >sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch Wie kommst Du darauf? 1252 wird nur in Mittel/Westeuropa benutzt, bzw. Ländern mit ähnlichem Zeichensatz. Die Russen, Griechen, ... müssen also nicht unbedingt eine angeblich hart reincodierte 1252 nehmen (mussten noch nie). >wen Windows intern anscheinend UTF-16 verwendet???), während der Rest >der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus. Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine andere Codpage benutzen, wenn Du die vorher aktiviert hast. In dem einen Notepad schreibst du in russisch, im anderen Notepad in deutsch. Und wenn du willst, auch beide Zeichensätze in einem Notepad. Windows benutzt UCS-2 (UTF-16 bei den neueren Versionen möglicherweise, was aber bei den üblichen Sprahcen keinen Unterschied macht). Daß Systemmeldungen weiterhin in der voreingestellten Sprache ausgegeben werden, ist eine andere Sache.
Jens G. schrieb: > Was ist da hardcoded? Die Lokalisierung steht in der Binärdatei mit drin. Ist jedenfalls bei Windows 2000 so, bei XP afaik auch noch, mit Vista wurd's dann besser. Jens G. schrieb: > Wie kommst Du darauf? 1252 wird nur in Mittel/Westeuropa benutzt, bzw. > Ländern mit ähnlichem Zeichensatz. Die Russen, Griechen, ... müssen also > nicht unbedingt eine angeblich hart reincodierte 1252 nehmen (mussten > noch nie). Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte Problemlos einen Text mit griechischen, kyrillschen und Lateinischen Zeichen schreiben. Jens G. schrieb: > Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine > andere Codpage benutzen, Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode. Arc Net schrieb: > Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber > stricken. Klar, dass führt dann aber dazu, dass jeder sein eigenes Süppchen kocht. Dank gettext reicht eine Umgebungsvariable um die Lokalisierung aller Programme zu ändern. Was die Zeilenumbrüche anbetrifft. Microsoft könnte sich jedenfalls mal die Mühe geben, wenigstens Unix-Zeilenunbrüche zu unterstützen, sprich als solche darzustellen.
> während Windows bis XP Hardcoded-Lokalisiert war, gibt's > gettext zur Lokalisierung während der Laufzeit schon seit '95. Man muß arg verbrettert sein, um darin die Wahrheit zu sehen. > Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine > andere Codpage benutzen Das konnte Microsoft seit der EGA-Graphikkarte, also seit 1980, in MS-DOS, und natürlich in jedem Windows und OS/2. Seit WindowsNT ist das jedoch Geschichte, seit WindowsNT basieren alle Microsoft-Systeme auf Unicode. Unter Linux kommt erst neuerdings UTF8 als Basiszeichensatz z.B. für Dateinamen, also bereits in der Installation, auf: http://nebelwelt.net/studies/visionen-articles/utf-8-unter-linux/ RedHat 2003, Suse 2004, also 10 Jahre nach Microsoft. Modernste Betriebssysteme, wie iOS, können es immer noch nicht, dort ist z.B. setlocale von C nur für "C" und "POSIX" möglich.
>Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte >Problemlos einen Text mit griechischen, kyrillschen und Lateinischen >Zeichen schreiben. Win benutzt intern auch nur ein Encoding, schon länger, als das bei Linux üblich war? (oder was meinst Du sonst mit EIN Encoding?) >Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode. Was glaubst Du, was 1252 ist - ein Codeset, welches letztendlich als Codepage in einem Computer verwendet wird. So ist es auch in Unicode, welches z.B. als UTF-x verwendet wird. Letztendlich meinte ich aber, daß Win grundsätzlich mit jedem Zeichen klarkommt (weil intern Unicode verwendet wird). Nur die Interaktion mit dem User muß zumindest bei der Eingabe auf z.B. ein Codeset eingeschränkt werden, weil so große Tastaturen für alle Zeichen hat man ja nicht. Und die Programme müssen natürlich Unicodefähig sein, was je nach Programm nicht unbedingt der Fall sein muß.
@MaWin (Gast) >> Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine >> andere Codpage benutzen >Das konnte Microsoft seit der EGA-Graphikkarte, also seit 1980, >in MS-DOS, und natürlich in jedem Windows und OS/2. Ich meinte gleichzeitig in mehreren Programmen zur selben Laufzeit ....
Was die Codepages anbetrifft: Das Umschalten jener ist altertümlich. Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber nicht ohne Abstraktion an die Anwendungen weiterreichen sondern Regionsspezifische Encodings verwenden???
Lukas K. schrieb: > Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber > nicht ohne Abstraktion an die Anwendungen weiterreichen sondern > Regionsspezifische Encodings verwenden??? Es gibt schlicht beides. Der Windows-API stammt aus Zeiten vor Unicode, folglich müssen Programme mit den alten 8-Bit Zeichensätzen unterstützt werden. Wem das zu blöd ist, der verwendet die API-Funktionen in ihrer Unicode-Variante direkt, völlig ohne Codepage. Das geht nämlich sehr wohl. Linux und Unix haben andererseits das Problem, dass es keinen festgelegten Charset für Filesysteme gibt. Wenn eine Anwendung aus historischen Gründen die Filenamen mit ISO-Charset schreibt und darauf aber auch ein Samba mit UTF-8 stitzt, dann gibts Chaos. Ähnlich Probleme gibts bei Backup-Software. Windows speichert in definiertem Charset und konvertiert je nach Art des API.
@Lukas K. (Firma: carrotIndustries) (carrotindustries) >Was die Codepages anbetrifft: Das Umschalten jener ist altertümlich. >Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber >nicht ohne Abstraktion an die Anwendungen weiterreichen sondern >Regionsspezifische Encodings verwenden??? Ich sagte doch: >Und die Programme müssen natürlich Unicodefähig sein, was je nach >Programm nicht unbedingt der Fall sein muß. Wenn die Programme nur für 8bit-Zeichensätze ausgelegt sind, dann nützt denen natürlich auch kein Unicode. Und wenn Win aktuelle auf 1252 eingestellt ist, und man jubelt einen ollen Programm Zeichen unter, die eigentlich als 1253 zu interpretieren währen, dann kommt nur npoch Datenmüll heraus, weil diese dann als 1252 interpretiert werden (wen man Glück hat, enthalten die Daten nur den Basiszeichen satz (die ersten 127Byte), dann wird sogar noch was draus). Sieht man sehr schön mit der Kommandozeile, die man mit chcp auf 437 oder 1252 einstellen kann. Bei 437 kommt Datenmüll heraus, wenn man eine 1252-codierte Textdatei mit type anschauen will
Lukas K. schrieb: > Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode. Wird von ernstgemeinten Windows-Versionen seit 1993 genutzt.
Lukas K. schrieb: > Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte > Problemlos einen Text mit griechischen, kyrillschen und Lateinischen > Zeichen schreiben. Jein... http://lfsbook.linuxfromscratch.org/blfs/view/svn/introduction/locale-issues.html usw. usf. > Arc Net schrieb: >> Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber >> stricken. > Klar, dass führt dann aber dazu, dass jeder sein eigenes Süppchen kocht. > Dank gettext reicht eine Umgebungsvariable um die Lokalisierung aller > Programme zu ändern. Genau das wollen ich und einige andere (Kunden) nicht. Bspw. nutzte ich zwar meist das OS in Deutsch, die IDEs aber grundsätzlich in Englisch (früher auch mit englischer Tastaturbelegung). Einige Kunden wollen grundsätzlich eine xyz-sprachige Oberfläche, egal was das OS sagt (inkl. Zahlen/Datumsformat/Einheiten etc.)
Reinhard Kern schrieb: > Die > Unixfraktion hat sich noch jahrelang erbittert gegen die Lokalisierung > gewehrt, bei dem angeblichen Schrottsystem MSDOS war dagegen die > Anpassung an Länderspezifika von vornherein selbstverständlich - ein > Quantensprung in der IT-Entwicklung! meinst du "Einfach gesagt, ist ein Quantensprung eine Zustandsänderung in einem sehr kleinen System, also eine sehr kleine Änderung der Wirklichkeit." (http://de.wikipedia.org/wiki/Quantensprung)
Unix war zwischen 1985 bis 2000 ein ziemlich elitäres System. Es war ausschließlich auf sündhaft teuren Workstations im Einsatz. Damit konnte das schon mal kein Massenbestriebssystem werden. Im Gegnsatz dazu war MS-DOS und später Windows von Anfang an für jedermann ausgelegt. Außerdem hat Intel dann dafür gesorgt, dass sie ab 2002 auch noch die besseren Prozessoren hatten. Das gab dann den Unix-Workstations den Rest. Damit hat MS-Windows dann auch noch den Workstation Markt abgeräumt.
Helmut S. schrieb: > Unix war zwischen 1985 bis 2000 ein ziemlich elitäres System. Es war > ausschließlich auf sündhaft teuren Workstations im Einsatz. Für normale PCs gab es auch einige Unixe. Sogar schon für 286. Ab Mitte der 90er gab es dann die freien BSD-Derivate. > Außerdem hat Intel dann dafür gesorgt, dass sie ab 2002 auch noch die > besseren Prozessoren hatten. Der Schlüssel war bereits 1995 der Pentium Pro, der zu den RISCs aufschliessen konnte. Im weiteren Verlauf entschied dann der bei vergleichbarer Leistung günstigere Preis der x86-Massenware.
Klar gab es auch ein bisschen Unix auf PCs, aber das waren Exoten. Die
haben keinen nennnenswerten Marktanteil errungen. Ich sag nur SCO.
> Im weiteren Verlauf entschied dann der bei vergleichbarer Leistung günstigere
Preis der x86-Massenware.
Leider ware es viel schlimmer für die Unix-Fraktion. Deren workstations
konnten leistungsmäßig den Intel-Rechnern(Windows PCs) ab 2002 nicht
mehr das Wasser reichen.
Helmut S. schrieb: > Leider ware es viel schlimmer für die Unix-Fraktion. Deren workstations > konnten leistungsmäßig den Intel-Rechnern(Windows PCs) ab 2002 nicht > mehr das Wasser reichen. Das hing aber direkt mit der Preis-Situation zusammen. Entwicklung solcher Highend-Prozessoren ist von Generation zu Generation immer teuer - und zwar vorfinanziert. Da die x86 Entwicklung auf viel mehr Exemplare umgelegt werden konnte, waren die Resourcen einfach nicht gegeben, eine adäquate Entwicklung weiter zu führen. Die Alpha-Architektur wurde dann ausserdem von Intel mit dem Ziel aufgekauft, diese unliebsame Konkurrenz einzustampfen. Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und die Systeme dazu rangieren unverändert ganz vorne. Nur sind die schlicht zu teuer für Workstations. Eine Situation die Intel selbst nicht ganz unbekannt ist, haben sie sich doch beim Versuch, im Übergang zu 64 Bits die sehr leistungsstarken IA64 durchzusetzen, von AMD ausmanövrieren lassen. Mit der gleichen Methode, wie einst sie selbst gehen die RISCs.
Ja. Es gab das SCO. Das war aber extrem teuer, und bei weitem nicht so komfortabel wie die heutigen Linuxe. Alleine die Administration war ein Alptraum.
Es gab auch Microport Unix, das war keineswegs extrem teuer. Klar, konsequent durch Tools wie smit (AIX) oder yast (Suse) gestützte Administration war damals in Unix/Linux nicht sonderlich verbreitet. Das ist bis heute nicht durchgängig der Fall (z.B. BSD, debian). Für Windows-Jünger ist die Administration von Unix-Systemen auch heute noch ein Alptraum (und umgekehrt - in welcher von zig Dialogboxen war die verdammte Einstellung noch mal und wo finde ich die?). Das hat aber auch Vorteile: Wer es kann wird besser bezahlt. ;-)
Rufus Τ. Firefly schrieb: > Matthias Sch. schrieb: >> IBM hat zwar nie einen PC mit dem 8086 >> rausgebracht > > Das ist nicht richtig; PS/2 Model 25 und 30 nutzten den 8086. Und die > Dinger kamen erst 1987 auf den Markt, als es bereits den AT mit 286 gab. Haha, ja richtig, die Dinger habe ich völlig verdrängt. Dabei hatten wir Ende der 80'er sogar ein Modell 25 als Startrechner für eine IBM AS400. Mann, die hatten doch sogar so ein merkwürdiges Bussystem, auf dessen Name ich jetzt nicht komme. Dadrin war eine gefrickelte Karte mit komischen IBM Chips(2*2cm grosse Metallrechtecke), die über ein Multicore mit der AS400 verbunden war. Neben einem Z80 Computer mit Oasis Betriebssystem und einer 10MByte HDD (8-Zoll!) war das eine der merkwürdigsten Arrangements meiner Computerlaufbahn.
> weshalb das aber nicht ohne Abstraktion an die Anwendungen weiterreichen
Tut Windows, alle Funktionen gibt es als W (widechar=unicode),
nur gibt es auch Programmierer die so wie du nicht wissen was
Unicode ist und das nicht verwenden, für diese Uninformieretn
gibt es alle Funktionen noch mal als A-Funktionen im lokalen
Zeichensatz, eigentlich gedacht als Rückwärtskompatible.
Es gibt unter Windows auch sehr schöne header-Dateien mit denen
man das automatisch machen kann, unter Linux muss man sich die
selber schreiben.
Lukas, du bist so uninformiert, du solltest lieber die Füsse
still halten. Linuxs hat erst 10 Jahre später Unicode umgesetzt
(und es funktioniert dort immer noch nicht überall).
Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen
sind die bessere Implementation als 16 bit wie es Windows tut.
@Matthias Sch. (Firma: Matzetronics) (mschoeldgen) >Haha, ja richtig, die Dinger habe ich völlig verdrängt. Dabei hatten wir >Ende der 80'er sogar ein Modell 25 als Startrechner für eine IBM AS400. Was - brauchte die AS400 einen Anlasser?
@MaWin (Gast) >Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen >sind die bessere Implementation als 16 bit wie es Windows tut. UTF8 ist universeller ausgelegt, und kommt verglichen mit UTF16/UCS2 mit vergleichsweise weniger Speicherplatz aus, sofern man mal bei lateinischen Zeichen bleibt. Allerdings hat das auch den Nachteil, daß UTF8-Strings keine vorhersagbare Bytelänge haben - will man also eine Stringvariable haben, die sämtliche UTF8-Zeichen aufnehmen können muß, dann muß man notfalls 4Byte/Zeichen vorsehen (gilt auch für UTF16, nicht aber UCS2). Auch der generelle Prozessing-Overhead ist höher, weil man einfach 1/2/3/4-Byte-Zeichen unterscheiden muß (bei UCS2 generell kein Problem, bei UTF8 erst ab 3Byte-Zeichen) Das ursprüngliche UCS2 und jetzige UTF16 betrachte ich also nicht so sehr als unglücklich.
Jens G. schrieb: > Was - brauchte die AS400 einen Anlasser? Alte IBM-Tradition: Servicerechner steuert Hauptrechner. Mindestens bei den früheren Maschinen war es auch hardwareseitig sparsamer, die diversen Kompenten des Hauptrechners durch Software auf dem Servicerechner zu initialisieren, als dazu eigens Hardware einzubauen. NB: Intels aktuelle Prozessoren haben einen Microcontroller an Bord, der beispielsweise die thermische Situation kontrolliert (PCU = power control unit). Kann schon sein, dass der noch mehr macht als nur das.
MaWin schrieb: > (und es funktioniert dort immer noch nicht überall). Also ich hatte in meinem Linux-Leben (mittlerweile 7 Jahre) nie Probleme mit mangelnder UTF-8 Unterstützung.
Jens G. schrieb: > Was - brauchte die AS400 einen Anlasser? Ja. Die AS400 hatte eigentlich nur die Twinax Netzwerkanschlüsse (bei uns warens 2 für 2 Segmente) und einen Steckplatz für die Multicore-Verbindungskarte zum Modell 25. Auf dem Model 25 wurde nach dem Booten von MS-DOS ein Progamm zum Starten und Verwalten der AS400 gestartet. Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau von 512 kByte auf 1 MByte auf der AS400. Der IBM-Mann kam vorbei, zog sie Handschuhe an und öffnete das AS400 Gehäuse. Nach kurzem Suchen entfernte er einen Jumper und strahlte uns an:"So, jetzt haben sie 1 Megabyte RAM!".
Uhu Uhuhu schrieb: > Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? Die Offenheit. Jeder konnte sich selbst eine Zusatzkarte bauen und reinstecken, der recht simple 8088-Bus war einfach zu handhaben und die Anwendungsprogramme konnten direkt in die Hardware greifen. Keine virtuelle Adressierung und trotzdem dank Segmentregistern auf verschiedene Adressen ladbare Programme, von denen auch mehrere gleichzeitig geladen sein konnten ("TSR") Kurzum, mit dem IBM-PC....XT....AT konnte man viel mehr machen als mit allen in sich geschlossenen Systemen. Mark .. schrieb: > Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu > werden, obwohl es von der Funktionalität her Unix haushoch unterlegen > war? Ach Mark, du redest seltsam daher. MSDOS war von Anfang an ein PC-Betriebssystem - ganz im Gegensatz zu Unix, was übrigens damals m.W. stinketeuer war. Unix ist im Sinne der Rechenzentren der späten 60er Jahre konzipiert: es gibt eine strikte Trennung von Usern und Administratoren, keinerlei Hardwarezugriff durch User, Volumina müssen vom Admi aufgelegt und dem betreffenden User in seinen Homebereich gemountet werden - und später wieder unmounted werden. Systempflege aller Art durch User war ausgeschlossen und das direkte Steuern von irgendwelcher Hardware außerhalb des Mainframes war nicht vorgesehen. Die Benutzung durch die User war im wesentlichen auf Rechen- und Organisations-Aufgaben beschränkt, falls die überhaupt direkten Kontakt zum Rechner hatten. Viel üblicher war der Job-Betrieb. Da gab man einen Blechkasten mit wohlsortierten Lochkarten an einer Luke des Rechenzentrums ab und kam am nächsten Tag vorbei, um die Ergebnisse abzuholen und den Job zu bezahlen. Glaubst du, ein Betriebsystem, das für solch ein Environment konzipiert ist, wäre auch nur ansatzweise geeignet gewesen für einen PC, also einen Persönlichen Rechner? Hier muß der Besitzer alles selbst machen, er saß (wie heute auch) höchstpersönlich vor dem Ding um es zu benutzen und so einzurichten, wie er es braucht. Und nochwas: RAM war damals sauteuer! Und ne grandiose Festplatte mit 8 MB (später 20 MB) war ebenfalls sauteuer - man könnte auch sagen "unbezahlbar". Und hier referiert ein ahnungsloser Frischling von "haushoch unterlegen" daher... Nee, Unix war und ist auch heute noch an die Bedürfnisse in den Gefilden der persönlichen Rechenkisten nicht wirklich angepaßt - und genau darum geht es. Alle typischen Männer-Diskussionen, wer am größten oder dicksten oder stärksten ist, sind Mumpitz. Sinnvolle Angepaßheit von Lösungen ist das eigentliche Thema. MSDOS war an die Verhältnisse am IBM-PC gut angepaßt, CP/M-86 war es nicht. Ich hatte beide wahlweise auf der Kiste, die damals ja noch von Floppy gebootet wurde. Zuerst satte 360 K Byte, später dann auch 720 K. Da hat MSDOS draufgepaßt, jaja. (waren das wirklich 360 K? ist schon zu lange her...) W.S.
Also wenn in der Firma mal frage wer sich noch mit DOS Befehlen auskennt und wer noch mit Unix (war zu gleichen Zeit im Einsatz zumindest hier in der Firma) wissen von Dos noch viele was aber Unix ist eher weg . Irgend was war einprägsamer für den User was auch immer.
> waren das wirklich 360 K?
Ja, die 5" Floppys hatten 360k. Die haben später immer noch in die 3,5"
Laufwerke gepasst (zusammengefaltet ;). Für den Commodore 64 musste ein
Loch reingestanzt werden.
Auf einem XP mit zwei dieser Laufwerke hab ich mein erstes Embedded
Projekt entwickelt. Dazu hab ich drei Disketten benötigt. Quellcode,
Editor, Compiler, Linker und Eprom-Programmierer haben auf zwei Floppys
leider nicht draufgepasst. Später gabs dann einen AT mit 20MByte
Festplatte.
@Lukas K. (Firma: carrotIndustries) (carrotindustries) >MaWin schrieb: >> (und es funktioniert dort immer noch nicht überall). >Also ich hatte in meinem Linux-Leben (mittlerweile 7 Jahre) nie >Probleme mit mangelnder UTF-8 Unterstützung. sagt ja auch keiner, daß es allgemein nicht funktioniert. Aber soweit ich weis, ist das Linux-Filesystem z.B. nicht explizit auf Unicode ausgelegt, der Kernel auch nicht. Die Dateinamen werden einfach in der Codepage gespeichert, in der diese übergeben werden. In Win ist das Filesystem schon entsprechend ausgelegt. Man kann in Win keine Dateinnamen in irgendeiner ASCII-Codepage anlegen, nur weil ein olles 1252-Programm (wie die Cmd line) das so will, sondern es wird fein säuberlich in Unicode abgelegt (wird also vorher in Unicode umgewandelt). In Linux wird das meines Wissens so abgelegt, wie das Programm das übergeben hat - da kann man also Zeichencodierungen in allen Codepages wiederfinden, incl. Unicode natürlich, wenn man mit entsprechenden Umgebungen drauf zugreift. Hat man da was kyrilisch (8bit Codepage) abgespeichertes abgelegt, muß man wissen, daß es kyrillisch sein soll, sonst sieht man nur Müll. Da nützt mir auch eine sonst unicodefähige Umgebung nix, denn die zeigt auch nur Müll an. Man braucht also etwas, was die Zeichen als kyrilisch interpretiert. Solange irgendwelche Programme diese Dateinamen uninterpretiert verarbeiten, ist das kein Problem. Bei Linux ist also das Unicode nur augepfropft, aber nicht integriert.
B e r n d W. schrieb: > Auf einem XP mit zwei dieser Laufwerke hab ich mein erstes Embedded > Projekt entwickelt. Ich auf einem XT, mit 320k Ram und 2x 5 1/4 Floppy. Auch 3 Disketten. Dann kam Autocad mit 14 Floppys, ging aber auch, irgendwie wenn auch langsam. Den Plotter haben wir von ner HP Anlage geliehen 5 stellige Summe und das LPT - HP-IB Interface das mit den 3 embedded Floppys entwickelt wurde ging auch, irgendwie. Hat sich aber gelohnt, irgendwie, so über die Jahre ;-).
@ Matthias Sch. (Firma: Matzetronics) (mschoeldgen) >Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau >von 512 kByte auf 1 MByte auf der AS400. Der IBM-Mann kam vorbei, zog >sie Handschuhe an und öffnete das AS400 Gehäuse. Nach kurzem Suchen >entfernte er einen Jumper und strahlte uns an:"So, jetzt haben sie 1 >Megabyte RAM!". Das waren die wohl unserer Zeit weit voraus ;-) Denn heute ist doch sowas gang und gäbe: - Autos/Motorräder (deren Motoren) werden künstlich gedrosselt, um unterschiedliche PS-Zahlen anbieten zu können (bei gleichem Motor) - in irgendwelchen Geräten oder SW lassen sich zusätzliche Features freischalten - man muß nur wissen, wie - die ganze Druckertechnik wird künstlich gegängelt - naja - usw ... IBM hat also damals schon gezeigt, wie man das macht ;-)
@ nennonnem (Gast) >Also wenn in der Firma mal frage wer sich noch mit DOS Befehlen auskennt >und wer noch mit Unix (war zu gleichen Zeit im Einsatz zumindest hier in >der Firma) wissen von Dos noch viele was aber Unix ist eher weg . >Irgend was war einprägsamer für den User was auch immer. Naja - DOS war einfach einfacher, nicht so verwirrend in den Kommandos, übersichtlicher - das läßt sich einfacher merken.
Matthias Sch. schrieb: > Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau > von 512 kByte auf 1 MByte auf der AS400. Da wird noch heute ein Prinzip draus. Ein paar der grösseren Rechner von dem Verein werden mit "performance on demand" verkauft, sicherlich auch bei den Nachfolgern der AS/400. Da deren zu Grunde liegende Technik ohnehin etliche Prozessoren auf einem Modul hat, kannst du einen Teil davon kaufen und die anderen bleiben abgeschaltet. Leg Geld nach und du kriegst sie freigeschaltet. Komischerweise ist Intel noch nicht auf diese Idee gekommen. Die verkaufen zwar auch Chips mit abgeschalteten Funktionen, in schier endlos vielen Permutationen, aber Nachlizenzieren des bestehenden Chips ist nicht drin.
B e r n d W. schrieb: > Ja, die 5" Floppys hatten 360k. Die haben später immer noch in die 3,5" > > Laufwerke gepasst (zusammengefaltet ;). Für den Commodore 64 musste ein > > Loch reingestanzt werden. Da hast Du was durcheinandergebracht. Die 5 1/4" Floppys passen natürlich in keiner Weise in ein 3,5" Laufwerk. Die 5 1/4" ergingen aber in das gleichgroße Foppylaufwerk des C64. nur das konnte die Dinger nur einseitig nutzen. Der berühte Locher war dazu da eine Kerbe für die Schreibschutzabfrage zu Stanzen. Dann konnte man die Diskette wenden und auch die andere Seite nutzen. Später gab es dann auch ein 3,5" Laufwerk für den C64 das ganz normal beide Seiten beschreiben konnte. Habe noch einige der alten 5 1/4" C64 Disketten (den C64 natürlich auch, erstaunlich was man damals mit nur 64k Speicher alles gemacht hatte, ähnliches auf dem PC heute kommt nicht unter 5MB daher) und oh Wunder die sind sogar noch lesbar. Gleiches kann man von den 3,5" Disketten leider nicht sagen.
>> Ja, die 5" Floppys hatten 360k. Die haben später immer noch in >> die 3,5" Laufwerke gepasst (zusammengefaltet ;) > Da hast Du was durcheinandergebracht. Die 5 1/4" Floppys passen > natürlich in keiner Weise in ein 3,5" Laufwerk. Doooch, lies den Satz bitte nochmal ganz genau! Außerdem haben die später auf die selbe Weise auch noch ins CD-ROM gepasst.
Steffen Warzecha schrieb: > Der berühte Locher war dazu > da eine Kerbe für die Schreibschutzabfrage zu Stanzen. Dann konnte man > die Diskette wenden und auch die andere Seite nutzen. Umdrehen? Bei den 3,5er gab es einen Locher, damit die 720er als 1,44Mer liefen. Sonst: http://de.wikipedia.org/wiki/Floppy#Tabellen.C3.BCbersicht_der_Diskettenformate
alter ITler schrieb: > Bei den 3,5er gab es einen Locher, Den Locher gab es nicht für die 3,5" sondern für die 5,25"-Disketten.
Jens G. schrieb: > Bei Linux ist also das Unicode nur augepfropft, aber nicht integriert. Das ist aber auch nur die halbe Wahrheit. Selbst FAT32 speichert in erster Linie Dateinamen in 8.3 (ja, wirklich). Erst mit der VFAT-Tabelle können bis zu 255 16-Bit-Zeichen hinterlegt werden. Bei FAT32 sind also sogar lange Dateinamen (länger als 8.3) nur aufgepfropft. Erst NTFS speichert Dateinamen immer mit 16-Bit breiten Zeichen. Das muss allerdings kein Unicode sein, bietet sich aber natürlich für UTF16 an. Das aber geht also in jedem Fall in die Hose, denn Unicode-Zeichen können auch doppelt so breit sein. Die ext-Dateisysteme von Linux/Unix speichern Dateinamen neutral in 255 Bytes. Deren Interpretation ist, wie du ja schon bemerkt hast, dem Betriebssystem bzw. dem Anwender überlassen. Das ist prinzipiell auch die sinnvollere Methode, finde ich. Spätestens mit POSIX geht der UTF16-Schwachsinn wieder schief, denn fopen() und Konsorten erwarten Dateinamen aus 'char', also Bytes. Das geht mit UTF16 nicht, es geht aber wunderbar mit UTF8. Darum gibts im Windows-API dann wieder solche Krücken wie 'wfopen' und die proprietären 'CreateFileW'. UTF16 ist in meinen Augen und aus heutiger Sicht eine Sackgasse und Speicherverschwendung.
Nachtrag: Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv arbeiten konnte. Das Mistding konnte ja effektiv garnix. Ewige Zeiten konnte man ja nichtmal einen eingegebenen Befehl korrigieren oder wiederholen. Nur von hinten zurück löschen oder neu eingeben.
Sven P. schrieb: > Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv > arbeiten konnte. Das Mistding konnte ja effektiv garnix. Vergleich das nicht mit heute, sonder mit damals. Und zwar nicht mit den damaligen dicken Kisten, sondern den anderen Mikroprozessor-Lösungen. > konnte man ja nichtmal einen eingegebenen Befehl korrigieren Man konnte aber Tools einsetzen, die das taten. Mit der Bourne-Shell von Unix ging das übrigens auch nicht. Die C-Shell konnte es zwar, das Verfahren war aber für Fernschreiber optimiert und auf Terminals sehr gewöhnungsbedürftig. Zur Erinnerung: Man konnte früher sogar mit Lochkarten erfolgreich programmieren (ich hatte noch kurz das Vergnügen). Das war garantiert deutlich bequemer, als auf dem ENIAC Kabel zu stecken.
> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv
arbeiten konnte.
99% der großen erfolgreichen Firmen haben MS-DOS und später WIN benutzt.
WIN benutzen sie auch heute noch. Die waren alle glücklich mit MS-DOS.
Endlich hatte man Rechner und OS für wenig Geld. Anwender von UNIX
wurden hemmungslos von den UNX-Anbietern mit teueren Rechnern,
teuren-Unix-Lizenzen und teuren Anwendungsprogrammen über den Tisch
gezogen.
A. K. schrieb: > Vergleich das nicht mit heute, sonder mit damals. Und zwar nicht mit den > damaligen dicken Kisten, sondern den anderen Mikroprozessor-Lösungen. > [...] Naja, schon klar. Aber der DOS-PS sollte doch attraktiv für den ARBEITSPLATZ sein. Das war ja der Witz, dass man nicht mehr am Fernschreiber klemmte, sondern eine Kiste unterm Schreibtisch stehen hatte. Da wärs ja nochmal umso interessanter gewesen, den Komfort zu bieten. Und selbst wenn man das mit knapper Rechenleistung und so weiter rechtfertigen würde. Der technische Fortschritt von MS-DOS war über den gesamten Lebenszyklus eher lächerlich, oder? Da wäre effektiv mehr drin gewesen. Machbar wars ja, die ganzen TSR-Helferlein, die da aufkamen... ordentliche Befehlszeile, Bildschirmseiten scrollen, rudimentäres Netzwerk, später mal Copy&Pasta mit der Maus auf dem Textbildschirm und so weiter. Fast nichts davon hat irgendwie zeitnah Einzug in MS-DOS gehalten...
Sven P. schrieb: > Fast nichts davon hat > irgendwie zeitnah Einzug in MS-DOS gehalten... Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie schneller und hat den Markt schon längst in der Tasche.
A. K. schrieb: > Sven P. schrieb: >> Fast nichts davon hat >> irgendwie zeitnah Einzug in MS-DOS gehalten... > > Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig > entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie > schneller und hat den Markt schon längst in der Tasche. Und das istn Grund, dass fast geschlagene ZEHN JAHRE gedauert hat, bis man es mit Doskey serienmäßig einigermaßen bedienbar gemacht hat?
A. K. schrieb: > Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig > entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie > schneller und hat den Markt schon längst in der Tasche. Naja, aber neue Versionen sollten immerhin ein wenig neue Funktionen beinhalten. Bei MS-DOS wurde ja noch nicht mal der Bug für den das A20-Gate eingebaut wurde behoben. Ich denke der Hauptgrund warum sich Unix da nicht auf dem Billigmarkt durchgesetzt hat war, dass damals Unix ziemlich kommerziell war und viel Geld gekostet hat. Die wieder freien Unixe, die wir heute kennen, gab es erst ab den 1990gern. Die ganzen modernen BSD Varianten mussten beispielsweise große Teile des Codes neu entwickeln. Dazu kam auch, dass die Rechner nicht genügend Arbeitsspeicher und nur selten Festplatten hatten. Die Leute, die sich es leisten konnten, haben schon immer unixoide Rechner benutzt. Das war früher halt teuer, hat sich aber im technischen Bereich sicherlich rentiert. Die Mehrkosten spielt man da locker in höherer Produktivität wieder rein. (Das merke ich immer dann, wenn ich einen Kollegen an seinem Tabellenkalkulationsprogramm verzweifeln sehe, und er dann nach stundenlanger Arbeit ein Bild hervorbringt, das unnötig schwer zu interpretieren ist und nichts Relevantes zeigt) Hier ein Artikel aus dem Jahre 1990: http://www.websalon.de/chalisti_ausgaben/chalisti_06/007_FRC6.html "Um es vorweg zu nehmen, ein richtiges Unix System fuer unter 15.000 DM zu bekoemmen wird auf legalem Wege ohne Ausnutzung von (sehr selten gewaehrten Studenten/Universitaeten/oder sonst welchen Rabatten) nahezu ein Ding der Unmoeglichkeit sein. Aber mit dieser Praemisse sind wir bzw. bin ich an den Start gegangen um die Messe abzusuchen." Übrigens das mit dem CR/LF ist ein anderer Brauch. Der stammt von der DEC Seite, deren Betriebssysteme schon vor Unix für das Internet verwendet wurden. Deshalb benutzen die meisten Protokolle im Internet CR/LF als Zeilenendzeichen. Unix im Internet gab es erst grob ab den frühen 1980ger Jahren.
Sven P. schrieb: > Und selbst wenn man das mit knapper Rechenleistung und so weiter > rechtfertigen würde. Der technische Fortschritt von MS-DOS war über den > gesamten Lebenszyklus eher lächerlich, oder? Es hat niemanden Interessiert, zumindest keinen der für das ganze bezahlt hat ;-). Selbst wenn DOS nicht mehr als einen start batch (autoexec.bat) geboten hätte. Entscheidend war das es Anwendungen gab. Da hat Microsoft und der ganze Rest der Branche sich drauf gestürzt. Mit Word und Excel wurden zwei "Programme" (knallhart dahingestrikte Betaversionen um den Markt zu besetzen) geliefert. Nicht der Unox Nerd der mit seinem OS rumspielt sondern die Bürohengste und -stuten entscheiden. Da spielte die Musik. Von denen hat hat jeder die Kommandozeile gemieden wie die Pest. Es war besser da nichts drüber zu wissen. Eine klare WinWin ;-) Situation für Admin und Anwender.
Christian Berger schrieb: > Naja, aber neue Versionen sollten immerhin ein wenig neue Funktionen > beinhalten. Bei MS-DOS wurde ja noch nicht mal der Bug für den das > A20-Gate eingebaut wurde behoben. It's not a bug, it's a feature. ;-) > Ich denke der Hauptgrund warum sich Unix da nicht auf dem Billigmarkt > durchgesetzt hat war, dass damals Unix ziemlich kommerziell war und viel > Geld gekostet hat. Microport Unix kam 1985 für anfangs $99 raus. Aber eben erst 1985. Ausserdem war mit den ersten PCs an Unix nicht zu denken. Mit 8088, Floppydisk und 64KB war da kein Blumentopf zu gewinnen.
Ach ja noch was. In den 1990ger Jahren wurde auch der 386ger von den Unix-Leuten unterschätzt. Mit dem war es endlich möglich ein "modernes" Unix (mit Speicherschutz) laufen zu lassen. Eigentlich hätte Sun, damals (einer?) der Marktführer gleich ein auf dem 386ger basiertes Produkt herausbringen müssen, und Cross-Compiler dafür anbieten müssen. Damit hätte man einen billigeren Markt bedienen können. Ach ja, der kommerzielle Unixmarkt war natürlich auch noch stark zerstritten. Es gab also dutzende von teilweise inkompatiblen Versionen. Gleichzeitig haben damals die Softwarefirmen den Quellcode nicht an den Kunden weitergegeben und Compiler waren teuer. Hier übrigens mal eine Fernsehsendung zum Thema Unix aus dem Jahre 1985. Toll ist auch die aus heutige Sicht totale Fehleinschätzung des Softwaretesters, dass Unix auf dem Arbeitsplatz nichts verloren hat. http://www.youtube.com/watch?v=g7P16mYDIJw Gegen 4:00 auch ein Satz den man sich einrahmen müsste, "A lot of people don't really understand UNIX". Wobei der Typ der danach spricht, übrigens Garry Kindall, der Chef von Digital Research, offensichtlich auch Unix nicht verstanden hat.
> Bei FAT32 sind also sogar lange Dateinamen (länger als 8.3) nur > aufgepfropft. Natürlich. FAT32 war ja auch vorher da, bevor es überhaupt Unicode gab, und die rückwärtskompatble Erweiterung war so genial, daß es darauf sogar eine Patenterteilung gab. Du hast ein Henne/Ei Problem.
Christian Berger schrieb: > Eigentlich hätte Sun, damals > (einer?) der Marktführer gleich ein auf dem 386ger basiertes Produkt > herausbringen müssen, Dazu hätte Sun allerdings korrekt vorhersagen müssen, dass die x86er eines Tages die Fliesskomma-Leistung der damaligen Highend-Prozessoren erreichen würden. Das aber war erst bedingt beim Pentium und wirklich beim Pentium Pro der Fall. Davor war der Unterschied der RISCs zu x86 eklatant. Und genau die Fliesskommaleistung war der Markt der Workstations. > Ach ja, der kommerzielle Unixmarkt war natürlich auch noch stark > zerstritten. Das allerdings war ein grosses Problem. Und wurde eigentlich erst dadurch einigermassen gelöst, dass das erfolgreiche Linux den Weg vorgab und die verbliebenen Unixe sich dem anpassten. > Toll ist auch die aus heutige Sicht totale Fehleinschätzung des Dieser Eindruck kommt fast immer auf, wenn man sich Vorhersagen in der Rückschau betrachtet. Völlig egal um was es dabei geht. Vielen Menschen gelingt noch nicht einmal eine annähernd korrekte Einschätzung der Vergangenheit, geschweige der Gegenwart. Weshalb sollte das dann bei der Zukunft besser sein? Auch professionelle Wahrsager irgendwelcher Institute sind dabei nicht viel besser.
A. K. schrieb: > Dazu hätte Sun allerdings korrekt vorhersagen müssen, dass die x86er > eines Tages die Fliesskomma-Leistung der damaligen Highend-Prozessoren > erreichen würden. Nö, sicherlich gibt es einige Anwendungen, für die Fließkommazahlen wichtig sind, ein Unix ist aber auch ohne schon sinnvoll. Ja Unix Workstations waren schnelle Kisten, aber auch langsame Unix Rechner konnte man vernünftig nutzen. Zur Not hat man halt die Datenverarbeitung im Hintergrund gemacht. In dem Video kommt noch mal ein Softwartest von Paul Schindler (gegen 25:00) für ein Programm, das unter Unix trivial durch eine Liste mit Wörtern und grep ersetzt werden kann. Unter MS-DOS gab es damals kein grep.
grep ist doch nicht Betriebssystemabhängig. C-Compiler gab es auch damals schon für MS-DOS
> Unter MS-DOS gab es damals kein grep. Natürlich doch. FINDSTR. Du kennst dich mit MS-DOS nicht so ganz aus, gelle ? http://www.it.murdoch.edu.au/units/ICT306/dosfilters.html
Ja anonymer Autor. Man konnte auch für MS-DOS ein grep bekommen. Nur woher? Mitgeliefert wurde es nicht. Das Internet gab es damals auch für MS-DOS Nutzer in aller Regel nicht. Und einen C-Compiler musst man sich für MS-DOS auch erst mal dazu kaufen. Das waren früher viele hundert DM. Und selbst dann war es schwierig beispielsweise mehr als 64 Kilobyte an RAM am Stück zu nutzen, was Werkzeuge wie sort oder Texteditoren recht aufwändig macht. Eine der wichtigsten Einflüsse bei der Anwendung eines Systems ist die Faulheit. Die Nutzer/Entwickler gehen immer den Weg des geringsten Wiederstandes. Der geht unter Unix in der Regel durch viele kleine Tools wie grep, awk, sed, usw. Ganz einfach weil die in aller Regel einfach da sind. So wie manche Windows Fanbois solche Sachen mit Excel Macros machen, weil Excel einfach da ist.
Christian Berger schrieb: > Nö, sicherlich gibt es einige Anwendungen, für die Fließkommazahlen > wichtig sind, ein Unix ist aber auch ohne schon sinnvoll. Das was ich beschrieb war der Hauptmarkt der Unix-Workstations. Nicht das, wozu man sie einsetzen kann. > Unter MS-DOS gab es damals kein grep. Bei mir schon. ;-)
Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit Zusatzprogrammen und Shareware war dem schon abzuhelfen. Mit der Shareware-Szene kamen dann aber auch schon bessere Shells, als die primitive von MS. Ein 'nacktes' DOS konnte man einschalten und wieder ausschalten. Das wars im Wesentlichen auch schon ;-) Das war aber im Nachinein auch zwangsläufig so; der Vergleich mit dem grep ist unsinnig. Von Unix/Linux alleine hat der Anwender auch nicht sonderlich viel. Interessant wirds ja erst mit dem ganzen Userland (GNU-Werkzeuge, heute auch die Desktops mit Anhang -> KDE, Gnome, ...). Das Userland von DOS war aber 'das DOS', also die Shell mit eingebauten Befehlen und dazu noch eine Reihe von eigenständigen Befehlen. Und das war eben ziemlich bescheiden. Ohne dieses bisschen Userland bleibt von DOS nicht mehr allzu viel übrig, das war der Unterschied. Die unixoiden arbeiteten theoretisch(!) ohne Userland. Das Userland war halt für den Bediener gedacht und hinten herum konnten Daemonen weiterarbeiten. Dazu war DOS aber nie gemacht, DOS ist Userland.
A. K. schrieb: > Das was ich beschrieb war der Hauptmarkt der Unix-Workstations. Nicht > das, wozu man sie einsetzen kann. Ja, das ist ein interessantes Phänomen. Unterschiedliche Märkte belegen unterschiedliche Systeme, unabhängig davon wie geeignet das ist. Um mein CAD-Programm zu starten brauche ich kein Unix, trotzdem wurde das früher häufig gemacht. Dahingegen ist Unix ideal für Textverarbeitung und Bürokommunikation... was aber leider selten gemacht wird. Solche Leute verbringen dann Monate damit Excel-Sheets umzuformatieren.
Sven P. schrieb: > Von Unix/Linux alleine hat der Anwender auch nicht > sonderlich viel. Ahh, da sieht man den Fehler. Auch wenn Linux nur ein Kernel ist, und das ganze System eigentlich GNU/Linux heißt war Unix schon immer das komplette System, sprich Kernel und Userland. Von der Philosphie her sogar eher Userland als Kernel. Deshalb kannst du mit Cygwin auch in Windows-System fast zu was brauchbaren aufrüsten. ;) (Ja ich bin gemein) In einem "nackten" Unix-System hast Du halt schon die wichtigsten Tools drin.
„expanded memory“, „extended memory“,“upper memory“. Adresse = Segment*16 + Offset. Die waren Bremsen bei der Entwicklung in Computertechnik in achtziger und neunziger Jahren. Motorola Prozessoren (68000) mit linearem Bus waren besser. Wie viele Jahren hat die Entwicklung durch diesen Bremsen verloren...
Christian Berger schrieb: > Dahingegen ist Unix ideal für Textverarbeitung und > Bürokommunikation... was aber leider selten gemacht wird. Ich hatte damals sogar von der Stückzahl her eher mit denen zu tun als mit CAD-Systemen. Beispielsweise ca. 20 Schmalspur-RISCs (IBM 220, nicht besser als damalige PCs) an 2 Servern, für grafische Einsatzplanung. Aber das war, weil es diese Software damals so gab, nicht weil das billiger gewesen wäre. Und weil X11 als Basis damals mehr hergab und mehr Geschichte hatte als die sehr frischen und bei Vernetzung und Client/Server noch durchwachsenen Win3 oder OS/2. Das änderte sich markant mit NT.
Christian Berger schrieb: > Sven P. schrieb: >> Von Unix/Linux alleine hat der Anwender auch nicht >> sonderlich viel. > > Ahh, da sieht man den Fehler. Auch wenn Linux nur ein Kernel ist, und > das ganze System eigentlich GNU/Linux heißt war Unix schon immer das > komplette System, sprich Kernel und Userland. Von der Philosphie her > sogar eher Userland als Kernel. Ja dann, dann zieht der Vergleich ja doch viel eher, als ich eigentlich gedacht hatte. Die Verkaufsstrategie hinter den Unix damals kann ich nicht beurteilen - das war vor meiner Zeit.
Christian Berger schrieb: > Eine der wichtigsten Einflüsse bei der Anwendung eines Systems ist die > Faulheit. Die Nutzer/Entwickler gehen immer den Weg des geringsten > Wiederstandes. Der geht unter Unix in der Regel durch viele kleine Tools > wie grep, awk, sed, usw. Ganz einfach weil die in aller Regel einfach da > sind. Ach. Nach dieser Theorie hätte sich DOS nie durchsetzen können.
Schuld ist doch nur der Installer. Wenn ich mir die Geschichte mit YAST von Suse angucke: Bei den ersten Linuxen musste man ganz schön tief in die Materie eindringen und bei der Installation eine Menge FachTLAs wissen oder nachschlagen ==> Viele Aufwand. Bei DOS und später bei Windows konnte man einfach eine Diskette ins Laufwerk stecken und fertig. Die Disketten konnte man auch wunderbar kopieren, womit der Privat-Markt gesättig wurde, was dazu führte, dass Firmen die Lizenzen kaufen musste... (aber das ist eine andere Geschichte...)
ach schrieb: > Ach. Nach dieser Theorie hätte sich DOS nie durchsetzen können. Hat es ja auch nicht. Oder wo siehst du heute PCs mit MS-DOS? ;-)
STK500-Besitzer schrieb: > Schuld ist doch nur der Installer. > Wenn ich mir die Geschichte mit YAST von Suse angucke: > Bei den ersten Linuxen musste man ganz schön tief in die Materie > eindringen und bei der Installation eine Menge FachTLAs wissen oder > nachschlagen ==> Viele Aufwand. Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den Abhängigkeiten in autoexec.bat und config.sys haben. Eine Linuxinstallation lief meist ohne weiters zutun des Nutzers durch und die Standardḱonfiguration war im Gegensatz zu der von DOS oder Windows auch nutzbar.
An jene, die den längeren Teil der Karriere noch vor sich haben: (1) Im Raum sitzt ein externer Supporter, der 2 Tage lang fast unterbechungsfrei im vi unlesbaren Konfigurationskram eintippt. Ohne Doku zu bemühen. (2) Anderer Supporter, andere Software: Der Installateur sitzt eine Woche vor allerlei GUI-Fenstern und klickt die Maus kaputt. Preisfrage: Wer von den beiden wird besser bezahlt? Wer erntet vom Chef ein "Wow!" und wer ein "Hmm, das sieht ja aus wie bei mir zu Hause, kann doch jeder!"?
> Wer von den beiden wird besser bezahlt?
Ach du Scheisse, ABM Arbeitsbeschaffungsmaßnahmen von ansonsten
arbeitslosen Dumpfbacken die für richtige Arbeit zu bld sind.
Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige
nutzlose Konfigurationsarbeit die nur durch unzureichende Software
verursacht wird.
Wenn überhaupt was eingestellt werden soll weil der Zustand nach der
Installation nicht passend war (was eiegntlich nicht vorkommen darf),
dann bitte vom Endanweder in einem übersichtlichen Dialog.
MaWin schrieb: > Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige > nutzlose Konfigurationsarbeit die nur durch unzureichende Software > verursacht wird. Es gibt eben nicht nur auspacken-installieren-benutzen Software. Praktisch jede Serversoftware bedarf händischer Konfiguration, oder erwartest du von einem DHCP-Server gleich zu wissen, welche IPs er verteilen soll?
MaWin schrieb: > Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige > nutzlose Konfigurationsarbeit die nur durch unzureichende Software > verursacht wird. > > Wenn überhaupt was eingestellt werden soll weil der Zustand nach der > Installation nicht passend war (was eiegntlich nicht vorkommen darf), > dann bitte vom Endanweder in einem übersichtlichen Dialog. Aha. Zum Glück kann man ja mit einer Universalinstallation alle Anwendungsfälle abdecken... Apple kann das ganz gut. Was halt nicht da ist, braucht der Anwender nicht. Per Definition.
MaWin schrieb: > Ach du Scheisse, ABM Arbeitsbeschaffungsmaßnahmen von ansonsten > arbeitslosen Dumpfbacken die für richtige Arbeit zu bld sind. Es gibt neben MS-Office auf Windows auch Software, die in jeder einzelnen Installation hochgradig kundenspezifisch eingerichtet wird. Weils jeder Kunde anders haben will. Die wird natürlich nicht millionenfach verkauft, aber davon gibts andererseits recht viel. Kann freilich sein, dass dir sowas nicht über den Weg läuft. Mir schon. Szenario (1) hatte ich vor gut 12 Jahren so erlebt. Sowohl die Software als auch die Server-Hardware von damals sind noch im Einsatz und werden es wohl noch ein paar Jahre sein. Kann man nicht meckern.
ach schrieb: > Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den > Abhängigkeiten in autoexec.bat und config.sys haben. Eine > Linuxinstallation lief meist ohne weiters zutun des Nutzers durch Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde auch auf der 386er Platform entwickelt. Und viel Ahnung war da nicht nötig. Ohne CD ROM gabs eigentlich nur die Umstellung auf die deutsche Tastatur - das wars. Entscheidend für den Anwender war ja nicht, wie toll sich ein Programm installieren lässt (das war bei MS-DOS ohne HDD auch gar nicht nötig), sondern wie benutzbar ein Programm war. Ich kannte Firmen, die sich komplett mit Lotus-123 und Sidekick durch die Daten gewurschtelt haben und nie etwas anderes benötigt haben. Du konntest mit 2 Diskettenlaufwerken arbeiten, ohne dauernd Schwabbelscheiben zu wechseln und hattest eine enorme Erleichterung gegenüber der Fakturierung mit Schreibmaschine und Kohlepapier. Das war der entscheidende Vorteil. Zusätzlich gab es tonnenweise Klone des XT (und auch des AT) die billig waren und gegen die sich IBM nie wirklich gewehrt hat. Mein erstes medizinisches Plotprogramm hab ich damals mit Turbopascal auf einem 2-Disketten Zenith Klon geschrieben. Eine selbstgebaute 4-Kanal A/D Karte mit ISA und eigenem 8048 Subprozessor hat da die Daten gesammelt und an die langsame Zenith Schüssel weitergereicht.
Naja, als die 486ger populär waren, war Windows noch nicht so viel benutzt und Linux war schon ganz brauchbar. Ich hab irgendwo einen alten Zeitschriftenartikel (ich glaube aus der MC) in dem über die MS-DOS auf Linux Umstellung einer Universität berichtet wurde. Wohlgemerkt auf dem Desktop. Das müsste so um 1993 gewesen sein.
Sven P. schrieb: > Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit > Zusatzprogrammen und Shareware war dem schon abzuhelfen. Das ist eine Feststellung die bis heute für MS gilt. Ohne Zusatzsoftware ist das Originalpaket vollkommen unbrauchbar. Das fängt mit dem Editor an und hört bei Sachen wie einem Vierenscanner noch lange nicht auf.
Christian Berger schrieb: > > In einem "nackten" Unix-System hast Du halt schon die wichtigsten Tools > drin. Dies war aber auch im Preis mit drin. Und, der Quellcode war nicht frei. Alles was man heute an Unix Tools auf dem Markt findet ist reverse engeneering. Wenn Mann als Rentner dann mal Zeit hat mal den Code anschauen und vergleichen. Original PDP-11 Unix Quellcode von 1980 liegt noch auf meiner archivierten Platte. Mit verbockt hat Novell die ganze Unix Sache. Als auf der Intel Plattform mit Unixware eine relative preiswerte Lizenz vorhanden war gibt das unfähige Management Marketing an SCO ab und diese schränken die unbegrenzte Anzahl Arbeistplätze wieder ein und kassieren bei SCO-Unix ab. SCO Unix ist eben Schrott. Unixware war 200% stabiler. Nun ja Novell hat es später nochmals mit Suse Linux versucht und ebenfalls Schiffbruch erlitten. Auch die Motorala 68000 Welt war anfangs nicht einfach. Für Unix hat SUN damals zuerst eine Hardware Memory-Management-Unit um den 68000 herum entwickelt und damit Unix lauffähig gemacht - lineare Addressierung ist eben nicht alles. Steve Jobs ist wohl einer der wenigen die erkannt haben was läuft. Bei Apple zurückgekommen auf Berkley Unix umgestiegen - eigene Oberfläche drauf und durchgestartet. Dass sich Qualität nicht durchsetzt sieht man immer wieder. Neuestes Beispiel Mobilfunk. An die Nokia Sprachqualität kommt keiner nahe ran. Aber gekauft werden heute Computer die als Nebeneffekt mehr schlecht als recht mobil telefonieren können. Optik ist alles, Bedienung andere Baustelle. Viel Spass mit Touchscreen und Win8 auf dem Desktop. Mast- und Schootbruch alte Seefahrer
> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv > arbeiten konnte. Das Mistding konnte ja effektiv garnix. Man konnte immerhin grundlegende OS- u. Datei-Operationen damit machen, und viel Zusatzsoftware gab es auch. Und oft geht Commandline schneller als Mausgeklickse. >Übrigens das mit dem CR/LF ist ein anderer Brauch. Der stammt von der >DEC Seite... Und das kommt ursprüngl. von Schreibmaschinen und Fernschreiber. Es muss halt CR und LF sein, damit der Text nicht in gleicher Zeile überschrieben wird. Und der Asci-Code 127 mit deshalb mit DEL belegt, weil mit den ganzen 1-en (nein, mit den Löchern) man beim Lochstreifen nachträglich das (falsche) Zeichen ungültig machen konnte. ..ist also eine Festlegung die schon uralt ist.
Christian Berger (casandro) schrieb: > Naja, als die 486ger populär waren, war Windows noch nicht so viel > benutzt und Linux war schon ganz brauchbar. Ich hab irgendwo einen alten > Zeitschriftenartikel (ich glaube aus der MC) in dem über die MS-DOS auf > Linux Umstellung einer Universität berichtet wurde. Wohlgemerkt auf dem > Desktop. Das müsste so um 1993 gewesen sein. Das ist wirklich Geschichtsfälschung in Reinform. Du bist genau so ein Jungspund wie Sven P. (haku) der selber gerade mal Baujahr 1989 ist aber hier sich groß über die MS-DOS Zeit äußert, die keiner von euch beiden selbst erlebte. Nur mal zu deiner Information, schon MS-DOS war damals sehr erfolgreich, weil es z.B. ein gutes Schreibprogramm sprich Textverarbeitung wie Word Perfect gab und gute eine Tabellenkalkulation. Mein erster Rechner war ein 80386SX mit 16 MHz und 4MByte RAM, den ich mir zur Studienzeit damals gerade so leisten konnte (40MHz DX Rechner kosteten damals ein gefühltes Vermögen von um die 3500 DM). Darauf lief zunächst ein Windows 3.0, dann 3.1 dann WFW 3.11 und das war in etwa die von dir beschriebene Zeit. Im Rechnerraum der FH lief kein Unix und schon gar kein Linux, sondern Novell NetWare und das stabil über Jahre. Auf den Clients durfte man Borland Turbopascal starten, Turbo C++ und anderes Zeugs. Einen Unix Großrechner gab es dennoch zu Übungszwecken. War eine alte ausrangierte Gurke mit der damals dennoch beachtlicher Rechenleistung von 4 Prozessoren und viel, viel RAM (heute lächerlich). Die Studies hatten nach und nach alle einen PC mit Windows, darauf wurde programmiert und das Schriftgut in WYSIWYG abgewickelt und auf dem damals gängigen HP 500 Deskjet ausgedruckt. CAD Programme waren ACAD für die Zeichenübungen und ORCAD 386 für Schaltungsdesign. Das waren DOS Programme mit eigenen Grafiktreibern und den damals üblichen Bildschirmauflösungen von meist 800x600 Pixel oder bei den 5000 DM 20 Zöllern auch mehr. Wie gesagt, wir reden hier die ganze Zeit noch über DOS und dann Windows 3.x, noch nicht mal über das damals sehr erfolgreiche (weil erstmals echte 32-bit Windows 95). Keiner der mit Win 3.x begann hätte damals die Umstallung auf Windows 95 ausgeschlagen, um zu Linux zu wechseln. Dessen Zeit lief da langsam erst an. Die SuSE GmbH hatte sich 1992 gegründet, aber erst im Mai 1996 also nach Windows 95' ihre erste Distribution herausgebracht. Vorher war da nur Slackware. Die hatte ich auch, als ich mein erstes Doublespeed Mitsumi CD-ROM gekauft hatte (nein der 386SX hatte noch kein CD-ROM eingebaut ;)) für damals rund 300 DM und Treiber für DOS. War eine nette Spielerei, aber nicht mal ansatzweise das was man heute unter "Linux" subsummiert. Also bitte keine Geschichtsfälschung betreiben. Wie Helmut S. (helmuts) schon schrieb, "99% der großen erfolgreichen Firmen haben MS-DOS und später WIN benutzt. WIN benutzen sie auch heute noch. Die waren alle glücklich mit MS-DOS. Endlich hatte man Rechner und OS für wenig Geld. Anwender von UNIX wurden hemmungslos von den UNX-Anbietern mit teueren Rechnern, teuren-Unix-Lizenzen und teuren Anwendungsprogrammen über den Tisch gezogen." PCs waren inzwischen gegenüber Unixrechnern (in meinem Firmenumfeld VAX und VAX Clones) verdammt billig und bei ESCOM als Massenware zu haben. Unixrechner wurden 1995 nicht mehr neu angeschafft, statt dessen kamen mehr und mehr PCs mit den neusten Intel Prozessoren. Der Pentium 60 hielt Einzug und das war damals gegenüber den alten Unixrechnern bereits eine verdammt schnelle Kiste. Der Trend war klar erkennbar. Aus heutiger Sicht mag Win95 in der ersten Release elend erscheinen. Aber gegenüber Win311 war es bereits ein Quantensprung und in der inoffiziellen OSR 2.0 dann auch ganz brauchbar. ;) Das war übrigens alles noch die Zeit ohne DSL. Das muss man dabei immer im Hinterkopf behalten und den Begriff "Flatrate" kannte keiner. 14,4 kbsp Modem war angesagt, später dann 56 kbps und sauteure Onlinekosten.
Was mir damals an Intel ziemlich auf den Geist gegangen ist und bis heute tief in mir verwurzelt ist, ist der Versuch von Intel damals die aufkommende Konkurrenz AMD im 386er Prozessorenbereich zu verhindern. Intel Prozessoren waren einzeln nur sauteuer (für viele praktisch unbezahlbar) zu erhalten und sie haben damals alle Hebel in Bewegung gesetzt, um die Billigkonkurrenz AMD zu verhindern. Damit hat Intel damals aktiv den Markt behindert (die Schw..e). Es gelang aber nicht und AMD durfte dann doch mit seinen Clones auf den Markt, die damals zuerst direkt auf die Hauptplatinen angelötet waren und so konnte man sich dann auch einen DX Rechner leisten, durch einfachen Austausch der Hauptplatine. Erst AMD hat die Preisspirale nach unten eingeläutet und konnte auch Leistung bieten (wenn auch lange Zeit etwas den Intel Proz. hinterherhinkend). Cyrix (die andere Konkurrenz) taugte dagegen nix.
Wobei diese Nummer noch nicht durch ist. Auch Intels zweiten Versuch, das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt. Es war ja nicht Intels Idee, die x86er zu 64 Bits auszubauen. Dazu wurde Intel durch AMDs Schachzug regelrecht gezwungen. Aber da AMD technisch mit Intel nicht mehr so recht mithalten kann, sind wir grad wieder in einer Situation, in der Intel die Chance hat, ein Monopol der Highend-x86er zu errichten. AMD liegt pro Core weit hinter Intel, sowohl in blanker Rechenleistung als auch in Rechenleistung pro Watt. Jedenfalls wenn man das ATI-Erbe der integrierten Grafik aussen vor lässt. Einzig die nicht zuletzt dank Tablets gewonnene Erkenntnis, dass man für einen Internet-Browser nicht zwingend einen 100W Desktop-Prozessor oder ein mit einem völlig überteuerten Prozessor ausgestattetes Ultrabook benötigt, erspart uns vorerst den Durchmarsch Intels, insgesamt gesehen. In diesem Sinne gehört ausgerechnets Apples Hardwareschmiede zu den grösseren Hindernissen für Intel - Apples selbst designte ARM-Cores sind nämlich recht beachtlich.
W7 schrieb: > Sven P. (haku) der selber gerade mal Baujahr 1989 Woher hast du denn das Datum? > ist aber > hier sich groß über die MS-DOS Zeit äußert, die keiner von euch beiden > selbst erlebte. Nur mal zu deiner Information, schon MS-DOS war damals > sehr erfolgreich, weil es z.B. ein gutes Schreibprogramm sprich > Textverarbeitung wie Word Perfect gab und gute eine Tabellenkalkulation. Also anders formuliert, die Anwenderprogramme waren erfolgreich und MS-DOS war eben grad da... Ich bin mir der Problematik dieser Zeit schon bewusst. Und natürlich erlebe ich vieles davon nur als Retrospektive, obwohl ich mich tatsächlich über diverse DOS-Versionen und -Klone, Win3.1 und 3.11 bis zu Win95 durchgehangelt habe, da ich fast immer nur anderweitig ausrangierte Hardware hatte. Aber weil auf praktisch jeder kleinen Maschine MS-DOS lief, muss das ja nicht automatisch auch bedeutet, dass MS-DOS so unheimlich gut war. Es boten sich ja auch nicht viele Alternativen dazu. Ich schrieb ja auch 'es erschließt sich mir nicht'. Da können ja durchaus noch Aspekte sein, die ich nicht berücksichtige, mit denen es sich mir aber vielleicht erklären wird. Ich empfand die Bedienung einer DOS-Maschine jedenfalls als schmerzhaft. Eine längere Befehlszeile getippt -- wie hieß der Dateiname noch? Ach Mist. Befehlszeile löschen und 'dir' rufen. Ach ja, so hieß er. Also die ganze lange Befehlszeile nochmal eintippen. Programmieren mit der Shell erübrigte sich, meistens hatte ich schneller ein Programm mit Pascal oder QuickBasic zusammengehauen. Solche Dinge und noch viele andere hätte man doch wirklich in den über zehn Jahren des MS-DOS-Lebens mal verbessern können.
W7 schrieb: > "99% der großen erfolgreichen Firmen haben MS-DOS und später WIN > benutzt. Wir reden aneinander vorbei. Ich rede nicht davon was "99% der erfolgreichen Firmen" gemacht haben. Das ist mir genau so egal wie die angeblichen >50% Marktanteil die Windows heute auf dem Desktop haben soll. Das betrifft mich nicht. Es ging mir darum, was man damals machen hat können, was es damals schon gab, und was die Leute die wirklich ein gutes System haben wollten auch schon langsam gemacht haben. Das die Masse schon immer nach dem Grundsatz "Was der Bauer nicht kennt, frisst er nicht" handelt ist normal. Schau in ein übliches schlechtes Systemhaus und Du wirst richtige "Linuxphobiker" finden, die ernsthaft Angst vor Linux haben und glauben sie wüssten irgendwas von Windows, dann aber an simplen Aufgaben unter Windows scheitern. Das ist nicht der Standard nach dem ich handeln will. Ich will für jede Aufgabe das richtige Werkzeug benutzen, egal ob das jetzt ein Xubuntu Linux, OS/2, Windows oder CP/M ist.
>Damit hat Intel damals aktiv den Markt behindert .... Das ist fast immer so, wenn es nur noch weniger Mitspieler gibt >Da können ja durchaus noch Aspekte sein, die ich nicht berücksichtige, Schonmal dran gedacht, dass Grafik- und Miltimediakrams sehr Speicher- und rechenintensiv sind? (jedenfalls damals) Deshalb sind viele Anwendungen (blitzschnell) im Textmodus gelaufen (und in manchen Fällen konnte man in den Grafikmodus umschalten). Heute "muss" für jeden Kickifacks gleich ne umfangr. Grafik her, obwohl noch vieles im Textmodus möglich wäre. Aber (fast) Alle denken, wenn man kein KlickiBunti sieht, muss es alt sein. Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit Erweiterung gemacht, weil 'normal' Evolution und kompatibel, und nach AMD gibts ja auch noch VIA.
MCUA schrieb: > Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit > Erweiterung gemacht, weil 'normal' Evolution und kompatibel, Soweit mir bekannt ist hatte Intel das nicht vor. Sondern wollte für den Desktop/Mobilmarkt solange weiter 32-Bit x86 anbieten, bis die Kundschaft freiwillig auf bis zum Anschlag zupatentierten IA64er wechselt. Mindestens die erste Itanium/IA64-Generation hatte einen x86-Kompatibilitätsmodus an Bord, einen eher traurigen allerdings. Im weiteren Verlauf wäre es wohl eher auf dynamic code translation rausgelaufen, wie HP es für Programme der alten PA-Maschinen implementierte. Nur kam dann AMD64 und Intel merkte, dass sie mit ihrer Strategie in die Falle laufen. Und machte eine Kehrtwendung mit der exakten Übernahme dieser Architektur. Eine eigene x86-64er Variante durften sie nicht bringen, dagegen legte Microsoft sein Veto ein. Nun steht dafür HP etwas im Regen, weil Itanium langsam absäuft. > und nach AMD gibts ja auch noch VIA. Naja. VIA taugt doch nicht einmal als Feigenblatt zur Abwehr von Monopolvorwürfen.
> bis die Kundschaft freiwillig.. Aber was die Kundschaft mal gewöhnt ist (X86(!)bei PCs), will sie auch behalten. Deshalb gingen die damals auch nicht zur anderen Intel-Archit oder zum 68k. Das weiss Intel doch. >wäre es wohl eher auf dynamic code translation... das ist schon mal gescheitert >Naja. VIA taugt doch nicht einmal... VIA wird für viele Embedd-PCs benutzt, und nicht immer ist sehr hohe Leistung gefordert. Viele Dinge gehen damit.
MCUA schrieb: > Deshalb gingen die damals auch nicht zur anderen Intel-Archit oder zum > 68k. Das weiss Intel doch. AMD hatte damals nicht nur AMD64 parat, sondern zudem auch noch gleichzeitig die klar bessere Hardware. Die Opterons waren den damaligen Intels schlicht deutlich voraus, sowohl bei der Performance als auch beim Systemdesign. Intel hatte sich gleichzeitig nicht nur bei der Befehlssatz-Architektur verspekuliert, sondern auch bei der Netburst-Architektur des Pentium 4. Die sah auf dem Papier brilliant aus. In der Praxis fing das Papier leider zu schnell Feuer und verbrannte. Wäre AMD ungefähr im heutigen Ausmass hintendran gewesen (GPU ausgenommen), dann hätte Intels Strategie möglicherweise funktioniert.
MCUA schrieb: > VIA wird für viele Embedd-PCs benutzt, und nicht immer ist sehr hohe > Leistung gefordert. Viele Dinge gehen damit. Schon, aber das ist in der Entscheidung von Highend-Architekturen völlig irrelevant. VIA konkurriert nicht mit Intel oder AMD, sondern letztlich mit ARM.
MCUA schrieb: >>wäre es wohl eher auf dynamic code translation... > das ist schon mal gescheitert Einmal ja, bei Transmeta. Ansonsten siehst du sie an allen Ecken im Einsatz. So ist mit Androids Dalvik-VM der Smartphone-Markt von dieser Technik geprägt. Die ursprüngliche Virtualisierungstechnik von VMware ist ebenfalls eng damit verwandt. x86 ist ja eigentlich nicht virtualisierbar, weshalb man böse Tricks anwenden musste, um es trotzdem möglich zu machen.
Sven P. schrieb: > Ich bin mir der Problematik dieser Zeit schon bewusst. So? Meinst du? Ich nicht. Ich zitiere dich mal: "Auch wenn Linux nur ein Kernel ist, und das ganze System eigentlich GNU/Linux heißt war Unix schon immer das komplette System, sprich Kernel und Userland." Siehst du es jetzt? Also, wenn hier Unix mit MSDOS verglichen wird, dann sollte man es richtig tun: Unix ("das komplette System") vergleichen mit MSDOS und den auf MSDOS laufenden Apps (die zu 99% nicht von IBM kamen, sondern von Tausenden von SW-Schreibern, kommerziellen wie privaten). Also "komplettes" System gegen komplettes System. Oder wenn man es spartanisch will, den Unix-Kernel nebst einer Shell (aber OHNE jegliche Tools - bash ohne ls usw... ;-) ) vergleichen mit dem nackten MSDOS - und dann mal nachfragen, welches von beiden auf eine 360K Diskette paßt. Aber so langsam ermüdet einen dieser trostlose Thread, der auf einer geradezu frappierenden Unkenntnis jeglicher jüngerer Geschichte begonnen hat. Ich frag mich loß, wie das mal in Zukunft werden soll, wenn das so weitergeht. Gesellschaftlicher Alzheimer? W.S.
Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere Hardware im Vergleich zum IBM-AT. Und sich dann doch nicht durchsetzten weil für DOS/Win bekanntere Anwendungen verbreitet waren. Der Markterfolg eines Betriebssystems wird von der Werbung und von der passenden Anwendungssoftware bestimmt - und nicht von Leistungsfähigkeit und Flexibilität des Betriebssystems selber.
W.S. schrieb: > Siehst du es jetzt? Nein, aber du siehst es ja ebensowenig. Eingangs hatte ich MSDOS mit den nackten UNIX-Kern verglichen, genau wie du es nun vorschlägst. Man hat mich dann darauf aufmerksam gemacht, dass das Userland damals integraler Bestandteil eines 'UNIX' war. > Also, wenn hier Unix mit MSDOS verglichen wird, dann sollte man es > richtig tun: Unix ("das komplette System") vergleichen mit MSDOS und den > auf MSDOS laufenden Apps (die zu 99% nicht von IBM kamen, sondern von > Tausenden von SW-Schreibern, kommerziellen wie privaten). Also > "komplettes" System gegen komplettes System. Nein, offenbar ist das ja nicht so. Ein frisch gekauftes UNIX beinhaltete bereits viele Werkzeuge. Ein frisch gekauftes MSDOS beinhaltete praktisch nichts. Beide Systeme dabei unmittelbar ab Werk vom Hersteller. Es erscheint mir ab diesem Punkt aber nur logisch, dass sich um MSDOS eine größere Entwicklerkultur gebildet hat, weil ja jeder an das System heran kam. Das ist dann wohl auch der Trend, der heute Linux so vorantreibt. Da erübrigt sich ja beinahe schon der Vergleich... > Oder wenn man es spartanisch will, den Unix-Kernel nebst einer Shell > (aber OHNE jegliche Tools - bash ohne ls usw... ;-) ) vergleichen mit > dem nackten MSDOS - und dann mal nachfragen, welches von beiden auf eine > 360K Diskette paßt. Es gibt nach wie vor Linux-Distributionen, die auf einer Floppy (ok, 1,5MB) Platz finden. Inklusive Werkzeug und Netzwerk. > Aber so langsam ermüdet einen dieser trostlose Thread, der auf einer > geradezu frappierenden Unkenntnis jeglicher jüngerer Geschichte begonnen > hat. Ich frag mich loß, wie das mal in Zukunft werden soll, wenn das so > weitergeht. Gesellschaftlicher Alzheimer? Dafür sorgen andere Institutionen ja schon recht erfolgreich... Ich bemühe mich ja wenigstens, solche Zusammenhänge zu verstehen. Ich habe noch mit DOS gearbeitet (arbeiten müssen). Das DOS- und Windows-Lager betreibt aber mindestens genauso eifrig Geschichtsverzerrung, wie alle anderen Gruppen und Randgruppen auch. Insofern fällt es zumindest mir zugegebenermaßen nicht leicht, den Dünnpfiff daraus auszusortieren.
Ich verstehe nicht, warum man den Vergleich von DOS mit UNIX-Rechnern herstellen will. Dieser Vergleich geht doch genauso schief, wie wenn man einen heutigen PC mit einem heutigen UNIX-System vergleichen will. Nehmen wir mal das Jahr 1985. Da ist eher der Vergleich mit Commodore und Apple angebracht. Und dann waren da ja noch die in Massen vertretene CP/M-Rechner. Die Konzeption unterschied sich nur unwesentlich. Die Begriffe auf der Befehlszeile waren auch ähnlich. Wer CP/M bedienen kann, der kann auch DOS bedienen. Meist wurden ja auf beiden vor allem Programme für das Büro verwendet. Musikwiedergabe wurde auf dem PC etwa erst 1992 populär, und hinkte dabei den Apple und Commodore so 5 Jahre hinterher. Ich denke, es ist ein Zufall der Geschichte. Sonst hätten wir heute eben alles genauso auf Basis von CP/M und ZILOG, oder AMIGA? Und eigentlich ist es doch wurscht, welcher Konzern die Soft- oder Hardware bereitstellt. Wir werden uns noch über Gooooogle wundern. Obwohl ich zu der Zeit ein Fan von DR-DOS und OS/2 war.
Sven P. (haku) schrieb: W7 schrieb: >> Sven P. (haku) der selber gerade mal Baujahr 1989 > Woher hast du denn das Datum? hehe, das Internet ist eine Verräterplattform. :) Quelle: Beitrag "Re: Balla Balla, na super, der Topic wird abgewiesen" oder haste geschummelt?
A. K. schrieb: > Auch Intels zweiten Versuch, > das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu > zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt. Ich weiss ja nicht an was du "erfolgreich" fest machst, aber ich würde dazu empfehlen: Rechne einfach mal die Gewinne der Firmen Intel und AMD der letzten 15 oder 20 Jahre zusammen und vergleiche die beiden. Mir ist das im Moment zuviel Mühe, aber dabei ist wohl eher die Frage, ob AMD summa summarum überhaupt Geld verdient hat, während es sich bei Intel um zig Milliarden handelt. Erfolgreich für AMD würde ich das nicht nennen, "tapfer" würde besser passen. Erinnert mich irgendwie an Asterix und Konsorten. Für den Thread ist das allerdings nicht weiter relevant, denn ohne AMD wäre x86 vielleicht schon teurer geblieben, aber doch eine Grössenordnung billiger als Unix-Hardware. Gruss Reinhard
Michael_ schrieb: > Meist wurden ja auf beiden vor allem Programme für das Büro verwendet. > Musikwiedergabe wurde auf dem PC etwa erst 1992 populär, und hinkte > dabei den Apple und Commodore so 5 Jahre hinterher. 1992 Amiga 1200 und 4000, 8-Bit Sound, Stereo Macintosh, 8-Bit Sound (afair einige nur Mono) Atari Falcon, 68030 CPU, 56001 DSP, 16-Bit, 50 kHz, Stereo (ähnlich wie die NeXTstation/cube afair 1990?) > Ich denke, es ist ein Zufall der Geschichte. Sonst hätten wir heute eben > alles genauso auf Basis von CP/M und ZILOG, oder AMIGA? Der legendäre Z80000 oder das noch legendärere Missmanagement bei Commodore und Atari ;-) > Und eigentlich ist es doch wurscht, welcher Konzern die Soft- oder > Hardware bereitstellt. Wir werden uns noch über Gooooogle wundern. > Obwohl ich zu der Zeit ein Fan von DR-DOS und OS/2 war.
Reinhard Kern schrieb: >> Auch Intels zweiten Versuch, >> das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu >> zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt. > > Ich weiss ja nicht an was du "erfolgreich" fest machst, aber ich würde > dazu empfehlen: Ich bin jetzt etwas irritiert, denn das klingt für mich wie gezielt missverstanden durch Ausnutzung sprachlicher Doppeldeutigkeit. Nenn es einen Phyrrussieg, wenn du willst, denn um AMD ist es wirtschaftlich nicht gut gestellt. Aber ein Architekturmonopol hat AMD erfolgreich verhindert. Auf der finanziellen Seite waren sie im Volumen und über die Gesamtzeit gesehen erfolglos. Aber das sind zwei verschiedene Aussagen. Weil du auch als armer Mann erfolgreich eine Strasse überqueren kannst - das besagt nämlich nur, dass du drüben lebend ankommst, nicht dass du drüben reich ankommst. > Für den Thread ist das allerdings nicht weiter relevant, Klar, denn im Thread geht es eigentlich um MS-DOS. In der Zeit, auf die sich keine Aussage bezieht, war MS-DOS längst Schnee von gestern. Insofern war das ein wenig offtopic. > wäre x86 vielleicht schon teurer geblieben, aber doch eine > Grössenordnung billiger als Unix-Hardware. Weshalb? Zumal das auch nicht immer zutraf. Jedenfalls nicht, was die Grundkosten der Hardware angeht. Und die Kosten eventuell mitverkaufter Software sind ein anderes Thema. Dass eine Unix-Workstation mit einem PowerPC 604 Prozessor dennoch deutlich teurer verkauft wurde, als ein Aldi-PC mit einem Pentium drin, lag weder an der verbauten Technik noch am Marktpreis des Prozessors. Beim Hersteller besagter Unix-Workstation waren auch die PCs deutlich teurer als bei Aldi. Allerdings war das schon in einer Ära, in der es nicht mehr um MS-DOS ging. Seitens der Ansprüche an die Hardware-Ressourcen unterschied sich Windows NT nicht mehr von Unix.
Hi, ach schrieb: > STK500-Besitzer schrieb: >> Schuld ist doch nur der Installer. >> Wenn ich mir die Geschichte mit YAST von Suse angucke: >> Bei den ersten Linuxen musste man ganz schön tief in die Materie >> eindringen und bei der Installation eine Menge FachTLAs wissen oder >> nachschlagen ==> Viele Aufwand. > > Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den > Abhängigkeiten in autoexec.bat und config.sys haben. Eine > Linuxinstallation lief meist ohne weiters zutun des Nutzers durch und > die Standardḱonfiguration war im Gegensatz zu der von DOS oder Windows > auch nutzbar. BITTE??? Das ist aber wohl ein absolutes Gerücht! Ok, meine Erfahrungen reichen nicht so weit zurück wie die einiger wirklich alten Hasen in diesem Forum, ich selbst habe im Februar 1993 meinen ersten PC bekommen der zugleich vielleicht der vierte oder fünfte PC war der überhaupt in meiner Klassenstufe (immerhin vier Klassen) zuhause stand und m.w. der erste der einem Schüler selbst gehörte. Das war ein 486SX25 mit 4MB RAM und 120MB Festplatte für 1400 DM. damit war ich über ein Jahr der mit dem schnellsten Privatrechner in meinem gesamten bekannten Umfeld überhaupt! (heute -egal wieviel man ausgibt- ja undenkbar über so einen langen zeitraum-) Wobei ich da -wie viele andere auch- von einer Fehlkalkulation von "Quelle" enorm profitiert habe. Dieser REchner stand für den PReis im Katalog und Tagespreise haben die damals noch nicht gehabt. Kurz nach Drucklegung des KAtaloges sind aber wohl die PReise für Speichermodule und ähnliches rasant angezogen. Selbst bei Escom und Vobis war zu dem Zeitpunkt das vergleichbare Gerät rund 400 DM teurer. Von den lokalen Händlern ganz zu schweigen. Es warn aber auch 5 Wochen Lieferzeit... Aber BTT: ICh war zu dem Zeitpunk 13 Jahre alt, bin im März 14 geworden -wobei mir meine Eltern und Verwandschaft im Februar dann schon einen Vorschuss gewährt haben - Ursprünglich war aber auch von 8 Wochen Lieferzeit die Rede! Wie es da als 13Jähriger so ist probiert man ein wenig rum usw. löscht auch mal etwas und dann ist mir versehentlich das "Del *.*" im Verzeichniss C:\ statt im beabsichtigten Unterverzeichniss rausgerutscht. Erst große Panik weil nichts mehr lief - und niemand da der sich auskannte Dann über den IT-Verantwortlichen in der Fa. wo mein Vater damals arbeitete zumindest die Infos bekommen das wohl die Autoexec.Bat und besonders die Config.sys jetzt fehlen und wo ich im HAndbuch für MSDOS 5.0 -das damals ja noch als PApierausgabe dabeilag- die Infos zur Neuerstellung mit erklärung der Parameter finde. Ca. drei Stunden hat gedauert bis ich als absoluter PC Anfänger dann wieder eine vernünftige Einstellung gezaubert hatte auf der auch speicherhungrige Dinge liefen - also auch mit Loadhigh usw... und nicht nur alles in die unteren 640kB geladen... Und das noch ganz ohne Memmaker u.ä. Als ich ein paar Wochen Später dann das Spiel "Comanche" bekommen habe das 1. enorm viel freien Basisspeicher brauchte und 2. sich nicht mit EMM386 vertrug hat es nicht mal mehr eine halbe Stunde gedauert bis das auch lief -ohne spezielle Startdiskette. (Ab Dos 6.00 musste ich dann aber immer mit Startdiskette arbeiten weil das ja EMM386 immer geladen hat.) Als ich dann DREI JAHRE Später das erste mal mit Linux in Kontakt kam und meine Versuche damit machte, da dauerte es erst einmal Tage bis überhaupt die Hardware im PC richtig erkannt und initialisiert wurde. Vom Beherschen des Systems ganz zu schweigen!!! Und das trotz inzwischen Mehrjähriger PC Erfahrung und Programmierkenntnissen - sowie der Vorgeschichte mit Computer (C64) im Haus seit meinem 7.en LEbensjahr und Programmierkenntnissen auf C64 und CPC464 lange vor meiner PC Zeit (dieses Wissen war ja der Grund für das starke Sponsoring des PC Kaufes durch die Verwandschaft den ich mir als 13.Jähriger sonst nie hätte leisten können) ICh denke manche sehen das ganze einfach zu sehr durch die NERD Brille... JA - es mag sein das MS DOS und Windows (3.1 war bei mir auch dabei) vom technischen Hintergrund weitaus primitiver waren als Unix/LInux zu der Zeit. Und es mag auch sein das dadurch vielleicht sogar resourcen verschwendet wurden. (Wobei mich die Hintergründe des Betriebssystem nie interessiert haben und es auch heute nicht tun! - kann es also gar nicht sicher beurteilen) Aber bei der Verbreiteten PC Nutzung ging es eben darum das der PC genau wie es der Name schon sagt ein "Persöhnlicher" Computer war und der absolute Großteil dieser Rechner wohl auch nur als bessere Schreibmaschine von Sekräterinnen usw. bedient wurden, oder halt für andere Anwendungsprogramme wie CAD oder sonstige Zeichenprogramme. Die vielen Speziellen Buchhaltungs- und LAgerbestandsapplikationen nicht zu vergessen. Das Betriebssystem war für diese RIESEN Gruppe einfach nur ein Mittel zum Zweck um möglichst schnell das gewünschte Programm aufzurufen. Und das sollte so einfach wie möglich sein... Hier hatte DOS einfach die Nase vorne. Die ganzen Features die Unix/Linux mehr bot waren für die meisten Anwender ja absolut unnötig, ja sogar kontraproduktiv da verkomplizierend. Da damals die Vernetzung der PCs untereinander selbst in vielen Firmen -besonders den kleineren- alles andere als Selbstverständlich war und von WWW für Normalbürger noch lange keine Rede war (Es gab BTX und dann hörte man noch was von Compuserve für 7DM die Stunde + Telefongebühren die damals für mich bis zum nächsten Einwalpunkt auch 8DM die Stunde gewesen wären!) Und als persöhnlicher alleinstehender Rechner war damals eine trennung von User und Admin wie in großen Netzen absolut Sinnvoll einfach unnötig! Die bessere Verfügbarkeit von Software tat dann ihr Übriges. Wie in vielen anderen Fällen auch schon. (Ich denke das ist beispielsweise ein Grund warum sich z.B. der C64 so enorm durchgesetzt hat während der im grunde für Büroanwendungen Leistungsfähigere Amstrad CPC64 in der Versenkung verschwand) Sven P. schrieb: > Ich empfand die Bedienung einer DOS-Maschine jedenfalls als schmerzhaft. > Eine längere Befehlszeile getippt -- wie hieß der Dateiname noch? Ach > Mist. Befehlszeile löschen und 'dir' rufen. Ach ja, so hieß er. Also die > ganze lange Befehlszeile nochmal eintippen. Programmieren mit der Shell > erübrigte sich, meistens hatte ich schneller ein Programm mit Pascal > oder QuickBasic zusammengehauen. Programmieren in der Befehlszeile von DOS? Das ist aber auch etwas was nie jemand vorgesehen hat. Womöglich noch in ASM und dann mit dem Systemtool (war das nicht die Debug.EXE?) übersetzt? Genau dafür gab es doch die Hochsprachenumgebungen. QuickBasic gehörte ja zu DOS dazu. C oder PAscal leider nicht. Und längere Komandozeilen waren in DOS auch eher eine seltenheit. Gerade das war ja der Vorteil von dos. Simpel, die wichtigsten Grundfunktionen konnte man auch der Sekräterin in einigen Minuten erklären. MN schrieb: > alter ITler schrieb: >> Bei den 3,5er gab es einen Locher, > > Den Locher gab es nicht für die 3,5" sondern für die 5,25"-Disketten. Es gab BEIDES: Wie schon geschrieben den Locher für die zweite Schreibschutzkerbe auf der gegenüberliegenden Seite wenn man beim C64 die 5 1/2 Disketten doppelseitig nutzen wollte. Denn das Diskettenlaufwerk schrieb und laß bei diesem nur einseitig. (Schere und ruhige hand funktionierten aber auch) UND es gab zu späteren Zeiten der 3,5" Disketten spezielle Locher um aus 720KB Disketten 1,44MB Disketten zu machen. (Ein Bohrer tats aber auch) Allerdings war das immer noch mit einem kleinen Restrisiko behaftet. Für die 720er Disketten war ja eine geringe Qualität der Magnetschicht ausreichend - zu Anfang waren diese auchs dem Grund zusammen mit den technischen Gegebenheiten bei der Produktion der Schreib-Lese Köpfe ja auch der Standard. Erst mit immer weiter vortschreiten der Produktionstechnik war es dann möglich ohne irgendwelche Merhkosten die für 1,44MB notwendige Qualität zu produzieren. Da es natürlich billiger war nur eine Sorte von Innenleben herzustellen haben viele HErsteller dann von diesem Zeitpunkt an für ihre HD und DD Disketten dasselbe Innenleben verwendet. Da war ein nachlochen problemlos möglich. Aber es bestand immer das Risiko das man eine DD Diskette erwischte deren Innenleben tatsächlich nur für DD geeignet war was dann bei HD Nutzung zu Datenverlust führen konnte. Besonders bei Alten Disketten oder NoName Produkten unbekannter oder gar wechselnder Hersteller war also immer etwas vorsicht ratsam. Zumal die Einsparmöglichkeiten insbesondere zu späteren Zeiten ja auch mächtig nachließen. Gruß Carsten
Das wurde alles weiter oben schon geschrieben, Hauptsächlich (Rückwärts-)Kompatibilität (schade, denn die 68000er waren (und sind) nicht schlecht Einfachheit IBM und Datenbanksoftware Kundenfreundlich (abschalten) Coole Programme (Quake Multiuser-Geballere ;), Basic, Pascal, Debug, Softice. Quake (u.a.) mussten Windows verlassen um performant (ohne Directx) zu laufen) Sonderzeichen (Linuxe legen englisches Tastaturlayout nahe) Diskettenfreundlich (Os Diskette raus, Programmdiskette rein, Programm diskette raus, Datendiskette rein, Format A: eingeben zum Formatieren) Viele Unixprogramme gibts auch für Dos (und umgekehrt) Vergleichsweise günstig (+viele alte Programme; teure Apple Computer mit wenig Programmen) Vorteil vom PC u.a. auch: wird schnell leistungsstärker + viele nutzbare Anwendungen im Rucksack. Und eigentlich hat sich (neben der Intel Hardware) auch nicht Dos durchgesetzt, sondern die gereiftere Form von Windows mit Dos-Kompatibilität (d.h. Viele Spiele, Viele Anwendungspramme, Mischlösungen, günstige und leistungsstarke Mainboards usw.)
Guido Körber schrieb: > als auch was den Treppenwitz von einem Prozessor angeht. > Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende > Architektur auf dem Desktop. Etwa so, als wenn das Ford Modell T nie > abgelöst, sondern nur aufgemotzt worden wäre, alle würden heute noch mit > Blattfedern fahren. Da muss ich Dir zu 100% zustimmen. Die ganze 80x86 Architektur ist aus meiner Sicht Müll. Intel hätte ab dem 8086 diese begraben sollen und einen neuen Proz. mit vernünftiger Architektur entwickeln sollen. Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren entwickelt. Teilweise auch die Hardware. Das waren (leider waren) Architekturen die bspw. nicht so verkrampfte Adressierungarten hatten wie der Intel-Schrott. Und Maschinenbefehle, wo man schon fast meinen könnte man würde in C programmieren. Entsprechend optimal war auch der C-Compiler. Unser Unix-Maschine die wir 1986 auf den Markt gebracht haben, lief mit einem 10 MHz NS32016, 2 MB Ram und einer 20 MB Festplatte. Die bediente problemlos vier VT100 Terminals mit 38400 Baud. Und war damals mit einem VK von 9000,- DM ein Schnäppchen. Aber zurück zur Frage, warum DOS alles in den Schatten stellte: Da schon viele Antworten gegeben worden sind, nur ein Zusatz: Die Unix-Lizenzen waren damals sehr teuer, DOS bekam man im Vergleich nachgeschmissen oder beim Taiwan-Nachbau kostenlos dazu. DOS ist nach Wordstar, die am meisten illegal kopierte Software der Welt. Stand mal so im PC-Magazine. Wenn ich mir jedoch heute die aktuellen Windoofversionen anschaue, muss ich feststellen, dass die für den Anwender komplizierter und unübersichtlicher geworden sind als aktuelle Linux Versionen (bspw. Ubuntu).
Unixer schrieb: > Intel hätte ab dem 8086 diese begraben sollen und > einen neuen Proz. mit vernünftiger Architektur entwickeln sollen. Haben sie ja auch. Versucht. Vernünftig geriet iAPX432 freilich nicht, also musste x86 weiterleben. Der nächste Versuch einer eigenständigen 32-Bit Architektur geriet mit i860 auch nicht wirklich grandios. Intel hatte einfach kein Händchen dafür. Intels einzige brauchbare 32-Bit Architektur war i960, und die haben sie (deshalb? ;-) wieder eingestampft. > Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren > entwickelt. Teilweise auch die Hardware. Ebendiese Architektur hätte dank ihrer extrem inkrementellen Befehlscodierung arge Probleme mit superskalarer Dekodierung bekommen. Die war in der Hinsicht weit schlimmer als x86.
Arc Net schrieb: > 1992 > Amiga 1200 und 4000, 8-Bit Sound, Stereo > Macintosh, 8-Bit Sound (afair einige nur Mono) > > Atari Falcon, 68030 CPU, 56001 DSP, 16-Bit, 50 kHz, Stereo (ähnlich wie > die NeXTstation/cube afair 1990?) Zu dieser Zeit habe ich meinem AT286 Musik beigebracht. Mit einem Soundblaster mono für stolze 99DM. Es war eine wilde Zeit so 1990 - 1995. Es gab da auch noch einen engl. RISC-Home-Computer. Ich hätte ihn bald gekauft. Es war wohl der A5000 Archimedes von ACORN.
und du vergisst den Atari8bit der bereits über 4 Audiokanäle verfügte welche aber Dummerweise zu einem Monokanal onboard zusammengemischt wurden tststs
Wolfgang R. schrieb: > Dies war aber auch im Preis mit drin. Und, der Quellcode war nicht frei. > Alles was man heute an Unix Tools auf dem Markt findet ist reverse > engeneering. Wenn Mann als Rentner dann mal Zeit hat mal den Code > anschauen und vergleichen. Original PDP-11 Unix Quellcode von 1980 liegt > noch auf meiner archivierten Platte. Welches genau? Vielleicht gar etwas, das nicht im Unix Tree http://minnie.tuhs.org/cgi-bin/utree.pl nachzulesen ist? Tiefer eingelesen habe ich mich nur in die Sixth Edition mit dem Lion's Commentary. Steinzeit-C ist schon echt harter Stoff. > Steve Jobs ist wohl einer der wenigen die erkannt haben was läuft. Bei > Apple zurückgekommen auf Berkley Unix umgestiegen - eigene Oberfläche > drauf und durchgestartet. Da stimmt die Reihenfolge aber nicht ganz, das war ja keine Neuentwicklung. Apple hat das von Steve Jobs gegründete NeXT aufgekauft, um deren Betriebssystem NeXTstep als Nachfolger von MacOS zu verwenden. Jobs wurde erst ein halbes Jahr nach dem Kauf Interims-CEO von Apple.
Mark .. schrieb: > ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil > wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu > verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit > durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte > bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, > also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff. > > Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu > werden, obwohl es von der Funktionalität her Unix haushoch unterlegen > war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen? > (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert > waren...) Personal Computer waren, wie der name schon sagt persönlich also für einen einzelnen Nutzer gedacht. Für einen solchen rechner (Schreibmaschine) braucht es kein mutliuser und netzwerk, das überfordert nur den Anwender. Auch gab es für Unix kaum Büroanwendungen und keine Videospiele, eben das was man von einem personal computer erwartet. Unix ist was für Server und netzwanwendungen und damit kam die breite Masse erst Mitte der Neunziger zurecht. MfG,
Matthias Sch. schrieb: > ach schrieb: >> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den >> Abhängigkeiten in autoexec.bat und config.sys haben. Eine >> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch > > Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde > auch auf der 386er Platform entwickelt. DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra einen neuen Betriebsmodus eingeführt, damit Multitasking mit Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086 genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter verbessertem Multitasking, und es wurde extra noch die Möglichkeit in die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren zu können, damit auch alte Programme darin weiter benutzt werden können. Und DOS hat ihn als schnelleren 8086 genutzt. Das einzige, was von den neuen Prozessoren bei DOS so halbwegs angekommen ist, ist die Möglichkeit, mehr Speicher anzusprechen, allerdings nur über üble Krücken. Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo sie eigentlich nicht hingehört. Und Jahre später steckte dann das Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und das eigentliche Betriebssystem war zum Bootloader verkommen.
Rolf Magnus schrieb: > Und Jahre später steckte dann das > Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und > das eigentliche Betriebssystem war zum Bootloader verkommen. Das trifft nur auf die 9x-Versionen zu. Das schon vor Win95 existente NT war bereits ein echtes 32-Bit Multitasking-System, auf dem alle folgenden Versionen ab W2K basieren. Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man konnte ähnlich wie bei Unix zwischen den Konsolen umschalten.
Icke ®. schrieb: > Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man > konnte ähnlich wie bei Unix zwischen den Konsolen umschalten. Es gab lange vor NT auch ein paar heute längst vergessene Erweiterungen für normales DOS, mit denen mehrere parallele virtualisierte DOS-Sessions möglich wurden.
A. K. schrieb: > Ebendiese Architektur hätte dank ihrer extrem inkrementellen > Befehlscodierung arge Probleme mit superskalarer Dekodierung bekommen. > Die war in der Hinsicht weit schlimmer als x86. Du solltest Dir die NS32xxx Prozessoren erst einmal genau anschauen, bevor Du solche Aussagen in den Raum stellst. National hatte einfach den Zug verschlafen und das Marketing vernachlässigt. NS32xxx und die Motorola CPUs waren einfach die besseren Prozessoren und damals Intel um Jahre voraus. Wenn ich nur an den Krampf mit A20 denke.... Nur Dank Mickysoft konnte sich die x86 Archtitekur so gewaltig durchsetzen. http://de.wikipedia.org/wiki/NS320xx bzw. http://stuff.mit.edu/afs/sipb/contrib/doc/specs/ic/cpu/ns32532.pdf
A. K. (prx) schrieb: Icke ®. schrieb: >> Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man >> konnte ähnlich wie bei Unix zwischen den Konsolen umschalten. > Es gab lange vor NT auch ein paar heute längst vergessene Erweiterungen > für normales DOS, mit denen mehrere parallele virtualisierte > DOS-Sessions möglich wurden. Nur wollte DR-DOS damals kaum einer ernsthaft auf seinem Rechner haben. Das hatte nämlich ein paar Kompatibilitätshänger gegenüber MS-DOS. Noch dazu gabs die Disketten zunächst auch nicht umsonst, sondern lediglich günstiger als das damalige MS-DOS. Also aufpassen, dass hier keine Mythen gestrickt werden. ;)
> DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder > weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra > einen neuen Betriebsmodus eingeführt, damit Multitasking mit > Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086 > genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter > verbessertem Multitasking, und es wurde extra noch die Möglichkeit in > die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren > zu können, damit auch alte Programme darin weiter benutzt werden können. > Und DOS hat ihn als schnelleren 8086 genutzt. Du siehst also, daß es gar nicht so einfach ist, eine Software auf eine neue Plattform umzuschreiben. Das können sich manche Hardwaredeppen, die ständig inkompatibles Zeug konstruieren, offenbar gar nicht denken.
Ein Argument für MS-DOS ist hier noch gar nicht genannt worden: Vitamin B "Bill Gates Mutter Mary hatte über die Wohltätigkeitsorganisation „United Way“, in welchem sie im Vorstand war, Kontakte zu John Opel, dem Präsidenten von IBM. Über diese Verbindung bereitete sie für ihren Sohn den Weg zu „Big Blue“." Quelle: http://de.wikipedia.org/wiki/Microsoft
> Die ganze 80x86 Architektur ist aus meiner Sicht Müll.
Aus deiner Sicht.
Was mehr über deine Blindheit aussagen, als über den 80x86, der sich
nämlich gegen all die "angeblich besseren" 68k, 32k, etc. durchgesetzt
hat.
Es war nämlich verdammt schlau, schon 1976, als noch gar nicht genügend
grosse Chips möglich waren sondern nur von Gordon Moore postuliert
wurden, eine Architektur eines Grossrechners (Burroughs 5500) der damals
als fortschrittlich und gut galt, so zusammenzustreichen, daß er als 16
bit Prozessor implementierbar war, das ging eben in dem man die ganze
Speicherverwaltung auf simple Addition zusammenstrich.
Die Leute bei Intel waren nämlich im Gegensatz zu dir nicht uninformiert
und doof, sondern ihrer Zeit voraus.
Der 286 ist dann die Realisierung dieser Burroughs als single chip mit
Segmenten und Speicherschutz und allem pi pa po. Leider hat man das
dirty bit vergessen.
Daß dann Windows NT wieder den Rückschritt machte, war der DEC Alpha zu
verdanken, die war nämlich zu blöd für Segmente, und seit dem haben wir
den Salat, wo eine DLL mehrfach in den Speicher muß weil reloziert
werden muß, also der Code im Speicher auch nicht dem Code auf der Platte
entspricht, sondern je nach Prozess anders sein muß. Der Idiot hiess
David N. Cutler.
Ihr seid alle viel zu jung. MS-Dos ist keine eigene Entwicklung und erst recht keine Erfindung von Bill Gates. Große Betriebssysteme gab es schon vor 1970. Für die kleinen CPUs 8004, 8008 und 6800 begann die Entwicklung Angang der 70er. Um ca. 1976 habe ich schon mit dem Betriebssystem FLEX auf einer 6800-CPU mit 1 MHz gearbeitet. FLEX konnte zu Beginn über ein Controller-IC zwei Diskettenlaufwerke mit je 128kB bedienen. Meine Platinen und die Pläne waren selbstgemacht. Im Betriebssystem FLEX hat man I/O-Adressen an die eigene Hardware angepasst und dann lief das System. Assemblerlistings waren frei verfügbar und somit konnte FLEX sehr gut angepasst werden. Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die 80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben. Bevor Windows auf den Markt kam, gab es den Atari-ST mit einer graphischen Benutzeroberfläche und Mausbedienung. Auch hier hat Bill Gates mit seinen Leuten nur eine Übertragung für 80xx-CPUs gemacht und nichts Neues vorgestellt. Joe
Unixer schrieb: > Du solltest Dir die NS32xxx Prozessoren erst einmal genau anschauen, > bevor Du solche Aussagen in den Raum stellst. Ich habe diese Architektur einstmals recht genau angesehen - und eben darauf gründet meine Aussage. Eine superskalare Befehlscodierung davon, also mehrere Befehle pro Takt, erfordert einen beachtlich hohen Aufwand. Der Aufbau eines Befehls ist extrem variabel und die Länge von maximal 4 möglichen Displacements im jedem einzelnen Displacement selbst zu codieren bedeutet, dass Länge des Befehls und Position der sehr vielen Komponenten des Befehls nur aufwendig zu ermitteln sind. Speicherindirekte Adressierungen jedes der beiden möglichen Operanden führt zu eine hohen internen Komplexität bei der Umsetzung von Befehlen, wenn sie erheblich schneller sein sollen als das sequentielle Ausführungsprinzip der ersten Generation. > National hatte einfach den Zug verschlafen und das Marketing > vernachlässigt. Und hatte soweit ich mich erinnere erkleckliche Probleme, die erste Generation dieser Prozessoren überhaupt leidlich fehlerarm zu implementieren. Was bei 2-Adress-Architekturen damals nicht so ganz einfach war. Motorola hatte den langsamen Weg des Microcode-Interrupts eingeschlagen, um sich das eine oder andere Problem vom Hals zu halten. NS setzte auf Retry, was schneller und eleganter war, aber ohne OOO-Ausführung bei mehreren Speicheroperanden nicht wirklich einfach ist. Die Architektur erinnert nicht zufällig an die VAX und die Probleme waren ähnlich. DEC musste in deren Weiterentwicklung derart viel Resourcen reinstecken, dass sie danach den Notausgang wählten und mit Alpha eine neue wesentlich einfacher implementierbare Architektur brachten. Der unproduktive Overhead einer Architektur wie VAX oder NS32K liess sich in einfacher verarbeitbaren Architeturen produktiv umsetzen. > NS32xxx und die Motorola CPUs waren einfach die besseren Prozessoren und > damals Intel um Jahre voraus. Das waren sie, als sie neu waren und die meisten Leute Rechner wie besagte VAX im Kopf hatten. Ein paar Leuten war freilich schon damals klar, dass dieser Weg problematisch ist. Einer sass bei IBM und sein Ergebnis wurde totgeschwiegen, weil es den Erfolg der Mainframes gefährdet hätte. Aber die Architekturen entstanden in einer Zeit, in der kaum jemand an einen realisierbaren Durchsatz von einem Befehl pro Takt dachte, geschweige denn von mehreren. Und genau da haben diese Architekturen gewaltige Probleme bekommen. Weshalb 68K und NS32K letztlich eingestellt wurden. Intel x86 lebte weiter, weil Intel aufgrund des Finanzvolumens der PC-Prozessoren die Resourcen hatte, mit dem Pentium Pro den gordischen Knoten zu durchschlagen. Der freilich etwas einfacher zu implementieren war als ein äquivalenter NS32K Prozessor. Mit der heute möglichen Komplexität der Implementierung wäre eine NS32K wieder machbar. Aber nicht lohnend. > Wenn ich nur an den Krampf mit A20 denke.... Das hat nicht Intel verbockt. Versteh mich nicht falsch: x86 ist grausig. Aber ich betrachte das hier aus Sicht einer Implementierung der Hardware, nicht aus logischer Sicht eines Programmierers.
Joe schrieb: > Ihr seid alle viel zu jung. ;-) > Im Betriebssystem FLEX hat > man I/O-Adressen an die eigene Hardware angepasst und dann lief das > System. Ich habe in Erinnerung, dass das Filesystem von FLEX die Files sektorweise verkettete. Viel Vergnügen bei random access, also beispielsweise jedweder Form von Datenbank. Da ist sogar FAT besser, weil zwar auch verkettet, aber viel dichter zusammen und daher pufferbar.
A. K. schrieb: > Eine superskalare Befehlscodierung davon, also mehrere Befehle pro Takt, Gemeint war Befehlsdecodierung.
@Joe (Gast) >Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die >80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben. Ja - und Unix hat von DOS abgeschrieben - die haben nämlich auch einen echo-Befehl ... ;-) Ich dachte eher, Gates hatte CP/M als Grundlage genommen, denn da sind die meisten Gemeinsamkeiten deswegen zu finden.
es gibt doch DOS Emulatoren für Windows oder? dann muss es doch auch Windows Emulatoren für DOS geben!
heinz schrieb: > dann muss es doch auch Windows Emulatoren für DOS geben! Klar, nennt sich Windows 3. Einfach WIN und return tippen. Oder dachtest du an eine Art Windows 7, das unter DOS läuft? Am besten im Real Mode mit 640 kB Speicher? Gruss Reinhard
A. K. schrieb: > Komischerweise ist Intel noch nicht auf diese Idee gekommen. Die > verkaufen zwar auch Chips mit abgeschalteten Funktionen, in schier > endlos vielen Permutationen, aber Nachlizenzieren des bestehenden Chips > ist nicht drin. Das hat schätzungsweise einen ganz simplen Grund: Die Intel-Prozessoren sind Massenware und da ist die Wahrscheinlichkeit, daß irgend welche Hacker den Freischaltmechanismus knacken, eher groß. Wenn so ein Hack das Licht der Öffentlichkeit erblickt, hätte das zur Folge, daß Intel das Geschäft unter dem Hintern wegbricht.
Rolf Magnus schrieb: > Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das > Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie > Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese > Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo > sie eigentlich nicht hingehört. Und Jahre später steckte dann das > Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und > das eigentliche Betriebssystem war zum Bootloader verkommen. Tja, mein Lieber, da liegst du eben ganz falsch. Aber mach dir nix draus, hunderte von Linuxern denken genauso falsch wie du, weil sie die Funktionalität hinter einer grafischen Oberfläche nicht begreifen wollen/können und deshalb allzeit predigen, daß man den Betriebssystemkern nebst seinen Peripheriefunktionen möglichst säuberlich von der grafischen Oberfläche getrennt halten müsse. Diese Knaller müssen noch viel dazulernen, bis sie endlich begreifen, daß die grafische Oberfläche eben nicht aus ein paar Rändern, Flächen, Bildchen und etwas Text besteht, sondern aus hunderten von Programmen, die alle von einem möglichst schnell reagierenden Multitasking-Kernel bedient sein wollen - und dazu braucht man den Scheduler eben mitten drin in der grafischen Oberfläche. Ein davon separater "Betriebssystem"-Kernel ist hingegen völlig überflüssig. Die paar Dienste, die abseits der Oberfläche im PC so herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten. Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw. zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung auf eigene Beine zu stellen und anschließend den Rest (sprich Linux) einfach in die Tonne zu treten. Solche Systeme wie Android oder Bada haben ja schon mal einen ersten Eindruck geliefert: Bei beiden dient das darunterliegende Linux nur noch als eine Art Fußabtreter. Bei Bada sogar offiziell, denen ist es relativ wurscht, was sie für ein System unterhalb von Bada nehmen, um Dateien lesen und schreiben zu können. DOS war zu keiner Zeit als Multitasking-BS gedacht, sondern als Dienstleister, der es gestattet, Applikationen (z.B. Word oder Excel) zu starten und der anschließend nur noch zum Dateiverkehr benötigt wurde. W.S.
Joe schrieb: > Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die > 80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben. Definitiv nicht... MS hat, nach dem sie den Deal mit IBM hatten, QDOS inkl. Entwickler eingekauft und dann das System umgestrickt, da QDOS mehr oder weniger ein CP/M-Clone war. Daher wohl auch die angebliche Zahlung von IBM an DR, obwohl dem Gericht damals die Unterschiede groß genug waren und DR den Prozess verloren hat. > Bevor Windows auf den Markt kam, gab es den Atari-ST mit einer > graphischen Benutzeroberfläche und Mausbedienung. Windows gibt's auch seit 1985, ebenso wie den Amiga > Auch hier hat Bill > Gates mit seinen Leuten nur eine Übertragung für 80xx-CPUs gemacht und > nichts Neues vorgestellt. TOS = GEM+DOS 1) Bei den GUIs haben ALLE bekannten Hersteller (Apple, DR (für Atari), MS, Amiga/später Commodore) bei Xerox abgekupfert. Erster Rechner mit GUI: Xerox Alto von 1973 auf dem es dann auch die ersten Smalltalk-Versionen liefen. 1) Deshalb war bei den meisten Programmen http://www.drdos.net/documentation/sysprog/chap4.htm http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen... > Weshalb 68K und NS32K letztlich eingestellt wurden. Na, ganz so schlimm ist es dem 68k nicht ergangen... Freescale listet die immer noch, auch 040 und 060 (MC68060RC60 für schlappe 458.61 USD bei 10k...) und in den ColdFire-Varianten steckt auch noch viel 68k.
Jens G. schrieb: > Ja - und Unix hat von DOS abgeschrieben Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl nicht (nur) daran, dass alle vorneinander abgeschrieben haben (dass sie teilweise anders heissen wie ls bei Unix oder DPV bei Siemens ändert daran garnichts). Ich habe schon lange vor CP/M ein Floppy-Betriebssystem geschrieben für einen heute nicht mehr bekannten Prozessor (F8), und ganz ohne was abschreiben zu können hatte das System annähernd die gleichen Befehle. Jeder Programmierer der seine Tassen halbwegs im Schrank hatte, wäre etwa auf das Gleiche gekommen. Gruss Reinhard
Reinhard Kern schrieb: > Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl Die Befehle waren damals (TM) Allgemeingut. Egal in welchem Betriebssystem, Programmiersprache oder Prozessor wurden die verwendet. Aus dem Monitor und dem BASIC meines Z-1013 Bausatzes von 1986 waren die üblich.
@Reinhard Kern (Firma: RK elektronik GmbH) (rk-elektronik) >Jens G. schrieb: >> Ja - und Unix hat von DOS abgeschrieben >Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl >nicht (nur) daran, dass alle vorneinander abgeschrieben haben (dass sie Ich wollte damit nur die Absurdität von Joe's FLEX als Basis der DOS-Befehle unterstreichen ... Das mußt Du also Joe sagen, nicht mir.
http://en.wikipedia.org/wiki/Worse_is_better irgendwann kapiert man dass der Ansatz seinen Wert hat - und dass der Markt ihm immer wieder Recht gibt. Sowohl bei DOS als auch bei UNIX hat es funktioniert.
W.S. schrieb: > Die paar Dienste, die abseits der Oberfläche im PC so > herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten. Das ist dann auch der Grund, weshalb sich Windows so bahn-brechend gut in Embedded-Systeme integrieren lässt... > Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem > Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw. > zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung > auf eigene Beine zu stellen und anschließend den Rest (sprich Linux) > einfach in die Tonne zu treten. Ist dir überhaupt ansatzweise bewusst, was der Kernel leistet? Und warum man das nicht in die GUI integriert? Und dass Windows ebenfalls einen dedizierten Kernel besitzt? Und ist dir auch bewusst, dass die Benutzeroberfläche in Windows ebenfalls vom Kernel getrennt ist?
Sven P. schrieb: > W.S. schrieb: >> Die paar Dienste, die abseits der Oberfläche im PC so >> herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten. > Das ist dann auch der Grund, weshalb sich Windows so bahn-brechend gut > in Embedded-Systeme integrieren lässt... > >> Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem >> Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw. >> zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung >> auf eigene Beine zu stellen und anschließend den Rest (sprich Linux) >> einfach in die Tonne zu treten. > Ist dir überhaupt ansatzweise bewusst, was der Kernel leistet? Und > warum man das nicht in die GUI integriert? Und dass Windows > ebenfalls einen dedizierten Kernel besitzt? Und ist dir auch bewusst, > dass die Benutzeroberfläche in Windows ebenfalls vom Kernel getrennt > ist? So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern? Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen Talk.
Lukas K. schrieb: > So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer > würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern? > Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen > Talk. Ja und nein. Bis zu irgendeiner Windows-NT-Kernversion war das tatsächlich getrennt und der Graphikmist saß im Usermode. Dann hat man das wohl für zu ineffizient befunden und in den Kern verschoben. Das war dann die totale Neuerung und sollte die graphische Oberfläche um Welten flotter machen und so weiter. Allerdings wird ein verkorkstes Framework halt nicht besser, wenn man Hardware und Rechenleistung draufschmeißt. Heute noch ruckelt und zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen Binaries extrahiert wurden und so weiter. Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst mit X11 über Netzwerk schon... Die Folgen davon, alles in einen 'Kern' zu packen, sind dann zum Beispiel, dass irgendein total nebensächlicher Prozess abstirbt und plötzlich das ganze System verstopft. Ich sag nur Windows und Druckerspooler stöhn
> 1) Deshalb war bei den meisten Programmen > http://www.drdos.net/documentation/sysprog/chap4.htm > http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT > Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen... Scherzkeks, welch Wunder daß die Nummern übereinstimmen, DR DOS war von Digital Research, und GEM war von Digital Research, und das DOS unter dem GEM war ein ? DR-DOS, was sonst. Herr wirf Hirn oder erkläre den Kindern mal die Geschichte.
MaWin schrieb: >> http://www.drdos.net/documentation/sysprog/chap4.htm >> http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT >> Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen... > > Scherzkeks, welch Wunder daß die Nummern übereinstimmen, > DR DOS war von Digital Research, > und GEM war von Digital Research, > und das DOS unter dem GEM war ein ? DR-DOS, was sonst. > > Herr wirf Hirn oder erkläre den Kindern mal die Geschichte. Ach, um was ging's in der Diskussion nochmal? DR DOS ist von 1988 und ist definitiv nicht GEMDOS. GEM wurde von Atari Leuten die zu DR geschickt wurden portiert, das GEMDOS "darunter" wurde deshalb genommen, da CP/M-68k immer noch kein hierarchisches Dateisystem hatte und dazu grottenlahm war und - GEMDOS wurde in Anlehnung an (eher Clone von) MS-DOS entwickelt, nicht andersrum.
http://de.wikipedia.org/wiki/TOS_(Betriebssystem) Du meinst wohl Mint http://de.wikipedia.org/wiki/MiNT
MaWin schrieb: > http://de.wikipedia.org/wiki/TOS_(Betriebssystem) http://en.wikipedia.org/wiki/DR-DOS 1984 Concurrent DOS, dann die abgespeckte DOS Plus-Variante, "It did not perform well, and Digital Research made another attempt, this time a native DOS system. This new disk operating system was launched in 1988 as DR DOS." > Du meinst wohl Mint > > http://de.wikipedia.org/wiki/MiNT Nein, das kam mehr oder weniger raus als das letzte Gerät (Falcon) nach kurzem Marktauftritt abgekündigt wurde. Hier gibt's die Geschichte etwas ausführlicher http://www.atarimagazines.com/startv3n1/threeyearsofst.html ab "HARD CHOICES, HARD TIMES" und um den Satz von oben zu ende zu führen: "Deshalb war bei den meisten Programmen" die ich für den ST geschrieben habe die erste Aktion, das OS auszuschalten. Auch bei den Programmen, die GEM genutzt haben, war es üblich alles von Hand zu zeichnen oder die Line-A-Routinen zu nehmen (auch wenn das hieß erst mal für alle Auflösungen/Farbtiefen optimierte Algorithmen zu schreiben, ST, TT, Falcon).
Sven P. schrieb: > Heute noch ruckelt und > zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen > Binaries extrahiert wurden und so weiter. Das liegt nur an der Implementierung des Windows Explorer, und der läuft im user mode. > Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst mit X11 > über Netzwerk schon... X11 über Netzwerk ist schon ab einem Ping von 10ms bei vielen Programmen katastrophal langsam. Und das betrifft nicht nur neue Frameworks.
>> Heute noch ruckelt und >> zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen >> Binaries extrahiert wurden und so weiter. Du sollst mit Windows eben immer das Flagschiff von Intel einsetzen und irgendwie muss es doch eine Notwendigkeit geben, immer die schnellste CPU und Platte zu kaufen.
hach schrieb: > Du sollst mit Windows eben immer das Flagschiff von Intel einsetzen und > irgendwie muss es doch eine Notwendigkeit geben, immer die schnellste > CPU und Platte zu kaufen. Ganz meiner Meinung. Ein Pentium III 650 MHz sollte es schon für Win XP sein...
MaWin schrieb: > Du siehst also, daß es gar nicht so einfach ist, eine Software auf eine > neue Plattform umzuschreiben. Nein, ich sehe nur, daß Microsoft das am falschen Ende getan hat. Andy D. schrieb: > http://en.wikipedia.org/wiki/Worse_is_better irgendwann kapiert man dass > der Ansatz seinen Wert hat - und dass der Markt ihm immer wieder Recht > gibt. Sowohl bei DOS als auch bei UNIX hat es funktioniert. Das schöne am klassischen Unix-Ansatz ist, daß jedes Tool nur genau eine Aufgabe löst, diese aber möglichst gut und daß sich diese Tools auf einfache Weise kombinieren lassen, um komplexere Aufgaben zu lösen. Ein vergleichbares Konzept habe ich im GUI-Bereich bisher noch nicht gesehen. Andreas Schwarz schrieb: >> Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst >> mit X11 über Netzwerk schon... > > X11 über Netzwerk ist schon ab einem Ping von 10ms bei vielen Programmen > katastrophal langsam. Und das betrifft nicht nur neue Frameworks. 10 ms sind aber für ein LAN auch schon sehr viel. Ich habe auch schon OpenGL-Anwendungen (natürlich keine Spiele) und Videoplayer über Remote-X flüssig laufen lassen, und das war bei einem 100-MBit-Netz.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.