Forum: PC Hard- und Software Warum haben Digital Research, Novel, Borland usw. nie versucht Windows 3.x, Win9x und WinNT zu klone


von Nano (Gast)


Lesenswert?

Warum haben Digital Research, Novel, Borland und andere Verlierer des 
Windows Siegeszugs nie versucht Windows 3.x, Win9x und WinNT zu klonen 
oder wenigstens eine eigene crossplattformfähige GUI API mit Toolkit API 
zu erschaffen um von Microsoft Windows unabhängig zu werden?

Man hat ja auch kompatible DOS Versionen erschaffen, aber warum hat man 
da aufgehört?

Dass es später freie Projekte wie FreeWin und ganz später das daraus 
hervorgegangene Wine und ReactOS gab ist klar, aber diese Projekte meine 
ich nicht, mir geht es um die großen SW Hersteller für DOS der damaligen 
Zeit, die ja erkennen mussten, dass sie langfristig mit nur ihren DOS 
Lösungen gegen Windows verlieren mussten?

IBM war mit OS/2 beschäftigt, das ist klar, dass die da nicht 
mitmachten.

Aber die anderen hätten doch zumindest, selbst wenn das Schaffen einer 
kompatiblen Alternative zu Windows NT und Co zu aufwendig gewesen, ja 
immer noch sich auf einen gemeinsamen Software API Bibliotheksunterbau 
Standard einigen können. Dann hätten sie alle Windows Systeme, OS/2, die 
Unix Systeme und Co mit so einer Standard API bedienen können und immer 
noch ihr eigenes Betriebssystem, sofern notwendig, unten drunter setzen 
können.

Zwar gab es später Firmen wie Trolltech, die das mit Qt versuchten, aber 
das war ja viel später und warum haben die großen Softwarefirmen von 
damals, damals, also ca. 1988 bis 1996 nichts gemeinsam auf die Reihe 
gebracht um von Microsoft unabhängiger zu werden?

Letzten Endes haben die alle verloren.

von Wiederverwerter (Gast)


Lesenswert?

Ja, mir ist auch langweilig.
--
Es ist doch offensichtlich, daß
Kein consumer dediziert Geld für sein OS ausgeben möchte.
Eine Zersplitterung in verschiedene Quasistandards teurer ist als die 
Bildung eines Konsortiums.
Siehe der Streit um die Videokasette, der Grundig das Genick brach.

von Blechbieger (Gast)


Lesenswert?

Am Anfang gab es durchaus Konkurrenz. Digital Research GEM 
https://de.wikipedia.org/wiki/Graphics_Environment_Manager ist genauso 
alt wie MS Windows. Auf dem Atari ST erfolgreich hat es auf dem PC gegen 
Windows verloren auch wenn es als ViewMax bei DR-DOS 6 noch dabei war.

Ab 89 gab es für Unix Motif und ab 93 CDE aber das gab es eben nur für 
sehr teure Workstations die mit erscheinen des ersten Pentiums bald auf 
dem absteigenden Ast waren.

Über den Weg wie Microsoft sich durchgesetzt hat sind ganze Bücher 
geschrieben worden. Hauptsächlich schmutzige Tricks für die sie später 
auch Milliardenstrafen zahlen mussten aber da war es schon zu spät.

von Wiederverwerter (Gast)


Lesenswert?

Blechbieger schrieb:
>  Hauptsächlich schmutzige Tricks für die sie später
> auch Milliardenstrafen zahlen mussten aber da war es schon zu spät.

Mumpitz, da war nichts schmutzig. Der Ich-will-nur-tippen Consumer und 
Premium-Daddeln-nur-mit-Taschengeld hat bekommen, was der 
Consumer/Daimler wollte. Mit Raubkopierern ist kein Geld zu machen, wie 
die Homecomputer Szene feststellen musste. Deshalb überlebte auch der, 
der als erster gegen Raubkopierer vorging: Bill Gates: Open Letter to 
Hobbyists https://g.co/kgs/XFvfzX

von MaWin (Gast)


Lesenswert?

Nano schrieb:
> Warum haben Digital Research, Novel, Borland und andere Verlierer des
> Windows Siegeszugs nie versucht Windows 3.x, Win9x und WinNT zu klonen

Die Firma hiess Novell.

DR hat sehr wohl Fenster geclont, besser gesagt Microsoft Windows ist 
ebenso wie DR GEM ein Klon des Xerox Alto, es haben in beiden Projekten 
auch ex-Mitarbeiter von Xerox mitgewirkt.

DR war schneller, früher fertig, weil under-the-hood nicht ganz so 
anspruchsvoll und es war anfänglich gar nicht offensichtlich wer das 
Rennen machen würde, DR oder Microsoft.

Später noch mal eine direkte API-kompatible Kopie von Windows aufzubauen 
war nicht wirtschaftlich, zudem massive Rechtsstreitigkeiten damals 
üblich waren.

DR lief dann auf Atari, Microsoft Windows auf 286ern. Hätte DR mehr 
darauf hingewirkt, dass Atari-Programme auch automatisch auf IBM PC GEM 
laufen und Atari-Programmierer nicht stumpfdoof direkt auf den 
Bildschirm geschrieben sondern geräteunabhängig, dann hätte das sogar 
klappen können.

Im Endeffekt hat das technisch anspruchsvollere Windows (3) gesiegt, 
weil die Hardware schnell genug leistungsfähig genug geworden ist, wir 
können uns freuen dass Microsoft die 2 Vorläufer Windows1 und Windows2 
durchfinanziert hat ohne aufzugeben.
Seit David Cutler Windows NT durch drunternageln von VMS hingeflickt 
hat, ist Windows jedoch ziemlich kaputt under the hood, wie man an 
Funktionen mit dauerhaft unbenutzten Parametern sieht, nicht mehr 
richtig funktionierendem Wait-Cursor, massivem Speicherverbrauch weil 
DLL nicht mehr geshart werden da Code beim laden gegenüber dem 
disc-image modifiziert werden muss.

von DerEgon (Gast)


Lesenswert?

MaWin schrieb:
> DR lief dann auf Atari, Microsoft Windows auf 286ern.

Windows lief auch auf XTs (8088/86), bis einschließlich Windows 3.0.

von Nano (Gast)


Lesenswert?

MaWin schrieb im Beitrag #7167503
> Die Firma hiess Novell.

Ich musste Zeichen kürzen, die Threadüberschrit erlaubt nicht mehr und 
im Text habe ich es einfach übernommen.

> DR hat sehr wohl Fenster geclont, besser gesagt Microsoft Windows ist
> ebenso wie DR GEM ein Klon des Xerox Alto, es haben in beiden Projekten
> auch ex-Mitarbeiter von Xerox mitgewirkt.

GEM ist kein Klon von Windows.

Es geht hier um kompatible Klone.
Also sozusagen ein "DR-NT" und ein "DR-W95"

Mal abgesehen davon, das GEM im Bestenfall nur die GUI abstrahiert, aber 
nicht den Rest, wie es MS ab Windows 3.0 gemacht hat und bei NT sowieso.

Die Abstraktion der Software von der HW und insbesondere dem BIOS war 
ein wesentlicher Punkt, der Windows 3.x den Siegeszug brachte.

DOS Programme führen nämlich in der Regel BIOS Aufrufe durch, Windows 
Programme müssen das nicht mehr machen. Dafür ist die 
Abstraktionsschicht von Windows da.

> Später noch mal eine direkte API-kompatible Kopie von Windows aufzubauen
> war nicht wirtschaftlich, zudem massive Rechtsstreitigkeiten damals
> üblich waren.

DR-DOS wurde API kompatibel zur "DOS-API" gehalten, sofern man das API 
nennen kann.
https://en.wikipedia.org/wiki/DOS_API


> DR lief dann auf Atari, Microsoft Windows auf 286ern. Hätte DR mehr
> darauf hingewirkt, dass Atari-Programme auch automatisch auf IBM PC GEM
> laufen und Atari-Programmierer nicht stumpfdoof direkt auf den
> Bildschirm geschrieben sondern geräteunabhängig, dann hätte das sogar
> klappen können.

GEM hat nie ausreichend abstrahiert, deswegen ging das nicht.

Windows 3.x schon und NT sowieso. NT wurde zu einem großen Teil auf 
nicht x86 Rechnern entwickelt  und man schrieb das in C, nicht in 
hardwareabhängigem Assembler wie GEM.


> Im Endeffekt hat das technisch anspruchsvollere Windows (3) gesiegt,
> weil die Hardware schnell genug leistungsfähig genug geworden ist, wir
> können uns freuen dass Microsoft die 2 Vorläufer Windows1 und Windows2
> durchfinanziert hat ohne aufzugeben.

Da widerspreche ich nicht. Ohne Win 1 und 2 und letzten Endes den 
finanziellen Erfolg von Windows 3.x wäre wohl das damals noch von MS in 
Zusammenarbeit mit IBM entwickelte OS/2 gekommen und MS hätte keinen 
Alleingang gemacht.

von Nano (Gast)


Lesenswert?

DerEgon schrieb:
> MaWin schrieb:
>> DR lief dann auf Atari, Microsoft Windows auf 286ern.
>
> Windows lief auch auf XTs (8088/86), bis einschließlich Windows 3.0.

Wobei das Realmode Win 3.0 mangels Software und ausreichend RAM zu 
nichts zu gebrauchen war.

Für den Siegeszug von Windows 3.0 war XMS Memory notwendig und damit die 
Modi Standard Mode und Enhanced Mode.

Windows Software, die unter Windows 3.1 für den Standard Mode entwickelt 
wurde läuft bspw. zwar noch unter Windows 3.0 im Standard Mode, aber 
nicht im Real Mode von Win 3.0.

von DerEgon (Gast)


Lesenswert?

Wirklich zu gebrauchen war Windows sehr lange sowieso nicht. Ich hab' 
mal mit einem Aldus Pagemaker 1.irgendwas unter Windows 2.03 
herumgemacht - dank der damals noch nicht existierenden Outline-Fonts 
für andere als Postscript-Drucker war das ziemlich unbrauchbar; 
Hershey-Fonts sehen auch auf dem Nadeldrucker beschissen aus.


Warum niemand Windows 3.x "geklont" hat, ist recht eindeutig: Einerseits 
hätte man dazu eine große und sehr gute Rechtsabteilung gebraucht, 
andererseits ist auch so etwas wie Windows 3.0 nichts, was man mal eben 
so nachbastelt.

Denn Windows 3.0 war in Anbetracht der Rahmenbedingungen, mit denen es 
zurechtkommen musste, tatsächlich sogar ziemlich gut.

Woran es damals mangelte (und was auch den Nichterfolg anderer Systeme 
miterklärt), war zugängliche Dokumentation und zugängliche 
Entwicklungssysteme.

Das erste brauchbare Buch über die Windowsprogrammierung war der 
Petzoldt, die erste halbwegs brauchbare Entwicklungsumgebung war Borland 
C++ 3.1 zusammen mit dem Turbodebugger (der dann auf einer zweiten 
Bildschirmkarte MDA oder Hercules im Textmodus lief).

von rbx (Gast)


Lesenswert?

Nano schrieb:
> Letzten Endes haben die alle verloren.

Zu komplex. Man hätte was mit der Linux-Gemeinde aushandeln können. Aber 
welche jetzt?

Da musst erst Ubuntu kommen, um ein paar Standards festzutackern.

https://www.youtube.com/watch?v=3xOWoHMsUZw

Eine Zeitlang lag bei manchen Computerzeitschriften noch BeOS mit bei, 
als vielversprechendes neues, Multimediafreundliches Betriebssystem.

Gleichzeitig wurde aber bei uns an der Uni groß aufgerüstet, und 
hunderte NT-Systeme bereitgestellt. Also Windows-NT-Rechner in 250-Leute 
Pools.

Die kleinen Räume mit Apple, Unixen, oder Dos usw, wie auch die mit 
PowerPCs wirkten immer gestriger - sofern nicht sowieso überholt.
Administriert wurden die NT-Rechner in den Pools aber über die 
Dos-Konsole.

Meine AGP-Grafikkarte funktionierte nicht richtig wegen ständig neuen 
Directx-Geschichten. Dafür liefen aber Quake, und 2D-Programme, wie auch 
z.B. Emulatoren auf Dos-Basis, wie Mame, oder auch Konsolenemulatoren.

Die Programmierwelt war noch ein wenig gestrig unterwegs, mit Fortran, 
aber vieles lief schon mit C++ oder eben Delphi.

Gleichzeitig wurde der Speicher knapp und im Internet kursierten 
Werbungen zu C++ in 21 Tagen.

Sehr viel später gab es Hilferufe wegen der alten Dos-Steuerung bei 
Industriemaschinen. Zum Glück gab es schon FreeDOS und Ubuntu, DOSbox, 
das Ubuntu Wiki, oder mikrocontroller.net.

von Nano (Gast)


Lesenswert?

DerEgon schrieb:
> Warum niemand Windows 3.x "geklont" hat, ist recht eindeutig: Einerseits
> hätte man dazu eine große und sehr gute Rechtsabteilung gebraucht,

Ja, aber DOS und das BIOS wurde ja auch nachgebaut.
Es wäre ja nur eine Neuimplementierung geworden.

> andererseits ist auch so etwas wie Windows 3.0 nichts, was man mal eben
> so nachbastelt.

Das ist wiederum war.

> Denn Windows 3.0 war in Anbetracht der Rahmenbedingungen, mit denen es
> zurechtkommen musste, tatsächlich sogar ziemlich gut.
>
> Woran es damals mangelte (und was auch den Nichterfolg anderer Systeme
> miterklärt), war zugängliche Dokumentation und zugängliche
> Entwicklungssysteme.

Bei GEM war es die fehlende Abstraktionsfähigkeit. GEM war für DOS im 
Prinzip nur eine GUI mit der Möglichkeit GEM Fensterprogramme zu 
entwickel, die aber auf DOS angewiesen waren.

Und dann war GEM auch viel zu teuer.

> Das erste brauchbare Buch über die Windowsprogrammierung war der
> Petzoldt,

Zustimmung.

> die erste halbwegs brauchbare Entwicklungsumgebung war Borland
> C++ 3.1 zusammen mit dem Turbodebugger (der dann auf einer zweiten
> Bildschirmkarte MDA oder Hercules im Textmodus lief).

Definiere brauchbar?

Mit Microsoft C konnte man bereits Windowsprogramme entwickeln, das war 
dann halt noch eine IDE unter DOS.

Und für Windows 3.0 hat MS extra QuickC for Windows 1.0 Ende September 
1991 für die Hobbyuser rausgebracht, das war vor Turbo C++.
Damit war es auch möglich direkt unter Windows Programme für Windows zu 
entwickeln. Lediglich der Code Optimizer hat gefehlt, das konnte QuickC 
aus Prinzip nicht und war der teureren Microsoft C Version und dessen 
Nachfolger vorbehalten.

von DerEgon (Gast)


Lesenswert?

Nano schrieb:
> Ja, aber DOS und das BIOS wurde ja auch nachgebaut.
> Es wäre ja nur eine Neuimplementierung geworden.

Das BIOS wurde von IBM im Quelltext veröffentlicht.

Und auch DOS war ein paar Größenordnungen trivialer als Windows - selbst 
Windows 1.x war komplexer.

> Definiere brauchbar?

Debugger, wie beschrieben.

von Jan (Gast)


Lesenswert?

Wiederverwerter schrieb:
> Deshalb überlebte auch der, der als erster gegen Raubkopierer vorging:
> Bill Gates: Open Letter to Hobbyists

Das war nur ein Alibi-Letter. Windows ist nur deshalb so groß geworden, 
eben weil es so viel kopiert wurde. Und immer noch wird.

von Nano (Gast)


Lesenswert?

rbx schrieb:
> Nano schrieb:
>> Letzten Endes haben die alle verloren.
>
> Zu komplex. Man hätte was mit der Linux-Gemeinde aushandeln können. Aber
> welche jetzt?

Du meinst etwas auf X Window Basis?

Ich denke, ein Linux oder Unix war für den Massenmarkt damals zu 
kompliziert.

DOS war einfach und Windows hatte ebenfalls das Ziel, da alles per GUI 
konfigurierbar sein sollte, einfach zu sein.

> Eine Zeitlang lag bei manchen Computerzeitschriften noch BeOS mit bei,
> als vielversprechendes neues, Multimediafreundliches Betriebssystem.

Da hat von Anfang an die Mehrbenutzerfunktion gefehlt. Für Firmen war 
das nichts und privat fehlte das Softwareangebot.

> Gleichzeitig wurde aber bei uns an der Uni groß aufgerüstet, und
> hunderte NT-Systeme bereitgestellt. Also Windows-NT-Rechner in 250-Leute
> Pools.

Das war damals eine durchaus sinnvolle Investition.
Besseres war ja entweder noch teurer und bereits auf dem absteigenden 
Ast (echte Unix Kisten) oder schlechter (DOS, OS/2). Linux war da meiner 
Meinung nach noch nicht so weit.
Da fehlte noch KDE 1.0 und das kam erst Mitte 1998 raus, da war Windows 
NT 4.0 schon längst Platzhirsch und zudem weitgehend kompatibel zu den 
Win9x Kisten.


> Meine AGP-Grafikkarte funktionierte nicht richtig wegen ständig neuen
> Directx-Geschichten.

Was für eine war das? Frage aus reiner Neugierde.

>
> Die Programmierwelt war noch ein wenig gestrig unterwegs, mit Fortran,
> aber vieles lief schon mit C++ oder eben Delphi.
>
> Gleichzeitig wurde der Speicher knapp und im Internet kursierten
> Werbungen zu C++ in 21 Tagen.

Der Speicher war doch schon vorher knapp.
Und dann ging es Schlag auf Schlag mit immer mehr Speicher.

Während ca. 1997 noch 32 MB üblich waren, waren es 3 Jahre später 
bereits 512 MB.

von Nano (Gast)


Lesenswert?

DerEgon schrieb:
> Nano schrieb:
>> Ja, aber DOS und das BIOS wurde ja auch nachgebaut.
>> Es wäre ja nur eine Neuimplementierung geworden.
>
> Das BIOS wurde von IBM im Quelltext veröffentlicht.

Nein!

Das wurde per Clean Room Design als Klon implementiert.

https://en.wikipedia.org/wiki/Clean_room_design


>> Definiere brauchbar?
>
> Debugger, wie beschrieben.

Den gab's mit QuickC for Windows.

von rbx (Gast)


Lesenswert?

Nano schrieb:
> Was für eine war das? Frage aus reiner Neugierde.

War wohl eine ATI Rage. In der Anfangssituation lief die auch 
ordentlich, Directx-Ausgangssituation war Directx 5.
Letztlich sah aber auch das Mainboard nicht gut aus, was die 
Treiberversorgung diesbezüglich anging.

Nano schrieb:
> QuickC for Windows.

Es gab auch QBasic + Compiler.
Und Basic war viel besser als Java.

von 888 (Gast)


Lesenswert?

Nano schrieb:

> Bei GEM war es die fehlende Abstraktionsfähigkeit. GEM war für DOS im
> Prinzip nur eine GUI mit der Möglichkeit GEM Fensterprogramme zu
> entwickel, die aber auf DOS angewiesen waren.

Windows doch auch. Bis Version 3.1 war das einfach nur eine graphische 
Oberfläche (shell) für MS-DOS. Wenn man ein Programm gestartet hat, zog 
sich Windows in den Hintergrund zurück, und nach Beendigung der 
Applikation lief es weiter. Wie der Norton Commander, nur bunter und 
langsamer.

Ein "Betriebssystem" in Sinne von Unix und OS/2 wurde es erst mit 
Windows NT 3.51.

von Nano (Gast)


Lesenswert?

Soul E. schrieb:
> Nano schrieb:
>
>> Bei GEM war es die fehlende Abstraktionsfähigkeit. GEM war für DOS im
>> Prinzip nur eine GUI mit der Möglichkeit GEM Fensterprogramme zu
>> entwickel, die aber auf DOS angewiesen waren.
>
> Windows doch auch.

Ich habe die ganze Zeit von Windows 3.x gesprochen. Auch sagte ich, dass 
Windows 1 und 2 keine Rolle spielt. Steht alles oben.


> Bis Version 3.1 war das einfach nur eine graphische
> Oberfläche (shell) für MS-DOS.

Nicht ganz, das gescheite Windows für DOS fing mit 3.0 an, mit 3.1 hat 
man es nur noch einmal deutlich verbessert und die Entwicklung mündete 
dann letzten Endes in Windows 95.

> Wenn man ein Programm gestartet hat, zog
> sich Windows in den Hintergrund zurück, und nach Beendigung der
> Applikation lief es weiter.

Bei DOS Programmen war das unter Windows 3.x so. Das hat aber nichts mit 
Windows Programmen zu tun, die für Windows 3.x geschrieben wurden.

> Ein "Betriebssystem" in Sinne von Unix und OS/2 wurde es erst mit
> Windows NT 3.51.

Ein Betriebssystem mit eigenem Kernel, der den Protected Mode durchsetzt 
und selbst nicht auf den DOS Kernel zurückgreifen muss, ist noch einmal 
etwas ganz anderes.

Windows 3.x hat aber schon die Hardware und den DOS Unterbau für die 
Windows Software abstrahiert. Deswegen gab es für Windows 3.x auch 
Grafik-, Drucker-, Soundkarten- usw. Treiber.
Wenn eine Windows 3.x Anwendung mit der Soundkarte sprechen wollte, dann 
lief das über die Windows API. Die Win Anwendung sprach weder mit DOS, 
noch mit dem BIOS, noch mit der HW direkt.

von M3 (Gast)


Lesenswert?

Da es keine Zeitzeugen gibt die hier näheres berichten könnten
oder wollten, ist dieser Thread genau eins:

Überflüssig.

von DerEgon (Gast)


Lesenswert?

Nano schrieb:
>> Das BIOS wurde von IBM im Quelltext veröffentlicht.
>
> Nein!

Aber ja doch. Gedruckt, im Handbuch.

http://www.minuszerodegrees.net/manuals/IBM_5150_Technical_Reference_6025005_AUG81.pdf

Appendix A, "ROM BIOS Listing"

von Nano (Gast)


Lesenswert?

DerEgon schrieb:
> Nano schrieb:
>>> Das BIOS wurde von IBM im Quelltext veröffentlicht.
>>
>> Nein!
>
> Aber ja doch. Gedruckt, im Handbuch.
>
> 
http://www.minuszerodegrees.net/manuals/IBM_5150_Technical_Reference_6025005_AUG81.pdf
>
> Appendix A, "ROM BIOS Listing"

Schön, aber der Quelltext war aus Copyrightgründen unbrauchbar für 
Klone. Was ja auch die ganzen Gerichtsfälle von IBM gegen die Kopierer 
zeigt.
Nur das Clean Room Design war legal sauber.

von DerEgon (Gast)


Lesenswert?

Schön. Und?

von Beton (Gast)


Lesenswert?

Nicht verzagen, die Zukunft heisst LINUX.

von Nano (Gast)


Lesenswert?

DerEgon schrieb:
> Schön. Und?

Lies oben nochmal nach.

von Wiederverwerter (Gast)


Lesenswert?

Das Topic ist unsinnig formuliert, da:
a)geklont nie ein Wechselargument ist (Warum soll einer der von der 
xyz-Software frustiert ist, zu einem 1:1 Clone mit identischen 
Frustrations-features wechseln)?
b)bishereige OS-Wechsel haben sich immer nur dann durchgesetzt, wenn sie 
an Hardware gebunden waren.

Bsp: Apple Computers, die haben in den 90 kein funktonierendes 
Nachfolge-OS hinbekommen, sondern mussten externe Entwicklungen auf 
Fremd-Hardware einkaufen. Zur Entscheidung standen die Entwicklungen 
zweier Ex-Manager, BeOs oder Cube-OS. Durchgesetzt hat sich letzteres 
weil es eben auf unabhängiger Hardware lief.

von Ingo W. (uebrig) Benutzerseite


Lesenswert?

Könnte der Eröffnungsbeitrag eventuell auch als Retourkutsche dafür 
verstanden werden, dass ja eigentlich Microsoft ja eigentlich auch sein 
erstes Betriebssystem von DR (CPM/86) gekl..ont hat?

von Wiederverwerter (Gast)


Lesenswert?

Ingo W. schrieb:
> Könnte der Eröffnungsbeitrag eventuell auch als Retourkutsche dafür
> verstanden werden, dass ja eigentlich Microsoft ja eigentlich auch sein
> erstes Betriebssystem von DR (CPM/86) gekl..ont hat?

Nein
a) da steh explizit winddows also GIU im topic
b) nicht geklaut, nicht Microsoft und auch nicht DR-DOS

Es war IBM das auf der Suche nach einem Betriebssystem bei DR anklopfte, 
aber diee wollten nicht verkaufen. Also hat man das Q-DOS eines 
unbekannten Codierschweines genommen und zum Disk Operating System 
zurechtgedengelt:

https://de.wikipedia.org/wiki/86-DOS#Weiterentwicklung_zu_MS-DOS

von Ralph S. (jjflash)


Lesenswert?

Ingo W. schrieb:
> Könnte der Eröffnungsbeitrag eventuell auch als Retourkutsche dafür
> verstanden werden, dass ja eigentlich Microsoft ja eigentlich auch sein
> erstes Betriebssystem von DR (CPM/86) gekl..ont hat?

Und wie heißt nun der größte Raubkopierer aller Zeiten, der seinerseits 
später dann selbst "Jagd" auf Raubkopierer machte ? (natürlich 
rethorisch gemeint).

Und wo kommt denn die damalige Namenskonvention mit 8.3 Buchstaben für 
Dateinamen her?

Microsoft hatte es verstanden, die gegen sie anhängigen Rechtsstreite so 
lange hinaus zu zögern, bis die auferlegten Strafen aus der Portokasse 
bezahlt werden konnten und Microsoft seinerseits mit Marktmacht oder mit 
Klagen (auch mit einstweiligen Verfügungen) gegen Mitbewerber vorging.

von Nano (Gast)


Lesenswert?

Wiederverwerter schrieb:
> Das Topic ist unsinnig formuliert, da:
> a)geklont nie ein Wechselargument ist (Warum soll einer der von der
> xyz-Software frustiert ist, zu einem 1:1 Clone mit identischen
> Frustrations-features wechseln)?

DR-DOS kennst du nicht, oder?

> b)bishereige OS-Wechsel haben sich immer nur dann durchgesetzt, wenn sie
> an Hardware gebunden waren.

DR-DOS ermöglichte es mit Version 5.0 wesentlich mehr RAM von dem sehr 
wertvollen konventionellen Arbeitsspeicher frei zu haben als damals 
MS-DOS 4.x. Microsoft hat ein ganzes Jahr benötigt um nachzuholen.

Auch in anderen Bereichen war DR-DOS besser. DR-DOS 3.31 unterstützte 
nicht nur größere Partitionen als 32 MB, sondern bot bereits ab 
mindestens Version 3.40 (Jan 1989) eine integrierte Hilfe per /h 
Parameter in nahezu allen mitgelieferten Programmen. Microsoft hat hier 
erst nach ca. 2,5 Jahren mit MS-DOS 5 (Juni 1991) und der Verwendung des 
Parameters /? nachgezogen.

Hier erkennt man also, dass Vielfalt und Wettbewerb gut für den Kunden 
ist.


> Bsp: Apple Computers, die haben in den 90 kein funktonierendes
> Nachfolge-OS hinbekommen, sondern mussten externe Entwicklungen auf
> Fremd-Hardware einkaufen.

Weil kein Wettbewerb herrschte. Ein wesentlicher Nachteil für die 
Applejünger.

> Zur Entscheidung standen die Entwicklungen
> zweier Ex-Manager, BeOs oder Cube-OS. Durchgesetzt hat sich letzteres
> weil es eben auf unabhängiger Hardware lief.

Unsinn. BeOS war sowohl für den PowerPC als auch für die x86 Architektur 
ab Pentium verfügbar. Die Gründe lagen eher an Steve Jobs, der Apple 
Anbot zurückzugekehren. Und das OS von Steve hieß nicht Cube-OS, sondern 
Nextstep. Der Rechner hieß NeXTcube.
Als Jobs dann wieder bei Apple war, brachte er sein Nextstep ein, 
welches auf dem Mach Kernel basierte.

von Nano (Gast)


Lesenswert?

Wiederverwerter schrieb:
> Es war IBM das auf der Suche nach einem Betriebssystem bei DR anklopfte,
> aber diee wollten nicht verkaufen.

Das ist falsch. Sie trafen Gary Kildall nicht an, der war an dem Tag 
nicht da, als die Leute von IBM vorbeikamen und seine Frau wollte keine 
Entscheidungen ohne ihren Mann treffen.
Das wurde dann vertragt und Bill Gates meldete sich dann bei IBM, dass 
er für sie ein OS hätte, dass auch CP/M Programme ausführen könnte.
Das hatte er damals noch nicht, aber er wusste, dass es Q-DOS gab und 
kaufte  somit alle Verwertungsrechte für ca. 60000 Dollar von Tim 
Patersons ab ohne ihm zu sagen, wen Bill Gates da als Kunden auf der 
anderen Seite hatte.
Bill Gates bekam die Verwertungsrechte von Q-DOS und IBM willigte ein. 
Gleichzeitig sicherte sich bei der Vertragsgestaltung Gates noch das 
Recht ein, das Betriebssystem unter eigenem Namen, nämlich MS-DOS 
anstatt PC-DOS (die Version, die beim IBM PC dabei war) zu vermarkten. 
IBM hatte nichts dagegen, da sie nicht davon ausgingen, dass der IBM PC 
ein längerfristiger Erfolgt wird und außerdem brauchte man noch das 
BIOS, das damals nur IBM hatte.
Später stellte Bill Gates Tim Patersons dann bei Microsoft ein, der dann 
MS-DOS weiterentwickelte.

Die ersten MS-DOS Versionen wurden dann an Nachahmer wie Compaq 
verkauft, die dann versuchten, den PC nachzubauen, da die Komponenten 
mit Ausnahme des BIOS frei verfügbar waren.

Als dann Phoenix per White Room Verfahren das BIOS nachbaute, kamen die 
ersten zum IBM PC zu 99,9 % kompatiblen PCs diverser Hersteller heraus.

Und was Digital Research und Gary Kildall betraf, so wollte der bei IBM 
noch nachträglich mitmischen und einigte sich mit IBM darauf, dass CP/M 
zusätzlich angeboten wurde. Da es aber zu teuer war und extra zusätzlich 
gekauft werden musste, war der Erfolg trotz des damals noch gigantischem 
Angebot an Software für CP/M bescheiden.

Die Komponenten von CP/M wurde dann nach und nach weiter entwickelt und 
ein neuer DOS kompatibler Kernel geschrieben, der dann in DR-DOS mündete 
und somit als zu PC-DOS bzw. IBM-DOS bzw. MS-DOS kompatibles 
Betriebssystem verkauft wurde.

Da DR-DOS günstiger angeboten wurde und im Gegensatz zu MS-DOS auch ohne 
Hardwarebindung verkauft wurde, wurde das für Einzelkomponentenkäufer 
und OEM Hersteller interessant. Der bekannteste in Deutschland dürfte 
Vobis sein, der bei seiner HighScreen Serie DR-DOS anstatt MS-DOS 
standardmäßig mitlieferte.
Vobis und Escom waren es auch, die dann später OS/2 von IBM, anstatt 
MS-DOS + Windows 3.1 anboten.


>  Also hat man das Q-DOS eines
> unbekannten Codierschweines

Tim Patersons ist kein unbekanntes Codierschwein!

Bilde dich mal:
https://de.wikipedia.org/wiki/Tim_Paterson

von Nano (Gast)


Lesenswert?

Nano schrieb:
> Die Gründe lagen eher an Steve Jobs, der Apple
> Anbot zurückzugekehren.

Korrektur:
Es kann auch sein, dass Apple auf Steve Jobs zukam.
Wer es genau wissen will, muss halt selber recherchieren. Apple ist mir 
nicht so wichtig.

von (prx) A. K. (prx)


Lesenswert?

Ralph S. schrieb:
> Und wo kommt denn die damalige Namenskonvention mit 8.3 Buchstaben für
> Dateinamen her?

Diese Konvention stammt aus CP/M und die innere Struktur des FAT 
Filesystem ist in keiner Weise damit verwandt.

: Bearbeitet durch User
von Wiederverwerter (Gast)


Lesenswert?

Ralph S. schrieb:

> Und wie heißt nun der größte Raubkopierer aller Zeiten, der seinerseits
> später dann selbst "Jagd" auf Raubkopierer machte ? (natürlich
> rethorisch gemeint).

> Und wo kommt denn die damalige Namenskonvention mit 8.3 Buchstaben für
> Dateinamen her?

Hier wird "Ideenklau" mit Softwarediebstahl verwechselt. Das Mac-Team 
hat nicht die Software von Xerox 'gestohlen' sondern nach einer 
offiziellen Führung (Xerox hat in Apple investiert und in dem 
Zusammenhang dürfte Steve Jobs und Fachkräfte mal deren Prototypen 
besichtigen) nach langen Nächten bis zum Nervenzusammenbruch (Burell 
smith) nachprogrammiert (nicht Code gestohlen). Interessanterweise hatte 
die Mac-GUI mehr feature als die Xerox-Software (überlappende Fenster) 
weil einer meinte bei der legendären Führung, genau das vorgeführt 
gesehen zu haben.

Rühmte sich ein Grossteil der Amiga/PC-Kids keine einzige legale Kopie 
zu besitzen. Bei "Turrican II", einem der beliebtesten Games damals ging 
der Hersteller von einem Raubkopieranteil von 90 - 95% aus. Klar, das 
man als Hersteller damals quasi gezwungen war auf Konsole zu wechseln.

>> Bsp: Apple Computers, die haben in den 90 kein funktonierendes
>> Nachfolge-OS hinbekommen, sondern mussten externe Entwicklungen auf
>> Fremd-Hardware einkaufen.

>Weil kein Wettbewerb herrschte. Ein wesentlicher Nachteil für die
>Applejünger.

??? Klar herschte Wettbewerb, ein reichlich ruinöser. Deshalb hat Steve 
Jobs nach seiner Rückkehr das Apple-Portfolio ausgemistet und nur das 
behalten was Verlustfrei lief: Das Geschäft mit Systemem, bei denen 
Hardware und Betriebssystem fest verbunden war. Selbst die Idee mit dem 
PDA musste erst mal sterben, bis sie Jahre später als iPhone wieder 
rauskam. Apple ist halt auch ne Firma, die gelernt hat, das in Russland 
entwickeln verlustreich ist (Newton-OS soll wohl in Moskau geschrieben 
worden sein).

>Unsinn.  Und das OS von Steve hieß nicht Cube-OS, sondern
>Nextstep. Der Rechner hieß NeXTcube.
Ja genau das ist gemeint, eben ein System das nicht als Clone sondern 
'from the scratch' entwickelt wurde. Also schon fest auf eine bestimmte 
leistungsstarke Hardware gebunden, aber nicht an sklavisch kompatibel zu 
Alt-Software. Das war ja auch das Entscheidendende an Linux, das es auf 
386-DX Architektur aufsetzte und der Grossteil der Kids mit ihren 
LowCost/Entry-Kisten auf AT oder 368SX Technik in die Röhre schauen 
musste.
Ein OS setzt sich eben nur durch wenn es an gescheite Hardware gebundelt 
ist. Und nicht neugierige User vorraussetzt, die sich jeden 
Clone-Scheiss auf ihre Daddel-Möhre ziehen.

>>  Also hat man das Q-DOS eines
>> unbekannten Codierschweines

>Tim Patersons ist kein unbekanntes Codierschwein!
Na, wer kennt schon Tim Patersons! Sicher deutlich weniger alsdie die 
Niklaus Wirth und Andrew S: Tanebaum kennen. Diese beiden waren ja auch 
nicht simple Programmier-Proleten sondern hochqualifizierte Professoren.

von Nano (Gast)


Lesenswert?

Ralph S. schrieb:
> Und wo kommt denn die damalige Namenskonvention mit 8.3 Buchstaben für
> Dateinamen her?

Da wurde noch mehr von CP/M inspiriert:

https://en.wikipedia.org/wiki/CP/M#Legacy

Übrigens gilt das meines Wissens nach auch für viele Interruptaufrufe.
Aber ich schätze mal, das muss wohl so sein, wenn man versucht irgendwie 
kompatibel zu CP/M zu sein, weil ca. Ende 1981 zur Einführung des ersten 
IBM PC das CP/M Softwareangebot so groß war.

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> Übrigens gilt das meines Wissens nach auch für viele Interruptaufrufe.

Da wurde nur im gleichen Sinn nachempfunden, wie Minix und Linux das mit 
dem UNIX API taten. Um das Rad nicht zum zigsten Mal neu zu erfinden.

von (prx) A. K. (prx)


Lesenswert?

Auch von CP/M gab es eine direkt nachgebaute Version, die hiess ZDOS, 
wohl im Z80 Kontext und vielleicht von Zilog selbst. Nicht verwechseln 
mit Z-DOS für ein 8086 Gerät von Zenith. Der einzig mir bekannte 
funktionelle Unterschied war eine vorsätzliche Inkompatibilität auf 
Diskettenebene, indem die Sektoren "verschlüsselt" gespeichert wurden, 
nämlich komplementiert.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

Wiederverwerter schrieb:
>>Weil kein Wettbewerb herrschte. Ein wesentlicher Nachteil für die
>>Applejünger.
>
> ??? Klar herschte Wettbewerb, ein reichlich ruinöser.

Nicht unter Macs.
Es gab keine kompatiblen Macs, wie es beim PC IBM kompatible PCs gab.

Der Mac war proprietär und ist er heute immer noch.


>>Unsinn.  Und das OS von Steve hieß nicht Cube-OS, sondern
>>Nextstep. Der Rechner hieß NeXTcube.
> Ja genau das ist gemeint, eben ein System das nicht als Clone sondern
> 'from the scratch' entwickelt wurde.

NextStep verwendet den Mach Kernel, der wurde nicht von Steve Jobs 
entwickelt, sondern für NextStep übernommen.
Da verhält es sich in etwa so wie bei Linux und Android, nur das der 
Machkernel eine andere Lizenz hat.

Steve Jobs hat also nichts anderes gemacht, als einen Unix Kernel 
genommen und sein Next Ökosystem inkl. GUI darum herum gebaut.

> Also schon fest auf eine bestimmte
> leistungsstarke Hardware gebunden, aber nicht an sklavisch kompatibel zu
> Alt-Software.

Der Mach Kernel läuft auf ziemlich vielen Architekturen.

Als das alte Mac OS 9 durch OS X ersetzt wurde, entschied sich Apple für 
eine Emulationschicht für die alte Software.
Zu dem Zeitpunkt war die Leistung der CPUs nämlich ohnehin schon gut 
genug.


> Das war ja auch das Entscheidendende an Linux, das es auf
> 386-DX Architektur aufsetzte und der Grossteil der Kids mit ihren
> LowCost/Entry-Kisten auf AT oder 368SX Technik in die Röhre schauen
> musste.

Windows NT wurde auch "from the scratch" entwickelt und baute neben der 
Kompatibilität zu vielen anderen Architekturen beim PC auf dem 386DX 
auf.


>>>  Also hat man das Q-DOS eines
>>> unbekannten Codierschweines
>
>>Tim Patersons ist kein unbekanntes Codierschwein!
> Na, wer kennt schon Tim Patersons! Sicher deutlich weniger alsdie die
> Niklaus Wirth und Andrew S: Tanebaum kennen. Diese beiden waren ja auch
> nicht simple Programmier-Proleten sondern hochqualifizierte Professoren.

Von den drei genannten überschätzt du die Bekanntheit von Niklaus Wirth 
und unterschätzt die Bekanntheit von Tim Patersons.

von Udo K. (udok)


Lesenswert?

Nano schrieb:
> Warum haben Digital Research, Novel, Borland und andere Verlierer des
> Windows Siegeszugs nie versucht Windows 3.x, Win9x und WinNT zu klonen
> oder wenigstens eine eigene crossplattformfähige GUI API mit Toolkit API
> zu erschaffen um von Microsoft Windows unabhängig zu werden?
...
> Letzten Endes haben die alle verloren.

2022 - Das Jahr in dem die die große Langeweile ausbricht?

Die Kriegsrhetorik ist nur in deinem Kopf. Digital Research, Novel und 
Borland waren keine Verlierer. Die "Industrie" hat schnell erkannt, dass 
Windows eine Win-Win Sache ist. Man verdient Geld nicht mit Windows, 
sondern mit Anwendungen und mit Hardware, die Windows kompatibel sind. 
Windows hat einen Standard erschaffen, von dem alle profitieren.  Das 
hat allen einen Riesenmarkt eröffnet, der vorher nicht da war.

: Bearbeitet durch User
von Maxe (Gast)


Lesenswert?

Gugel wurde ja bekanntermaßen staatlich unterstützt, Amazun zumindest im 
Cloudbereich ebenfalls.
Ist in der Richtung etwas über MS bekannt?

von Johnny B. (johnnyb)


Lesenswert?

Nano schrieb:
> Warum haben Digital Research, Novel, Borland und andere Verlierer des
> Windows Siegeszugs nie versucht Windows 3.x, Win9x und WinNT zu klonen
> oder wenigstens eine eigene crossplattformfähige GUI API mit Toolkit API
> zu erschaffen um von Microsoft Windows unabhängig zu werden?

Ist ja heute nicht viel anders auf Mobilen Geräten. Nebst den noch zwei 
Platzhirschen Google (Android) und Apple (iOS) gibts nur noch 
Nischenlösungen. Wahrscheinlich nicht mal wegen den Betriebssystemen 
selber, sondern auch wegen den abgeschlossenen "Ökosystemen" mit Stores, 
Apps, Services, Verbund mit anderen Geräten wie TV, Automobil, Kopfhörer 
etc.

von Johnny B. (johnnyb)


Lesenswert?

Maxe schrieb:
> Gugel wurde ja bekanntermaßen staatlich unterstützt, Amazun zumindest im
> Cloudbereich ebenfalls.
> Ist in der Richtung etwas über MS bekannt?

MS Produkte wie Windows und Office (Word, Excel, PowerPoint) werden 
praktisch in allen Staatlichen Verwaltungen weltweit eingesetzt.
Dies dürfte schon eine genügende Unterstützung sein für Microsoft und 
für praktisch sicheren, regelmässigen Einnahmen führen.

von Nano (Gast)


Lesenswert?

Udo K. schrieb:
> Nano schrieb:
>> Warum haben Digital Research, Novel, Borland und andere Verlierer des
>> Windows Siegeszugs nie versucht Windows 3.x, Win9x und WinNT zu klonen
>> oder wenigstens eine eigene crossplattformfähige GUI API mit Toolkit API
>> zu erschaffen um von Microsoft Windows unabhängig zu werden?
>
> 2022 - Das Jahr in dem die die große Langeweile ausbricht?
>
> Die Kriegsrhetorik ist nur in deinem Kopf. Digital Research, Novel und
> Borland waren keine Verlierer.

Digital Research hatte DR DOS und stand nach Windows praktisch mit 
nichts da.

Novel hatte Novell Network, kaufte noch DR-DOS von DR und stand nach dem 
Siegeszug von Windows NT, das ebenso Netzwerkfähig war, praktisch mit 
nichts da.

Borland verlor gegen Microsoft das Rennen bei den C und C++ Compilern, 
weil Microsoft durch die Plattformbindung an Windows NT und interne 
Kenntnisse von WinNT deutlich im Vorteil war.
Turbo Pascal war eine DOS only Geschichte und mit dem Windows Siegeszug 
obsolete. Letzten Endes versuchte dann Borland sich mit dem 
plattformunabhängigen Java und der IDE JBuilder, sowie dem Port der 
Delphi IDE nach Linux zu retten, was denen auch nicht gelangt.

Vergessen habe ich in meiner Überschrifft noch Symantec bzw. Norton in 
der Reihe, die hatten den Norton Commander und versuchten dann mit 
Systemtools für Windows und dem Schlangenöl Norton Antivirus sich noch 
über Leben zu halten. Software die man unter Windows nicht wirklich 
brauchte.

Weitere Unternehmen, die durch den Windows Siegeszug zu den Verlierern 
gehörten sind noch Quarterdeck Office Systems (QEMM).

Sicherlich gibt es auch Gewinner wie bspw. Adobe oder EA, aber das sind 
eben nicht die, die mit DOS Klonen und DOS Systemtools groß wurden.

Der ganz große Rest der kleinen DOS Tool Hersteller starb auch, was 
allerdings auch daran lag, das Windows NT von Haus aus wesentlich mehr 
bot, als DOS und vieles somit nicht mehr nötig machte.

> Die "Industrie" hat schnell erkannt, dass
> Windows eine Win-Win Sache ist.

Nicht für alle.

> Windows hat einen Standard erschaffen, von dem alle profitieren.

Das bestreite ich nicht. Es ist aber ein proprietärer Standard ohne 
inneren Wettbewerb, wie es ihn bei DOS noch gab.

> Das
> hat allen einen Riesenmarkt eröffnet, der vorher nicht da war.

Das DOS Markt war schon damals riesen groß.

von Nano (Gast)


Lesenswert?

Maxe schrieb:
> Gugel wurde ja bekanntermaßen staatlich unterstützt, Amazun zumindest im
> Cloudbereich ebenfalls.
> Ist in der Richtung etwas über MS bekannt?

Microsoft galt Anfangs als Softwarehersteller für reine Konsumenten und 
Unternehmen.
Mit Windows NT versuchten sie daher irgend so einen MIL Standard (Name 
leider vergessen) zu erfüllen, damit sie für die Regierung und dessen US 
Militär interessant wurde und Windows NT dort dann eingesetzt werden 
durfte.

von Udo K. (udok)


Lesenswert?

Nano schrieb:
> Udo K. schrieb:
>> Nano schrieb:
>>> Warum haben Digital Research, Novel, Borland und andere Verlierer des
>>> Windows Siegeszugs nie versucht Windows 3.x, Win9x und WinNT zu klonen
>>> oder wenigstens eine eigene crossplattformfähige GUI API mit Toolkit API
>>> zu erschaffen um von Microsoft Windows unabhängig zu werden?
>>
>> 2022 - Das Jahr in dem die die große Langeweile ausbricht?
>>
>> Die Kriegsrhetorik ist nur in deinem Kopf. Digital Research, Novel und
>> Borland waren keine Verlierer.
>
> Digital Research hatte DR DOS und stand nach Windows praktisch mit
> nichts da.
>
> Novel hatte Novell Network, kaufte noch DR-DOS von DR und stand nach dem
> Siegeszug von Windows NT, das ebenso Netzwerkfähig war, praktisch mit
> nichts da.
>
> Borland verlor gegen Microsoft das Rennen bei den C und C++ Compilern,
> weil Microsoft durch die Plattformbindung an Windows NT und interne
> Kenntnisse von WinNT deutlich im Vorteil war.
> Turbo Pascal war eine DOS only Geschichte und mit dem Windows Siegeszug
> obsolete. Letzten Endes versuchte dann Borland sich mit dem
> plattformunabhängigen Java und der IDE JBuilder, sowie dem Port der
> Delphi IDE nach Linux zu retten, was denen auch nicht gelangt.

Alle diese Unternehmen hatten Dank Windows einen 100x größeren Markt.
Das manche das nicht realisiert haben, und in eine Schockstarre gefallen 
sind, kann man MS nicht anlasten.  Das war einer der wenigen Augenblicke 
wo Kapitalismus funktionierte.

Das Beispiel mit Borland ist völlig an den Haaren herbeigezogen.
Für eine C++ Compiler / IDE braucht es keine unbekannten nicht 
dokumentierten Windows Interna.  Die Windows API war schon vor Petzold 
100% dokumentiert.
Schau dir doch selber den Sourcecode von MFC oder MSVCRT an.  Der war 
schon damals öffentlich zugänglich, und enthält keine Geheimnisse.

All die Firmen, die du nennst haben einfach Entwicklungen verschlafen, 
und keine innovativen Features rausgebracht.  Obwohl das in der 
damaligen Zeit sehr einfach war, SW war noch nicht so ausgereift wie 
heute.  Nur ging es halt damals technologisch heisser her als heute, und 
wer 3 Jahre verschlafen hatte, war plötzlich nicht mehr dabei.  Die 
meisten Firmen haben aber doch ihre Marktnische gefunden und mehr 
verdient als in den Jahren vor Windows.

Was du mit deiner DOS Nostalgie hier immer willst, verstehe ich nicht.
Das war doch grottenhässlich und umständlich.  Mann bin ich froh, das 
das weg ist.  Muss man das 2022 wirklich alles wiederkäuen?

von Nano (Gast)


Lesenswert?

Udo K. schrieb:
> Alle diese Unternehmen hatten Dank Windows einen 100x größeren Markt.

Wie kommst du darauf, dass der Markt wegen Windows größer wurde?

Der Markt wurde generell größer, weil jeder einen Computer haben musste 
und die HW Preise drastisch sanken.

Das OS war für das Wachstum des Marktes eher nebensächlich. Hätte es 
Windows nicht gegeben, hätte mittelfristig OS/2 diese Aufgabe erfüllt.


> Das Beispiel mit Borland ist völlig an den Haaren herbeigezogen.
> Für eine C++ Compiler / IDE braucht es keine unbekannten nicht
> dokumentierten Windows Interna.  Die Windows API war schon vor Petzold
> 100% dokumentiert.
> Schau dir doch selber den Sourcecode von MFC oder MSVCRT an.  Der war
> schon damals öffentlich zugänglich, und enthält keine Geheimnisse.

Die Leute kauften aber Visual C++ weil sie sich davon eine bessere 
Integration in Windows versprachen.
Visual C++ war nicht irgendeine IDE, es war die IDE des Herstellers der 
auch das Windowsökosystem herausbrachte.

> Die
> meisten Firmen haben aber doch ihre Marktnische gefunden und mehr
> verdient als in den Jahren vor Windows.

Das liegt aber nicht an Windows, sondern dem allgemein größer gewordenen 
Markt.

> Was du mit deiner DOS Nostalgie hier immer willst, verstehe ich nicht.

Es war ein Beispiel wie ein Markt sein kann, wenn verschiedene 
Hersteller ein zum Marktführer kompatibles OS anboten.
Kennst du ein besseres Beispiel wo das so ist?

> Das war doch grottenhässlich und umständlich.

Das ist hier nicht relevant. Für die Plattform, für die es entwickelt 
wurde, den IBM PC mit anfangs extrem wenig RAM, war es ein brauchbares 
stabiles OS.
Eine grafische Oberfläche wie Windows, wäre auf so einem Rechner gar 
nicht realisierbar gewesen. Ebensowenig ein Mehrbenutzer OS mit 
Rechtetrennung der einzelnen Nutzer und Prozesse. Für so etwas brauchte 
man bessere CPUs, die erst in der x86 Welt in brauchbar mit dem 386er 
erschien und anfangs noch tausende Dollar kostete.

von Pandur S. (jetztnicht)


Lesenswert?

Nochwas zu Digital Equipment Corporation. Die haben zu lange ueber den 
PC gelaechelt. Waehrend der PC noch mit 8086 lief hatten die den 
PDP11/23 fuer einfahcere Geschichten, und die VAX1/780 fuer 
anspruchsvollere Anwendungen. DEC war fuer technische anwendungen, zB 
Satellitenbilder zusammensetzen, usw. Waehrend IBM fuer Banking und 
Buchhaltung war. Bei DEC war die software an die Hardware gebunden, jede 
Maschine hatte eine Seriennummer, und die gekauft Software lief nur da 
drauf. Auf den VAX lief ein VMS, bereits ein Multiuser, Multitasking 
System. Die waren eigentlich nie eine Konkurrenz zum PC, auch umgekehrt 
nicht. Die Anwendungen auf den PC wurde immer aufwendiger, 
anspruchsvoller und schneller, und waren stets guenstiger als die 
Grossrechneranwendungen. Wie die sich die Rechenleistunfgen der 
Grossrechner entwickelten weiss ich nicht, aber sicher langsamer. Weil 
eben weniger Geld in die Entwicklung floss. DEC wollte dann anfangs 90 
noch einen 64 bit Prozessor entwickeln, den Alpha, hat's dann aber nicht 
mehr geschafft. Ich weiss nicht mehr wann die PC die DEC Rechner 
ueberholt hatten.

Wesentlich fuer den PC war auch die Verfuegbarkeit von zahlbaren 
Compilern.

von (prx) A. K. (prx)


Lesenswert?

Die VAX Architektur widersetzte sich sehr wirkungsvoll einer erheblichen 
Beschleunigung der Hardware. Der Versuch war zwar erfolgreich, aber 
ruinös, weshalb DEC danach erst auf MIPS wechselte, dann auf Alpha.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Pandur S. schrieb:
> Ich weiss nicht mehr wann die PC die DEC Rechner ueberholt hatten.

Der Pentium Pro war jener Prozessor, ab dem Intel mit der Konkurrenz in 
etwa mithalten konnte.

von Pandur S. (jetztnicht)


Lesenswert?

IBM war noch lange Zeit bei den Banken drin, ist es moeglicherweise 
immer noch. Deren Architektur ist dermassen lausig, dass die 
Geldverschiebungen immer nach Mitternacht gemacht wird. Entgegen den 
heutigen Technologien, welche ermoeglichen Nachrichten, resp 
Datenpackete innerts weniger sekunden umd den Globus zu senden, sind 
Bankzahlungen erst am naechsten Tag angekommen.

: Bearbeitet durch User
von Herbert B. (Gast)


Lesenswert?

Damals waren die Märkte noch klar abgegrenzt, die 
Rechnereinsatz/verbreitung vergleichsweise gering und man träumte davon 
der Platzhirsch zu werden.
Warum sollte man da noch die Konkurrenz mit einer einheitlichen API 
unterstützen die in ihrer Nische vielleicht 1000 Leute interessiert? 
Zudem braucht man dann die ganzen Gerätschaften zum Testen, alles aus 
dem "Profisegment" war schweineteuer, der Aufwand hätte sich nie 
gerechnet.
Zudem waren manche Rechner viel zu primitiv bzw. das OS darunter, 
Speicher knapp. Ein einheitliches Layer frisst da unnötig Platz und 
Performance, damals hat man um jedes Byte gekämpft. Waren einfach andere 
Zeiten die man sich heute schwer vorstellen kann.

von (prx) A. K. (prx)


Lesenswert?

Pandur S. schrieb:
> Deren Arbictektur ist dermassen lausig

Die 60er Jahre lassen grüßen. In denen steckt noch die 360 Architektur 
drin  wenngleich xmal aufgebohrt. Schwerpunkt für Banken ist aber die 
Verfügbarkeit, und da sind die IBMs top.

von Nano (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Pandur S. schrieb:
>> Ich weiss nicht mehr wann die PC die DEC Rechner ueberholt hatten.
>
> Der Pentium Pro war jener Prozessor, ab dem Intel mit der Konkurrenz in
> etwa mithalten konnte.

Dem stimme ich ebenfalls zu.

Allerspätestens dann eben mit dem Pentium 2.
Und bei AMD war es wohl der Athlon.

von Nano (Gast)


Lesenswert?

Herbert B. schrieb:
> Damals waren die Märkte noch klar abgegrenzt, die
> Rechnereinsatz/verbreitung vergleichsweise gering und man träumte davon
> der Platzhirsch zu werden.

Jetzt darf man hier aber nicht Hardwarehersteller miteinander 
vergleichen.
Ich habe ja ganz bewusst von Software Firmen gesprochen, die mit DOS 
groß wurden.

Und der Zeitraum des hier relevanten Jahrzehnts waren nicht die 80er, wo 
es noch viele verschiedene konkurrierende Systeme gab, sondern die 90er, 
als langsam absehbar war, dass die x86 Architektur die Marktführerschaft 
übernehmen wird.
Der Pentium Pro erschien Ende 1995, der Pentium 1993 und an dem konnte 
man bereits sehen, wo der Weg hinführen wird.

von Udo K. (udok)


Lesenswert?

Nano schrieb:
>>
>> Der Pentium Pro war jener Prozessor, ab dem Intel mit der Konkurrenz in
>> etwa mithalten konnte.
>
> Dem stimme ich ebenfalls zu.

Deutlich später.  Damals drehten die Workstation CPUs (Spark, HP, IBM 
Power) noch Kreise um Intel.  Allerdings 10x so teure Kreise, was aber 
in den Branchen die die einsetzten keine Rolle spielte.

Der Intel Durchbruch kam deutlich später mit der 64 Bit Architektur und 
ordentlichen Befehlssatzerweiterungen (AVX), erst da wurde die 
Spezialsoftware ernsthaft auf Intel Prozessoren / WinNT portiert.

von Nano (Gast)


Lesenswert?

Udo K. schrieb:
> Nano schrieb:
>>>
>>> Der Pentium Pro war jener Prozessor, ab dem Intel mit der Konkurrenz in
>>> etwa mithalten konnte.
>>
>> Dem stimme ich ebenfalls zu.
>
> Deutlich später.  Damals drehten die Workstation CPUs (Spark, HP, IBM
> Power) noch Kreise um Intel.  Allerdings 10x so teure Kreise, was aber
> in den Branchen die die einsetzten keine Rolle spielte.

Mit dem Pentium Pro wurden die ersten x86 basierten Super Computer 
gebaut.

Als Beispiel wäre da z.B: der ASCI RED bestehend aus 9298 Pentium Pro 
CPUS zu nennen:
https://en.wikipedia.org/wiki/ASCI_Red

Das war der erste Supercomputer der die 1 TFLOPS Marke erreichte und 
weil das x86 CPUs von der Stange waren, war er auch preiswerter als die 
Konkurrenz.


> Der Intel Durchbruch kam deutlich später mit der 64 Bit Architektur und
> ordentlichen Befehlssatzerweiterungen (AVX), erst da wurde die
> Spezialsoftware ernsthaft auf Intel Prozessoren / WinNT portiert.

Das sehe ich nicht so.
Natürlich mag es Anwendungsfälle geben, wo eine 32 Bit CPU noch optimal 
ist und sicherlich ist der Übergang auch fließend, aber die Frage war ja 
eher so zu verstehen, wann Intel das erste mal in dem Sektor ernsthaft 
mitmischen konnte und das ist eben durch die Pentium Pro basierten 
Supercomputer belegt.
Spätestens hier kann man nicht mehr von einem reinen Konsumerprozessor 
für Endkonsumenten sprechen.

von (prx) A. K. (prx)


Lesenswert?

Der Schlüssel waren die Mikroarchitektur und die Fliesskommaleistung. 
Der erste Schritt bei der FPU war der P5 Core (Pentium) mit seinem 
Pipelining, aber das reicht noch nicht, setzte zudem eine spezielle 
Programmierung voraus. Mit dem P6 Core (Pentium Pro) wurde durch die 
Out-Of-Order Implementierung die Begrenzung durch den x86 Befehlssatz 
und dessen geringe Anzahl Register adressiert.

Über Pentium II und III bis Pentium M blieb der P6 Core weitgehend 
erhalten. Nach der Abirrung des Pentium 4 kehrte Intel mit einer 
wesentlich renovierten Mikroarchitektur zurück, die aus dem Pentium M 
entwickelt wurde. Bis heute erinnern Intels Mainstream-Cores immer noch 
teilweise an den P6.

Anfangs wurde er überwiegend in Servern und Workstations eingesetzt, 
weil der Pentium MMX für Clients besser taugte. Die Handhabung der 
Segmentregister für den erheblichen Anteil an 16-Bit Code spielte dabei 
eine Rolle. Bei normalen PCs/Clients setzte sich erst der Nachfolger 
Pentium II durch.

Im Bereich der Workstations verschob sich ab dem Pentium Pro allmählich 
der Markt von den genannten UNIX Maschinen hin zu Intel, denn die Kunden 
erkannten, dass sie mit wesentlich günstigerer PC-Hardware nun auch 
recht weit kamen.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

AMD hatte damals ein wenig Pech. Die Entwicklung des K6 (bei NexGen) 
fand zu einem Zeitpunkt statt, in dem die FPU Leistung nicht von allzu 
grosser Bedeutung war. Entsprechend war die FPU wie früher als 
Coprozessor vorgesehen, der dann zwar in den K6 integriert wurde, aber 
in der Kommunikation ein Coprozessor blieb. Schlecht war diese FPU 
keineswegs, aber nicht gepipelined.

Weil die Anwender nun über die aufkommenden Games massiv FPU-Leistung 
nachfragten, weil bei Intel möglich, sah der K6 in diesen Bereich 
schwach aus. Das änderte sich erst mit dem K7 (Athlon), und ganz 
besonders bei Workstations und Servern mit dem K8 (Opteron) der Intel 
deutlich hinter sich liess.

: Bearbeitet durch User
von Udo K. (udok)


Lesenswert?

Nano schrieb:
> Spätestens hier kann man nicht mehr von einem reinen Konsumerprozessor
> für Endkonsumenten sprechen.

Der Pentium Pro war für den Konsumerbereich gebaut.  Er hatte etliche 
Features nicht, die im Workstation Bereich schon damals 
selbstverständlich waren.
Auch heute noch fehlen den Consumer Intel CPUS Features. Darum gibt es 
auch die Intel Xeon Linie, die aber nicht so viel billiger ist/war als 
die damalige Konkurrenz.  Nur gab es billige Mainboards, Komponenten und 
OS. Das man mit billigen Komponenten schnelle Parallelrechner bauen 
kann, ist da keine Widerspruch.  Bei Single-Core Anwendungen ist der 
Pentium Pro aber bescheiden.  Die im Workstationbereich wichtige 
Floating-Point Performance und Speicherbandbreite waren im Vergleich 
unterirdisch. Das wurde erst richtig Konkurrenzfähig mit SSE2/AVX.

Ich kann dir nur aus eigener Erfahrung bei mehreren Firmen sagen,
dass um 2005 herum SW für Chipdesign (Layout und Simulation) ausnahmslos 
auf Workstations (Sparc / SUN) lief.  Genausso war es damals am 
Nachrichtentechnik Instiut auf der Uni: HP Worksations mit X11 
Terminals.  Am Computergrafikinstiut: Silicon Graphics Indy Workstation 
mit der schnellen OpenGL Grafikkarte.  PC für gab es für die Sekretärin.
Ähnlich im Ingenieurbüro: Workstation als Fileserver und für 
Simulationen.
Windows NT als Client für das Fußvolk.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> Auch heute noch fehlen den Consumer Intel CPUS Features. Darum gibt es
> auch die Intel Xeon Linie, die aber nicht billiger ist/war als die
> damalige Konkurrenz.

Das ist eine von Intel kontrolliert adressierte Marksegmentierung. Die 
kleinen Xeons nutz(t)en den gleichen Die und den gleichen Sockel wie die 
Desktop-Prozessoren der gleichen Generation, schalten aber Features 
frei, die bei den Desktops gesperrt sind.

Es gab eine Zeit, in der ein bestimmter Xeon billiger als der circa 
äquivalente i7 war, aber die gleiche Leistung bot. Der Xeon adressierte 
kleine Server, durfte also nicht zu teuer sein. Der i7 adressierte die 
Hardcore-Gamer mit dickem Geldbeutel, durfte also nicht zu billig sein. 
Später hat Intel dem einen Riegel vorgeschoben.

: Bearbeitet durch User
von Udo K. (udok)


Lesenswert?

(prx) A. K. schrieb:
> Das ist eine von Intel kontrolliert adressierte Marksegmentierung. Die
> kleinen Xeons nutzen den gleichen Die wie die Desktop-Prozessoren der
> gleichen Generation, schalten aber Features frei, die bei den Desktops
> gesperrt sind.

Wird vielleicht im Einstiegssegment so sein, ich habe da keine wirkliche 
Ahnung.  Die größeren Xeons sind aber andere Kaliber.

Ich bin ja auf die neuen Intel Raptor Lake CPUs gespannt.
Die erreichen 5.8 GHz, und haben die Anzahl der Cores fast verdoppelt.
Da tut sich seit Jahren wieder mal richtig was.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> Ich bin ja auf die neuen Intel Raptor Lake CPUs gespannt.

Und ich als Serveradmin eher auf Sapphire Rapids, Intel Äquivalent zum 
Berliner Airport. Das wird und wird nix.

von Udo K. (udok)


Lesenswert?

Pandur S. schrieb:
> IBM war noch lange Zeit bei den Banken drin, ist es moeglicherweise
> immer noch. Deren Architektur ist dermassen lausig, dass die
> Geldverschiebungen immer nach Mitternacht gemacht wird. Entgegen den
> heutigen Technologien, welche ermoeglichen Nachrichten, resp
> Datenpackete innerts weniger sekunden umd den Globus zu senden, sind
> Bankzahlungen erst am naechsten Tag angekommen.

DAS hat aber ganz andere Gründe...  Die Banken spekulieren bis zum 
nächsten Morgen (früher waren es auch gerne 2-3 Tage, nicht Mitternacht) 
mit deinem Geld...

Und die IBM Architektur war alles andere als "lausig".  Ein bisschen was 
darf man bei dem Preis schon erwarten...

von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> Da tut sich seit Jahren wieder mal richtig was.

Besonders bei der erforderlichen und nun auch im oberen Consumer-Bereich 
ankommenden Kühlung für 0,3 kW. ;-)

von Udo K. (udok)


Lesenswert?

(prx) A. K. schrieb:
> Besonders bei der erforderlichen und nun auch im oberen Consumer-Bereich
> ankommenden Kühlung für 0,3 kW. ;-)

Eigentlich nicht besonders.  Die CPUs für den Mainstream haben nach wie 
vor 65 Watt TPD, und die i7 hat glaube ich 125 Watt (kurzfristig 240 
Watt).
Also sogar etwas weniger als AMD Zen 4.  Im Vergleich zu den neuen 
fetten GPUs spielt die CPU schon fast keine Rolle...

von Nano (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Mit dem P6 Core (Pentium Pro) wurde durch die
> Out-Of-Order Implementierung die Begrenzung durch den x86 Befehlssatz
> und dessen geringe Anzahl Register adressiert.

War das nicht eher die Implementierung eines µOps Befehlssatz? Der 
Pentium Pro wurde mit diesem zum RISC Rechner und der x86 Befehlssatz 
wurde per µOps Befehle dann nur noch "emuliert". Ab dem Punkt war es 
auch sinnlos anhand von x86 Opcodetabellen nachzuschauen, wie viele 
Takte ein bestimmter Befehl benötigte.

von Nano (Gast)


Lesenswert?

Udo K. schrieb:
> Nano schrieb:
>> Spätestens hier kann man nicht mehr von einem reinen Konsumerprozessor
>> für Endkonsumenten sprechen.
>
> Der Pentium Pro war für den Konsumerbereich gebaut.  Er hatte etliche
> Features nicht, die im Workstation Bereich schon damals
> selbstverständlich waren.

Wenn du etwas behauptest, dann musst du schon die Features nennen.
Fest steht, er wurde für Server verwendet, nämlich in den bereits 
erwähnten Supercomputern.
Und für die wurden auch spezielle Mainboards und Chipsätze gebaut um die 
CPUs aufzunehmen.

> Auch heute noch fehlen den Consumer Intel CPUS Features. Darum gibt es
> auch die Intel Xeon Linie, die aber nicht so viel billiger ist/war als
> die damalige Konkurrenz.

Damals waren viele Features, die heute in den CPUs integriert sind, in 
separaten Mainboardchipsätzen drin. Um eine CPU also Supercomputer 
tauglich zu machen, mussten lediglich die Mainboards und Chipsätze 
geändert werden, was beim Pentium Pro für die Supercomputer ja auch 
geschah.

Da wurden keine Konsumer Mainboards von der Stange verwendet.

> Ich kann dir nur aus eigener Erfahrung bei mehreren Firmen sagen,
> dass um 2005 herum SW für Chipdesign (Layout und Simulation) ausnahmslos
> auf Workstations (Sparc / SUN) lief.

Du erzählst von einer Perspektive über einen ganz speziellen Bereich. 
Ich sagte aber dass der Übergang fließend war und nach und nach immer 
mehr Bereiche erobert wurden. Der erste war aber der Einsatzbereich, in 
dem der oben bereits erwähnte Supercomputer genutzt wurde.

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> (prx) A. K. schrieb:
>> Mit dem P6 Core (Pentium Pro) wurde durch die
>> Out-Of-Order Implementierung die Begrenzung durch den x86 Befehlssatz
>> und dessen geringe Anzahl Register adressiert.
>
> War das nicht eher die Implementierung eines µOps Befehlssatz?

Das meinte ich, ohne zu sehr ins Detail zu gehen. Die µOps sind dabei 
aber nicht der springende Punkt, sondern sind effektiv die Voraussetzung 
für OOO und renaming.

> Ab dem Punkt war es
> auch sinnlos anhand von x86 Opcodetabellen nachzuschauen, wie viele
> Takte ein bestimmter Befehl benötigte.

Ist immer noch relevant, wenn man sich für die Latenzen interessiert. 
Wieviele Takte ein abhängiger Befehl auf das Ergebnis warten muss.

: Bearbeitet durch User
von Zeno (Gast)


Lesenswert?

Nano schrieb:
> Turbo Pascal war eine DOS only Geschichte und mit dem Windows Siegeszug
> obsolete. Letzten Endes versuchte dann Borland sich mit dem
> plattformunabhängigen Java und der IDE JBuilder, sowie dem Port der
> Delphi IDE nach Linux zu retten, was denen auch nicht gelangt.
Jaein. Das Turbopascalzeugs incl. Turbovision läuft bis heute auf der 
Kommandozeile, sogar unter Win10. Natürlich entwickelt heut keiner mehr 
mit Turbopascal oder dem Nachfolger Borlandpascal. Mit Borlandpascal 
geschriebene Programme laufen auch heutzutage noch, solange sie nicht 
den protected Mode benutzen. Da schmiert schlichtweg der Treiber ab ab 
den man zu diesen Programmen mit liefern muß.
Java war mehr oder weniger ein Hype Ende der 90'ziger konnte sich damals 
aber nicht wirklich durchsetzen, weshalb dann auch der JBuilder floppen 
mußte.
Delphi war durchaus eine Erfolgsgeschichte und wird ja auch heute noch 
entwickelt, mittlerweile in Version 11. Das würde man ganz sicher nicht 
tun, wenn es hierfür keinen Markt gäbe. Die Delphi IDE war seinerzeit 
durchaus bahnbrechend und wurde von vielen IDE-Herstellern incl. MS 
nachempfunden. Da war es nur logisch das da Borland versucht hat dieses 
Konzept auf andere Programmiersprachen wie z.B. Java zu übertragen. Das 
das am Ende nicht funktioniert hat, lag einfach daran das damals die 
Zeit für Java und Javapplikationen mit GUI im Speziellen einfach noch 
nicht reif war. Das Angebot an GUI-Elementen bei JBuilder war im 
Vergleich zu Delphi auch eher mager.
Die Entwicklung von Kylix ist auch dem damaligen Linuxhype geschuldet. 
Da hatten RH und SuSe Distributionen heraus gebracht die sich auch ohne 
fundierte Linuxkenntnisse installieren ließen und zudem auch eine 
windowsähnliche GUI anboten. Es gab eigentlich keine Computerzeitschrift 
die keine Linuxdistribution dabei hatte. Da man auf den Linuxzug mit 
aufspringen wollte hat man halt versucht mit Kylix ein Delphipedant für 
Linux zu schaffen. Kylix lief ja auch auf einem Wineunterbau und auch 
die kompilierten Programme benötigten, wenn ich mich recht entsinne 
einige Winebibliotheken - aber so genau weis ich das nicht mehr, ist 
einfach zu lange. Kommandozeilentools und GUI-Programme waren so 
möglich, hardwarenahes Programmieren oder auch Kernelmodule leider 
nicht.

Langer Rede kurzer Sinn, so erfolglos, wie Du es hier den Usern weiß 
machen willst, war Borland bzw. mittlerweile Embacadero nun auch nicht. 
Natürlich hatten die auch Flops, aber eben auch sehr erfolgreiche 
Produkte.

von db8fs (Gast)


Lesenswert?

Nano schrieb:
>> Der Pentium Pro war für den Konsumerbereich gebaut.
> Wenn du etwas behauptest, dann musst du schon die Features nennen.

Glaub ich auch nicht, zumindest nicht initial. Fakt ist, dass etwa 
zeitgleich mit dem Pentium Pro der Pentium MMX rauskam - gemerged wurden 
die doch erst im Pentium2, meines Wissens nach.

von (prx) A. K. (prx)


Lesenswert?

db8fs schrieb:
> Glaub ich auch nicht, zumindest nicht initial. Fakt ist, dass etwa
> zeitgleich mit dem Pentium Pro der Pentium MMX rauskam - gemerged wurden
> die doch erst im Pentium2, meines Wissens nach.

Neben MMX gab es noch einen weiteren Effekt. Win9x bestand aus einer 
Mischung von 16- und 32-Bit Code. Der P-MMX kam mit dem 16-Bit Code 
besser zurecht als der PPro, weshalb der PPro ausgebremst wurde und 
seinen Preis nicht wert war.

Bei WinNT mit 32-Bit Programmen war das natürlich kein Problem. Es hängt 
somit ab, was hier unter einem "Consumer" versteht. Workstations mit 
WinNT, oder eben das bei Normal-PCs viel häufigere Win9x.

Die Bedeutung von MMX schien mir nicht so hoch zu sein. Erst SSE wurde 
wirklich wichtig.

: Bearbeitet durch User
von Udo K. (udok)


Lesenswert?

Nano schrieb:
> Udo K. schrieb:
>> Nano schrieb:
>>> Spätestens hier kann man nicht mehr von einem reinen Konsumerprozessor
>>> für Endkonsumenten sprechen.
>>
>> Der Pentium Pro war für den Konsumerbereich gebaut.  Er hatte etliche
>> Features nicht, die im Workstation Bereich schon damals
>> selbstverständlich waren.
>
> Wenn du etwas behauptest, dann musst du schon die Features nennen.
> Fest steht, er wurde für Server verwendet, nämlich in den bereits
> erwähnten Supercomputern.
> Und für die wurden auch spezielle Mainboards und Chipsätze gebaut um die
> CPUs aufzunehmen.

Nein, muss ich eigentlich nicht.  Ich muss ja für mein Geld arbeiten :-)
Wenn es dich interessiert, dann kannst du ja nachschauen.

>
>> Auch heute noch fehlen den Consumer Intel CPUS Features. Darum gibt es
>> auch die Intel Xeon Linie, die aber nicht so viel billiger ist/war als
>> die damalige Konkurrenz.
>
> Damals waren viele Features, die heute in den CPUs integriert sind, in
> separaten Mainboardchipsätzen drin. Um eine CPU also Supercomputer
> tauglich zu machen, mussten lediglich die Mainboards und Chipsätze
> geändert werden, was beim Pentium Pro für die Supercomputer ja auch
> geschah.
>
> Da wurden keine Konsumer Mainboards von der Stange verwendet.

Supercomputer != Workstation.  Das sind Spezialanfertigungen.
Die Supercomputer Benchmarks sind parallele Benchmarks, das sind keine 
typischen Workstation Aufgaben.
Theoretisch könntest du da auch viele Raspberry Pi's verbauen.
Musst halt richtig viele davon nehmen.


>> Ich kann dir nur aus eigener Erfahrung bei mehreren Firmen sagen,
>> dass um 2005 herum SW für Chipdesign (Layout und Simulation) ausnahmslos
>> auf Workstations (Sparc / SUN) lief.
>
> Du erzählst von einer Perspektive über einen ganz speziellen Bereich.

Ja. Ein Bereich, in dem Workstations typischerweise verwendet wurden.

Typische Netlib Flops aus der Zeit 1994:
1
386DX-40 (OS2): 0.01
2
Atari Falcon (68030, 20 MHz mit Coprozessor): 0.35
3
VAX 8650 (18 MHz) 1.6
4
NeXTstation/2 (68040, 25MHz): 2.8
5
486DX4/100: 7
6
AMD5K86-P90: 18
7
Pentium P5-100: 44
8
AMD K6: 71
9
Pentium P6-200: 84
10
Pentium Pro: 100
11
Sun UltraSPARC-1: 290
12
FujitsuVP2200/10: 450
13
Dec Alpha: 570
14
SGI Challenge: 3300

von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> Pentium P6-200: 84
> Pentium Pro: 100

Der P6 ist der Pentium Pro, und den gab es mit 166 und 200 MHz.

von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> Typische Netlib Flops aus der Zeit 1994:

Wikipedia behauptet:

> AMD K6: 71

1997

> Pentium P6-200: 84
> Pentium Pro: 100

1995

> Sun UltraSPARC-1: 290

1995

Wer es eilig hatte, verwendete den PPro doppelt. Ich hatte einige Zeit 
eine günstig erstandene Compaq-Workstation mit 2xPPro als Homeserver und 
Linux-Spielkiste genutzt. Der Verkäufer hatte die zweite CPU selbst 
nachgerüstet, aber das Spannungsregler-Modul vergessen.

: Bearbeitet durch User
von Udo K. (udok)


Lesenswert?

(prx) A. K. schrieb:
> Wer es eilig hatte, verwendete den PPro doppelt. Ich hatte einige Zeit
> eine günstig erstandene Compaq-Workstation mit 2xPPro als Homeserver
> genutzt. Der Verkäufer hatte die zweite CPU selbst nachgerüstet, aber
> das Spannungsregler-Modul vergessen.

Ich hatte sowas mal von HP.  Den Höllenlärm der Lüfter habe ich heute 
noch in den Ohren.

Die Netlib Benchmarks stammen aus der Zeit 1992 - 1997.

von (prx) A. K. (prx)


Lesenswert?

Udo K. schrieb:
> Den Höllenlärm der Lüfter habe ich heute noch in den Ohren.

Die Kiste stand in der Küche und war definitiv leiser als der Mixer. 
Ärger war eine eigentliche FuSie Workstation mit 2x Opteron 240. Dafür 
aber flott.

Aber die Zeiten sind vorbei. Nun ists ein lautloser Laptop als Client.

: Bearbeitet durch User
von Schlaumaier (Gast)


Lesenswert?

DerEgon schrieb:
> Warum niemand Windows 3.x "geklont" hat, ist recht eindeutig

Diese Aussage ist klar FALSCH.

Und auch die Aussage mit den Raubkopierern ist NICHT richtig.

Die klare Konkurrenz war von IBM das OS/2.
https://de.wikipedia.org/wiki/OS/2

Ich habe sogar damals Vobis-Rechner mit DOPPEL-OS und aktivierten OS/2 
auf Windows im Boot-Manager umgestellt damit die Kisten mit Win 3.1 
startete.


Was die Frage des TO angeht.

Es ist wie immer. Nicht das beste OS gewinnt, es gewinnt das was die 
Massen glücklich macht, oder wo man den Massen einreden kann, das es das 
beste OS ist.

Und DAS geht am einfachsten in den man den Anwender zu den OS Software 
liefert. Und man muss die Software-Firmen überreden für das OS was zu 
schreiben.

Das selbe Spiel ist 1:1 der Konsolen-Markt.  Die beste Konsole taugt 
nix, wenn man keine Software bekommt.  Und MS ist damit auch auf den 
Nase gefallen. Für das "'Ms/Nokia OS" auf den Handys wollte keiner 
entwickeln.

Und so wurde aus einer Weltmarke die den Zug verpasst hat, und die 
keiner mehr wollte ein Billig-Heimer.

MS steuert da übrigens inzwischen mit seinen Milliarden $ gegen, und hat 
einige TOP-Spiele-Schmieden aufgekauft. Liest man hin+wieder in 
Spiele-Zeitungen.

von Nano (Gast)


Lesenswert?

Zeno schrieb:
> Nano schrieb:
>> Turbo Pascal war eine DOS only Geschichte und mit dem Windows Siegeszug
>> obsolete. Letzten Endes versuchte dann Borland sich mit dem
>> plattformunabhängigen Java und der IDE JBuilder, sowie dem Port der
>> Delphi IDE nach Linux zu retten, was denen auch nicht gelangt.
> Jaein. Das Turbopascalzeugs incl. Turbovision läuft bis heute auf der
> Kommandozeile, sogar unter Win10.

Auch die Eingabeaufforderung von WinNT ist auch nur eine Nachbildung für 
diverse DOS Systemaufrufe und die wird Turbo Pascal nach wie vor nutzen.
Aber ich denke, es ist klar, das ich das nicht meinte.
Genauer ist es hier beschrieben:
https://de.wikipedia.org/wiki/Cmd.exe

Sobald man Grafikfeatures nutzen möchte, was programmiertechnisch 
durchaus mit TP möglich wäre, steigt die CMD aus. Das wird von der dann 
nicht mehr unterstützt. Da braucht man dann Software wie bspw. die 
DOSBox.

Die CMD bietet Unterstützung für DOS Programme im Textmodus, das war es 
aber dann auch schon.

> Natürlich entwickelt heut keiner mehr
> mit Turbopascal oder dem Nachfolger Borlandpascal. Mit Borlandpascal
> geschriebene Programme laufen auch heutzutage noch, solange sie nicht
> den protected Mode benutzen. Da schmiert schlichtweg der Treiber ab ab
> den man zu diesen Programmen mit liefern muß.

Es geht einfach darum, dass man, wenn man so etwas wie TP unter Windows 
will, besser gleich mit Delphi weitermacht.

> Java war mehr oder weniger ein Hype Ende der 90'ziger konnte sich damals
> aber nicht wirklich durchsetzen, weshalb dann auch der JBuilder floppen
> mußte.

Der ist aus anderen Gründen gefloppt. Es gab z.B. genug alternative 
bessere IDEs. Java selbst ist durchaus ein Erfolg geworden.

> Delphi war durchaus eine Erfolgsgeschichte und wird ja auch heute noch
> entwickelt, mittlerweile in Version 11.

Delphi ist ein Nischensystem geworden für gewachsenen Code.
Allein schon Programmierer zu finden wird heute schwierig und es kostet 
noch Geld, während es für andere Sprachen kostenlose Compiler gibt.
Neue Projekte startet kein junges Unternehmen mehr in Delphi.

> Langer Rede kurzer Sinn, so erfolglos, wie Du es hier den Usern weiß
> machen willst, war Borland bzw. mittlerweile Embacadero nun auch nicht.

Es geht einfach darum, dass die große Zeit von Borland einfach vorbei 
ist.
Ihren Höhepunkt hatte sie in den DOS Tagen und dann ging es abwärts.

von Nano (Gast)


Lesenswert?

Schlaumaier schrieb:
> Was die Frage des TO angeht.
>
> Es ist wie immer. Nicht das beste OS gewinnt, es gewinnt das was die
> Massen glücklich macht, oder wo man den Massen einreden kann, das es das
> beste OS ist.

Das war nicht meine Frage.
Meine Frage war, warum man Windows nicht geklont hat oder wenigstens 
eine standardisierte API Abstraktion erstellt hat, die dann überall 
lief.

Das bessere OS war übrigens nicht OS/2, sondern WinNT.

WinNT war mehrbenutzerfähig, OS/2 nicht.
WinNT war von Anfang an ein reines 32 Bit OS, OS/2 fing mit dem 286 an.
WinNT war leichter zu updaten als OS/2.
WinNT wurde schon recht früh multimediatauglich gemacht, während OS/2 
den Zug verpasste.


> Das selbe Spiel ist 1:1 der Konsolen-Markt.  Die beste Konsole taugt
> nix, wenn man keine Software bekommt.  Und MS ist damit auch auf den
> Nase gefallen. Für das "'Ms/Nokia OS" auf den Handys wollte keiner
> entwickeln.

MS hätte beim Handy 5 Jahre länger durchhalten müssen, dann würde es 
heute anders aussehen.
Denn bis Windows Phone wirklich gut wurde, dauerte das bis kurz vor 
dessen Bekanntgabe der Beendigung.
Natürlich hätte das 5 weitere Jahre bedeutet, die MS massiv viel Geld 
kosten.

Und die SW Hersteller hätten zwangsläufig ihre Software dann auch 
portieren müssen, denn wenn eine Lücke nicht bedient wird, springen 
andere ein.
Das war also eine Frage des Durchhaltevermögens und MS wollte halt nicht 
mehr.


> MS steuert da übrigens inzwischen mit seinen Milliarden $ gegen, und hat
> einige TOP-Spiele-Schmieden aufgekauft. Liest man hin+wieder in
> Spiele-Zeitungen.

Ja, leider. Damit festigen sie Windows als Spieleplattform, denn diese 
Titel wird es wohl nie für Linux geben. Zumindest gilt das solange, 
solange MS beim Windows Kernel bleibt.

von Schlaumaier (Gast)


Lesenswert?

Nano schrieb:
> Meine Frage war, warum man Windows nicht geklont hat oder wenigstens
> eine standardisierte API Abstraktion erstellt hat, die dann überall
> lief.

Schon mal was vom Urheberrecht gehört. Das gab es damals auch schon.

Klone sind damals wie heute eine halb-legale Sache. Wenn sie LEGAL sein 
sollen, musst du sie selbst entwickeln, sie dürfen "ähnlich" aussehen, 
aber NICHT gleich.

Den Spagat macht z.b. "linux mint cinnamon" ziemlich gut. Dann wäre da 
noch die Kompatibilität.  DAS bekommt Linux nicht einmal heutzutage 
sauber hin.

Nun hast die die Gründe was gegen einen Clone spricht.

Ich kann da zwar nicht genau mitreden, aber ich weiß das z.b. es 
Unterschiede zwischen den Original-Arduinos + den China-Teilen gibt. Die 
jucken mich selbst zwar nicht, aber die Profis haben anscheinend da ein 
Problem.

Und genau SO wäre es auch passiert.

Anders Beispiel: IBM-Kompatibel. ;)  Da gab es an jeder Kiste ein 
Schalter der den Turbo-Mode ausschalten konnte, um die Kiste 
"Kompatibler"  zu machen. Was einige Software nötig hatte.

Merke : Klonen ist nicht so einfach.  FRAG DOLLY ;)

von (prx) A. K. (prx)


Lesenswert?

Schlaumaier schrieb:
> Merke : Klonen ist nicht so einfach.  FRAG DOLLY ;)

Schwierig: † 14. Februar 2003

Die andere ist zwar heftig repariert, aber m.W. nicht geklont.

: Bearbeitet durch User
von Schlaumaier (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Schlaumaier schrieb:
>> Merke : Klonen ist nicht so einfach.  FRAG DOLLY ;)
>
> † 14. Februar 2003

Dann braucht er hat ein Medium. ;)

Aber der Skandal damals war Weltklasse. ;)

von Nano (Gast)


Lesenswert?

Schlaumaier schrieb:
> Nano schrieb:
>> Meine Frage war, warum man Windows nicht geklont hat oder wenigstens
>> eine standardisierte API Abstraktion erstellt hat, die dann überall
>> lief.
>
> Schon mal was vom Urheberrecht gehört. Das gab es damals auch schon.

Ja und? Eigene Implementierungen verletzten das Urheberrecht ja nicht.

> Nun hast die die Gründe was gegen einen Clone spricht.

Nein, siehe oben.
Siehe dazu auch das BIOS, siehe DR DOS als Beispiele, dass eigene 
Implementierungen das Urheberrecht nicht verletzten.


> Anders Beispiel: IBM-Kompatibel. ;)  Da gab es an jeder Kiste ein
> Schalter der den Turbo-Mode ausschalten konnte, um die Kiste
> "Kompatibler"  zu machen. Was einige Software nötig hatte.

Der Turbo Schalter senkte lediglich den Takt und erlaubte es so 
Software, die für den 8086 geschrieben wurde, aber für den AT bereits zu 
schnell war,
trotzdem benutzen zu können.

Später wurde das dann durch Softwarelösungen wie slowdown, die dann 
extra Runden drehten, ersetzt.

von Purzel H. (hacky)


Lesenswert?

OS/2 hat auch nicht die Massen angesprochen, sondern wollte sich eher im 
Powerbereich positionieren. Auch preislich waren die PS/2 doch eher 
oberes Ende.
Deswegen war auch kein Fokus auf Multimedia. Es gab eine Demoversion 
eines compilers, der Richtige war dann teuer. Wenn der Compiler schon 
teuer ist, springt niemand auf.

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
>> Schon mal was vom Urheberrecht gehört. Das gab es damals auch schon.
>
> Ja und? Eigene Implementierungen verletzten das Urheberrecht ja nicht.

Es hat allerdings 11 Jahre und sehr viele Dollars gedauert, um das für 
die USA festzustellen.

von (prx) A. K. (prx)


Lesenswert?

Purzel H. schrieb:
> OS/2 hat auch nicht die Massen angesprochen, sondern wollte sich eher im
> Powerbereich positionieren.

Es adressierte Unternehmenskunden, nicht Poweruser.

> Es gab eine Demoversion
> eines compilers, der Richtige war dann teuer. Wenn der Compiler schon
> teuer ist, springt niemand auf.

IBM hatte ein Entwicklerprogramm, bei dem man für praktisch alle 
Produkte lediglich die Medienkosten zahlen musste. Das betraf sowohl 
jene Produkte, für die man entwickelte (z.B. DB2) auch die VisualAge 
Entwickler-Suites, und war keine Demo. Unter welchen Bedingungen seitens 
IBM dafür Geld verlangt wurde, weiss ich aber nicht mehr.

: Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.