Forum: Mikrocontroller und Digitale Elektronik Gibt es irgendwo Liste, die die Fertigungstechnologie in Relation zu den Entwicklungskosten setzt?


von Nano (Gast)


Lesenswert?

Gibt es irgendwo eine Liste, die die Fertigungstechnologie (also die 
Fertigungsgröße gemessen in µm und nm) bei der Chipfertigung in Relation 
zu den Entwicklungskosten setzt?

Laut folgender Liste hat man bspw. 1971 mit dem 10 µm Prozess 
angefangen.
https://www.halbleiter.org/en/technology/

Aber wie groß der Aufwand war, da hinzukommen, steht leider nicht dabei.

Ich frage mich nämlich auch, welche Fertigungsgröße zum damaligen 
Zeitpunkt, also 1970/71 überhaupt realistisch greifbar war und gehe mal 
davon aus, dass die schon damals, als sie quasi ganz am Anfang waren, 
dennoch schon von Beginn an, das maximal mögliche versucht haben.

D.h. ich verstehe das so, dass man bei 10 µm angefangen hat, weil man 
die nächste Stufe, also 3 µm noch nicht hinbekommen hat.

Oder war das eher so, dass man mit 10 µm anstatt 3 µm deswegen 
angefangen, weil es einfacher war, die Investitionskosten geringer waren 
und ebenso zum Ziel führten?
Also die Rechnung eher war, ein möglichst geringes Investitionsrisiko zu 
haben, falls es fehl schlägt?

Eine Gegenüberstellung der Kosten für jeden Entwicklungsschritt wäre 
daher sehr hilfreich.

:
von A. S. (rava)


Lesenswert?

naja es ist ja nicht nur eine Frage des Geldes sondern auch der Zeit. 
Natürlich hätte man gleich 11nm entwickeln können. Hätte halt genauso 
lange gedauert, wie es jetzt gedauert hat.

Der Grund ist, dass viele Innovationen eben erst Schritt für Schritt 
gemacht wurden. Und ohne diese Innovationen wäre es einfach nicht 
gegangen, solche kleinen Strukturen zu erzeugen.

Außerdem:
"you need a crane to build a crane" - also eine 3GHz CPU lässt sich eben 
viel besser designen, wenn man schon eine 2GHz CPU hat, die beim CAD etc 
hilft.

Ich glaube, der Weg, den die Technologie gegangen ist, ist der einzig 
Mögliche: man macht kleine Schritte und generiert nebenbei den Umsatz, 
den man braucht um diese enorme Entwicklung zu finanzieren.

von Nano (Gast)


Lesenswert?

Ja, das ist natürlich schon richtig.
Das jede Schritt auf den vorherigen aufbaut, ist natürlich auch klar.

Was ich mich aber frage ist, ob der technische und zeitliche 
Forschungsaufwand um den letzte kleinsten Größengewinn zu erzielen heute 
relativ betrachtet, nicht weitaus größer ist als damals, als vielleicht 
andere Gründe, z.B. Kapitalbeschaffungsgründe im Vordergrund standen?

Es gibt ja durchaus viele Stellschrauben wo man drehen kann.

Und früher gab es ja auch viel mehr Firmen, die in diese Technologie 
eingestiegen sind und erst später trennte sich dann die Spreu vom 
Weizen, als manche dann nicht mehr mithalten konnten.

Also muss das "grobmotorig" genug gewesen sein, also könnte es da 
vielleicht viel Spielraum gegeben haben, mit welcher Größe man wirklich 
anfängt.
Das ist so die Überlegung worüber ich gerade nachdenke. Vielleicht ist 
es auch schwer zu beschreiben, was ich jetzt meine.

von Max M. (Gast)


Lesenswert?

Nano schrieb:
> Vielleicht ist
> es auch schwer zu beschreiben, was ich jetzt meine.

Ja und auch die Motivation dahinter ist nicht klar.
Was bringt das über 10nm vs. 4nm zu sinnieren, wenn das alles in die 
Multimilliarden € Investitionsecke geht?
Deine Frage verstehe ich so, das Du Dich fragts warum man erst die 
Dampfmaschine erfunden hat, statt gleich den Fusionsreaktor.

Je größer die Stuktur umso kleiner die erzielbaren Taktraten um so 
größer die Die Fläche.
Je größer die Die Fläche um so höher ist der Ausschuss, weil x 
Fehlstellen pro quadratzoll statistisch dazukommen, weil auch 
Reinsträume nie 100% rein sind.

Belichte mal mit 10nm Struktur.
Aber ich denke da wird Dir bei 100um schon der Schweiß auf der Strin 
stehen.
Wenn Du das dann kannst, kannst Du Dich ja schrittweise auf 4nm 
vorarbeiten.
So ist es auch den Herstellern ergangen, bis die das draufhatten.
Geheimnissvoller ist das nicht.

von Nano (Gast)


Lesenswert?

Max M. schrieb:
> Deine Frage verstehe ich so, das Du Dich fragts warum man erst die
> Dampfmaschine erfunden hat, statt gleich den Fusionsreaktor.

Nein, da hast du mich komplett falsch verstanden.

Je grober und unklarer etwas am Anfang ist, desto größer sind die ersten 
machbaren Schritte.


Man könnte also auch fragen, ob man nicht gleich mit 3 µm anstatt 10 µm 
anfangen hätte können.
10 µm sind zudem auch eine runde Zahl, sie erweckt eher den Eindruck, 
als hätte man anfangs gesagt: "Lass und eine Runde Zahl nehmen und erst 
einmal da anfangen".
Denn irgendwo muss man ja anfangen. Warum war es nicht 8,9 µm oder ganz 
optimiert, 8,862 µm?

von Egon D. (Gast)


Lesenswert?

Nano schrieb:

> Was ich mich aber frage ist, ob der technische und
> zeitliche Forschungsaufwand um den letzte kleinsten
> Größengewinn zu erzielen heute relativ betrachtet,
> nicht weitaus größer ist als damals, [...]

Relativ wozu?

Vergleiche mal die Stückzahlen von heute, wo in jeder
Baubude und jedem Gemeindeamt mindestens ein PC steht,
mit denen von 1970...


> Es gibt ja durchaus viele Stellschrauben wo man drehen
> kann.

Nicht nur "kann", sondern auch "gedreht hat" und "drehen
musste".
Die Integrationsdichte, also die minimale Strukturgröße
ist nur ein Parameter unter vielen. Einen NE555 mit 7nm
Strukturgröße stelle ich mir nicht unbedingt sinnvoll
vor...


> Und früher gab es ja auch viel mehr Firmen, die in diese
> Technologie eingestiegen sind und erst später trennte
> sich dann die Spreu vom Weizen, als manche dann nicht
> mehr mithalten konnten.

Das hat zwei Seiten.

Vielleicht KONNTE man etwas leichter einsteigen, das kann
ich nicht beurteilen, man MUSSTE aber auch gleich tiefer
einsteigen, wenn man etwas Spezielles brauchte, was es so
noch nicht integiert gab.
Heute gibt es statt dessen Mikrocontroller, FPGAs und
MPW-Services.


> Also muss das "grobmotorig" genug gewesen sein, also
> könnte es da vielleicht viel Spielraum gegeben haben,
> mit welcher Größe man wirklich anfängt.

Ja und nein.

Preis und Leistung von Prozessoren und Speicher für Computer
hängen direkt vom Integrationsgrad ab; alles, was deutlich
älter als eine Generation ist, ist praktisch nicht mehr mit
Gewinn als Neuware verkaufbar. Das zwingt zu einem relativ
kleinschrittigen Vorgehen, damit man zeitig genug Stückzahlen
liefern kann und ein möglichst großes Stück vom Kuchen
abbekommt.

Das ist aber keineswegs bei allen ICs so. Der große Durchbruch
der Mikrocontroller hing an der Integration der Flash-Speicher,
nicht an der minimalen Strukturgröße.

Und der Preis des fertigen Halbleiters hängt u.a. an der
Wafergröße -- 6" statt 4" bringt mehr als doppelten
Ausstoß.


> Das ist so die Überlegung worüber ich gerade nachdenke.
> Vielleicht ist es auch schwer zu beschreiben, was ich jetzt
> meine.

In der Tat; die Zielrichtung Deiner Überlegungen wird nicht
so recht klar.

von Nano (Gast)


Lesenswert?

Egon D. schrieb:
> Nano schrieb:
>
>> Was ich mich aber frage ist, ob der technische und
>> zeitliche Forschungsaufwand um den letzte kleinsten
>> Größengewinn zu erzielen heute relativ betrachtet,
>> nicht weitaus größer ist als damals, [...]
>
> Relativ wozu?

Gegenüber der vorherigen Stufe.

Also z.B. 3 µm zu 10 µm (früher)
vs.
7 nm zu 11 nm (heute)


> Vergleiche mal die Stückzahlen von heute, wo in jeder
> Baubude und jedem Gemeindeamt mindestens ein PC steht,
> mit denen von 1970...

Hier für die Thematik nicht relevant.


>> Es gibt ja durchaus viele Stellschrauben wo man drehen
>> kann.
>
> Nicht nur "kann", sondern auch "gedreht hat" und "drehen
> musste".
> Die Integrationsdichte, also die minimale Strukturgröße
> ist nur ein Parameter unter vielen. Einen NE555 mit 7nm
> Strukturgröße stelle ich mir nicht unbedingt sinnvoll
> vor...

Und das wäre dann schon ein Indiz, dass man früher sagen konnte, 10 µm 
genügt für das, was wir vorerst an Chip realisieren wollen, lass uns 
damit anfangen.


>> Und früher gab es ja auch viel mehr Firmen, die in diese
>> Technologie eingestiegen sind und erst später trennte
>> sich dann die Spreu vom Weizen, als manche dann nicht
>> mehr mithalten konnten.
>
> Das hat zwei Seiten.
>
> Vielleicht KONNTE man etwas leichter einsteigen, das kann
> ich nicht beurteilen, man MUSSTE aber auch gleich tiefer
> einsteigen, wenn man etwas Spezielles brauchte, was es so
> noch nicht integiert gab.
> Heute gibt es statt dessen Mikrocontroller, FPGAs und
> MPW-Services.

Das ist schon klar. Mir geht es jetzt aber wirklich nur um die direkte 
Chipfertigung.


>> Also muss das "grobmotorig" genug gewesen sein, also
>> könnte es da vielleicht viel Spielraum gegeben haben,
>> mit welcher Größe man wirklich anfängt.
>
> Ja und nein.
>
> Preis und Leistung von Prozessoren und Speicher für Computer
> hängen direkt vom Integrationsgrad ab; alles, was deutlich
> älter als eine Generation ist, ist praktisch nicht mehr mit
> Gewinn als Neuware verkaufbar.

Das ist richtig. Aber früher hat ein Computer noch den Preis eines 
Kleinwagen gekostet und man hat ja erst einmal nur den Markt der reichen 
anvisiert.
So wie Tesla heute auch. Da fing man beim E-Sportwagen für 100000 € an 
und nicht beim 20000 € Otto Normal Kleinwagen.

D.h. man konnte viel mehr verlangen ohne das es irgendwie groß geschadet 
hat.
Mehr produzieren konnte man sowieso nicht, da die Ausbeute und 
Produktionskapazität ja noch gering war.
Da waren hohe Preise und eine große Marge also viel wichtiger.


> Das zwingt zu einem relativ
> kleinschrittigen Vorgehen, damit man zeitig genug Stückzahlen
> liefern kann und ein möglichst großes Stück vom Kuchen
> abbekommt.

Das klingt einleuchtend.

> Das ist aber keineswegs bei allen ICs so. Der große Durchbruch
> der Mikrocontroller hing an der Integration der Flash-Speicher,
> nicht an der minimalen Strukturgröße.

Mir geht es jetzt mehr um normale CPUs, wie eben dem x86, 68k usw..

von Egon D. (Gast)


Lesenswert?

Nano schrieb:

> Man könnte also auch fragen, ob man nicht gleich mit 3 µm
> anstatt 10 µm anfangen hätte können.

Ich halte die Aussage, man hätte 1971 mit 10µm "angefangen",
für Unsinn.

Es mag sein, dass im Jahr 1971 der Intel 4004 mit 10µm
Strukturgröße hergestellt ist, aber das war mit Sicherheit
nicht der erste digitale integrierte Schaltkreis. TTL wurde
beispielsweise 1961 erfunden und in den nächsten Jahren
von mehreren Firmen produziert und weiterentwickelt.
Fast zeitgleich (1962) kam der µA702 -- der ist zwar nicht
digital, aber auch eine INTEGRIERTE Schaltung.


> 10 µm sind zudem auch eine runde Zahl, sie erweckt eher
> den Eindruck, als hätte man anfangs gesagt: "Lass und
> eine Runde Zahl nehmen und erst einmal da anfangen".

Nee -- die von Dir zitierte Seite legt den "Anfang" der
Computerära willkürlich auf den i4004 aus dem Jahr 1971
fest. Das ist m.E. durch überhaupt nichts gerechtfertigt.


> Denn irgendwo muss man ja anfangen. Warum war es nicht
> 8,9 µm oder ganz optimiert, 8,862 µm?

Frag doch mal Richie, ob er auf seinen Chipphotos mal die
Strukturgrößen vermessen mag... :)

von Walter T. (nicolas)


Lesenswert?

Nano schrieb:
> 10 µm sind zudem auch eine runde Zahl, sie erweckt eher den Eindruck,
> als hätte man anfangs gesagt: "Lass und eine Runde Zahl nehmen und erst
> einmal da anfangen".

Tatsächlich sind die 10 µm auch vollkommen willkürlich. Wenn Du auf dem 
realen Die mit dem Rasterelektronenlineal herumprobierst, wirst Du 
Schwierigkeiten haben, die 10 µm tatsächlich irgendwo zu messen.

Macht aber nichts. Denn wenn Du dann endlich die Strukturelemente 
gefunden hat, wo Dein 10 µm-Lineal passt, und das Gleiche bei 3 µm 
versuchst, wirst Du die gleiche Stelle nicht wiederfinden, weil sich die 
Form der Transistor-Strukturen geändert hat.

In den Bezeichnungen der Strukturgrößen steckt viel Tradition, ein wenig 
Phantasie und auch ein Stück Marketing. Genauso wie Du bei einem 
1/2-Zoll-Rohrgewinde keine Stelle finden wirst, wo Du 1/2 Zoll messen 
kannst.

Betrachte sie lieber als Namen als als Zahlen.

: Bearbeitet durch User
von Egon D. (Gast)


Lesenswert?

Nano schrieb:

>> Die Integrationsdichte, also die minimale Strukturgröße
>> ist nur ein Parameter unter vielen. Einen NE555 mit 7nm
>> Strukturgröße stelle ich mir nicht unbedingt sinnvoll
>> vor...
>
> Und das wäre dann schon ein Indiz, dass man früher sagen
> konnte, 10 µm genügt für das, was wir vorerst an Chip
> realisieren wollen, lass uns damit anfangen.

Natürlich war das so.

Computer und Prozessoren gab es schon lange vor dem i4004;
digitale integrierte Schaltkreise auch; Computer wurden in
den 60ern m.W. aus Logikgattern, Zählern, Registern und
Flipflops zusammengebaut.

Zufällig kam jemand auf die Idee, einen kompletten Prozessor
auf einen Chip zu integrieren, just als 10µm Strukturgröße
aktuell war -- deswegen beginnt die Geschichte der integrierten
Mikroprozessoren mit 10µm.

Und es war anfangs auch überhaupt nicht klar, ob das wirklich
eine gute Idee sein würde...


> [...]
> Mir geht es jetzt mehr um normale CPUs, wie eben dem x86,
> 68k usw..

Naja, das, was Du als "normale" CPUs bezeichnest, ist aus
Sicht der Mikroelektronik nur EIN EINZIGER spezieller Zweig --
zugegeben ein recht spektakulärer und prestigeträchtiger.

Die MOSFETs, die die CPU mit den 100A versorgen, die sie
schluckt, sind genauso wichtig, aber viel uninteressanter...

von Pandur S. (jetztnicht)


Lesenswert?

Der Poster verfolgt den falschen Ansatz. Man hat gemacht was moeglich 
war, mit einem vernuenftigen Aufwand, welcher die Kosten wieder 
hereinbrachte.
Ich habe um die 1982 mal den Aufwand fuer einen Integrierten Chip 
gesehen, welcher 20 Jahre frueher in einem Forschungslab gebaut wurde. 
Einfachste Sache, 6502, 8048, oder aehnlich. Das waren also farbige 
Masken, auf Transparentfolie so gross wie ein Kuechentisch, Die wurden 
von Hand mit Baendern beklebt. Jeder Bogen war eine Lage, resp ein 
Arbeitsschritt. Wie ein Satz von Gerberfiles. Nur waren's viel mehr, 
vielleicht 30 Lagen. Diese tischgrossen Folien wurden dann schliesslich 
herunterverkleinert auf die damalige Strukturbreite. 100u, irgendwas. 
Diese Folien wurden also von Spezialisten geklebt, und gegengecheckt. 
Wieviele Anlaeufe es brauchte weiss ich nicht. Allenfalls muss man auch 
debuggen koennen, allenfalls eine, oder zwei Lagen neu, und alles 
nochmals. Nachher lief das alles mit vielleicht 10kHz. Der Megawahnsinn. 
Denn alles vorher lief langsamer.

Da war noch sehr lange nichts mit computergenerier- & drucken. Auch 
Leiterplatten wurden noch mit Baendern auf Folien geklebt. Dann 
belichten & aetzen. Waehrend Leiterplatten im Massstab 2:1, oder 4:1 
geklebt wurden, war das bei den Chips 100:1. Das Material fuer die Chips 
war irgend ein Drecks Silizium. Was halt moeglich war. Mach mal eine 
Projektion von 100:1, allenfalls erst auf eine Zwischengroesse von 
vielleicht 1/10, welche ueberall scharf ist...

Ich stieg um die 1980 beim 8085, 6809, 8086 ein. Die Frequenz war damals 
vielleicht 4MHz, eine Instruktion dauerte je nach Typ 12 oder 4 Takte. 
Das war der Megawahnsinn. so unglaublich schnell.

: Bearbeitet durch User
von Irgend W. (Firma: egal) (irgendwer)


Lesenswert?

Egon D. schrieb:
> Ich halte die Aussage, man hätte 1971 mit 10µm "angefangen",
> für Unsinn.
Dem ist auch so. z.B.: 20 μm (davor hat wohl niemand nachgemessen:-)
- 
https://en.wikipedia.org/wiki/List_of_semiconductor_scale_examples#Products_featuring_20_%CE%BCm_manufacturing_process

wie so oft, man nimmt erstmal das was sowieso schon vorhanden ist, bzw. 
sich aus vorhanden Teilen mit möglichst wenige Erweiterungen/Ergänzungen 
machen lässt. Damit bleiben die Investitionen erstmal in einem 
überschaubaren Rahmen. Wenn sich dann zeigt dass das Produkt am Markt 
ankommt und auch entsprechende Stückzahlen geordert werden fängt man an 
mit dem Optimieren. Dann sind aber auch schon entsprechende Umsätze da 
gegen die man die Kosten gegenüberstellen kann.

Die genauen Kosten wird dir aber wohl niemand nennen können, da waren 
einfach zu viele Forschergruppen, Firmen usw. zum Teil über Jahrzehnte 
dran beteiligt bis alle Bausteinschen zusammen waren. Die "Erfinder" 
habe ja nie bei Null angefangen, sondern auf frühere Arbeiten 
aufgesetzt.

- 
https://en.wikipedia.org/wiki/Timeline_of_electrical_and_electronic_engineering
- https://en.wikipedia.org/wiki/MOSFET#Commercialization

von oszi40 (Gast)


Lesenswert?

Pandur S. schrieb:
> Denn alles vorher lief langsamer.

Dann kommt noch die kleine Frage nach der Ausbeute. Wieviele Nieten bei 
der Produktion anfallen. Was nützen superdünne Leiterzüge, wenn man 99% 
wegwirft?

von Fabbi (Gast)


Lesenswert?

TSMC baut gerade eine Fab für 36E9$.

von Nano (Gast)


Lesenswert?

Pandur S. schrieb:
> Ich habe um die 1982 mal den Aufwand fuer einen Integrierten Chip
> gesehen, welcher 20 Jahre frueher in einem Forschungslab gebaut wurde.
> Einfachste Sache, 6502, 8048, oder aehnlich. Das waren also farbige
> Masken, auf Transparentfolie so gross wie ein Kuechentisch, Die wurden
> von Hand mit Baendern beklebt. Jeder Bogen war eine Lage, resp ein
> Arbeitsschritt. Wie ein Satz von Gerberfiles. Nur waren's viel mehr,
> vielleicht 30 Lagen. Diese tischgrossen Folien wurden dann schliesslich
> herunterverkleinert auf die damalige Strukturbreite. 100u, irgendwas.
> Diese Folien wurden also von Spezialisten geklebt, und gegengecheckt.
> Wieviele Anlaeufe es brauchte weiss ich nicht. Allenfalls muss man auch
> debuggen koennen, allenfalls eine, oder zwei Lagen neu, und alles
> nochmals. Nachher lief das alles mit vielleicht 10kHz. Der Megawahnsinn.
> Denn alles vorher lief langsamer.
>

Das klingt ja so, als könnte man so etwas mit einfachsten Mitteln in der 
"Garage" herstellen, also in einem selbstgebauten Reinraum.
Wäre das realistisch? Ein eigener IC in 10 µm Strukturgröße 
selbstgebaut?

Haben die damals nicht schon Mio Dollar aufwenden müssen, nur um solche 
CPUs in 10 µm Strukturgröße herstellen zu können?

von Max M. (Gast)


Lesenswert?

Nano schrieb:
> Man könnte also auch fragen, ob man nicht gleich mit 3 µm anstatt 10 µm
> anfangen hätte können.

Max M. schrieb:
> Deine Frage verstehe ich so, das Du Dich fragts warum man erst die
> Dampfmaschine erfunden hat, statt gleich den Fusionsreaktor.

Hört sich für mich immer noch so an.
10nm musste man ja erstmal hinbekommen.
Bis dahin wird das schon ewig gedauert haben.
Und ja, am Anfang legt man einfach fiktiv was fest, das man meint 
schaffen zu können.
Vielleicht aufgrund eines einfachen Laboraufbaues, der zwar mit 10nm 
nicht funzt, aber für den Aufwand den man getrieben hat schon recht 
dicht dran liegt und Hoffnung macht es mit mehr Aufwand für 10nm 
schaffen zu können.

9,375nm hätte keinen Sinn gemacht, weil man ohnehin besser als 10nm sein 
muss, um 10nm zuverlässig zu schaffen.
8nm macht auch keinen Sinn weil der Vorteil zu 10nm marginal ist.
Also eine Technologie beherrschen und dann einen kräftigen Sprung nach 
vorn.

Das ist doch überall so.
Wenn man PCBs selbst belichtet fängt man z.B. mit 0,5mm Leiterbahnen an 
und wenn die echt super und scharf aussehen und auch die 0,5mm Abstand 
kein Problem sind, dann probiert man 0,254mm.
Man kommt schnell dahin, das es eine Rolle spielt wie alt der Lack ist, 
wie dick beschichtet, welche Belichtungsvorlage, wie rum die auf der PCB 
liegt, wie viele Röhren man im Belichtungsgerät hat und wie gleichmäßig 
das Licht ist.
Um dann irgendwann 100um zu schaffen ist das Equipment dann um ein 
vielfaches teuerer als die olle Röhre über bedrucktem Butterbrotpapier 
auf selbt besprühten FR4 Platten die man im Backofen getrocknet hat, 
aber all das muss man erst rausfinden.
Erst wenn man die Einflussfaktoren aller Einzelschritte kennt und 
beherrschen kann, kann man immer besser werden und auch da wieder 
dazulernen weil Dnge die vorher im Rasuchen untergingen immer mehr 
Gewicht bekommen.
Genau so läuft das in der Halbleitertechnik.
Als kann man natürlich mit 3nm anfangen wollen, aber dann würden wir 
heute noch Prozessoren aus Einzeltransistoren aufbauen.

von Egon D. (Gast)


Lesenswert?

Nano schrieb:

> Das klingt ja so, als könnte man so etwas mit einfachsten
> Mitteln in der "Garage" herstellen, also in einem
> selbstgebauten Reinraum. Wäre das realistisch? Ein eigener
> IC in 10 µm Strukturgröße selbstgebaut?

Das versuche ich ja die ganze Zeit zu erklären: Ja und Nein.

Ja, im Prinzip ist das realistisch. Die Auflösung von unter
10µm ist mit hochwertigen Kleinbildobjektiven oder Mikroskop-
objektiven machbar. Auch die notwendigen Handhabungssysteme
und die Öfen kann man in vereinfachter Ausführung selbst
bauen. Die Gerätetechnik ist nicht das Problem.

Aber: Nein, das ist nicht wirklich realistisch, denn erstens
muss man mit recht unangenehmer Chemie herumhantieren. Zur
Reinigung der Wafer ("Piranha-Lösung") wird z.B. H2O2,
Schwefelsäure, Flusssäure und Ammoniaklösung verwendet. Will
man das in seiner Garage haben? Gasphasenepitaxie erfordert
i.d.R. Silane -- die Feuerwehr wird Dir schon etwas husten,
wenn Du denen erzählst, dass Du in Deiner Garage mit Silan
herummachst. Von Arsen- oder Phosphorverbindungen zum
Dotieren haben wir noch gar nicht geredet...

Zweitens lassen sich auch mit simplen Geräten brauchbare
Ergebnisse erzielen, wenn man die Prozessführung und die
Technik empirisch optimiert -- schlicht und einfach durch
Versuchsreihen. (Genauso haben die Profis das auch jahr-
zehntelang gemacht.) Das ist grundsätzlich simpel, kostet
aber viel Zeit. Wieviel hundert Mannjahre kannst Du
investieren?


> Haben die damals nicht schon Mio Dollar aufwenden müssen,
> nur um solche CPUs in 10 µm Strukturgröße herstellen zu
> können?

Ja, sicher -- denn die konnten damals nicht einfach eine
Ablaufsteuerung mit einem Arduino hinbasteln, oder einen
Induktionsheizer mit ein paar IGBTs kampfbasteln. Es gab
nämlich weder IGBTs noch Arduino.

Die frühen Generationen der Fertigungstechnik sind im
Prinzip keine Raketentechnik -- es ist die Fülle der
ingenieurtechnischen Anforderungen und Schwierigkeiten,
die es zum Problem werden lässt.

Viele Prozesse laufen ja im Vakuum ab -- mit der Folge,
dass JEDER Werkstoff, der im Rezipienten verwendet werden
soll, auf Vakuumtauglichkeit getestet werden muss. Dasselbe
gilt entsprechend für Hochtemperaturschritte und für alle
nasschemischen Schritte.

Die Masse machts.

von Nano (Gast)


Lesenswert?

Egon D. schrieb:
> ...

Danke für deine ausführliche Erklärung.
Ja, mir wäre das alles zu viel Aufwand und Chemie ist nicht mein Ding.
Vielleicht gibt's mal irgendwelche Leute aus dem Open Hardware Lager die 
so etwas machen wollen.

Aus Datenschutzsicht wäre es sicher interessant (Stichwort: Intel 
Management Engine in neuen CPU).
Anderseits würde es nur Sinn machen, wenn diejenigen die Strukturbreite 
auf das für sie möglichst machbare drücken könnten, denn die 
Datenschutzfrage ist ja nur auf neuen Rechnern von Relevanz. Hat man 
einen alten i486er dürfte das keine Rolle spielen und um so eine CPU zu 
überbieten, würde die Messlatte für ein Garagenprojekt wohl schon extrem 
hoch legen.
Es sei denn natürlich, es würde in der "Garage" mit all dem heutigen 
Wissen trotzdem deutlich mehr gehen als 10 µm.

Ich habe aber keine Ahnung ob Immersionslithografie und ein 
ArF-Excimerlaser in der Garage machbar wäre, geschweige denn, welche 
Mindeststrukturgröße nötig wäre, um bspw. eine offene Architektur wie 
den Risc V darauf umzusetzen.

von Torsten (Gast)


Lesenswert?

Nano schrieb:
> Ja, mir wäre das alles zu viel Aufwand und Chemie ist nicht mein Ding.
> Vielleicht gibt's mal irgendwelche Leute aus dem Open Hardware Lager die
> so etwas machen wollen.

Schaut mal hier:
https://www.youtube.com/watch?v=IS5ycm7VfXg
Gruß Torsten

von Nano (Gast)


Lesenswert?

Torsten schrieb:
> Nano schrieb:
>> Ja, mir wäre das alles zu viel Aufwand und Chemie ist nicht mein Ding.
>> Vielleicht gibt's mal irgendwelche Leute aus dem Open Hardware Lager die
>> so etwas machen wollen.
>
> Schaut mal hier:
> https://www.youtube.com/watch?v=IS5ycm7VfXg
> Gruß Torsten

Das ist ja schon richtig beeindruckend. 1200 Transistoren auf einem die 
ist schon eine ganze Menge für ein Garagenprojekt.

von Erich (Gast)


Lesenswert?

Mit Sicherheit hat man nicht bei 10 µm Strukturgröße angefangen.

WEIL:
Amerika kennt keine "µm".
Bestenfalls irgendwas wie 7/16 tausendstel von irgendwas Zoll (inch), 
wie bei den Schlüsselweiten.

Gruss

von Egon D. (Gast)


Lesenswert?

Nano schrieb:

> Vielleicht gibt's mal irgendwelche Leute aus dem Open
> Hardware Lager die so etwas machen wollen.
>
> Aus Datenschutzsicht wäre es sicher interessant (Stichwort:
> Intel Management Engine in neuen CPU).

Ich verstehe Deinen Zielpunkt und gebe Dir um Grunde auch
Recht, aber ich halte es für fraglich, ob man so weit unten
im Urschleim ansetzen sollte.

Ich weiss nicht, ob Dir die Stichworte "Elbrus" und "Babajan"
etwas sagen...


> Anderseits würde es nur Sinn machen, wenn diejenigen die
> Strukturbreite auf das für sie möglichst machbare drücken
> könnten, denn die Datenschutzfrage ist ja nur auf neuen
> Rechnern von Relevanz. Hat man einen alten i486er dürfte
> das keine Rolle spielen und um so eine CPU zu überbieten,
> würde die Messlatte für ein Garagenprojekt wohl schon
> extrem hoch legen.
> Es sei denn natürlich, es würde in der "Garage" mit all
> dem heutigen Wissen trotzdem deutlich mehr gehen als 10 µm.

Ich denke, Du setzt zu weit unten an. Seine Kondensatoren
wickelt ja auch niemand selbst, oder stellt die Widerstände
selbst aus Porzellanröhrchen mit dem Bleistift her.

Ein STM32F4xx kommt schätzungsweise auf die Leistung, die
ein 486er damals hatte -- er schluckt aber weniger Strom und
bringt deutlich mehr Peripherie on Chip mit. Mehrprozessor-
systeme wären denkbar, ggf. auch im Kombination mit Exoten
wie den XMOS-Teilen.

Naja, und die Standardzellen-Technologie gibt es ja auch
noch...

von Egon D. (Gast)


Lesenswert?

Erich schrieb:

> Amerika kennt keine "µm".

Die USA gehören zu den Erstunterzeichnern der Meterkonvention,
sind also seit 1875 (!!) Mitglied.

von Urmeter (Gast)


Lesenswert?

Erich schrieb:

> Amerika kennt keine "µm".
> Bestenfalls irgendwas wie 7/16 tausendstel von irgendwas Zoll (inch),
> wie bei den Schlüsselweiten.

Wieviel Kubikmeilen sind eine Gallone?

von Urmeter (Gast)


Lesenswert?

Egon D. schrieb:

> Ich weiss nicht, ob Dir die Stichworte "Elbrus" und "Babajan"
> etwas sagen...

Lange nichts mehr davon gehört, passiert da noch was ernsthaftes?

von Gnadenlos Gecheckt (Gast)


Lesenswert?

Urmeter schrieb:
> Egon D. schrieb:
>
>> Ich weiss nicht, ob Dir die Stichworte "Elbrus" und "Babajan"
>> etwas sagen...
>
> Lange nichts mehr davon gehört, passiert da noch was ernsthaftes?

Die Frage ist, ob da wirklach was seriöses war. Das hörte sich doch 
stark nach dem aus der DDR Bekannten "Wir sind die Größten 
Mikroelektroniker und an der Weltspitze" an, obwohl da nur mit viel 
Manpower jahrzehnte alte Technologien ineffizient kopiert wurden.



https://www.tomshardware.com/news/russias-biggest-bank-tests-elbrus-cpu-finds-it-unacceptable

https://www.heise.de/newsticker/meldung/Netzwerk-Prozessor-Baikal-T1-MIPS-SoC-aus-Russland-2669606.html

https://www.anandtech.com/show/15823/russias-elbrus-8cb-microarchitecture-8core-vliw-on-tsmc-28nm

Wenn ich mich recht erinner geht dieses Getöse aus Rand-Sibirien um 
einen eigenen Prozessor schon seit Jahrzehnten, aber ausser das da 
Anlagen von Pleitegegangenen Chipherstellern im Westen aufgekauft worden 
passierte da nix.

https://www.handelsblatt.com/unternehmen/industrie/interesse-am-insolventen-speicherchiphersteller-russland-schielt-offenbar-auf-qimonda/3161120.html?ticket=ST-9617422-iApNJfOAqdzc1dShurnd-cas01.example.org


Also Vaporware von Feinsten, oder wie man im Ural sagt "ein 
Potemkinsches Dorf"

von Max M. (Gast)


Lesenswert?

Gnadenlos Gecheckt schrieb:
> Vaporware von Feinsten

Nicht wirklich:
https://www.golem.de/news/mcst-elbrus-die-zukunft-von-russlands-eigenen-cpus-2102-154320.html

Die CPUs landen in staatlichen Rechnern und laufen mit einer speziellen 
Linux Version.
So muss man sich nicht mit MS Updateservern, der Intel Management Engine 
und Chip Designs herumschlagen die in den USA designt wurden und jede 
Menge Hintertüren für die zahlreichen Dienste enthalten.

Wie sieht das denn bei uns aus mit eigenen Chipfertigungen und eigenen 
CPU Designs?
Oder ist das schwer zu erkennen, wenn das Ross auf dem man sitzt sehr 
hoch ist? ;-)

von Gnadenlos Gecheckt (Gast)


Lesenswert?

Max M. schrieb:

> Die CPUs landen in staatlichen Rechnern und laufen mit einer speziellen
> Linux Version.

'Landen ist gut, die werden auf Putins Befehl con Russenbaken eingesetzt 
obwohl die betreiber dieser staatlichen Rechner diese veralte CPU wegen 
Leistungsschwächen nicht haben wollen:

"The Elbrus-8C server is very weak compared to Intel Xeon 'Cascade 
Lake'," said Anton Zhbankov, a representative for SberTech, said at the 
Elbrus Partner Day conference (via ServerNews.ru) earlier this month. 
"Insufficient memory [256MB], slow memory, few cores, low frequency. 
Functional requirements not been met at all."

Und die nachgewiesenen Mängel beschränken sich nur auf die CPU. Selbst 
am Rack fühlen sich die Kunden verarscht:
" Apparently, an MCST Elbrus-8C machine failed 84% of Sber's Functional 
Testing as it could not be easily removed from the rack, lacked proper 
LED indicators, and came without remote management, which to a large 
degree made it unusable for usage in commercial datacenters."

Nichtmal die Power-LED funktioniert richtig ...

Aber die von der staatlich verordneten Mangelwirtschaft Gezeichneten 
können auch "Positives" berichten:
"One of the surprising things about the Elbrus-8C server was that it is 
a real product," said Zhbankov. "It was a real server that we were 
given. […] It is an actual product that has its disadvantages, loads of 
disadvantages, but we can work with them."

Also wie zu Honeckers DDR-Zeiten, nix funktioniert wie es soll, aber 
wenigstens tut sich etwas ... 🤦

Zitate aus: 
https://www.tomshardware.com/news/russias-biggest-bank-tests-elbrus-cpu-finds-it-unacceptable
--
> der Intel Management Engine
> und Chip Designs herumschlagen die in den USA designt wurden und jede
> Menge Hintertüren für die zahlreichen Dienste enthalten.

Ja, das übliche Stalin'sche Rumgeseier von "Westen böse, Osten gut" - 
manche lernen es eben nie!
--
Und das ist kein Einzelbeispiel, auch in der Raumfahrttechnik reisst 
Russentechnik alles in Richtung Abgrund:
https://futurezone.at/science/iss-katastrophe-nauka-modul-russland-nasa-triebwerke/401468584

Beitrag #6994665 wurde von einem Moderator gelöscht.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.