Hallo, warum ist die Industrie so daran interessiert ständig mehr Transistoren auf einen Mikroship unterzubringen? Computerprozessoren sind mittlerweile nur noch wenige Quadratmillimeter groß, warum macht man den Chip nicht einfach größer, wenn man mehr Leistung will?
Man will aber weniger Leistung haben, da wo man miniaturisiert.
Mark Meier schrieb: > Hallo, > > warum ist die Industrie so daran interessiert ständig mehr Transistoren > auf einen Mikroship unterzubringen? > > Computerprozessoren sind mittlerweile nur noch wenige Quadratmillimeter > groß, warum macht man den Chip nicht einfach größer, wenn man mehr > Leistung will? Weil dein Mobiltelefon dann 42 Kilo wiegen würde und Rollen hätte. Was sind "Mikroships"?!
kleinere Transistoren = weniger Verlustleistung(Stichwort Stromverbrauch und Wärmeentstehung) bei gleicher Rechenleistung und auf lange Sicht auch geringere kosten.
"kleinere Transistoren = weniger Verlustleistung" Hast du dafür eine Gleichung? Was ist der Zusammenhang zwischen Verlustleistung und Größe eines Transistors?
Im Gegenteil die Ships werden eigentlich immer grösser. Es gibt mitterlweile Oilfrachtschiffe mit 100.000 Bruttoregistertonnen. Du meinst vermutlich "Chips".
Das mit der Verlustleistung ist nicht ganz richtig, wegen höheren Leckströmen von so kleinen Transistoren nimmt dir Verlustleistung wieder zu Kleinere Transistoren = schneller Kleinere Transistoren, weniger Silizium, mehr Chips pro Waver und somit billiger, oder es haben mehr Transistoren Platz => Komplexere + Leistungsfähigere Chips....
Mark Meier schrieb: > "kleinere Transistoren = weniger Verlustleistung" > > Hast du dafür eine Gleichung? > Was ist der Zusammenhang zwischen Verlustleistung und Größe eines > Transistors? Beim Schalten des FET wird eine Kapazität umgeladen (sieht man im Ersatzschaltbild des verwendeten Transistoren, wenn man es den kennt). Aus diesen Grund besteht auch der lineare Zusammenhang zwischen Takt und Verlustleistung (doppelter Takt = doppelt so viele Schaltvorgänge = doppelter Stromverbrauch usw.). Durch die Verkleinerung der Abmaße verringert ich die Kapazität im Ersatzschaltbild(nehme ich an^^). Ne Gleichung dazu habe ich nicht.
> warum ist die Industrie so daran interessiert ständig mehr Transistoren > auf einen Mikroship unterzubringen? Damit man - alles in einem Baustein vereinigen kann -> weniger Kosten - weniger Zeit zum layouten benötigt -> weniger Kosten - weniger Fehler im Layout hat (insbesondere bei HF-Anwendungen) -> weniger Kosten - eine kleinere Leiterplatte fertigen kann -> weniger Kosten - ein kleineres Gehäuse fertigen kann -> weniger Kosten - weniger Lötzinn benötigt -> weniger Kosten - mehr Geräte auf einmal transportieren kann -> weniger Kosten - usw... -> weniger Kosten Es geht nur ums Geld und um Bequemlichkeit Stell dir ein iPhone vor, welches nur mit NAND Gattern aufgebaut ist... oder mit Relais :)
"Beim Schalten des FET wird eine Kapazität umgeladen (sieht man im Ersatzschaltbild des verwendeten Transistoren, wenn man es den kennt)." Ich habe danach gesucht aber nicht gefunden. Gibt es überhaupt ein Ersatzschaltbild für Transistoren?
> Ich habe danach gesucht aber nicht gefunden. Gibt es überhaupt ein > Ersatzschaltbild für Transistoren? http://de.wikipedia.org/wiki/Metall-Oxid-Halbleiter-Feldeffekttransistor#Schaltbetrieb
Mark Meier schrieb: > "Beim Schalten des FET wird eine Kapazität umgeladen (sieht man im > Ersatzschaltbild des verwendeten Transistoren, wenn man es den kennt)." > > Ich habe danach gesucht aber nicht gefunden. Gibt es überhaupt ein > Ersatzschaltbild für Transistoren? Ich hab nicht einmal 1min gesucht und es schon gefunden, allerdings nicht über google sondern ganz oldschool auf papier ;-) (bzw. habe mehrere, Bipolar, Unipolar für Großsignalverhalten und Kleinsignalverh. usw.)
> warum ist die Industrie so daran interessiert ständig mehr > Transistoren auf einen Mikroship unterzubringen? Kleinere Chips (für dieselbe Funktion) sind billiger, und gleich grosse Chip (mit mehr Funktionen) lassen sich teurer verkaufen, zumindest kann man mithalten mit der Konkurrenz die auch nicht schläft. > warum macht man den Chip nicht einfach größer, wenn man mehr > Leistung will? Weil grössere Chips überproportional teurer sind, ein Staubkorn in der Fertigung macht ihn kaputt, und weil man Probleme hat, die Hitze loszuwerden, die sie entwicklen. Für Super-Sonderanwendungen gibt es schon mal Chips die einen ganzen Wafer gross sind, aber zu Preisen die du nicht bezahlen willst.
Ach Mist. Ich habe nur an die Kapazitäten gedacht. Bipolarer Transistor -> Stromgesteuerte Stromquelle Fet -> Spannungsgesteuerte Stromquelle Damit kommt man schon weit. Danach das Modell beliebig erweitern, je nach benötigter Genauigkeit.
be stucki schrieb: > Bipolar Transistor -> Stromgesteuerte Stromquelle > Fet -> Spannungsgesteuerte Stromquelle also ich hab das so in Erinnerung: Bipolar Transistor -> Stromverstärker Fet -> Spannungsgesteuerter Widerstand
Aber normalerweise haben Kapazitäten doch keinen Verluststrom der verloren geht. Wie kann eine Kapazität einen Leistungsverlust erklären?
Mark Meier schrieb: > Aber normalerweise haben Kapazitäten doch keinen Verluststrom der > verloren geht. Wie kann eine Kapazität einen Leistungsverlust erklären? Es geht ja um das Auf und Entladen was Stromfluss und Verlustleistung verursacht, deswegen ja auch die direkte Abhängigkeit vom Takt.
> Weil grössere Chips überproportional teurer sind, > ein Staubkorn in der Fertigung macht ihn kaputt, > und weil man Probleme hat, die Hitze loszuwerden, > die sie entwicklen. Ein Staubkorn ist für kleinere Chips nicht weniger schlimm und die Wärme kann man bei größeren Flächen eher besser abführen.
Ersatzschaltbilder: http://de.wikipedia.org/wiki/Ersatzschaltungen_des_Bipolartransistors > Aber normalerweise haben Kapazitäten doch keinen Verluststrom der > verloren geht. Wie kann eine Kapazität einen Leistungsverlust erklären? Transistoren haben auch Widerstände im Ersatzschaltbild und irgendwie muss der Strom für die Umladung getrieben werden. Zuerst von VCC in den Kondensator und dann vom Kondensator nach GND.
Lade ihn schnell auf und entlade ihn wieder schnell. Zum besseren Verständnis nimm einen Elko :-)
> Ein Staubkorn ist für kleinere Chips nicht weniger schlimm Aber da ist dann (bei Chips halber Kantenlänge) nur 1 von 4 betroffen und die anderen 3 können verkauft werden, bei einem Wafer von 400 kleinen oder 100 grossen Chips haben 10 Staubkörner also 90 bzw. 390 verkaufbare Chips, oder eine Ausbeute von 90% vs. 97.5%. > und die Wärme kann man bei größeren Flächen eher besser abführen. Es entsteht aber bei kleineren Chipstrukturen weniger Wärme, die Begründung haben die anderen schon geliefert.
>Computerprozessoren sind mittlerweile nur noch wenige Quadratmillimeter >groß, warum macht man den Chip nicht einfach größer, wenn man mehr >Leistung will? Je kleiner die Streu- und Schaltungskapazitäten, um so geringer der Stromverbrauch in CMOS-Schaltungen. Wenn man die Chipfläche gleichmäßig schrumpft, dann werden diese Kapazitäten automatisch kleiner. Beispielsweise wird C = e0 x er x A / d kleiner, weil "A" stärker schrumpft als "d".
Wobei die Begründung der geringeren Gatekapazität auch nur bedingt stimmt. Kleinere Strukturgrösse bedeutet auch: -höherer Widerstand der Leiterbahnen -höherer parasitäre Kapazitäten -höhere Tunnelströme Ausserdem sterben die in kleinem Fabrikationsprozess gefertigten CPUs eher an Elektromigration etc und sind empfimdlicher auf ionisierende Strahlung. Würde mich interessieren, ob die 32nm CPUs auch in 10 Jahren noch laufen, wie mein Athlon und PIII Rechner heutzutage. Daher glaub ich auch, das sich die Miniaturisierung bei irgendwo zwischen 60-30nm einpendelt. An 22 nm glaub ich ehrlich gesagt nicht, da es zuviele ungelöste Dinge wie die nicht weiter reduzierbare Gatedicke und die begrenzte Auflösung des Photolackes existieren. Eher werden die CPUs langsamer getacktet und in 3D gestapelt gebaut.
unbekannter schrieb: > Daher glaub ich auch, das sich die Miniaturisierung bei irgendwo > zwischen 60-30nm einpendelt. > An 22 nm glaub ich ehrlich gesagt nicht, da es zuviele ungelöste Dinge > wie die nicht weiter reduzierbare Gatedicke und die begrenzte Auflösung > des Photolackes existieren. Eher werden die CPUs langsamer getacktet und > in 3D gestapelt gebaut. Ich bin eher der Meinung, dass irgendwann wieder eine neue Technologie erfunden wird. War ja in der Vergangenheit schon immer so, dass wenn eine Technologie ausgeschöpft war, irgendwas Neues kam. Mechanik -> Relais -> Röhren -> Transistor -> ICs -> ??? Ich mach mich dann mal an die Arbeit :)
Ach was, was jetzt dann kommt ist die Mikrofluidik. http://media.ccc.de/browse/congress/2010/27c3-4073-de-logikschaltungen_ohne_elektronik.html
Und damit wir möglichst viel und kleine Hydraulik "auf einen Waver" bekommen: http://www.scinexx.de/wissen-aktuell-14338-2012-01-18.html Noch flüssiger sind nur Fragen zu Fusebits ...
guenther schrieb: > Was sind "Mikroships"?! Kleine Schiffe halt, vermutlich Modellboote ;-) Bei Modelleisenbahnen ging der Trend auch mit kleiner werdender Hobbyecke von den verbreiteteten Spurbreiten I (Maßstab 1:32) über H0 und N bis zu Z (1:220)
... schrieb: > guenther schrieb: >> Was sind "Mikroships"?! > > Kleine Schiffe halt, vermutlich Modellboote ;-) > > Bei Modelleisenbahnen ging der Trend auch mit kleiner werdender > Hobbyecke von den verbreiteteten Spurbreiten I (Maßstab 1:32) über H0 > und N bis zu Z (1:220) http://www.microships.de/werke.html
Die Frage wurde auch schon vor 25 Jahren gestellt, meist zusammen mit der Frage : "Wozu braucht man noch Festplatten mit höherer Speicherkapazität"
Mark Meier schrieb: > Computerprozessoren sind mittlerweile nur noch wenige Quadratmillimeter > groß, warum macht man den Chip nicht einfach größer, wenn man mehr > Leistung will? Versuch spasseshalber mal auszurechnen wie gross eine 32GB µSD-Karte wäre, wenn sie nicht in heutiger 22nm Technik sondern mit der 6µm Halbleitertechnik eines Intel 8080 Mikroprozessors gebaut wäre. > warum macht man den Chip nicht einfach größer, wenn man mehr > Leistung will? Macht man auch, d.h. die Strukturen werden kleiner und die Chips trotzdem grösser. Manche Prozessoren haben heute eine Chipfläche von über 500mm².
Ich hätte jedenfalls keine Lust, die 4 Milliarden Transistoren in 28 nm Technik eines modernen Graphik-Controllers als diskrete Bauelemente auf Leiterplatten zu verlöten. Wenn die Strukturen nicht immer kleiner würden, säßen wir heute selbst für Heimanwendungen vor raumfüllenden Computern, die wegen der Signallaufzeiten um Größenordnungen langsamer wären und könnten uns mindestens eine separate Heizung sparen.
Die Miniaturisierungsgrenzen von Mikroships sind durch die Fingerfertigheit von Herrn Koppen festgelegt: http://www.microships.de/ Die Grenze liegt in etwa bei Reiskorngröße.
Das mit dem Staubkorn auf einem größeren Chip ist wohl schlimmer, und mich wunderts dass es hier in >10 Posts noch keiner erklärt hat. Gehen wir mal von hundert halbwegs gleichmässig verteilten Staubkörnern oder Materialfehlern auf einem Wafer aus. Wenn wir jetzt den Wafer so aufteilen, dass wir ihn nachher in hundert Chips zerschneiden ... kann man fast alle davon anschliessend direkt wegwerfen. Wenn wir ihn auf tausend Chips aufteilen, müssen wir nur einen kleinen Anteil um die 10% wegwerfen. Bei analogen Komponenten benutzt man gröbere Strukturen um zusammen mit der feineren wirklich erreichbaren Auflösung mehr Präzision zu bekommen - aber die sind eh auch dann noch klein, und sollten es aus einem anderen Grunde (thermisches Gleichgewicht!) auch bleiben.
Interessanter ist wie wenig man andere Möglichkeiten zur Miniaturisierung ausgeschöpft hat bevor man ICs gebaut hat. Frühe Transistorrechner bestehen aus einer erstaunlich großen Menge Aluminium/Gusseisen/Leiterplattenmaterial und einer erstaunlich kleinen Menge Transistor :) Wenn man die CPU einer PDP8 der ersten Generation dichtgepackt (aufrechte Module auf Träger) mit SOT323-Transistoren und 0402-Passivbauteilen aufbauen würde, natürlich auf niedrigere Ströme runterdimensioniert weil man auch keine langen Leitungen mehr treiben muss, wäre das Ergebnis wohl kaum größer als ein Brockhausband, eher noch kleiner.
Andy D. schrieb: > Das mit dem Staubkorn auf einem größeren Chip ist wohl schlimmer, und > mich wunderts dass es hier in >10 Posts noch keiner erklärt hat. Das hast du wohl nur übersehen ;-) MaWin schrieb: >> Ein Staubkorn ist für kleinere Chips nicht weniger schlimm > > Aber da ist dann (bei Chips halber Kantenlänge) > nur 1 von 4 betroffen und die anderen 3 können verkauft werden, > bei einem Wafer von 400 kleinen oder 100 grossen Chips > haben 10 Staubkörner also 90 bzw. 390 verkaufbare Chips, > oder eine Ausbeute von 90% vs. 97.5%. > >> und die Wärme kann man bei größeren Flächen eher besser abführen. > > Es entsteht aber bei kleineren Chipstrukturen weniger Wärme, > die Begründung haben die anderen schon geliefert.
Andy D. schrieb: > Interessanter ist wie wenig man andere Möglichkeiten zur > Miniaturisierung ausgeschöpft hat bevor man ICs gebaut hat. Vergiss nicht, dass man die Dinger einzeln zusammengelötet hat. Bestückungsautomaten hatten damals noch zwei Beine. Damals wie heute war zudem ein zentrales Problem leistungsstarker Rechner die Wärmeleistung. Wenn du die Komponenten zu dicht baust, wird die Kühlung schwieriger und wenn du zu wenig Strom durch die Transistoren schickst, dann entsteht zwar weniger Wärme, aber sie werden langsamer. Abgesehen davon finde ich diese Konstruktion ziemlich kompakt, wenn man die Grösse marktverfügbarer Komponenten berücksichtigt: http://en.wikipedia.org/wiki/CDC_6600#Physical_design http://en.wikipedia.org/wiki/Printed_circuit_board#.22Cordwood.22_construction Nicht jeder konnte es sich leisten, eine komplett eigene Technologie einzusetzen, in der diskrete Komponenten zu IC-artigen Hybridschaltungen verbaut wurden: http://en.wikipedia.org/wiki/IBM_Solid_Logic_Technology
Andy D. schrieb: > Das mit dem Staubkorn auf einem größeren Chip ist wohl schlimmer, und > mich wunderts dass es hier in >10 Posts noch keiner erklärt hat. > > Gehen wir mal von hundert halbwegs gleichmässig verteilten Staubkörnern > oder Materialfehlern auf einem Wafer aus. Weil es eigentlich keine Rolle spielt. Staubkörner kommen in so einer Fertigung kaum noch vor, schon gar keine 100 pro Wafer. Das könnte sich keiner leisten. Es geht letztlich um die Fertigungskosten. Man bekommt bei kleineren Strukturen mehr Chips auf die gleiche Wafergrösse, wobei die höhere Komplexität nicht linear mehr kostet. Ergo sinkt der Preis pro Chip. Das andere sind nette Nebeneffekte, die aber bei den ganz neuen Technologien kaum noch zum Tragen kommen. Zwar sinken die Transistorkapazitäten, die spielen aber in den Bereichen keine Rolle mehr. Die Leitung zum Transistor hat bereits eine vielfach höhere Kapazität als die Eingangskapazität des Transistors. Da bringt es schon mehr, dass durch die höhere Gatterdichte die Leitungen kürzer werden. Und bei den neuen Technologien bleiben auch die Spannungen gleich. Früher hat man noch erhebliche Vorteile vom Sprung von 5V auf 3,3V, und später auf 2,5V. Bei den letzten paar Generationen liegt man eigentlich immer um die 1V. Gruss Axel
Vielleicht werden die Transistoren ja bald 3-dimensional frei im Raum angeordnet statt flächig und die Spannung auf 30 mV gesenkt.
"Weil es eigentlich keine Rolle spielt" Dann hat man also immer 100% Yield inzwischen, ausser bei einer schadhaften Maske?
Andy D. schrieb: > Dann hat man also immer 100% Yield inzwischen, ausser bei einer > schadhaften Maske? Bei Herstellungsprozessen an der Grenze der eingesetzten Technik wohl kaum, andernfalls könnte man mit dieser Technik die Strukturen weiter verkleinern. Folglich können sich aus der Fertigung ergebende Toleranzen ebenfalls die Funktion beeinträchtigen. Und ob wohl das Rohmaterial auch immer 100% perfekt ist?
Mechanik -> Relais -> Röhren -> Transistor -> ICs -> Ich denke als nächster Schritt ändert sich das Material von Silicium auf Graphen. Überleg mal was alles nicht möglich wäre wenn die Chips nicht immer kleiner werden würden. Wie würde die Mars Sonde wohl ausschauen?
Andy D. schrieb: > "Weil es eigentlich keine Rolle spielt" > > Dann hat man also immer 100% Yield inzwischen, ausser bei einer > schadhaften Maske? Zwischen 100 defekten Chips pro Wafer alleine durch Staub und 100% Yield ist ja noch eine breite Grauzone. Ausserdem gibt es ja noch Ausfälle beim Packagen. Ein AMD Bulldozer hat angeblich 315mm². Ein Wafer hat etwa 30.000mm² wenn ich mich recht erinnere. Macht also 100 Bausteine pro Wafer. Aber auch Intels Sandy Bridge hat noch 216mm². Bei 100 Fehlern/Wafer wäre das ein ziemlich schlechtes Geschäft. Gruss Axel
Axel Laufenberg schrieb: > Ein Wafer hat etwa 30.000mm² > wenn ich mich recht erinnere. inzwischen gibt es verbreitet 30mm-Waver. Die haben dann ca. doppelt so viel Fläche. Das gäbe also bei 100 defekten Chips wieder einen Yield von 0.5.
Dazu kommt noch, dass man defekte Bereiche abschalten kann. Dann hat der ursprüngliche Quadcore eben nur noch 3 oder 2 Kerne, oder eben weniger Speicher, etc. Das ist bei Prozessoren durchaus gängige Praxis ;-)
Christian Berger schrieb: > Ach was, was jetzt dann kommt ist die Mikrofluidik. > > http://media.ccc.de/browse/congress/2010/27c3-4073... Ich habe vor einigen Jahren im Labor am MIT gearbeitet, wo ein Doktorand an diesem "microfluidic computer" arbeitete. Wir diskutierten dann mal ein bisschen über den Sinn davon. - man kann das dreidimensional machen, also auch in die Höhe bauen. --- Ja, aber Silizium kann man doch auch stapeln? - Ja, aber da hast Du Probleme mit der Verlustleistung. Das ist ja elektrisch, das gibt Verluste! --- Hm... Aber pneumatische Verluste gibt es doch auch? - Richtig. Aber der Clou an der Sache ist, dass wir hier MIT DEM KÜHLMITTEL rechnen! Also die Verlustleistung wird immer gleich wieder abgeführt --- ????? Hm.... ????? ..... Ok. Verlustleistung. Von welchen Grössenordnungen reden wir eigentlich im Hinblick auf Luftmenge und Druckunterschied in einem "Transistor"? - (zwei ziemlich kleine Zahlen, weiss nicht mehr, wie klein). --- Und wohin könnt Ihr theoretisch kommen? - (zwei noch kleinere Zahlen) --- Moment mal (habe mich kurz an den Taschenrechner gesetzt) --- Dir ist bewusst, dass ein fluidischer Chip der Grössenordnung eines Pentium die Verlustleistung eines kleinen Kraftwerks haben wird, oder? Und die willst Du da rauspusten? Kurz vor meiner Heimreise sagte mir der Doktorand, dass er das Thema habe fallen lassen. Mir tat das sehr leid - um ihn, denn er war (ist vermutlich noch :-) ein sehr netter Typ. So ganz nebenbei haben sie es als ein nur geringes Problem gesehen, dass prinzipbedingt keine Rückkopplungen möglich sind. State machines sind also keine möglich. Und sehr sehr stolz waren sie, dass sie bereits einen in der Realität existierenden Computerchip (ihre Wortwahl) fluidisch umgesetzt hatten! Es handelte sich um eine 4-Bit-Alu aus der 74-Reihe. Das nur so als Anekdote nebenbei. :-) Gruäss Simon
Simon Huwyler schrieb: > inzwischen gibt es verbreitet 30mm-Waver. Du meinst wohl 300mm. Mittlerweile wird auch schon an 500mm Wafern gearbeitet. Ich dürfte mir letzte Woche einen Vortrag eines Ings von Global Foundries aus Dresden (ehemals AMD) anhören. Als Ausblick für die Zukunft wurde sogar schon von 14nm Technologie gesprochen. Ob das nur geplant ist, oder sogar schon erste Ergebnisse gibt weis ich nicht. 20/22nm sind also nur noch eine Frage der Zeit, bis sie auf den Markt kommen. LG Christian
Christian L. schrieb: > 20/22nm sind also nur noch eine Frage der Zeit, bis sie auf den Markt > kommen. Intel produziert die kommende x86-Generation (Ivy Bridge) bereits jetzt in 22nm.
A. K. schrieb: > Intel produziert die kommende x86-Generation (Ivy Bridge) bereits jetzt > in 22nm. ... und einige Firmen (afaik IBM) sprachen vor einiger Zeit schon laut von 14nm (!) Technologie. Krass. Gruss Uwe
Uwe N. schrieb: >> Intel produziert die kommende x86-Generation (Ivy Bridge) bereits jetzt >> in 22nm. > > ... und einige Firmen (afaik IBM) sprachen vor einiger Zeit schon laut > von 14nm (!) Technologie. Krass. Ist völlig normal. Die Strukturgrösse der High-End Fertigungstechnik reduziert sich bislang ganz grob alle 2 Jahre. Es dauert es jedoch deutlich länger als 2 Jahre, bis eine neue in Vorbereitung befindliche Technik produktiv eingesetzt werden kann. Daher liest man solche Ankündigungen meist schon, bevor die Vorgängertechnik richtig in Fahrt ist.
Jonny Obivan schrieb: > am Ende der Kette geht es wieder von vorne los. ;) Man kann nicht so blöd reden dass es nicht wahr ist. ;-) Rod Logic: http://www.halcyon.com/nanojbl/NanoConProc/nanocon2.html
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.