www.mikrocontroller.net

Forum: Offtopic Interagtionsdichte von Transistoren in verschiedenen Technologien


Autor: Andre S. (andre008)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Hallo,

ich bin mir nicht sicher ob ich hier richtig bin mit meiner Frage.

Ich würde gerne wissen, wie ihr den Verlauf der steigenden 
Transistorzahl der zukünftigen Prozessoren in MOSFET-Technologie seht. 
Und wo ihr die obere Grenze vermutet(Mir ist das Mooresche Gesetz 
bekannt). Und wann man auf neue Technologie wie zB. 
Kohlenstoffnanoröhren zurück greifen wird. Vielleicht hat ja sogar 
jemand Zahlen in welchen Größenordnungen man ist und es möglich ist 
vorzudringen.

Danke
Andre

Autor: Johnny B. (johnnyb)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andre S. schrieb:
> Vielleicht hat ja sogar
> jemand Zahlen in welchen Größenordnungen man ist und es möglich ist
> vorzudringen.

Die Wahrsagerinnen an Jahrmärkten können Dir da sicher weiterhelfen.

Autor: Andre S. (andre008)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Es geht mehr um eine allgemeine Meinung und Prognose. Ohne gewisses 
Vorausschauen in die Zukunft kommen dann qualifizierte Antworten wie:

Johnny B. schrieb:
> Die Wahrsagerinnen an Jahrmärkten können Dir da sicher weiterhelfen.


Es gibt Quellen wie die "International Technology Roadmap for 
Semiconductors" die Ihre Vorstellungen zusammen fassen und diese 
preis-geben. Vielleicht sind ja noch andere Referenz-Quellen bekannt die 
sich mit solchen Themen beschäftigen.

Autor: Stefan Helmert (Firma: dm2sh) (stefan_helmert)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Wie viele Transistoren passen in ein Atom?

Autor: Christoph B. (birki2k)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Stefan Helmert schrieb:
> Wie viele Transistoren passen in ein Atom?

Laut Intel sind's 47 Millionen Transistoren :P
http://www.intel.com/cd/corporate/techtrends/emea/...

Autor: Maximilian K. (simulator)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Ich kenne keine Zahlen, aber wir sind mitten in der Prozessoren-Kriese. 
Weil die Geschwindigkeit sich mit jetziger Technologie kaum erhöhen 
lässt baut man Vielkerner. Der Mensch, als Partner des Computers, ist 
aber bestenfalls ein 1,5-Kerner. Was nützen also 16 Kerne wenn mein 
Dickschädel davor sitzt?

Autor: Andre S. (andre008)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Maximilian K. schrieb:
> Ich kenne keine Zahlen, aber wir sind mitten in der Prozessoren-Kriese.
> Weil die Geschwindigkeit sich mit jetziger Technologie kaum erhöhen
> lässt baut man Vielkerner. Der Mensch, als Partner des Computers, ist
> aber bestenfalls ein 1,5-Kerner. Was nützen also 16 Kerne wenn mein
> Dickschädel davor sitzt?


Hallo Maximilian,

ich denke das ist eine Frage der Parallelisierung, man kann die 
Aufteilung der Aufgaben manuelle verteilen oder von Compilern diese 
Aufgabe übernehmen lassen.

Die Frage die sich aber stellt, bis wohin die Integrationsdichten mit 
welcher Technologie möglich sind und welche Leistungen erwartet werden 
können.

Autor: Andreas Ferber (aferber)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Maximilian K. schrieb:
> Der Mensch, als Partner des Computers, ist
> aber bestenfalls ein 1,5-Kerner. Was nützen also 16 Kerne wenn mein
> Dickschädel davor sitzt?

Beschickst du die CPU-Kerne einzeln mit Instruktionen?

Andreas

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andreas Ferber schrieb:

> Beschickst du die CPU-Kerne einzeln mit Instruktionen?

In vielen Fällen schon. Der Compiler, der eine beliebige Software von 
single-threaded auf 32fach multi-threaded umcompiliert, der ist m.W. 
noch nicht erfunden worden.

Autor: P. M. (o-o)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andre S. schrieb:
> Ich denke das ist eine Frage der Parallelisierung, man kann die
> Aufteilung der Aufgaben manuelle verteilen oder von Compilern diese
> Aufgabe übernehmen lassen.

Der Nutzen von Parallelisierung ist recht begrenzt für langfristige 
Leistungssteigerung. Über die letzten 30 Jahre kennen wir eine 
Verdoppelung der Prozessorleistung etwa alle 2-3 Jahre. Wenn also die 
aktuellen Kerne nicht oder nur noch wenig leistungsfähiger werden, dann 
müssen wir in Zukunft alle 2-3 Jahre die Anzahl Kerne verdoppeln.

Bei aktuell 4 Kernen sind wir also 2020 bei irgendwo zwischen 32 und 128 
Kernen.

Eine Berechnung auf n Prozessoren dauert: t = (Parallelisierbarer 
Anteil)/n + (Nicht parallelsierbarer Anteil) + Kommunikation. Nun kann n 
noch so gross sein, irgendwann ist keine Steigerung mehr möglich. Wenn 
nur schon 1 Prozent der Berechnung serieller Natur ist (z.B. Daten 
verteilen), tritt ab rund 100 Prozessoren selbst bei Verdoppelung keine 
signifikante Leistungssteigerung ein. (Selbst unendlich viele Kerne 
bringen einen Speed-up von höchstens 100!)

Und das gilt wohlgemerkt nur für Berechnungen, die sich extrem 
parallelisieren lassen, die keine anderweitigen Flaschenhälse aufweisen 
(Speicher), die nicht warten müssen, die nur wenige Resultate 
kommunizieren müssen etc. Für typische PC-, Server- oder 
Embedded-Prozesse sieht es natürlich noch viel schlimmer aus. 
Parallelisierung bringt also nur begrenzt etwas. Für praktische 
Anwendungen ist bei etwa 10 Kernen Schluss, egal wie gut der Compiler 
ist.

Autor: Johnny B. (johnnyb)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andre S. schrieb:
> Die Frage die sich aber stellt, bis wohin die Integrationsdichten mit
> welcher Technologie möglich sind und welche Leistungen erwartet werden
> können.

Am besten erwartet man überhaupt nichts, denn Forschungsziele sind nicht 
vorherseh- oder planbar.
Hier ein gutes Beispiel; vor einigen wenigen Jahrzehnten dachte ein 
gewisser Herr Turing noch, dass Computer bis zum Jahr 2000 so 
intelligent wie ein Mensch sein werden. Nun sind wir schon 10 Jahre 
drüber und Computer sind immernoch doof wie Bohnenstroh (schnell sind 
sie allerdings).
http://de.wikipedia.org/wiki/Turing-Test

Autor: Andre S. (andre008)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Die Frage der Parallelisierung kommt erst auf einer höheren 
Entwicklungsebene auf.

Grund für meine Frage war ein Artikel der EMPA, der einen Vergleich 
zwischen einem Pentium4 und der zukünftiger möglichen 
Integrationsdichten in der Nanotechnologie zeigt.

http://www.empa.ch/plugin/template/empa/227/21978/---/l=1

Autor: Simon K. (simon) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
"Interagtionsdichte"? Meinst du Interaktionsdichte? Google spuckt nur 
Ergebnisse zu Psychologie aus.

;-)

Autor: Andre S. (andre008)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Natürlich muss es Integrationsdichte heißen..;)

Aber interessant wäre es schon wie man einen Pentium4 aus 
psychologischer betrachtet.

Autor: P. M. (o-o)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Johnny B. schrieb:
> Hier ein gutes Beispiel; vor einigen wenigen Jahrzehnten dachte ein
> gewisser Herr Turing noch, dass Computer bis zum Jahr 2000 so
> intelligent wie ein Mensch sein werden. Nun sind wir schon 10 Jahre
> drüber und Computer sind immernoch doof wie Bohnenstroh (schnell sind
> sie allerdings).

Immerhin schlagen sie den Schachweltmeister, steuern völlig selbständig 
Drohnen, simulieren in Computerspielen leistungsfähige Gegner, 
kontrollieren Rechtschreibung, berechnen Baustatik oder simulieren 
elektronische Schaltkreise. Sie tun es zwar auf eine andere Art, aber 
sie übernehmen viele Aufgaben, die vor 50 Jahren ganz alleine gut 
ausgebildeten (!!) Menschen vorbehalten waren. So ganz unrecht hatte der 
Herr Turing in gewisser Weise also doch nicht.

Autor: Andreas Ferber (aferber)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
>> Beschickst du die CPU-Kerne einzeln mit Instruktionen?
> In vielen Fällen schon. Der Compiler, der eine beliebige Software von
> single-threaded auf 32fach multi-threaded umcompiliert, der ist m.W.
> noch nicht erfunden worden.

Auch der Programmierer der das mit beliebiger Software macht ist noch 
nicht erfunden, klar. Manche Software ist einfach nicht sinnvoll 
(massiv) parallelisierbar.

Aber inwiefern sollte die Multitasking-Fähigkeit des Anwenders etwas 
damit zu tun haben, ob Mehrkerner sinnvoll genutzt werden können oder 
nicht?

Andreas

Autor: Andreas Ferber (aferber)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
P. M. schrieb:
> Für typische PC-, Server- oder
> Embedded-Prozesse sieht es natürlich noch viel schlimmer aus.
> Parallelisierung bringt also nur begrenzt etwas. Für praktische
> Anwendungen ist bei etwa 10 Kernen Schluss, egal wie gut der Compiler
> ist.

Für PC-Anwendungen gilt heute in vielen Fällen, dass aktuelle CPU-Kerne 
schlicht schnell genug sind, z.B. bei Office-Anwendungen ist IMO kein 
nennenswert steigender Leistungsbedarf mehr absehbar. Einzig 
Backgroundtasks (Indizierung für Desktopsuche oder die ach so wichtige 
Animation auf dem Desktophintergrund etc.) kommen dazu, deren 
Parallelisierung ist aber quasi automatisch schon eingebaut.

Bedarf für schnellere CPUs kommt im Officebereich eigentlich nur noch 
dadurch zustande, dass derzeit dort stark zentralisiert wird, weg von 
Desktops hin zu Terminalservern und Thin Clients. Bei Terminalservern 
ist die Parallelisierung aber nahezu "geschenkt", die einzelne 
Word-Instanz kann zwar vielleicht nur einen Kern nutzen, dafür laufen 
aber zig Word-Instanzen gleichzeitig. Dasselbe gilt für Cloud Computing, 
mit zig virtuellen Maschinen die sich auf die verfügbaren CPU-Kerne 
verteilen.

Bei vielen Serveranwendungen (Web-Anwendungen z.B.) ist eine 
Parallelisierung auch kein Problem, Webserver als Beispiel verarbeiten 
schon seit eh und je teilweise hunderte Requests parallel. Die 
gemeinsame Datenbank (die "Kommunikation") ist in aller Regel IO-Bound, 
nicht CPU-Bound, würde also von schnelleren CPUs (oder massiver 
Parallelisierung) nur wenig profitieren. Dafür kann man gerade bei 
Webanwendungen Queryresultate oft sehr effizient cachen, damit wird der 
Flaschenhals Datenbank umgangen, und man kann die wieder recht einfach 
sogar über ganze Serverfarmen parallelisieren.

Controller-Bereich und manche rechenintensive Anwendungen sind ein 
anderes Thema, aber gerade im Serverbereich kann man unterm Strich meist 
auch mit sehr vielen Kernen sinnvoll etwas anfangen.

Andreas

Autor: P. M. (o-o)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andreas Ferber schrieb:
> Für PC-Anwendungen gilt heute in vielen Fällen, dass aktuelle CPU-Kerne
> schlicht schnell genug sind, z.B. bei Office-Anwendungen ist IMO kein
> nennenswert steigender Leistungsbedarf mehr absehbar.

Die Frage ist, wie sehr das Angebot eine Nachfrage auslöst. Für Office 
hat man wohl seit Ende der 80er für 98% der Aufgaben genug Power und 
seit Ende der 90er auch für komplexe Layoutaufgaben. Trotzdem entwickelt 
sich die Rechenleistung brachial weiter. Persönlich sehe ich ehrlich 
gesagt nicht genau, warum. Für ein Gerät oder Programm kauft doch 
niemand ein Ersatz, so lange es noch läuft oder nichts wesentlich 
besseres auf dem Markt ist. Und MS Office beispielsweise hat sich seit 
15 Jahren für 80% der Heim- und Büroanwender nicht verbessert.

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Man kann Benutzeroberflächen so gestalten, dass man erhebliche 
zusätzliche Rechenleistung benötigt um das gleiche wie früher in 
gleicher Zeit erledigen zu können (Microsofts Ansatz).

Man kann perfekt in stromsparender spezialisierter Hardware gelöste 
Aufgaben in den dafür eher mässig bis völlig ungeeigneten 
stromfressenden Hauptproprozessor verlagern (Intels Ansatz).

Dann kommt Videostreaming hinzu. Während Standard-TV mit jedem Prozessor 
heute in Echtzeit verarbeitbar ist, sieht es bei Blueray und HDTV schon 
etwas anders aus.

Es gibt mehr und mehr Leute, die solche Streams nicht nur ansehen, 
sondern auch produzieren. Das kann man im Prinzip perfekt 
parallelisieren, nur ob die Entwickler der betreffenden Software mit 
dieser Aufgabe zurande kommen wäre noch die Frage.

Man kann Rechner erheblich verlangsamen, indem man Frontends in Java 
schreibt. Damit macht man erfahrungesgemäss jede Kiste zu Schnecke, 
nicht zuletzt weil sich das perfekt mit dem folgenden Punkt kombiniert.

Und last not least werden Windows-Rechner auch dann von Jahr zur Jahr 
langsamer, wenn man kein einziges Anwenderprogramm auswechselt. Es 
reicht ein regelmässiger Update des Virenscanners.

Autor: Johnny B. (johnnyb)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
A. K. schrieb:
> Man kann Benutzeroberflächen so gestalten, dass man erhebliche
> zusätzliche Rechenleistung benötigt um das gleiche wie früher in
> gleicher Zeit erledigen zu können (Microsofts Ansatz).

Also genau genommen ist dies nicht der Ansatz von Microsoft, sondern 
vielmehr hat Apple die Branche im grossen Stil in diese Richtung 
gebracht. Urvater davon war der Macintosh.
http://de.wikipedia.org/wiki/Macintosh
Gefällt einem diese Entwicklung nicht, sollte man also eher auf Apple 
einschlagen und nicht auf Nachahmer wie Microsoft und alle anderen.
Man muss auch bedenken, dass die Massentauglichkeit der Computer erst 
mit diesen aufwändigen Bedieneroberflächen erreicht wurde, welche halt 
auch viel Rechenpower voraussetzen.

Autor: Fpga Kuechle (fpgakuechle) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Andre S. schrieb:
> Hallo,
>
> ich bin mir nicht sicher ob ich hier richtig bin mit meiner Frage.
>
> Ich würde gerne wissen, wie ihr den Verlauf der steigenden
> Transistorzahl der zukünftigen Prozessoren in MOSFET-Technologie seht.
> Und wo ihr die obere Grenze vermutet(Mir ist das Mooresche Gesetz
> bekannt). Und wann man auf neue Technologie wie zB.
> Kohlenstoffnanoröhren zurück greifen wird. Vielleicht hat ja sogar
> jemand Zahlen in welchen Größenordnungen man ist und es möglich ist
> vorzudringen.

Kleine Transitoren auf einen Chip zu packen ist nur ein Weg zu 
leistungsfähigere Elektronik. ein weitere ist es , die verbindungen 
zwischen den IC's zu verkleineren, also die IC -Die dichte zu erhöhen 
(z:B. SoC, Multi-Die, 0102 SMD). Oder unsere winzigen Geräte werden eben 
wieder etwas größer.

Die heutige Integrationsdichte markiert durch die hohe Energiedichte 
(Kühlung) schon jetzt ein Limit. Mikrocontroller insbesonders LowPower 
werden nicht ohne Grund in gröberern Strukturen gefertigt. Aus meiner 
Sicht machen Kohlenstoffnanoröhren keinen Sinn. Wenn mehr Tranistoren 
benötigt werden, dann als Massen-Speicher und denn kann man ach drahtlos 
anbinden um kleine Handhelds zur konstruieren.

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Johnny B. schrieb:

> Also genau genommen ist dies nicht der Ansatz von Microsoft, sondern
> vielmehr hat Apple die Branche im grossen Stil in diese Richtung
> gebracht. Urvater davon war der Macintosh.

Ja, aber hier dachte ich eher an Vista/Win7 vs. XP.

Autor: A. K. (prx)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Fpga Kuechle schrieb:

> Die heutige Integrationsdichte markiert durch die hohe Energiedichte
> (Kühlung) schon jetzt ein Limit. Mikrocontroller insbesonders LowPower
> werden nicht ohne Grund in gröberern Strukturen gefertigt.

Damit Lowpower-Mikrocontroller nicht so heiss werden???

Autor: Axel Laufenberg (axel_5)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
>Kleine Transitoren auf einen Chip zu packen ist nur ein Weg zu
>leistungsfähigere Elektronik. ein weitere ist es , die verbindungen
>zwischen den IC's zu verkleineren, also die IC -Die dichte zu erhöhen
>(z:B. SoC, Multi-Die, 0102 SMD). Oder unsere winzigen Geräte werden eben
>wieder etwas größer.
Davon werden sie aber nicht billiger. Die Preise heutiger ICs, egal ob 
Flash oder Controller, sind vor allem deswegen gesunken, weil die 
Siliziumfläche gesunken ist.


>Die heutige Integrationsdichte markiert durch die hohe Energiedichte
>(Kühlung) schon jetzt ein Limit.
Die höhere Integrationdichte bzw kleinere Strukturen reduziert erstmal 
auch die Stromaufnahme, weild die Kapazitäten kleiner werden. . Das 
grössere Problem als die Wärmeabführung ist wohl eher, dass viele 
Anwendungen heute Batteriebetrieben sind.

>Mikrocontroller insbesonders LowPower
>werden nicht ohne Grund in gröberern Strukturen gefertigt.
Der Grund ist meistens, dass es keinen sinn macht, weil man nun mal auch 
144 Pins anschliessen können muss. Bei einem 0,5mm * 0,5mm grossen Die 
ist das schwierig.

Gruss
Axel

Autor: Andreas Ferber (aferber)
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Axel Laufenberg schrieb:
> Der Grund ist meistens, dass es keinen sinn macht, weil man nun mal auch
> 144 Pins anschliessen können muss. Bei einem 0,5mm * 0,5mm grossen Die
> ist das schwierig.

Ausserdem kommen da irgendwann auch die Grenzen der Separationstechnik. 
Man muss den Wafer ja irgendwie auch noch in die einzelnen Dies 
zerteilen können. AFAIK wird z.B. bei einfachen RFID-Chips heutzutage 
die minimal mögliche Größe im wesentlichen dadurch definiert.

Andreas

Autor: Fpga Kuechle (fpgakuechle) Benutzerseite
Datum:

Bewertung
0 lesenswert
nicht lesenswert
Hallo Axel,

so allgremein wie Du das beschreibst stimmt das leider nicht

Axel Laufenberg schrieb:
>>Kleine Transitoren auf einen Chip zu packen ist nur ein Weg zu
>>leistungsfähigere Elektronik. ein weitere ist es , die verbindungen
>>zwischen den IC's zu verkleineren, also die IC -Die dichte zu erhöhen
>>(z:B. SoC, Multi-Die, 0102 SMD). Oder unsere winzigen Geräte werden eben
>>wieder etwas größer.
> Davon werden sie aber nicht billiger. Die Preise heutiger ICs, egal ob
> Flash oder Controller, sind vor allem deswegen gesunken, weil die
> Siliziumfläche gesunken ist.

Der Preis ist von mehreren Faktoren abhängig und ferner ist die 
Siliziumfläche nicht generall kleiner geworden.
-für einen 8 bit CPU wie z80 mit seinen paar Tausend Transistoren 
brauchte man auch in Grober Technik nicht die Fläche eines 
multimillionen transistorsPentium. Hier sollten quadratmilimeter gegen 
quadratzenzimeter stehen

-schon früher hies es, das das teuereste am IC das Gehäuse ist. Das ist 
natürlich auch eine pauschale Aussage, aber die Kosten der Standard-IC's 
werden nun mal nicht allein vom Silizium bestimmt.

Die Kostenersparniss is nicht zuletzt dadursch entstanden, das 1 GByte 
nicht als Speicherkarte mit dutzenden Gehäusen, Platinenmaterial, 
Treiber-IC, Steckverbinder aufbauen muß, sondern das locker in ein 
IC-Gehäuse bekommt.

Atsrnomisch sind bisher die Investkosten für eine High-End Fab, die 
Ausrüstung für kl. Strukturbreiten deutlich preiswerter.

>>Die heutige Integrationsdichte markiert durch die hohe Energiedichte
>>(Kühlung) schon jetzt ein Limit.
> Die höhere Integrationdichte bzw kleinere Strukturen reduziert erstmal
> auch die Stromaufnahme, weild die Kapazitäten kleiner werden. . Das
> grössere Problem als die Wärmeabführung ist wohl eher, dass viele
> Anwendungen heute Batteriebetrieben sind.

Neben den Kaps stell(t)en Leckströme die Hauptursache für den hohen 
Energieverbrauch. Die steigen mit kl. Strukturbreite. Kapazitäten werden 
auch nicht zwangsläufig kleiner, zwar verringert sich die Fläche, aber 
auch der Abstand zw. den geladenenen Flächen.
Hier ist nicht die Strukturbreite entscheidend, sondern die Materialen.
wie z.B High-k Dieelektrika (gegen Leckströme) und low-K Dielektrika 
(kleinere Kaps).

MfG,

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail, Yahoo oder Facebook? Keine Anmeldung erforderlich!
Mit Google-Account einloggen | Mit Yahoo-Account einloggen | Mit Facebook-Account einloggen
Noch kein Account? Hier anmelden.