Hi Ist euch schonmal aufgefallen, daß immer mehr Fragen zur Inkompatibilität von 5V und 3,3V kommen. Da werkelt man jetzt mit Spannungsteilern rum oder muß sich sonst was für Maßnahmen ausdenken auch bei der Versorgung, damit das zusammen läuft. War das wirklich nötig, da jetzt diese zwei "Welten" zu schaffen? Gab es da keine andere Möglichkeit? Gruß Thomas
Naja, ich denke, das resultiert auch aus der Tatsache, dass für die Computerindustrie die Fertigungsdichten immer höher werden. Es wäre ja unsinnig, diese Maschinen nicht auch für andere ICs zu nutzen.
Das wird wohl was historisches haben, glaub ich... Die 5V sind noch aus den guten alten TTL-Zeiten ;) Während die 3,3V von moderneren Systemen genutzt wird. Ich denke das hängt mit der Taktrate zusammen, da ja nur eine begrenzte Anstiegszeit zu realisieren ist. D.h. kann man ab einem gewissen Takt keine vernünftigen Flanken mehr mit so hoher Spannung (5V) erzeugen, ohne größeren Aufwand zu betreiben. Da ist es einfacher die Spannung zu reduzieren.
>Gab es da keine andere Möglichkeit? nein. Mit immer kleineren und feineren Fertigungstechnologien im 2-stelligen nm Bereich ist mit 5V eben irgendwann schluss. Grundsätzlich gilt: Je komplexer desto feiner die internen Structuren. Warum laufen moderne Prozessoren/ FPGAs wohl mit Corespannungen unter einem Volt?
ich schrieb: > Warum laufen moderne Prozessoren/ FPGAs wohl mit Corespannungen unter > > einem Volt? Ich denk mal wegen der Verlustleisung und dem thermalem Management des Chips sowie unter anderem aus Gründen der Energieersparnis. Das sind IMHO die hauptsächlichen Gründe warum die Corespannung von den Prozessorherstellern immer weiter nach unten gesetzt wurde.
> Warum laufen moderne Prozessoren/ FPGAs wohl mit Corespannungen unter > einem Volt? Wobei ich mich langsam frage, wie das noch funktioniert. Moderne Grafikkarten brauchen bis zu 450W. Das sind fast 500 Ampere...
Martin Schwaikert schrieb: > Wobei ich mich langsam frage, wie das noch funktioniert. Moderne > Grafikkarten brauchen bis zu 450W. Das sind fast 500 Ampere... Wusste gar nicht, dass Grafikkarten mit 0,9 Volt laufen, wo sie doch meistens ein paar 12V und 5V Rails als Versorgung haben. Selbst wenn sie nur auf 12V Rails laufen würden, wäre man irgendwo bei 37A und nicht 500. Vor allem, da es AFAIK kein Netzteil gibt, welches auf einer Rail 500A ausgeben kann. Und hinzu kommt, dass die GPU nicht das einzige ist, was auf der Grafikkarte so drauf ist.
Die 12V werden neben dem Chip dann auf die 1.8V oder runtergeswitchert. Die 5V Welt ging gut bis zur Jahrtausendwende. Erst nachher kamen die tieferen Spannungen.
Hallo, und wo liegt jetzt das Problem? Es gibt doch Spannungsgregler die sogar 3.3V und 5V ausspucken. TLE7469GV53 zum Bleistift von Infineon. Optimal wenn man zB einen XC164 steuern will. Mathias
Die Grafikkarten haben Spannungswandler drauf. 300W-500W spitze bei einer Grafikkarte kann schon mal sein und die laufen mit ca. 1V.
Selbst 3,3V sind an manchen Stellen schon wieder out und der Trend geht zu noch niedrigeren Spannungen. Die modernen FPGA Familien sind oft nur noch eingeschränkt 3,3V kompatibel an den IOs. Das geht dann nur noch mit verringerten Treiberstärken und Vorsicht bei Überschwingern auf den Leitungen... Auf der anderen Seite gibt es immer noch genug aktuelle Analog-ICs, die an digitalen Steuereingängen ein 5V Signal verlangen. Dann klappt auch ein Design mit reinen 3,3V IOs nicht.
Diese Fragen kommen doch schon seit Jahren. Aber inzwischen gibt es doch mehr ICs mit 3,3V (und darunter) als 5V. So weit ich weiß, waren z.B. die letzten 5V-FPGAs von Xilinx die XC5200, und die kamen 1995/96 (!) raus. Spätere hatten dann 5V-tolerante IOs. Es ist also nicht so, dass die ICs mit Vcc kleiner 5V über Nacht über uns hereingebrochen sind.
mueckerich schrieb: > Ich denk mal wegen der Verlustleisung und dem thermalem Management des > Chips sowie unter anderem aus Gründen der Energieersparnis. > Das sind IMHO die hauptsächlichen Gründe warum die Corespannung von den > Prozessorherstellern immer weiter nach unten gesetzt wurde. Das ist ein Grund, aber nicht der wirkliche. ich schrieb: > nein. Mit immer kleineren und feineren Fertigungstechnologien im > 2-stelligen nm Bereich ist mit 5V eben irgendwann schluss. So ist es, die Chipbereiche mit diesen Strukturen vertragen nicht mehr Spannung. MfG Klaus
Vielleicht ist auch die Spannungsversorgung, die mehr und mehr durch Lithiumakkus ersetzt wird ein Punkt. Die Spannung liegt ja meist so im Bereich 3,7-2,7 V...
Die Spannung wurde aus mehreren Gründen reduziert: -Kapazitive Umladeverluste, je höher die Frequenz und Spannung, desto größere Verluste -Isolationsspannung der Chipteile. Bei kleineren Strukturen wird zwangsläufig auch die Isolationsspannung geringer. -Je kleiner die Spannung, desto weniger EMV Probleme hat man als "Sender". Allerdings wird man anfälliger für den "Störungs-Empfang", weswegen man dann zu differentieller Übertragung greift. Beispiel: PCI vs PCIe. 3,3V ist langsam auch schon "obsolet". Manche uC und DSP haben schon nur noch 1,8 V habe ich gehört.
Florian V. schrieb: > Auf der anderen Seite gibt es immer noch genug aktuelle Analog-ICs, die > an digitalen Steuereingängen ein 5V Signal verlangen. Dann klappt auch > ein Design mit reinen 3,3V IOs nicht. Ich kenne wenige, die 5V verlangen. TTL kompatibel heißt, mehr als 2,4V für High, und das kann ein 3,3V CMOS (nicht TTL) Chip immer. MfG Klaus
Jup, zB alle modernen PIC laufen intern nur mehr mit 1.8V, aber für die Dinosaurier unter den Bastlern gibts die Peripherie dennoch weiterhin mit 3.3V :) Allgemein finde ich die niedrigeren Spannungen angenehmer, ab 2.5V brauchts z.B. aus einer LiPo-Einzelzelle nur mehr nen einfach Buck statt dem blöden Buck-Boost für die 3.3V.
Andreas Kist schrieb: > Martin Schwaikert schrieb: >> Wobei ich mich langsam frage, wie das noch funktioniert. Moderne >> Grafikkarten brauchen bis zu 450W. Das sind fast 500 Ampere... > > Wusste gar nicht, dass Grafikkarten mit 0,9 Volt laufen, wo sie doch > meistens ein paar 12V und 5V Rails als Versorgung haben. Der aktuelle Radeon 6990 Doppelkern-Prozessor läuft standardmäßig mit 1,12V, lässt sich allerdings auf 1,05V herunterfahren. > Selbst wenn sie nur auf 12V Rails laufen würden, wäre man irgendwo bei > 37A und nicht 500. Vor allem, da es AFAIK kein Netzteil gibt, welches > auf einer Rail 500A ausgeben kann. Solche Karten haben mindestens drei Versorgungen: PCIE/12V/12V. Die einzelnen 12V Stränge dürfen nicht am gleichen Netzteilausgang liegen und bestehen darüber hinaus aus 4xMasse + 4x12V mit je 150W maximaler Anschlussleistung. In Summe sind es also 150 W * 2 + 75W = 375W, die die Karte maximal aufnehmen darf. Die Übertaktung auf 450W wird das Netzteil auf Dauer also nicht verkraften, wenn es nicht speziell dafür gebaut ist. > Und hinzu kommt, dass die GPU nicht das einzige ist, was auf der > Grafikkarte so drauf ist. Das stimmt schon. Aber 450 Watt ist das TDP der Karte, nicht des Prozessors.
>und wo liegt jetzt das Problem? >Es gibt doch Spannungsgregler die sogar 3.3V und 5V ausspucken. Moderne Controller haben den Spannungsregler gleich on chip. Somit sind bei verschiedenen bis zu 5V VCC möglich (auch wenn die CPU mit viel weniger läuft). >3,3V ist langsam auch schon "obsolet". Nicht für IO. >Allgemein finde ich die niedrigeren Spannungen angenehmer... aber nicht im Hinblick auf Störsicherheit
naja "NICHT für IO" würde ich so nicht stehen lassen! Im low power bereich geht man schon die letzten Jahre von 3.3V weg, auf 2.8/2.75V, 2.5V. Im ultra low power bereich hab ich z.b. schaltungen wo IO level von 1.8V zu hause sind, was aber mit unter schwierigkeiten bereitet weil man nicht alles mit 1.8V bekommt dann hat man mixed domains mit 3.0V und 1.8V etc. bzw. ganz heavy weil nicht kompatible ein board mit 1.8, 2.5V, 2.8V und 3.3V; 2.8V Versorgung CPU, 2.5V Domain zu einem OEM Modul, 1.8V zu einem RF Chip und 3.3V zu einem GSM Modul. "inrush current" lässt grüßen ...
Die zwei Hauptgründe für immer niedrigere Kernspannungen wurden ja schon genannt: zum Einen steigt die dynamische Verlustleistung quadratisch zur Spannung an (die Leckströme steigen nur linear an, diese werden aber auch immer wichtiger bei kleinen Strukturen), zum Anderen werden die Feldstärken an den Gates der Transistoren so hoch, dass sie durchbrechen können. Das Gateoxid ist schließlich bei modernen Strukturen nur noch ein paar Atomlagen dick. Ganz konkret wurde der Schritt von 5V zu 3.3V damals beim Pentium 1 gegangen. Die ersten Pentium hatten noch 5V. Da man aber Probleme mit der Verlustleistung bekam, ging man bei späteren Modellen auf 3.3V.
Hat sich schon jemand Gedanken zur Feldsterke gemacht ? 1 Volt bei einem Abstand von 100nm sind schon 10MV/m, oder 10kV/mm. So nebenbei : Luft haelt das nicht.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.