Ja, was ist hiervon zu halten? http://xputer.de/FP/ Ich finde das hört sich alles ziemlich schwachsinnig an, aber vll. fehlt mir auch einfach das Wissen. :)
Habe den Text aufgehört zu lesen. Auf dieser Seite bekommt man ja Augenkrebs: Weisser Text auf Weiss-Grau-Schwarzem Hintergrund.
Wenn Du die Ampelsteuerung Deiner Modellbahnanlage von Intel QuadCore auf FPGA umstellst, kannst Du eine Menge Strom sparen. Obwohl es sicher eine Menge Einsparpotential gibt, ist der völlig überzogene Artikel eine Lachnummer.
> Ja, was ist hiervon zu halten? Käse. FPGA Implementationen brauchen mehr Strom als sequentielle Computer. Sie brauchen mehr Chipfläche also teureres Silizium. Dafür sind sie schneller. Die NSA hat sicher viele davon in PRISM verbaut. Deren Stromrechnung zahlt ja auch der Staat. Alle anderen sind froh, wenn eine FPGA-Implementation endlich als richtiges Silizium vorliegt.
Ich weiss ja nicht, was dieser Herr Hartenstein gefrühstückt hat, aber eines weiss ich sicher: Der Mann hat keinen blassen Schimmer von dem, was er da von sich gibt.
> Der Mann hat keinen blassen Schimmer von dem, was er da von sich gibt. Leider falsch. Der Mann arbeitet schon sehr im lang im Bereich rekonfigurierbare Architekturen, nicht nur FPGAs. Er hat mit dem Xputer auch eine sehr interessante (wenn auch schwierig zu programmierende) Architektur erfunden. Sein Credo ist, dass sich die Architektur an das Problem anpasst und nicht (wie mit SW) die Programmierung an die Architektur. Es geht nicht um ASIC vs. FPGA! Leider verstehen das viele (so wie MaWin) nicht, ist halt auch etwas visionär.
"Senkung des Stromverbrauchs bis auf weniger als ein Tausendstel. Eine Vielzahl von Studien zur Umprogrammierung von Computer-Software auf FPGA-Kodierung wurde veröffentlicht. Die Ersparnis-Faktoren hängen vom Anwendungsgebiet ab. Der bisherige "Weltrekord" (Prof. El-Ghazawi, George Washington University, Washington, DC) dividiert die Stromrechnung durch 4300 (in Worten: viertausend-dreihundert), wobei sich die Größe (das Volumen) der Hardware-Ausstattung auf weniger als ein Tausendstel reduziert hat. Zudem: keine Klimatisierung ist nötig." Wow das kann ich auch wenn ich zum Led Blinken nen avr statt meinem Hexacore nehme....
Naja, die Wissenschaft braucht ab und zu gewisse Visionäre um aus den eingefahrenen Spurrillen wieder rauszukommen. Es gibt mittlerweile einiges an Literatur auf dem Markt, die "reconfigurable computing" Paradigmen als Lösungen der Zukunft propagieren und die Ineffizienz der bekannten Rechnerarchitekturen (v. Neumann, Harvard usw.) anprangern. Die katholische Kirche hat auch fast 400 Jahre gebraucht um Galileo Galilei zu rehabilitieren. So schwierig kann es manchmal sein, von "bewährtem Wissen" loszukommen.
MaWin schrieb: > FPGA Implementationen brauchen mehr Strom als sequentielle Computer. Definitiv nicht. Man könnte sagen die Flexibilität ist umgekehrt proportional zum Leistungsverbrauch, auf jeweils ein Aufgabe bezogen. Etwa in der Reihenfolge (und stark vereinfacht): - Prozessor (kann fast beliebige Aufgaben lösen, für die Programmierung reicht die Algorithmus-Ebene, der Rest macht ein Compiler, ist aber aufgrund des fixen Instruktionssatzes/Registerset ineffizient) - FPGA (kann Aufgaben in Reichweite der FPGA HW-Ressourcen lösen, für die Programmierung, pardon Beschreibung, ist HW-Verständnis notwendig, ist aber viel effizienter als ein Prozessor, da genau die benötigten Register und Funktionalität gebaut werden können) - ASIC (Definitiv die effizienteste Lösung, wenn immer dieselbe Aufgabe bewältigt werden muss, HW-Engineering nötig, hohe Initialkosten). Ich denke aber generell, dass man die ganz Angelegenheit nicht mit derart missionarischen Eifer angehen muss. Das wird sich von alleine in die richtige Richtung bewegen, wenn der Strom erst mal der kritische Parameter ist (Preis und/oder Verfügbarkeit).
Mal so als Hinweis für alle, die Prof. Hartensteins Webseiten für aktuelle Forschung halten - die Ergebnisse seiner Gruppe aus Kaiserslautern (früher Karlsruhe) sind bereits über 20 Jahre alt... Die entsprechenden Veröffentlichungen sind aber auch heute noch durchaus interessant zu lesen. Mainstream waren diese Architekturen nicht und werden es so schnell wohl auch nicht werden :-). Für spezielle Anwendungen - wie von einigen hier bereits angedeutet - ist die Verwendung von Datenflußarchitekturen/systolischen Arrays und den XPuter-Weiterentwicklungen ganz sinnvoll. Kommerziell wird entsprechende Hardware aktuell recht erfolgreich von Maxeler (http://www.maxeler.com) für HPC-Anwendungen vertrieben. -- Michael (der vor > 20 Jahren Vorlesungen bei Hartenstein gehört hat)
Der Artikel ist belangloses Gefasel und enthält keinerlei konkrete Tatsachen! Geeignet um Leute zu beeindrucken, die keine Ahnung von der Technik haben, z.B.Politiker, Künstler und Juristen. ==> Allein die Leckströme von den heutigen FPGAs betragen ein vielfaches von dem, was in Silizium gegossene CPUs benötigen! Ich habe zumindest noch kein Smartphone gesehen, in dem ein FPGA steckt... ;o)
Das ganze ist "noch" eine Vision. Bei dem Artikel ging es ja weniger darum, das Prinzip als solches vorzustellen, sondern offensichtlich um die tatsächliche, technische Umsetzung mittels FGPA. Herr Hartenstein stellt es dar, als sei der FPGA das Allheimlittel und der Messias für die Informationsverarbeitung. Als sei alles da und man müsse "nur" noch ein paar geeignete Entwickler finden, die das dann umsetzen. Das Konzept, welches dahinter steckt, ist auf jeden Fall interessant. Aber die Art, wie Herr Hartenstein das hier darstellt, ist einfach nur Panne... BTW: Wer seine Website mit Blau/grau und weiss auf grau gesprenkeltem Hintergrund darstellt, den kann ich schon alleine deswegen nicht für voll nehmen. Kann sein, dass er in der Theorie tolle Visionen hat, die man sicher auch beachten sollte, aber ein Mann der Tat scheint er mir nicht gerade zu sein..
Mike schrieb: > Der Artikel ist belangloses Gefasel und enthält keinerlei konkrete > Tatsachen! Geeignet um Leute zu beeindrucken, die keine Ahnung von der > Technik haben, z.B.Politiker, Künstler und Juristen. ...und jetzt rate mal, wer über die Vergabe von Forschungsgeldern entscheidet. Nicht die Kleinbeträge, sondern große, langfristig angelegte Programme der EU, des BMBF usw. Da sitzen genau auch Politiker und Juristen (die Überdeckung zwischen den Gruppen ist eh hoch), die man mit tiefen technischen Argumenten nicht überzeugen kann, einige Milliarden lockerzumachen. Und auch das ist Job eines Professors (auch wenn Prof. Hartenstein längst im Ruhestand ist und das nicht mehr unbedingt bräuchte...). Mit ähnlichen Argumenten haben es (mir unbekannte) Leute geschafft, der EU 5 Milliarden Euro für (hauptsächlich) Chipfertigung in Europa aus der Tasche zu ziehen (http://www.itespresso.de/2013/05/24/eu-unterstutzt-europaische-chipfertigung-mit-5-milliarden-euro/). Ob das sinnvoll ist, sei mal dahingestellt... > ==> Allein die Leckströme von den heutigen FPGAs betragen ein vielfaches > von dem, was in Silizium gegossene CPUs benötigen! Ich habe zumindest > noch kein Smartphone gesehen, in dem ein FPGA steckt... ;o) Es ist hier wichtig, das Konzept FPGA von den aktuell verfügbaren Implementierungen von FPGAs zu unterscheiden. In der Vergangenheit war Energieeffizienz kein Entwurfsziel - also haben Xilinx und Altera eben nicht viel Zeit darauf verwendet. Einige kleinere Hersteller dagegen schon. Und am Beispiel Intel hat man gesehen, dass mit ein "wenig" Geld es durchaus machbar ist, etwas verkorkstes wie die x86-Architektur (Pentium 4 Netburst-Monster) auf stromsparend und effizient (Haswell) zu trimmen. -- Michael
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.