Forum: FPGA, VHDL & Co. Mit FPGA ein paar graue Haare mehr


von FPGA-Schock (Gast)


Lesenswert?

Habs mir mal angeschaut aber das ist so fürchterlich kompliziert und 
abstrakt :(

Habt ihr nicht dadurch ein paar graue Haare mehr davon bekommen? Glatze 
größer geworden? Wie kommt ihr nur damit klar?

Wird der Einsatz von FPGA bald übermächtig?

von Gerd (Gast)


Lesenswert?

>Wird der Einsatz von FPGA bald übermächtig?

Den Satz verstehe ich nicht. Kannst Du den erläutern?

Ansonsten: Das schöne an den FPGAs ist, dass die Arduino-Fraktion nicht 
mithalten kann. Trotz einiger Anläufe.

von Mampf F. (mampf) Benutzerseite


Lesenswert?

FPGA-Schock schrieb im Beitrag #6046549:
> Habt ihr nicht dadurch ein paar graue Haare mehr davon bekommen?

Jau, zu Anfangs ganz normal, fürchte ich^^

Ich hatte damals 2004 mit VHDL angefangen und war anfangs ziemlich 
frustriert ... Nun, das liegt jetzt schon ein paar Jahre zurück und 
jetzt komme ich ganz gut zurecht damit.

Trotzdem lerne ich bei jedem Projekt immer noch neues^^

Dranbleiben lohnt sich :)

Gerd schrieb:
> Ansonsten: Das schöne an den FPGAs ist, dass die Arduino-Fraktion nicht
> mithalten kann. Trotz einiger Anläufe.

Das ist wohl eine Sache des Durchhaltevermögens. Außerdem braucht man 
schon recht gute Kenntnisse, um zu erkennen, für welche Anwendungen sich 
FPGAs lohnen und für welche nicht.

Denke aber, über das ganze Retro-Computing werden viele Menschen einen 
guten und sinnvollen Einstieg in die FPGA-Materie bekommen.

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

FPGA-Schock schrieb im Beitrag #6046549:
> Habs mir mal angeschaut
Das reicht nicht aus. Es hilft auch, eine Anwendung zu haben, die ein 
FPGA tatsächlich erfordert.

> das ist so fürchterlich kompliziert
Ein Auto ist eigentlich auch fürchterlich kompliziert. Wenn man sich 
damit beschäftigt, relativiert sich das.

> und abstrakt
Gerade das ja nicht. Denn du hast zur freien Verwendung eigentlich nur 
LUTs und Flipflops. Einfacher geht es kaum...   ;-)

von FPGA-Schock (Gast)


Lesenswert?

Gerd schrieb:
>>Wird der Einsatz von FPGA bald übermächtig?
>
> Den Satz verstehe ich nicht. Kannst Du den erläutern?
>
Damit meine ich den Einsatz von neuronales Netzwerk

FPGA-basierte KI-Beschleunigerkarte

von r c (Gast)


Lesenswert?

FPGA-Schock schrieb im Beitrag #6046597:
> Gerd schrieb:
>>>Wird der Einsatz von FPGA bald übermächtig?
>>
>> Den Satz verstehe ich nicht. Kannst Du den erläutern?
>>
> Damit meine ich den Einsatz von neuronales Netzwerk
>
> FPGA-basierte KI-Beschleunigerkarte

Wenn sich spezialisierte Hardware für KI lohnt, sind FPGAs auch nur ein 
temporäres Werkzeug dafür.

von Nick M. (Gast)


Lesenswert?

FPGA-Schock schrieb im Beitrag #6046597:
> Damit meine ich den Einsatz von neuronales Netzwerk
> FPGA-basierte KI-Beschleunigerkarte

Das ist genau das richtige Thema zum Einstieg in FPGA! Nicht!

Denk mal nach, wie du angefangen hast zu programmieren. Ist nicht anders 
bei FPGA. Ausser, dass man von Hardware was verstehen muss. Ist ja auch 
eine *H*ardware *D*escription *L*anguage.

von Fitzebutze (Gast)


Lesenswert?

FPGA-Schock schrieb im Beitrag #6046597:
> Damit meine ich den Einsatz von neuronales Netzwerk
>
> FPGA-basierte KI-Beschleunigerkarte

Gähn. Sowas ist eigentlich erschreckend einfach. Und das ganze KI-Zeug 
ein totaler Hype, dabei ist da kaum Neues dabei. Die interessanten 
Sachen wurden in den 90ern erforscht. Hat nur 20 Jahre gedauert, bis 
jeder die Sau nun durchs Dorf treibt.

von Lona (Gast)


Lesenswert?

Gerd schrieb:
>>Wird der Einsatz von FPGA bald übermächtig?
>
> Den Satz verstehe ich nicht. Kannst Du den erläutern?
>
> Ansonsten: Das schöne an den FPGAs ist, dass die Arduino-Fraktion nicht
> mithalten kann. Trotz einiger Anläufe.

Sehr cool!

Ich werde unseren Kunden nun alle empfehlen auf FPGA zu wechseln, weil 
die Arduino-User es nicht können!

Merjst wie dämlich deine Aussage war?

von Vancouver (Gast)


Lesenswert?

FPGA-Schock schrieb im Beitrag #6046549:
> Habt ihr nicht dadurch ein paar graue Haare mehr davon bekommen?

Ich fürchte, die wären sowieso gekommen...

FPGA-Design ist auf andere Weise kompliziert als Softwareentwicklung. Es 
ist eine ganz andere Denke, wie man so schön neudeutsch sagt. Anstatt in 
Algorithmen muss man ins Strukturen denken. Anstatt zu überlegen, wie 
man Dinge parallelisiert, muss man darüber nachdenken, wie man Dinge in 
der richtigen Reihenfolge tut. Anstatt zu überlegen, welchen 
Maschinencode der Compiler erzeugt, muss man überlegen, welches 
Schaltungsdesign herauskommt. Dazu kommen noch ein paar Dinge, die in 
der Software keine Entsprechung haben, z.B. Pipelines, PLL, 
Clockdomains, CDC, Zeitverhalten innerhalb eines Taktzyklus (Setup/Hold 
etc), Place&Route, etc.

Aber alles kein Grund zu verzeifeln. Und bestimmt nicht für eine Glatze 
:-)

von Dergute W. (derguteweka)


Lesenswert?

Moin,

FPGA-Schock schrieb im Beitrag #6046549:
> Habs mir mal angeschaut aber das ist so fürchterlich kompliziert und
> abstrakt :(

Hm, eigentlich fand' ichs eher ziemlich klasse, was man da alles 
reinbauen kann, und wie simpel das im Vergleich dazu ist, es mit 
TTL/CMOS-Graebern aufbauen zu muessen.
So ein FPGA ist doch wie ein Lego/Fischertechnik-Grundbaukasten. Wo von 
jeder Sorte Steine/Bretter/Zahnraeder eine bestimmte Anzahl vorhanden 
ist und man kann die dann zusammenbasteln, wie man Bock hat.

> Habt ihr nicht dadurch ein paar graue Haare mehr davon bekommen?
Nee, die kommen dann eher, wenn man merkt, das zwar prinzipiell die IOs 
beliebig angeordet sein koennen, aber leiderleider die aktuell gewaehlte 
Kombi aus einem nur fuer den FPGA-Hersteller offensichtlichen Grund 
natuerlich nicht gehen kann. Oder wenn die Tools nicht sagen koennen: 
"Bau da einen Clkbuffer rein, dann gehts", sondern irgendwelche wilden, 
wenig hilfreichen Fehlermeldungen schmeissen.

Gruss
WK

von Thomas W. (diddl)


Lesenswert?

Lothar M. schrieb:
> Das reicht nicht aus. Es hilft auch, eine Anwendung zu haben, die ein
> FPGA tatsächlich erfordert.

Das ist wahr, da µC so schnell und günstig geworden sind, kann man sehr 
viel damit damit lösen.

Aber sobald man Zyklen exakt sein muss, wird der FPGA sehr schnell 
erforderlich. Und das gilt schon für relativ langsame Devices, wie eine 
8 Bit CPU.

Bei Retro Hardware, die vollständig emuliert wird, gibt es kein Problem 
(solange die Emulator Hardware schnell genug ist). Aber problematisch 
wird es, wenn emulierte Retro Hardware mit echter kommunizieren soll.

von Gustl B. (-gb-)


Lesenswert?

Haare? Wäre schön ... aber hier greift eine mittelgroße Wüste um sich.

von Vancouver (Gast)


Lesenswert?

Gustl B. schrieb:
> mittelgroße Wüste

Wiese nach drei Monaten ohne Regen...

von C. A. Rotwang (Gast)


Lesenswert?

FPGA-Schock schrieb im Beitrag #6046597:
> Gerd schrieb:
>>>Wird der Einsatz von FPGA bald übermächtig?

> Damit meine ich den Einsatz von neuronales Netzwerk
>
> FPGA-basierte KI-Beschleunigerkarte

Was ja eher ne simple Anwendung ist, da KI auf neuronalen Netzen beruhen 
die letzlich simple Multiply and Accumulate Structuren beinhalten.

http://maleki.semnan.ac.ir/uploads/maleki/FPGA_docs/NeuralNetwork.pdf

Sowas wurde schon vor 25 Jahren mit frühen FPGA-Generationen oder Asics 
gebaut: https://madoc.bib.uni-mannheim.de/810/1/TR-95-011.pdf.

Und seit dem hat sich an der Nischenstellung von FPGA's gegenüber 
Consumer-CPU's nichts geändert.

von Michel (Gast)


Lesenswert?

Mampf F. schrieb:
> Ich hatte damals 2004 mit VHDL angefangen und war anfangs ziemlich
> frustriert ... Nun, das liegt jetzt schon ein paar Jahre zurück und
> jetzt komme ich ganz gut zurecht damit.

Ist bei mir genau umgekehrt: Ich habe zu der Zeit VHDL gelernt, weil ich 
von der klassischen Xilinx-Blockdiagramm-Eingabe der 3000er Serie 
kommend, auf das "neue" Eingabesystem umgestellt habe.

Ich fand das sehr zielführend. Heute beobachte ich aber eine 
Rückwärtsbewegung wieder hin zu Bausteinen, die nur noch 
zusammengestellt und verknüpft werden. Mit VHDL ist eigentlich kaum noch 
etwas anzufangen.

>Re: Mit FPGA ein paar graue Haare mehr
Ganz sicher nicht. FPGAs ersetzen viele Baustellen auf den Platinen, 
weil sie Verbindungen intern halten und einfach synchron zu bauen sind. 
In den 90ern, als ich mit Elektronik begann, musste vieles noch mit 
Käfern gebaut werden und die haben sich oft nicht vertragen.

von Sebastian (Gast)


Lesenswert?

von Fitzebutze (Gast) 2019-11-21 08:24
>FPGA-Schock schrieb:
>> Damit meine ich den Einsatz von neuronales Netzwerk
>>
>> FPGA-basierte KI-Beschleunigerkarte

>Gähn. Sowas ist eigentlich erschreckend einfach. Und das ganze KI-Zeug
>ein totaler Hype, dabei ist da kaum Neues dabei. Die interessanten
>Sachen wurden in den 90ern erforscht. Hat nur 20 Jahre gedauert, bis
>jeder die Sau nun durchs Dorf treibt.

Das höre ich öfters von Leuten, die vor 20 Jahren studiert haben.
Seltsamerweise scheint ihnen nicht in den Sinn zu kommen, dass die 
Forschung nicht stehen geblieben ist und dass die KI-Prozessoren und 
FPGAs, die heute in allen Zeitschriften beworben werden, nicht die 
Spitze der Forschung darstellen, sondern nur das praktisch anwendbare, 
mit dem man im Moment Geld verdienen will.
Die neuesten Forschungschips bilden die biologischen Neuronen genauer 
nach als die KI-Beschleuniger, die du jetzt kaufen kannst. Und die 
Fortschritte auf dem Gebiet der Pulsneuronen sind gewaltig. Nicht 
umsonst fangen die Hochschulen gerade an, Professuren dafür 
einzurichten.

von C. A. Rotwang (Gast)


Lesenswert?

Sebastian schrieb:

> Das höre ich öfters von Leuten, die vor 20 Jahren studiert haben.
> Seltsamerweise scheint ihnen nicht in den Sinn zu kommen, dass die
> Forschung nicht stehen geblieben ist und dass die KI-Prozessoren und
> FPGAs, die heute in allen Zeitschriften beworben werden, nicht die
> Spitze der Forschung darstellen, sondern nur das praktisch anwendbare,
> mit dem man im Moment Geld verdienen will.

Du verwerchelst Forschung mit Marketing.
Hinsichtlich der hardwaretechnischen Grundlagen tut sich bei KI seit 
Jahrzehnten nichts. So wie bei der Mikroelektronik seit Etablierung der 
CMOS-Technologie nichts wesentlich hinzugekommen ist.
Und ob der FPGA nun in 130 nm oder 10 nm gefertigt wird, ist dem 
FPGA-Designer im Grunde egal.

von Fitzebutze (Gast)


Lesenswert?

Sebastian schrieb:
> Die neuesten Forschungschips bilden die biologischen Neuronen genauer
> nach als die KI-Beschleuniger, die du jetzt kaufen kannst. Und die
> Fortschritte auf dem Gebiet der Pulsneuronen sind gewaltig. Nicht
> umsonst fangen die Hochschulen gerade an, Professuren dafür
> einzurichten.

Blabla.

Der ASIC/GPU-'Standard' sind immer grösstenteils CNN (konvolutionale 
neuronale netze). Das ist forschungsmässig nach wie vor auf dem Stand 
der 90er, warum sollte man auch riskanteres wagen.
Interessante NN wie Kohonen-Maps sind dagegen wieder in Vergessenheit 
geraten. Warum auch, wenn für die Google-Hypes und feuchte Träume vom 
autonomen Fahren mit CNN durchaus was vorzuzeigen ist.
Es reicht halt nicht für ein nicht-überwachtes selbstlernendes Netz, und 
ist auch im ASIC schlussendlich nur ein Beschleuniger. Deswegen 
beeindruckt mich das nicht sonderlich.
Und ja, ich kenne die gesammelten Werke von Herrn Zell.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.