Habs mir mal angeschaut aber das ist so fürchterlich kompliziert und abstrakt :( Habt ihr nicht dadurch ein paar graue Haare mehr davon bekommen? Glatze größer geworden? Wie kommt ihr nur damit klar? Wird der Einsatz von FPGA bald übermächtig?
>Wird der Einsatz von FPGA bald übermächtig? Den Satz verstehe ich nicht. Kannst Du den erläutern? Ansonsten: Das schöne an den FPGAs ist, dass die Arduino-Fraktion nicht mithalten kann. Trotz einiger Anläufe.
FPGA-Schock schrieb im Beitrag #6046549: > Habt ihr nicht dadurch ein paar graue Haare mehr davon bekommen? Jau, zu Anfangs ganz normal, fürchte ich^^ Ich hatte damals 2004 mit VHDL angefangen und war anfangs ziemlich frustriert ... Nun, das liegt jetzt schon ein paar Jahre zurück und jetzt komme ich ganz gut zurecht damit. Trotzdem lerne ich bei jedem Projekt immer noch neues^^ Dranbleiben lohnt sich :) Gerd schrieb: > Ansonsten: Das schöne an den FPGAs ist, dass die Arduino-Fraktion nicht > mithalten kann. Trotz einiger Anläufe. Das ist wohl eine Sache des Durchhaltevermögens. Außerdem braucht man schon recht gute Kenntnisse, um zu erkennen, für welche Anwendungen sich FPGAs lohnen und für welche nicht. Denke aber, über das ganze Retro-Computing werden viele Menschen einen guten und sinnvollen Einstieg in die FPGA-Materie bekommen.
FPGA-Schock schrieb im Beitrag #6046549: > Habs mir mal angeschaut Das reicht nicht aus. Es hilft auch, eine Anwendung zu haben, die ein FPGA tatsächlich erfordert. > das ist so fürchterlich kompliziert Ein Auto ist eigentlich auch fürchterlich kompliziert. Wenn man sich damit beschäftigt, relativiert sich das. > und abstrakt Gerade das ja nicht. Denn du hast zur freien Verwendung eigentlich nur LUTs und Flipflops. Einfacher geht es kaum... ;-)
Gerd schrieb: >>Wird der Einsatz von FPGA bald übermächtig? > > Den Satz verstehe ich nicht. Kannst Du den erläutern? > Damit meine ich den Einsatz von neuronales Netzwerk FPGA-basierte KI-Beschleunigerkarte
FPGA-Schock schrieb im Beitrag #6046597: > Gerd schrieb: >>>Wird der Einsatz von FPGA bald übermächtig? >> >> Den Satz verstehe ich nicht. Kannst Du den erläutern? >> > Damit meine ich den Einsatz von neuronales Netzwerk > > FPGA-basierte KI-Beschleunigerkarte Wenn sich spezialisierte Hardware für KI lohnt, sind FPGAs auch nur ein temporäres Werkzeug dafür.
FPGA-Schock schrieb im Beitrag #6046597: > Damit meine ich den Einsatz von neuronales Netzwerk > FPGA-basierte KI-Beschleunigerkarte Das ist genau das richtige Thema zum Einstieg in FPGA! Nicht! Denk mal nach, wie du angefangen hast zu programmieren. Ist nicht anders bei FPGA. Ausser, dass man von Hardware was verstehen muss. Ist ja auch eine *H*ardware *D*escription *L*anguage.
FPGA-Schock schrieb im Beitrag #6046597: > Damit meine ich den Einsatz von neuronales Netzwerk > > FPGA-basierte KI-Beschleunigerkarte Gähn. Sowas ist eigentlich erschreckend einfach. Und das ganze KI-Zeug ein totaler Hype, dabei ist da kaum Neues dabei. Die interessanten Sachen wurden in den 90ern erforscht. Hat nur 20 Jahre gedauert, bis jeder die Sau nun durchs Dorf treibt.
Gerd schrieb: >>Wird der Einsatz von FPGA bald übermächtig? > > Den Satz verstehe ich nicht. Kannst Du den erläutern? > > Ansonsten: Das schöne an den FPGAs ist, dass die Arduino-Fraktion nicht > mithalten kann. Trotz einiger Anläufe. Sehr cool! Ich werde unseren Kunden nun alle empfehlen auf FPGA zu wechseln, weil die Arduino-User es nicht können! Merjst wie dämlich deine Aussage war?
FPGA-Schock schrieb im Beitrag #6046549: > Habt ihr nicht dadurch ein paar graue Haare mehr davon bekommen? Ich fürchte, die wären sowieso gekommen... FPGA-Design ist auf andere Weise kompliziert als Softwareentwicklung. Es ist eine ganz andere Denke, wie man so schön neudeutsch sagt. Anstatt in Algorithmen muss man ins Strukturen denken. Anstatt zu überlegen, wie man Dinge parallelisiert, muss man darüber nachdenken, wie man Dinge in der richtigen Reihenfolge tut. Anstatt zu überlegen, welchen Maschinencode der Compiler erzeugt, muss man überlegen, welches Schaltungsdesign herauskommt. Dazu kommen noch ein paar Dinge, die in der Software keine Entsprechung haben, z.B. Pipelines, PLL, Clockdomains, CDC, Zeitverhalten innerhalb eines Taktzyklus (Setup/Hold etc), Place&Route, etc. Aber alles kein Grund zu verzeifeln. Und bestimmt nicht für eine Glatze :-)
Moin, FPGA-Schock schrieb im Beitrag #6046549: > Habs mir mal angeschaut aber das ist so fürchterlich kompliziert und > abstrakt :( Hm, eigentlich fand' ichs eher ziemlich klasse, was man da alles reinbauen kann, und wie simpel das im Vergleich dazu ist, es mit TTL/CMOS-Graebern aufbauen zu muessen. So ein FPGA ist doch wie ein Lego/Fischertechnik-Grundbaukasten. Wo von jeder Sorte Steine/Bretter/Zahnraeder eine bestimmte Anzahl vorhanden ist und man kann die dann zusammenbasteln, wie man Bock hat. > Habt ihr nicht dadurch ein paar graue Haare mehr davon bekommen? Nee, die kommen dann eher, wenn man merkt, das zwar prinzipiell die IOs beliebig angeordet sein koennen, aber leiderleider die aktuell gewaehlte Kombi aus einem nur fuer den FPGA-Hersteller offensichtlichen Grund natuerlich nicht gehen kann. Oder wenn die Tools nicht sagen koennen: "Bau da einen Clkbuffer rein, dann gehts", sondern irgendwelche wilden, wenig hilfreichen Fehlermeldungen schmeissen. Gruss WK
Lothar M. schrieb: > Das reicht nicht aus. Es hilft auch, eine Anwendung zu haben, die ein > FPGA tatsächlich erfordert. Das ist wahr, da µC so schnell und günstig geworden sind, kann man sehr viel damit damit lösen. Aber sobald man Zyklen exakt sein muss, wird der FPGA sehr schnell erforderlich. Und das gilt schon für relativ langsame Devices, wie eine 8 Bit CPU. Bei Retro Hardware, die vollständig emuliert wird, gibt es kein Problem (solange die Emulator Hardware schnell genug ist). Aber problematisch wird es, wenn emulierte Retro Hardware mit echter kommunizieren soll.
Haare? Wäre schön ... aber hier greift eine mittelgroße Wüste um sich.
FPGA-Schock schrieb im Beitrag #6046597: > Gerd schrieb: >>>Wird der Einsatz von FPGA bald übermächtig? > Damit meine ich den Einsatz von neuronales Netzwerk > > FPGA-basierte KI-Beschleunigerkarte Was ja eher ne simple Anwendung ist, da KI auf neuronalen Netzen beruhen die letzlich simple Multiply and Accumulate Structuren beinhalten. http://maleki.semnan.ac.ir/uploads/maleki/FPGA_docs/NeuralNetwork.pdf Sowas wurde schon vor 25 Jahren mit frühen FPGA-Generationen oder Asics gebaut: https://madoc.bib.uni-mannheim.de/810/1/TR-95-011.pdf. Und seit dem hat sich an der Nischenstellung von FPGA's gegenüber Consumer-CPU's nichts geändert.
Mampf F. schrieb: > Ich hatte damals 2004 mit VHDL angefangen und war anfangs ziemlich > frustriert ... Nun, das liegt jetzt schon ein paar Jahre zurück und > jetzt komme ich ganz gut zurecht damit. Ist bei mir genau umgekehrt: Ich habe zu der Zeit VHDL gelernt, weil ich von der klassischen Xilinx-Blockdiagramm-Eingabe der 3000er Serie kommend, auf das "neue" Eingabesystem umgestellt habe. Ich fand das sehr zielführend. Heute beobachte ich aber eine Rückwärtsbewegung wieder hin zu Bausteinen, die nur noch zusammengestellt und verknüpft werden. Mit VHDL ist eigentlich kaum noch etwas anzufangen. >Re: Mit FPGA ein paar graue Haare mehr Ganz sicher nicht. FPGAs ersetzen viele Baustellen auf den Platinen, weil sie Verbindungen intern halten und einfach synchron zu bauen sind. In den 90ern, als ich mit Elektronik begann, musste vieles noch mit Käfern gebaut werden und die haben sich oft nicht vertragen.
von Fitzebutze (Gast) 2019-11-21 08:24 >FPGA-Schock schrieb: >> Damit meine ich den Einsatz von neuronales Netzwerk >> >> FPGA-basierte KI-Beschleunigerkarte >Gähn. Sowas ist eigentlich erschreckend einfach. Und das ganze KI-Zeug >ein totaler Hype, dabei ist da kaum Neues dabei. Die interessanten >Sachen wurden in den 90ern erforscht. Hat nur 20 Jahre gedauert, bis >jeder die Sau nun durchs Dorf treibt. Das höre ich öfters von Leuten, die vor 20 Jahren studiert haben. Seltsamerweise scheint ihnen nicht in den Sinn zu kommen, dass die Forschung nicht stehen geblieben ist und dass die KI-Prozessoren und FPGAs, die heute in allen Zeitschriften beworben werden, nicht die Spitze der Forschung darstellen, sondern nur das praktisch anwendbare, mit dem man im Moment Geld verdienen will. Die neuesten Forschungschips bilden die biologischen Neuronen genauer nach als die KI-Beschleuniger, die du jetzt kaufen kannst. Und die Fortschritte auf dem Gebiet der Pulsneuronen sind gewaltig. Nicht umsonst fangen die Hochschulen gerade an, Professuren dafür einzurichten.
Sebastian schrieb: > Das höre ich öfters von Leuten, die vor 20 Jahren studiert haben. > Seltsamerweise scheint ihnen nicht in den Sinn zu kommen, dass die > Forschung nicht stehen geblieben ist und dass die KI-Prozessoren und > FPGAs, die heute in allen Zeitschriften beworben werden, nicht die > Spitze der Forschung darstellen, sondern nur das praktisch anwendbare, > mit dem man im Moment Geld verdienen will. Du verwerchelst Forschung mit Marketing. Hinsichtlich der hardwaretechnischen Grundlagen tut sich bei KI seit Jahrzehnten nichts. So wie bei der Mikroelektronik seit Etablierung der CMOS-Technologie nichts wesentlich hinzugekommen ist. Und ob der FPGA nun in 130 nm oder 10 nm gefertigt wird, ist dem FPGA-Designer im Grunde egal.
Sebastian schrieb: > Die neuesten Forschungschips bilden die biologischen Neuronen genauer > nach als die KI-Beschleuniger, die du jetzt kaufen kannst. Und die > Fortschritte auf dem Gebiet der Pulsneuronen sind gewaltig. Nicht > umsonst fangen die Hochschulen gerade an, Professuren dafür > einzurichten. Blabla. Der ASIC/GPU-'Standard' sind immer grösstenteils CNN (konvolutionale neuronale netze). Das ist forschungsmässig nach wie vor auf dem Stand der 90er, warum sollte man auch riskanteres wagen. Interessante NN wie Kohonen-Maps sind dagegen wieder in Vergessenheit geraten. Warum auch, wenn für die Google-Hypes und feuchte Träume vom autonomen Fahren mit CNN durchaus was vorzuzeigen ist. Es reicht halt nicht für ein nicht-überwachtes selbstlernendes Netz, und ist auch im ASIC schlussendlich nur ein Beschleuniger. Deswegen beeindruckt mich das nicht sonderlich. Und ja, ich kenne die gesammelten Werke von Herrn Zell.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.