Forum: FPGA, VHDL & Co. FPGA aus Köln - GateMate


Announcement: there is an English version of this forum on EmbDev.net. Posts you create there will be displayed on Mikrocontroller.net and EmbDev.net.
von Gustl B. (-gb-)


Lesenswert?


von Nun. (Gast)


Lesenswert?

Vermute mal die wollen sich neu ausrichten und weg von "nur ISDN Chips".


Zum FPGA:
Keine DSP Slices sondern mehr Mult über die Logikzellen verteilt.
Interessant.
Da müsste man mal Performance Vergleiche machen.
Leider nur bis 2.5V I/Os, sonst schauts brauchbar aus.


"lowest  cost  in  industry"
wäre da noch zu beweisen.

von Martin G. (Firma: www.engyneer.at) (martin_g697)


Lesenswert?

Langzeitverfügbarkeit?

von Gerd E. (robberknight)


Lesenswert?

Nun. schrieb:
> Vermute mal die wollen sich neu ausrichten und weg von "nur ISDN Chips".

Müssen sie ganz fix wenn sie überleben wollen, der ISDN-Markt ist doch 
nur noch Erhalten/Anbinden von Altgeräten. Neu designte TK-Anlagen 
brauchen das nicht mehr.

> Leider nur bis 2.5V I/Os

Das ist allerdings ziemlich unpraktisch, auch wenn vieles schon mit 1.8V 
läuft, braucht man in der Praxis an vielen Stellen noch 3.3V. Wenn man 
wieder Pegelwandler braucht, bleiben vom kompakten Layout mit BGA nur 
die Nachteile.

Was ich noch nicht so ganz verstanden habe ist die Design Software. Sehe 
ich das richtig dass die sich vorstellen, dass man auch für 
Neuentwicklungen für deren FPGAs eine Konkurrenz-Software wie Vivado 
oder Diamond verwenden soll und den Output davon dann mit deren GateMate 
auf deren FPGA konvertieren soll?

Für Umsteiger und das Konvertieren bestehender Designs mag das 
funktionieren, aber für Neuentwicklungen scheint mir das arg 
umständlich.

Warum tun die sich das an und setzen nicht von Anfang an z.B. auf yosys 
und nextpnr, meinetwegen noch mit ner GUI von denen drübergestülpt?

von FPGAzumSpass (Gast)


Lesenswert?

Hier noch was zum internen Aufbau:

https://www.ims.uni-hannover.de/fileadmin/IMS/images/IMS-Aktivitaeten/Tensilica_Day/2019/td19_colognechip.pdf


Sieht doch ganz interessant aus, zudem Design und Fertigung in 
Deutschland.
Vielleicht klappt es ja nochmal das wir ein bischen Technik hier bei uns 
haben und halten können.

Leider ist das noch alles sehr früh und neu, das Evalboard nicht 
verfügbar.

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

FPGAzumSpass schrieb:
> Sieht doch ganz interessant aus
Hört sich für mich ein wenig nach SpinOff, StartUp und Forschungsgelder 
an.
https://www.eenewsanalog.com/news/low-cost-european-fpga-launched-ipcei-support#
https://www.bmwi.de/Redaktion/DE/Pressemitteilungen/2019/20190517-altmaier-eine-milliarde-fuer-die-schluesseltechnologie-mikroelektronik.html

Und wenn man mal nach den Namen des Board of Directors googelt, dann 
sieht das irgendwie ein wenig nach "machen wir auch" aus...
http://cit-edu.com/
https://www.gude.info/

Insofern finde ich die Frage nach der Langzeitverfügbarkeit schon 
berechtigt.

von Vancouver (Gast)


Lesenswert?

Cologne Programmable Elements (CPE)... an Selbstbewusstsein mangelt es 
ihnen schon mal nicht.

Leider sagen sie nichts über die Designsoftware, außer
"Worldclass P&R-software maps and implements the design into GateMateTM 
FPGA." Was auch immer das heißen mag.

Aber schön dass mal jemand den Mut hat, sowas in Europa auf die Beine zu 
stellen, bei allem Risiko. Wenn es Trumpyboy gefällt, darf Xilinx 
irgendwann nur noch die Spartan3-Klasse nach Europa liefern. Da wirds 
Zeit, dass unsere verschnarchten short-term-fixierten Wirtschaftsdiven 
mal wach werden (und sich nicht jedesmal einnässen, wenn der DAX eine 
Delle bekommt). Wir können das, aber wir müssen es auch tun. Beim Thema 
RISCV sind wir schon weiter, da kommen ja gerade mächtig viele Steine 
ins rollen. Gefällt mir.

von Bürovorsteher (Gast)


Lesenswert?

Subventionsabgreifer

von Helmut S. (helmuts)


Lesenswert?

Gerd E. schrieb:
> Was ich noch nicht so ganz verstanden habe ist die Design Software. Sehe
> ich das richtig dass die sich vorstellen, dass man auch für
> Neuentwicklungen für deren FPGAs eine Konkurrenz-Software wie Vivado
> oder Diamond verwenden soll und den Output davon dann mit deren GateMate
> auf deren FPGA konvertieren soll?
>

Ich habe mir gerade den design flow auf Seite 24 angeschaut.
https://colognechip.com/docs/gatemate-ccgm1a-datasheet.pdf

Hoffentlich eckt man da nicht bei den FPGA-Herstellern an, wenn man 
deren Tools verwendet um den SDF-File zu generieren und zu simulieren 
und dann zu deren Tool GateMate abbiegt oder kann man das Drumherum auch 
mit herstellerunabgängigen Tools erschlagen (Mentor HDL-Designer, ???) 
die aber sicher sehr teuer sind?

: Bearbeitet durch User
von Martin S. (strubi)


Lesenswert?

Gerd E. schrieb:
> Für Umsteiger und das Konvertieren bestehender Designs mag das
> funktionieren, aber für Neuentwicklungen scheint mir das arg
> umständlich.
>
> Warum tun die sich das an und setzen nicht von Anfang an z.B. auf yosys
> und nextpnr, meinetwegen noch mit ner GUI von denen drübergestülpt?

Die Software war schon immer bisschen die Schwaeche bei den div. 
FPGA-Toolchains. Gerade bei Xilinx galt schon immer der Spruch: 
Schuster, bleib' bei deinen Leichen (und ueberlass andern die Software).

Da wuerde ich es auch begruessen, wenn ein bisschen Schotter fuer 
yosys-Adaption freigemacht wuerde - plus etwas aufgebrachten Mut zu 
OpenSource.

Ansonsten sieht das Ding nach etwas viel 'network on a chip' aus, aber 
irgendwann muss man ja mal einfach anfangen. Das finde ich ansich 
prinzipiell gut, und wenn die Specs stimmen, kann man damit sicher ein 
paar Innovationen schaukeln.

Um sich naeher mit dem Ding beschaeftigen zu wollen, muesste allerdings 
noch etwas Fleisch an den Knochen:
- Simulationsfiles, Primitivenbeschreibung
- konkrete Beschreibung des Workflows

Vermutlich ist das alles noch nicht so ganz fertiggeboren..

von Nun. (Gast)


Lesenswert?

Martin S. schrieb:
> plus etwas aufgebrachten Mut zu
> OpenSource.

Ich würde sogar behaupten, dass das die beste Chance wäre um damit 
irgendwie erfolgreich zu werden.
Zumindest mal den Bitstream offen legen, dann könnten sich 
möglicherweise ein paar mehr Leute dafür interessieren...

von Watten (Gast)


Lesenswert?

FPGA aus D-Land? MegaLOL. Ist nur ein Subvenstionschip.

von Logoa (Gast)


Lesenswert?

Wieso sollte ein FPGA Chip aus Deutschland nicht möglich sein?

Wichtig ist doch dass man sich als Unternehmer von nationalistischen 
Ideen löst. Das heißt die Chpifertigung muss gar nicht in Deutschland 
stattfinden. Amerikanische Unternehmen lassen auch gerne in Asien 
produzieren. Man sollte das tun was jetzt gerade am sinnvollsten ist.

Wieso sollte man es sich vor allem am Anfang unnötig schwer machen oder 
das Produkt unnötig teuer?
Wenn man mal ein großer Name wird, kann man immer noch nationale 
Interessen fördern und bedeutende Standorte hier errichten.

Man wird doch wohl in Deutschland mit einigen zehn Millionen Euro ein 
vernünftiges Team aufstellen dass solche Chips designen kann. Und noch 
eine weitere Gruppe für die Software.

Was ist los mit euch? :D

Viele fordern oft eine Lösung auf der EU Ebene. Die EU solle durch ihre 
Größe und Kapazität doch bitte eine Lösung schaffen für üblichen 
Defizite in der IT und Elektronik.
Wisst ihr was das im Grunde ist? Der Versuch einen Mangel an Willen 
durch Kooperation zu kompensieren. So wie es in der EU oft passiert und 
zu unbefriedigenden Ergebnissen führt.
Kooperation gegen mangelnde Willensstärke einzelner Akteure ist nicht 
besonders fruchtbar.

Watten schrieb:
> FPGA aus D-Land? MegaLOL. Ist nur ein Subvenstionschip.

Was wäre die Steigerung von MegaLOL? SuperMegaLOL? Muss mal die Kinder 
fragen :D

Beitrag #6165376 wurde von einem Moderator gelöscht.
von Udo K. (Gast)


Lesenswert?

Der Markt ist gross, und wächst stark.
Etwas verspätet, aber könnte klappen, wenn Preis und Verfügbarkeit gut 
sind.

Beitrag #6165406 wurde von einem Moderator gelöscht.
Beitrag #6165416 wurde von einem Moderator gelöscht.
von J. S. (engineer) Benutzerseite


Lesenswert?

Vancouver schrieb:
> Cologne Programmable Elements (CPE)... an Selbstbewusstsein mangelt es
> ihnen schon mal nicht.

Ob denen bewusst war, woher der Name Cologne überhaupt kommt und wie 
das außerhalb des Rheinlands wirkt?

Ich würde das mal rasch umtaufen in "Comfortably Programmable Elements".

von Nun. (Gast)


Lesenswert?

Jürgen S. schrieb:
> Ob denen bewusst war, woher der Name Cologne überhaupt kommt
>


Soweit ich weiss "Colonia" / Kolonie wegen den Römern.
Ist das nun schlimm?

von Vancouver (Gast)


Lesenswert?

Jürgen S. schrieb:
> Ob denen bewusst war, woher der Name Cologne überhaupt kommt und wie
> das außerhalb des Rheinlands wirkt?

Und der Deutschland-Distributor sitzt ausgerechnet in Düsseldorf... ein 
Schelm, wer Böses dabei denkt...

von Samuel C. (neoexacun)


Lesenswert?

Ich komm nicht drauf ... weder bei Cologne noch bei Düsseldorf ... mag 
das jemand aufklären?

von Nun. (Gast)


Lesenswert?

Bei Köln vs. Düsseldorf kann ich helfen.
Frei nach den Toten Hosen (aus Düsseldorf) - 10 kleine Jägermeister: 
"... sieben fuhren nach Düsseldorf, einer fuhr nach Köln!"

Alte Rivalität zwischen Köln und Düsseldorf:
https://de.wikipedia.org/wiki/Rivalit%C3%A4t_zwischen_K%C3%B6ln_und_D%C3%BCsseldorf

von Vancouver (Gast)


Lesenswert?

Aber wehe es kommt jemand von außerhalb den Kölnern oder Düsseldorfern 
blöd daher. Dann halten sie zusammen wie Pech und Schwefel :-)

von Martin S. (strubi)


Lesenswert?

Jürgen S. schrieb:
> Vancouver schrieb:
>> Cologne Programmable Elements (CPE)... an Selbstbewusstsein mangelt es
>> ihnen schon mal nicht.
>
> Ob denen bewusst war, woher der Name Cologne überhaupt kommt und wie
> das außerhalb des Rheinlands wirkt?
>
> Ich würde das mal rasch umtaufen in "Comfortably Programmable Elements".

Woanders steht doch bereits: Central Programmable Element.

Logoa schrieb:
> Viele fordern oft eine Lösung auf der EU Ebene. Die EU solle durch ihre
> Größe und Kapazität doch bitte eine Lösung schaffen für üblichen
> Defizite in der IT und Elektronik.

Naja, die Belgier machen's doch vor, wie's geht. Dazu braucht man 
vermutlich keinen Oettinger, aber vielleicht ein Oettinger oder besser 
ein Hoegaarden, um kreativ zu werden.

von Logoa (Gast)


Lesenswert?

Eigentlich wäre eine vollständig freie FPGA Architektur echt 
interessant. Vielleicht wird man als Unternehmen nicht mega reich davon. 
Aber man kann eine Foundation gründen und Entwickler einstellen die 
daran arbeiten und davon leben. Und der Weg wäre frei für eine 
zunehmende Unabhängigkeit von ein paar Konzernen eines Landes.

Wäre das nicht genau so eine gute Idee wie RISC-V?

von J. S. (engineer) Benutzerseite


Lesenswert?

Nun. schrieb:
> Soweit ich weiss "Colonia" / Kolonie wegen den Römern.
> Ist das nun schlimm?

Wir hatten im Lateinunterricht mal einen Prof von der Uni, der 
darstellte, dass Köln zwar indirekt von Colonia kommt, die aber nicht 
auf die Kolonie, wie wir sie verstehen, zurückzuführen sein, sondern aus 
dem Griechischen Colon, dem Darm, dem Geschklängel der Füsse an denen 
sich dann die "Kolonieren" im römischen Sprachgebrauch entwickelten, was 
die Kölner angeblich nicht so gerne hören.

Im Übrigen bräuchte man für die Charakterisierung des Objektes "FPGA" 
auch ein Adjektiv, also sowas wie "Kölsch". Das wären dann die Colonial 
FPGAs.

Ich halte den Begriff aber so oder so für nicht glücklich.

Hört sich an wie Oxford Oszillator.

von Gerhard H. (ghf)


Lesenswert?

Ich hatte die Hoffnung eigentlich schon aufgegeben. Das ist
einfach zwingend notwendig. Ich habe mal an einem Raumfahrt-
projekt mitgemacht, das heute noch auf seinen Flug zur ISS
wartet, und dort wurden Original-Virtexe verbaut, keine Virtex2,
keine 2E, nein! Ur-Virtexe! In keramischen 228-pin-Flatpaks.

Für flugfähige Virtex5 gab es nicht mal die Lötvorschriften,
oder die Xilinx-tools für triple module redundancy, von Chips
nicht zu reden. Das war nur das normale ITAR, noch lange vor
Trumpet. So geht Raumfahrt mit befreundeten Ländern.

Nun wartet mal, was passiert, wenn Boeing die Zehen faltet.
Bei FPGAs haben uns die Amis aber sowas von voll an den *iern.
Und das sind Produkte mit Breitenwirkung. Damit kann man
ganze Industrien treffen. 1000 verschiedene Projekte.

Immerhin ist jemand bei Siemens aufgewacht und hat Mentor
gekauft. ++

Die Chinesen fangen auch mit kleinen FPGAs an, die sind z.T.
schon bei Digikey im Programm. Ja, der Chinese ist helle.

< 
https://www.digikey.de/product-detail/de/T8F81C2/2134-T8F81C2CT-ND/10222911/?itemSeq=306476158 
>

Gruß,
Gerhard


Shameless plug: Freelancer mit umfangreicher Redundancy-Erfahrung
hätte durchaus Interesse an einer Neu-Implementierung einer
Klassenbibliothek in zeitgenössischem VHDL. Typen wie tmr_slv,
tmr_signed, Redundanz weitgehend unsichtbar unter der Haube.
No ITAR hassle or ISE 9/10   :-)

von PCB (Gast)


Lesenswert?

Gerhard H. schrieb:
> Die Chinesen fangen auch mit kleinen FPGAs an, die sind z.T.
> schon bei Digikey im Programm. Ja, der Chinese ist helle.
>
> <
> 
https://www.digikey.de/product-detail/de/T8F81C2/2134-T8F81C2CT-ND/10222911/?itemSeq=306476158
>>
>
> Gruß,
> Gerhard

Efinix scheint aber eine amerikanische Bude zu sein.

von Gerd E. (robberknight)


Lesenswert?

PCB schrieb:
> Efinix scheint aber eine amerikanische Bude zu sein.

Gowin dürften die bekanntesten Chinesen mit FPGAs sein. Die gibt es 
bisher nicht so einfach bei einem Distri, sollen wohl demnächst bei 
Rutronik zu bekommen sein.

von W.S. (Gast)


Lesenswert?

Gustl B. schrieb:
> Sieht gar nicht schlecht aus.

Hmm...

noch keine Preise,
nur BGA
nur Logik
keine DSP Funktionalität (oder hab ich da was übersehen?)
immer noch externer Konfig-Speicher
Toolchain ???

sieht mir eher mittelprächtig bis altbacken aus.
Was macht man mit so einem Teil?

W.S.

von ZF (Gast)


Lesenswert?


von Gustl B. (-gb-)


Lesenswert?

Jürgen S. schrieb:
> Colonial FPGAs.

German Imperial FPGA of the Kaiser!

von Nun. (Gast)


Lesenswert?

W.S. schrieb:
> keine DSP Funktionalität (oder hab ich da was übersehen?)

Nein, aber jedes CPE hat 2x2 Mul oder Add.
Bei 20480 CPE kann man damit schon bisschen was machen.
Aber nicht so schnell wie dedizierte DSP Slices.

von Martin S. (strubi)


Lesenswert?

Nun. schrieb:
> W.S. schrieb:
>> keine DSP Funktionalität (oder hab ich da was übersehen?)
>
> Nein, aber jedes CPE hat 2x2 Mul oder Add.
> Bei 20480 CPE kann man damit schon bisschen was machen.
> Aber nicht so schnell wie dedizierte DSP Slices.

Ich nehmemal an, dass die sich gut kaskadieren lassen. Und spekuliere, 
dass da sicher auch ein Anspruch an elegante Implementierung von 
neuronalen Netzen im Hintergrund steht. Das koennte damit sogar besser 
gehen als mit den klassischen, meist nur auf einem 'Streifen' sitzenden 
DSP slices.
Mit yosys-basierter prozeduraler Plazierung...ach, man darf das gar 
nicht weiterdenken.

von Gerhard H. (ghf)


Lesenswert?

ZF schrieb:

> Hallo Gerhard,
>
> Brave kennst Du schon?
> 
https://www.esa.int/Enabling_Support/Space_Engineering_Technology/Shaping_the_Future/High_Density_European_Rad-Hard_SRAM-Based_FPGA-_First_Validated_Prototypes_BRAVE
> Mehr technische Details:
> https://www.edn.com/brave-new-itar-ear-free-space-grade-fpgas/
> https://escies.org/download/webDocumentFile?id=67083

Oh, hochgradig interessant!
Ich habe erst mal eine Download-Session gemacht.
Mentor ist dann praktischerweise auch gleich im Boot.

Bei den tmr-Flipflops würde mich mal die Clockverteilung
im Feinen interessieren. Man macht bei diesen Redundanz-
Betrachtungen immer die Annahme, dass die Clock bei allen
Flipflops einer Gruppe immer gleichzeitig kommt, aber in
Wirklichkeit bestehen die Clock-Bäume aus 1000 Segmenten
mit eigenen Buffern die einzeln getroffen werden können.

Sowas wie gleichzeitig +- skew existiert dann gar nicht.
Und so ein SEU kann ganz schön lange dauern.

Im Datenblatt eines strahlungsgehärteten Spannungsreglers
wurde wärmstens empfohlen, den Ausgangskondensator so
groß zu machen, dass es egal ist wenn der Spannungsregler
mal für ein paar Millisekunden in den Berserker-Mode
umschaltet.



@ PCB
>  Efinix scheint aber eine amerikanische Bude zu sein.

Ja, kann sein. Ich hatte es aus irgendeinem thread wo's
hauptsaechlich um chinesische FPGAs ging und fand die Dinger
von Efinix so auf die Schnelle nicht ganz verkehrt. Könnte man
notfalls bei den Preisen noch hernehmen um das Löten von BGAs
in der vapor phase zu üben.   :-)

Gruß, Gerhard

: Bearbeitet durch User
von FPGA (Gast)


Lesenswert?

Wollte das Thema hier mal hochpushen.

Hatte inzwischen jemand die Möglichkeit, das Teil mal in der Hand zu 
haben?

von Volker B. (Firma: L-E-A) (vobs)


Lesenswert?

FPGA schrieb im Beitrag #6366135:

> Hatte inzwischen jemand die Möglichkeit, das Teil mal in der Hand zu
> haben?

Leider nein, aber hier gibts einen halbwegs aktuellen Artikel darüber:
https://www.elektronikpraxis.vogel.de/interview-deutsches-fpga-mit-eingebauter-overdrive-funktion-a-952832/

Grüßle
Volker

: Bearbeitet durch User
von Zero V. (Firma: Freelancer) (gnd)


Lesenswert?

Klingt alles sehr interessant.
Bin gespannt wie sich das entwickeln wird.
Mit richtigem Marketing z.B. billiges Evalboard mit OpenSource Tools 
könnten sie sicherlich einiges bewegen.

von FPGA (Gast)


Lesenswert?

Ich finds auch sehr interessant bisher.
Was ich ein bisschen dämlich finde sind die nur 2.5V Spannung max - 
gerade für so kleinere low-end Applikationen wo sich so ein kleiner FPGA 
lohnt wird ja doch meistens eher noch auf 3.3V basis gearbeitet.

Muss man mal sehen wie sich das Teil dann preislich gegen die Lattice 
oder kleineren Spartans schlägt.

Aber immerhin - mal wieder ein Deutscher FPGA Hersteller dann :)

von Ingenieur (Gast)


Lesenswert?

Gerhard H. schrieb:
> Immerhin ist jemand bei Siemens aufgewacht und hat Mentor
> gekauft. ++
Davon allein kommt die Technologie auch nicht mehr nach DE zurück. 
Besser wäre es, strategisch in TECH zu investieren. Z.B. hätte man den 
Halbleiterbereich aufrechterhalten- und nicht als Infineon kaputtgehen 
lassen sollen. Die Siemens Infineon RAMs waren um 2002 die besten, die 
es am Markt gab. Stabil und übertaktbar. Genau genommmen, hätte man auch 
nicht die Handysparte verkaufen sollen. Als das 2005 passierte, hatte 
Siemens schlagartig weniger Bedarf für Bauteile und damit waren die 
Rabatte weg, was auch andere Dinge verteuerte, wie z.B. die 
Hausgeräteelektronik. Das musste alles neu durchkalkuliert werden, 
weswegen dann auch BSH plötzlich zu teuer und unrentabel wurde und man 
2006 dort das engagement zurückgezogen wurde.

Das Nächste waren dann die Telefondienste: 2007 ging es los mit Nokia 
Siemens Networks, die runtergefahren wurden und später ohne Siemens 
weitermachten. Damals hat man das UMTS und indirekt das spätere LTE 
aufgegeben.

Das Nächste waren dann die Fujitsu-Siemens-Computer und der 
Ausstiegsbeschluss 2008, wo sie die ganzen FSC-Computer billig 
verramscht haben. Ich habe mir damals einen LAPTOP geholt. Der läuft 
heute noch!!! Danach kam aber nichts mehr. Nur noch Schrott.

2009 das Chaos um den Ausstieg aus der Schwer-Ionen-Medizin: Die ab 2006 
teuer entwickelten Teilchenbeschleuniger wurden stillgelegt und 150 Mio 
verbrannt. Heute kauft man Varian, um wieder Anschluss zu bekommen! Ein 
Schwerz.

Siemens könnte heute Computer bauen, die Chips fürs Smartphone liefern 
und hätte noch 10 Jahre Zeit gehabt, ein eigenes Betriebssystem zu 
bauen, das auf beiden läuft und zwar ein Sicheres, das nicht alle Daten 
zu NSA funkt.

Siemens könnte heute ein Top-Konzern sein, wenn man nicht unterwegs 
ständig auf die Aktien geschaut hätte und die Gewinne hochhalten hätte 
wollen, sondern man mehr in Entwicklung investiert. Stattdessen baut man 
mit der 4S einen eigenen Personaldienstleister auf, zahlt schlecht und 
verliert Ingenieure an die Konkurrenz, die man mit Billig-Chinesen aus 
Shenzhen ersetzt.

Nee, Siemens, das wird nichts mehr.

Wer baut eigentlich noch mit Mentor? Also, ausser der Siemens?

von No Y. (noy)


Lesenswert?

Wir nutzen leider noch Mentor...
Aber Altium wird seit Jahren schon parallel angeschaut.

Aber haben jetzt erst nochmal "günstig" neue Floating Lizenzen bekommen.

von Bert (Gast)


Lesenswert?

Bei meiner ehemaligen Firma war auch noch Mentor Pads in Verwendung.

Im Vergleich zu Altium fand ich es aber ein schreckliches Tool.

von Gerald B. (gerald_b)


Lesenswert?

Ingenieur schrieb:
> Z.B. hätte man den
> Halbleiterbereich aufrechterhalten- und nicht als Infineon kaputtgehen
> lassen sollen. Die Siemens Infineon RAMs waren um 2002 die besten, die
> es am Markt gab. Stabil und übertaktbar.

Und Infineon sourcte dann Qimonda aus, um Qimonda verhungern zu lassen 
und die Reste dann zum Ramschpreis wieder zu übernehmen.
So in Dresden passiert.
Dabei hatte Qimonda kurz vor der Insolvenz ein tollesn neues DRAM Design 
qualifiziert. BWL - buried wordline
http://www.fabtech.org/news/_a/qimonda_to_fab_buried_wordline_dram_technology_as_replacement_to_deep_trenc/
Damit war es möglich, 20% Energie, im Vergleich zur herkömmlichen 
Technologie zu sparen, oder die Dinger höher zu takten - ohne die sonst 
notwendige Selektion.
Unser Pech war nur, das wir zum falschen Zeitpunkt pleite waren. Die 
Bankenrettung war wichtiger. 3 Monate Zwischenfinanzierung hätten 
gereicht! Die Chips waren qualifiziert und hätten mit rund 100-fachem 
Gewinn verkauft werden können.

von Nun. (Gast)


Lesenswert?

Volker B. schrieb:
> Leider nein, aber hier gibts einen halbwegs aktuellen Artikel darüber:
> 
https://www.elektronikpraxis.vogel.de/interview-deutsches-fpga-mit-eingebauter-overdrive-funktion-a-952832/


Übrigens findet sich dort die Aussage, dass sie wohl Yosys unterstützen 
wollen.
Nur weil das oben im Thread angesprochen wurde.

von Gerhard H. (ghf)


Lesenswert?

Ingenieur schrieb:
> Gerhard H. schrieb:
>> Immerhin ist jemand bei Siemens aufgewacht und hat Mentor
>> gekauft. ++
> Davon allein kommt die Technologie auch nicht mehr nach DE zurück.

Mentor Technologie war niemals in DE.
Jetzt haben sie wenigstens den Finger drauf wenn DT weiter hohldreht.


> Besser wäre es, strategisch in TECH zu investieren. Z.B. hätte man den
> Halbleiterbereich aufrechterhalten- und nicht als Infineon kaputtgehen
> lassen sollen.

Infineon kaputt? Die haben gerade IR gekauft und haben eine
SEHR starke Position bei Leistungshalbleitern. Das Richtige
für die neue Autoantriebstechnik.

Die Siemens Infineon RAMs waren um 2002 die besten, die
> es am Markt gab. Stabil und übertaktbar. Genau genommmen, hätte man auch
> nicht die Handysparte verkaufen sollen. Als das 2005 passierte, hatte
> Siemens schlagartig weniger Bedarf für Bauteile und damit waren die
> Rabatte weg, was auch andere Dinge verteuerte, wie z.B. die
> Hausgeräteelektronik. Das musste alles neu durchkalkuliert werden,
> weswegen dann auch BSH plötzlich zu teuer und unrentabel wurde und man
> 2006 dort das engagement zurückgezogen wurde.

Aha. Der Wegfall von Mikrowellenfiltern und Snapdragons macht die
Produktion von Kühlschränken unrentabel. Na, wer's glaubt.



>
> Das Nächste waren dann die Telefondienste: 2007 ging es los mit Nokia
> Siemens Networks, die runtergefahren wurden und später ohne Siemens
> weitermachten.

War's wert, dass es zugrunde gehe.

Damals hat man das UMTS und indirekt das spätere LTE
> aufgegeben.
>
> Das Nächste waren dann die Fujitsu-Siemens-Computer und der
> Ausstiegsbeschluss 2008, wo sie die ganzen FSC-Computer billig
> verramscht haben. Ich habe mir damals einen LAPTOP geholt. Der läuft
> heute noch!!! Danach kam aber nichts mehr. Nur noch Schrott.

Ich war damals bei Infineon Fiber Optik in Berlin. Ich habe dort
Dell Laptops kennen gelernt, und dabei bin ich bis heute geblieben.



> 2009 das Chaos um den Ausstieg aus der Schwer-Ionen-Medizin: Die ab 2006
> teuer entwickelten Teilchenbeschleuniger wurden stillgelegt und 150 Mio
> verbrannt. Heute kauft man Varian, um wieder Anschluss zu bekommen! Ein
> Schwerz.

Du beliebst wohl zu scherzen? "wieder Anschluss zu bekommen"
soll wohl suggerieren, man hätte es in die Weltspitze geschafft,
aber nach weniger als 3 Jahren hätte man die  Ingenieure am Zeichenbrett
per Dolchstoß von hinten hinweggerafft.


> Siemens könnte heute Computer bauen, die Chips fürs Smartphone liefern
> und hätte noch 10 Jahre Zeit gehabt, ein eigenes Betriebssystem zu
> bauen, das auf beiden läuft und zwar ein Sicheres, das nicht alle Daten
> zu NSA funkt.

Ja. Man würde lizensierte ARM-Kerne zu einem SOC verbacken wie alle
anderen auch. Da stellt sich eher die Frage, wer die Halbleiter
für die Telefon HF-Teile macht.

> Wer baut eigentlich noch mit Mentor? Also, ausser der Siemens?

Die meisten Großfirmen in die ich reinsehen kann. Modelsim/Questasim
ist immer noch der sign-off Simulator und wenn man eine Entwicklungs-
umgebung braucht, die nicht Xilinx oder Intel gehört, dann hat man
nicht viele Alternativen.

Komme mir jetzt keiner mit Altium. Diesen !"§$% habe ich gerade in
einem anderen Fenster offen. Dessen zwischendurch versprochenen
FPGA-capabilities sind ja mittlerweile auf 0 eingedampft.

von Uwe (Gast)


Lesenswert?

Infineon hat cypress semiconductor gekauft...
https://www.cypress.com/

von Frank (Gast)


Lesenswert?

Uwe schrieb:
> Infineon hat cypress semiconductor gekauft...
> https://www.cypress.com/

Unabhängig von Cypress, baut Infineon ja durchaus recht komplexe Sachen.
Den meisten hier im Forum wahrscheinlich unbekannt, aber der Infineon 
Aurix ist wahrscheinlich einer der komplexesten und leistungsstärksten 
Mikrocontrollern auf dem Markt bevor man dann die Stufe höher auf die 
Linux-SoC's geht.

von Georg A. (georga)


Lesenswert?

Frank schrieb:
> Den meisten hier im Forum wahrscheinlich unbekannt..

Das ist das übliche Problem von Infineon...

von Dussel (Gast)


Lesenswert?

Georg A. schrieb:
> Frank schrieb:
>> Den meisten hier im Forum wahrscheinlich unbekannt..
>
> Das ist das übliche Problem von Infineon...
Den Namen kennt man, aber was machen die genau?

Frank schrieb:
> der Infineon Aurix ist wahrscheinlich einer
> der komplexesten und leistungsstärksten Mikrocontrollern
> auf dem Markt
Hat Infineon denn auch einfache Mikrocontroller? Als billigsten habe ich 
bei Mouser einen für 10,60 € gefunden. Ich denke, AVR und PIC sind so 
bekannt, weil es billige, gut unterstützen Controller gibt. Oder braucht 
Infineon die Bekanntheit in der breiten Masse nicht, weil sie so gut 
dastehen?
Ich muss zugeben, dass ich bei Controllern für ein berufliches Projekt 
nicht an Infineon denken würde. Einfach weil ich mit dem Namen technisch 
nichts verbinde.

von Nun. (Gast)


Lesenswert?

Dussel schrieb:
> Als billigsten habe ich
> bei Mouser einen für 10,60 € gefunden.

Such mal nach XMC1000 - da gibts auch welche für 2 Euro oder so.
Die großen sind XMC4000 gibts auch ab 5 Euro...
Und Cypress PSOC ist nun Infineon...

Aber das ist hier nicht das Thema --> es geht in dem Thread hier 
eigentlich um die GateMate FPGAs.

von No Y. (noy)


Lesenswert?

Infineon ist schon "weit" verbreitet halt viel Automobil, teilweise 
Medizin usw. Eher sicherheitskritische Sachen.. Siehe Aurix..
Und da sind Mouser Preise zu ignorieren..

von René F. (Gast)


Lesenswert?

Es würde gar keinen Sinn machen den AURIX für Bastler attraktiv zu 
machen, die AURIX Familie ist nur auf den Automotive Markt ausgerichtet. 
Hier baut Infineon nur was Continental, Bosch und Co. brauchen, der 
freie Verkauf ist eher Zweitverwertung. Das gleiche trifft auch auf die 
klassische TriCore Familie zu und auch auf Freescale und STMs SPC Reihe.

Leistungsstarke Mikrocontroller gibt es auch auf dem freien Markt, zum 
Beispiel i.MX RT oder STM32H7 und wer kleine Stückzahlen im Automotive 
Bereich benötigt, der muss halt schauen ob es was einigermaßen passendes 
von der Stange gibt.


Zum eigentlichen Thema gibt es nicht mehr viel zu sagen, es heißt nun 
abwarten.

von Falk B. (falk)


Lesenswert?

René F. schrieb:
> Zum eigentlichen Thema gibt es nicht mehr viel zu sagen, es heißt nun
> abwarten.

Und Kölsch trinken . . . ;-)

von René F. (Gast)


Lesenswert?

Falk B. schrieb:
> René F. schrieb:
>> Zum eigentlichen Thema gibt es nicht mehr viel zu sagen, es heißt nun
>> abwarten.
>
> Und Kölsch trinken . . . ;-)

Nö, bei mir im Süden gibts richtiges Bier ;)

von Ale (Gast)


Lesenswert?

Kölsch ? hier trinkt man Bönsch ! :ducks:

Da wo ich gearbeitet habe, hatten bei einige Modulen Aurix uC on Keramik 
zusammen mit anderen Komponenten gehabt, ohne Gehäuse :). Die Modulen 
hat Bosch entwickelt. Es gab auch einige mit SH-2A...

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Ingenieur schrieb:
> 2009 das Chaos um den Ausstieg aus der Schwer-Ionen-Medizin: Die ab 2006
> teuer entwickelten Teilchenbeschleuniger wurden stillgelegt und 150 Mio
> verbrannt. Heute kauft man Varian, um wieder Anschluss zu bekommen! Ein
> Schwerz.

Siemens hat es doch niemals hinbekommen, den Teilchenstrahl hinreichend 
gut zu fokussieren, so dass diese Geräte sowohl aus onkologischer als 
auch Strahlenschutzsicht niemals zulassungsfähig waren. Eines der großen 
Probleme bestand wohl darin, dass in den Anlagen irgendwelche 
Steinzeittechnik verbaut wurde.

Hier in Kiel wurde ja eine der beiden Anlagen aufgebaut und niemals in 
der Form in Betrieb genommen. Ich war damals selbst an den Diskussionen 
mit Leuten in der Radiologie bzw. einem potentiellen Investor beteiligt, 
ob man die von Siemens zwischenzeitlich aufgegebene Anlage doch noch 
irgendwie retten könne. Eines der größten Risiken war dabei, dass für 
etliche Komponenten die Ersatzteilversorgung nicht mehr sichergestellt 
war. Die in dem u.a. Artikel getroffene Aussage "Die Entscheidung von 
Siemens habe seiner Ansicht nach nichts mit relevanten technischen 
Problemen zu tun." ist nicht zutreffend, sondern gerade auf der 
technischen Ebene hatte Siemens komplett versagt und war nicht in der 
Lage, das zu beheben.

https://www.aerzteblatt.de/nachrichten/47344/Aus-fuer-Partikeltherapiezentrum-in-Kiel

Varian war zur damaligen Zeit hingegen schon in der Lage, solche Anlagen 
als Standardprodukte hinzustellen, und zwar ohne irgendwelche 
Hintertürchen, durch die man das Entwicklungsrisiko noch auf die 
Auftraggeber (der öffentlichen Hand) verlagern konnte.

von Michael W. (Gast)


Lesenswert?

Interessant. Waren die Anlagen unterschiedlich? Die hier "unten" in 
Heidelberg funktioniert, was ich gehört habe und es werden / wurden auch 
Patienten behandelt. Ich wüsste auch nicht, dass die stillgelegt worden 
wäre.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

M. W. schrieb:
> Interessant. Waren die Anlagen unterschiedlich? Die hier "unten" in
> Heidelberg funktioniert, was ich gehört habe und es werden / wurden auch
> Patienten behandelt. Ich wüsste auch nicht, dass die stillgelegt worden
> wäre.

Die Anlage in Heidelberg wurde ja auch nicht von Siemens gebaut, sondern 
unter Federführung der GSI Darmstadt. Die folgende Broschüre ist 
insbesodnere aus technischer Sicht sehr interessant:

https://www.klinikum.uni-heidelberg.de/fileadmin/pressestelle/PM_neu/Bauamtsbroschuere.pdf

Ab Seite 50 findet man dort die relevanten Projektbeteiligten und 
ausführenden Unternehmen. Siemens durfte dabei nur die Medizintechnik 
liefern, was die normale Krankenhausausstattung betrifft, die CTs zur 
Lagekontrolle des Patienten(S.41), die Patientenliegen an den 
Behandlungsplätzen und die Software zur Behandlungsplanung. Auf einigen 
Fotos ist sehr gut zu erkennen, dass es sich bei dem "Roboterarm" mit 
der Patienliege um ein Standardprodukt von Siemens handelt. 
Interessanterweise ist in der Broschüre jedoch das Siemens-Logo 
wegretouchiert.

Die Anlage in Marburg wurde übrigens auch von Siemens völlig verkackt:

https://www.aerzteblatt.de/archiv/131907/Partikeltherapie-Aus-fuer-Anlagen-in-Kiel-und-Marburg

Und wie ich eben aus erster Hand weiß, hat Siemens die technischen 
Probleme nicht in den Griff bekommen, weil sie in den Anlagen uralten 
Schrott verbaut hatten, den sie ansonsten auch nicht mehr losgeworden 
wären. Durch den Rückzug und die Rückerstattung des Kaufpreises konnte 
Siemens nur noch den Kopf aus der Schlinge ziehen, denn ansonsten wären 
sie verklagt worden, wobei der Pfusch dann noch stärker 
öffentlichkeitswirksam geworden wäre:

https://www.degro.org/siemens-plant-hochwertige-anlage-fuer-krebstherapie-zu-verschrotten-kaufangebot-eines-investors-in-hoehe-von-fast-100-millionen-euro-wurde-bisher-abgelehnt/

Die in dem Artikel der DEGRO erwähnte Betriebsgenehmigung bezog sich 
meines Erachtens nicht auf die Behandlung von Patienten, sondern die 
Anlage wurde nur unter dem Aspekt des betrieblichen Strahlenschutzes 
freigegeben, d.h. sie durfte für die Inbetriebnahme eingeschaltet 
werden. Dabei stellte sich dann erst heraus, dass sich die Ionenstrahlen 
gar nicht ordentlich fokussieren ließen.

Da ich damals auch mit Mitarbeitern des mutmaßlichen Investors über die 
Anlage diskutiert hatte, weiß ich auch mit Sicherheit, dass nicht etwa 
Siemens den Rückzieher gemacht hat, sondern der Investor aus dem schon 
genannten Grund, dass Siemens die Wartung und Ersatzteilversorgung für 
den technisch veralteten Kram nicht hätte gewährleisten können. 
Vermutlich liefen die Gespräche wie folgt ab. Investor: "Wir kaufen Euch 
die Anlage für x EUR ab, aber Ihr müsst - gegen Einwurf großer Scheine - 
einen Wartungsvertrag anbieten." Siemens: "Nö."

Zu der damaligen Zeit (2012) konnte hingegen Varian schlüsselfertige, 
erprobte Anlagen "ab Werk" liefern. Siemens Healthineers will derzeit 
übrigens gerade Varian kaufen. Und in der neuen Roadmap findet man dann 
auch schon "Existing Siemens Linac, no longer available for sale.", was 
ja nichts anderes heißt, als dass Siemens nicht nur Synchrotrone 
verkackt, sondern auch bei Linearbeschleunigern nicht mehr marktfähig 
ist.

https://www.spiegel.de/wirtschaft/unternehmen/siemens-healthineers-will-varian-fuer-16-4-milliarden-dollar-kaufen-a-73d6202e-5ad8-4f74-aa1f-357eaa2ca293

https://www.siemens-healthineers.com/de/radiotherapy/varian-partnership

Aber dafür gibt es dort bestimmt viele Konzernbeamte, die 
Powerpointfolien malen können. Das ist ja auch viel wichtiger, als die 
Technik zu beherrschen.

: Bearbeitet durch User
von Michael W. (Gast)


Lesenswert?

Soweit mir damals (2007) das jemand erklärt hat, hatte Siemens die von 
der GSI entwickelte Technologie der Teilchenbeschleunigung gekauft, 
welche diese patentiert hatte. Ab dann hat Siemens die Anlagen gebaut. 
Geplant waren da angeblich 4 oder 5. Von der GSI hatten wir mal jemanden 
hier, der an den Prototypen mitentwickelt hatte: Arbeitsgrundlage waren 
damals C-Programme zur offline-Berechnung der Strahlsteuerung und 
Ermittlung der Position, die mit MATLAB und Controllern simuliert worden 
waren. Getestet wurde die Elektronik mit Labview! Die hatten da keine 
Kompetenzen in Elektronik, die ausgereicht hätte, eine größere 
Anlagenentwicklung aufzuziehen. Das lief alles auf Dr.-Arbeiten-Niveau 
an deren Forschungsanlage. Ich kann mir nicht vorstellen, dass die GSI 
das technische KnowHow und die Leute hatte oder sich das kurzfristig 
besorgen konnte, um das alles aufzubauen, ganz zu schweigen von der 
finanziellen Seite. Wann und wie hätte das sein sollen?

Unsere Firma war damals mit der Eckelmann in Wiesbaden zugange, die 
einen Teil der Steuerung gemacht haben. Das passierte alles in 
Zusammenarbeit mit Siemensprojektleitern und Entwicklern in Erlangen. 
Kann mich noch an Telefonate erinnern. Die waren auch in Heidelberg an 
der Anlage. Was nach 2007 passierte, weiss ich nur vom Hörensagen, weil 
ich dann meinen Job gewechselt habe. Von Kollegen habe ich erfahren, 
dass so um 2010 / 2011 nochmal etwas mit Teilchen-Detektoren entwickelt 
wurde, um sie in Rudolstadt einzusetzen. Das weckte mein Interesse, weil 
ich in der Region aufgewachsen bin und bislang nichts davon mitbekommen 
hatte. Soweit ich informiert bin, betreibt die Siemens das dort 
installierte System seither als Forschungsanlage.

von Michael W. (Gast)


Lesenswert?

Aber jetzt zurück zum Thema:

Hat denn die GateMate-FPGA-Landschaft auch eine Entwicklungssoftware, 
die man sich kostenlos runterladen und mal anschauen kann? Gibt es 
EVAL-Systeme für die FPGAs? Die müssten ja so etwas haben - zumindest 
für den hausinternen Gebrauch.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

M. W. schrieb:
> Soweit mir damals (2007) das jemand erklärt hat, hatte Siemens die von
> der GSI entwickelte Technologie der Teilchenbeschleunigung gekauft,
> welche diese patentiert hatte. Ab dann hat Siemens die Anlagen gebaut.

Genau, und Siemens hat es nicht hinbekommen.

Bei der funktionsfähigen(!) Anlage in Heidelberg hatte Siemens nur eine 
vergleichsweise kleine Rolle.

> Geplant waren da angeblich 4 oder 5. Von der GSI hatten wir mal jemanden
> hier, der an den Prototypen mitentwickelt hatte: Arbeitsgrundlage waren
> damals C-Programme zur offline-Berechnung der Strahlsteuerung und
> Ermittlung der Position, die mit MATLAB und Controllern simuliert worden
> waren. Getestet wurde die Elektronik mit Labview! Die hatten da keine
> Kompetenzen in Elektronik, die ausgereicht hätte, eine größere
> Anlagenentwicklung aufzuziehen.

Solch eine Anlage besteht nicht nur aus Elektronik, sondern sehr vielen 
wissenschaftlichen Disziplinen. Die reine Elektronikentwicklung vergibt 
man dann an ein Unternehmen, das Elektronik entwickeln und bauen kann.

> Das lief alles auf Dr.-Arbeiten-Niveau
> an deren Forschungsanlage. Ich kann mir nicht vorstellen, dass die GSI
> das technische KnowHow und die Leute hatte oder sich das kurzfristig
> besorgen konnte, um das alles aufzubauen, ganz zu schweigen von der
> finanziellen Seite. Wann und wie hätte das sein sollen?

Ich habe niemals behauptet, dass die Anlage in Heidelberg von der GSI 
gebaut worden sei, sondern sie ist unter der Federführung der GSI 
entstanden. Hast Du Dir überhaupt mal die von mir verlinkte Broschüre 
durchgelesen oder reißt Du nur die Klappe auf, ohne Dich vorher mal 
informiert zu haben?

> Unsere Firma war damals mit der Eckelmann in Wiesbaden zugange, die
> einen Teil der Steuerung gemacht haben. Das passierte alles in
> Zusammenarbeit mit Siemensprojektleitern und Entwicklern in Erlangen.
> Kann mich noch an Telefonate erinnern. Die waren auch in Heidelberg an
> der Anlage.

Genau. Für deren Anteil an der Anlage.

> Was nach 2007 passierte, weiss ich nur vom Hörensagen, weil
> ich dann meinen Job gewechselt habe. Von Kollegen habe ich erfahren,
> dass so um 2010 / 2011 nochmal etwas mit Teilchen-Detektoren entwickelt
> wurde, um sie in Rudolstadt einzusetzen. Das weckte mein Interesse, weil
> ich in der Region aufgewachsen bin und bislang nichts davon mitbekommen
> hatte. Soweit ich informiert bin, betreibt die Siemens das dort
> installierte System seither als Forschungsanlage.

Das mag schon sein. Die Anlage in Marburg sollte ja ab 2012 demontiert 
und siemensintern als Forschungsanlage eingesetzt werden. Das heißt aber 
nichts anderes, als dass Siemens die Technik einfach nicht im Griff 
hat(te).

von Duke Scarring (Gast)


Lesenswert?

M. W. schrieb:
> Getestet wurde die Elektronik mit Labview!
Das mag daran liegen, das der größte Experte, den ich für LabView kenne, 
bei der GSI arbeitet: 
https://forums.ni.com/t5/LabVIEW-Champions-Directory/LabVIEW-Champion-Dr-Holger-Brand/ta-p/3500494?profile.language=en

> Die hatten da keine
> Kompetenzen in Elektronik, die ausgereicht hätte, eine größere
> Anlagenentwicklung aufzuziehen.
Nunja, das sehe ich anders, aber vermutlich haben wir da einfach 
verschiedene Blickwinkel:
https://de.wikipedia.org/wiki/Facility_for_Antiproton_and_Ion_Research#Die_Beschleuniger_und_andere_Anlagen

Aber ja, eine Entwicklung für die Forschung funktioniert 'etwas' anders 
als eine Entwicklung für die Industrie...

Duke

von FPGA-Experte (Gast)


Lesenswert?

Nun. schrieb:
> brigens findet sich dort die Aussage, dass sie wohl Yosys unterstützen
> wollen.
Es findet sich auch die Aussage, dass sie Xilinx Netzlisten und Designs 
importieren können sollen oder wollen. Ich frage mich, wie das bei den 
ganzen Cores funktionieren soll.

Schau dir ein heutiges SOC-Design mal an:

Einen Haufen Scripte, einen Haufen Blöckchen, einen Haufen Cores und für 
jeden Piep eine eigene IP.

Das ist alles zugeschlossen und vernagelt. Da sehe ich kaum Raum, dass 
jemand seine Designs auf kölsche FPGAs portieren wird.

Uwe schrieb:
> Infineon hat cypress semiconductor gekauft...
> https://www.cypress.com/

Eine kleine, aber bedeutende Randnotiv. Fragt sich, was sie damit 
wollen.

von Fitzebutze (Gast)


Lesenswert?

FPGA-Experte schrieb im Beitrag #6441111:
> Es findet sich auch die Aussage, dass sie Xilinx Netzlisten und Designs
> importieren können sollen oder wollen. Ich frage mich, wie das bei den
> ganzen Cores funktionieren soll.

Das kann durchaus klappen, tut es auch bei anderen Architekturen mit 
Lattice-Primitiven. Allerdings kann die Optimierung etwas auf der 
Strecke bleiben.

FPGA-Experte schrieb im Beitrag #6441111:
> Das ist alles zugeschlossen und vernagelt. Da sehe ich kaum Raum, dass
> jemand seine Designs auf kölsche FPGAs portieren wird.

Es gibt eine Menge offener, portabler SoC-Builder. Wer sich auf 
Vendor-Lock-in einlässt ist nun mal selber schuld.

von Weltbester FPGA-Pongo (Gast)


Lesenswert?

Ich denke der Import ist nicht so wichtig, bzw immer irgendwie machbar. 
Entscheidender ist die Frage nach den Möglichkeiten der Hardware.

In den Angaben zur den Daten stehen beim größten FPGA bis zu 100 PLLs. 
Na Danke. Hat dann jeder SERDES seine eigene?

Ich vermisse z.B. Angaben über embedded Multiplier und DSP-Elemente. 
Dort steht, dass man jedes Köln-Element als 2x2 MUL nutzen kann.

Wie werden die dann verschaltet? Mit einen weiteren Kölsch?

Einmal angenommen, man muss die MULs aus Einzelelementen herstellen und 
braucht für die Verkettung jeweils einen weiteren zur 
Carry-Forschreibung, dann bekommst du einen pipeline-MUL mit einer 
Baumstruktur:

Ein 8x8 bräuchte dann 16 dieser 2x2 + den Adder-Baum mit 7 - Stufen und 
demnach 25 Stück. Wie schnell ist das dann?

von Fpgakuechle K. (Gast)


Lesenswert?

Weltbester FPGA-Pongo schrieb im Beitrag #6448412:

> In den Angaben zur den Daten stehen beim größten FPGA bis zu 100 PLLs.
> Na Danke. Hat dann jeder SERDES seine eigene?

Wenn man es braucht, bspw. phased array Techniken zur elektronischen 
Strahlschwenkung in Radar und Sonar?
https://en.wikipedia.org/wiki/Phased_array

In Glasfasern scheint intensives Frequenz/Phasen-multiplex nicht 
unüblich zu sein. Ferner denke man auch an SDR mit FPGA's in 
SpreadSpectrum Verfahren zur Störunterdrückung (frequency hopping).

https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8002571
https://stars.library.ucf.edu/cgi/viewcontent.cgi?article=1668&context=etd

> Ich vermisse z.B. Angaben über embedded Multiplier und DSP-Elemente.
> Dort steht, dass man jedes Köln-Element als 2x2 MUL nutzen kann.
>
> Wie werden die dann verschaltet? Mit einen weiteren Kölsch?

Seite 12 zeigt die 8I2O LUT, S17 die RAM's und S.20/21 die 
interconnects:
https://www.colognechip.com/docs/CologneChip-GateMate-Productbrief_10-2020.pdf

> Einmal angenommen, man muss die MULs aus Einzelelementen herstellen und
> braucht für die Verkettung jeweils einen weiteren zur
> Carry-Forschreibung, dann bekommst du einen pipeline-MUL mit einer
> Baumstruktur:
>
>. Wie schnell ist das dann?

Eine weitere Design-Frage ist aber auch, ob man bei serialisiert 
vorliegenden Daten ohnehin nicht besser mit einem serialisierten 
Multiplizierer kommt. Wenn ein vollständiges Datenwort erst nach 32/16 
Takten eingeschoben ist, dann kann man sich auch diese Takte Zeit zur 
Verarbeitung lassen.

Multiplizerer in FPGA's sind ohnehin eine eher neue Erscheinung 
(Spartan-3 ab 2003), viele Jahrzehnte ist man bei den meisten 
Anwendungen komplett ohne ausgekommen oder hatte clevere Algorithmen an 
der Hand, die den  ⊗-Bedarf reduzieren: 
Beitrag "IIR Bandpass ohne Multiplikation"

von Genau (Gast)


Lesenswert?

Ist das FPGA-Zeug nicht alles schon patentiert (in den USA) ? Wie haben 
die aus Köln das umgangen ? Oder haben sie etwas Neues erfunden ?

von Christoph Z. (christophz)


Lesenswert?

Genau schrieb:
> Ist das FPGA-Zeug nicht alles schon patentiert (in den USA) ?

Patente haben eine begrenzte Schutzdauer und das FPGA-Zeug ist nicht 
mehr soo neu (vermute das die relevanten Patente alle so 1980-1990 oder 
sogar früher geschrieben wurden).

von Nun. (Gast)


Lesenswert?

Fpgakuechle K. schrieb:
> Wenn man es braucht, bspw. phased array Techniken zur elektronischen
> Strahlschwenkung in Radar und Sonar?

Da sind die internen PLLs in nem FPGA aber eher nicht gut genug für.

Die Anzahl der PLLs ergibt sich daraus, dass die eine auf dem Wafer 
"vereinzelbare" Struktur haben - jedes vereinzelbare Die hat 4 PLLs. 
Wenn man die zusammen lässt, hat man eben bis zu 5x5x4 PLLs - ob man die 
braucht und nicht ;-)



"Daher haben wir überlegt, wie man mit einem Maskensatz FPGAs mit 
unterschiedlichen Größen fertigen kann. So sind wir auf ein Design 
gekommen, bei dem die Dies auf dem Wafer im Substrat untereinander mit 
jeweils über 1000 Leitungen pro Kante zum Nachbar-Die verbunden sind. 
Diese Leitungen liegen unterhalb der so genannten scribe line, die die 
Chips umgibt und an der sie per Diamantsäge vereinzelt werden. "

Quelle:
https://www.elektronikpraxis.vogel.de/gatemate-deutsches-fpga-mit-eingebauter-overdrive-funktion-a-952832/

von MCUA (Gast)


Lesenswert?

Im og Link steht:
Frage:
"Ihre Wettbewerber haben meist mehrere Baustein-Familien für 
unterschiedliche Applikationsanforderungen. Was setzen Sie dem 
entgegen?"
Antw:
"Das weit skalierbare Performance-Potenzial unserer GateMate-FPGAs und 
unser zum Patent angemeldetes Fertigungsverfahren."

Na dann ist ja klar, womit die konkurenzfähige Preise erzielen können 
???

von Nun. (Gast)


Lesenswert?

MCUA schrieb:
> Na dann ist ja klar, womit die konkurenzfähige Preise erzielen können
> ???

Naja weniger Produktvarianten und nur ein Maskensatz hilft dabei 
tatsächlich.

von Weltbester FPGA-Pongo (Gast)


Lesenswert?

Fpgakuechle K. schrieb:
> Multiplizerer in FPGA's sind ohnehin eine eher neue Erscheinung
> (Spartan-3 ab 2003), viele Jahrzehnte ist man bei den meisten
> Anwendungen komplett ohne ausgekommen

Jaja, das war die Zeit, als wir in FPGAs nur die Logik untergebracht 
hatten, weil die nur mit 25Mhz liefen und nix konten als MULs in RAMs 
(z.B. der eben von dir genannte Spartan 3 machte das so).

Nee Nee Nee, mit den embedded MULs ging es ja erst los, dass man bei 
Radar und anderen Anwendungen im Zeitbereich arbeiten konnte, weil man 
eben nicht den beam mit ns-Schriten formen musste, sondern die Welle 
subsample verschoben hat und die Filter drauf losgelassen hatte, die 
phasenlinere-FIR und Kaiser konnten.

Serielle MULs mit 32 Takten kann keiner gebrauchen. Im Gegenteil: Mit 
einer schnellem FFT und angemssenene Filterung kommt man heute nur hin, 
wenn die MULs in einem Takt auf 300MHz laufen können, weil sie 
Gleichungen lösen müssen und dafür schon 20 Takte verbraten.

Nun. schrieb:
> Da sind die internen PLLs in nem FPGA aber eher nicht gut genug für.
So ist es. Man erzeugt die eher mit einer PLL, schiebt den geformeten 
Beam über mehrere Kanäle dynamisch raus und holt die Daten parallel mit 
Wandlern ab, die ihrerseits an derselben externen PLLs hängen.

von Weltbester FPGA-Pongo (Gast)


Lesenswert?

Nun. schrieb:
> Die Anzahl der PLLs ergibt sich daraus, dass die eine auf dem Wafer
> "vereinzelbare" Struktur haben - jedes vereinzelbare Die hat 4 PLLs.
> Wenn man die zusammen lässt, hat man eben bis zu 5x5x4 PLLs - ob man die
> braucht und nicht ;-)

Das hört sich an, als ob man sich die FPGAs a la Ritter Sport abbrechen 
und in verschiedenen Konfigs ins Case backen lassen kann. Das wäre in 
der Tat interessant.

Der Knackpunkt dabei: Logik ist schon lange nicht mehr der Kostenfaktor. 
Die Kunden wollen SoCs , die alles mögliche können und zahlen lieber 
etwas mehr, um sich die Platinenentwicklung zu sparen oder zu 
vereinfachen, damit man nicht Prozessoren, RAMs und FPGAs braucht, 
sondern alles beisammen hat.

Mit den Strukturen, wie die es beschreiben, können sie nur mit den 
einfachen billigen FPGAs konkurrieren und deren Preis ist überwiegend 
von den Kosten für Marketing, Packaging und Vertrieb geprägt und nicht 
von den Waferkosten.

Das wird schwierig.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Weltbester FPGA-Pongo schrieb im Beitrag #6449436:
> Das hört sich an, als ob man sich die FPGAs a la Ritter Sport abbrechen
> und in verschiedenen Konfigs ins Case backen lassen kann. Das wäre in
> der Tat interessant.

Im Umkehrschluss bedeutet das aber auch, dass man sich schon bei recht 
kleinen Designs ggf. mit den Problemen von Multichip-FPGA herumschlagen 
muss, ähnlich wie bei Xilinx SSI:

https://www.xilinx.com/products/silicon-devices/3dic.html

So etwas liest sich in Hochglanz-Werbeprospekten ganz toll, bedeutet 
aber auch, dass eine Taktdomäne ggf. auf einem Chip bleiben muss. Sobald 
man auf einen der anderen Chips wechseln will, bricht entweder der 
maximale Takt ein oder man muss irgendwelche Synchronisierungsstufen 
einbauen.

von MCUA (Gast)


Lesenswert?

> Multiplizerer in FPGA's sind ohnehin eine eher neue Erscheinung
> (Spartan-3 ab 2003), viele Jahrzehnte ist man bei den meisten
> Anwendungen komplett ohne ausgekommen
Altera hatte aber seit Mitte der 90er auch EBR, was über Logic 
hinausgehende Funktionen ermöglichte.

>Mit den Strukturen, wie die es beschreiben, können sie nur mit den
>einfachen billigen FPGAs konkurrieren
Muss ich stark bezweifeln.

von Dussel (Gast)


Lesenswert?

Es ist ja klar, dass ein kleines Unternehmen technisch nicht mit 
Unternehmen mit einem Jahresumsatz im Milliardenbereich mithalten kann. 
Es ist aber trotzdem gut, wenn es FPGAs gibt, die nicht (direkt) den 
Wirtschaftskontrollmechanismen ("Exportregularien") der USA unterliegen. 
Mit GateMate kann man sicher nicht alles direkt lösen, aber vielleicht 
schonmal in manchen Bereichen.

Kann man die jetzt eigentlich irgendwo kaufen? Beim deutschen 
Distributor habe ich gar nichts gefunden und beim österreichischen nur, 
dass man anfragen kann.

von Christoph Z. (christophz)


Lesenswert?

Dussel schrieb:
> Es ist aber trotzdem gut, wenn es FPGAs gibt, die nicht (direkt) den
> Wirtschaftskontrollmechanismen ("Exportregularien") der USA unterliegen.

Ja. Darum gibt es zwei europäische Initiativen die da Geld einfüllen. 
Nach meinen Quellen geht das alles nach Frankreich. Hat mich sogar 
gewundert, dass für den GateMate noch nichts bekannt ist, wer der erste 
Kunde ist oder wer/ob da Fördergelder drin sind.

1. ESA:
https://www.esa.int/Enabling_Support/Space_Engineering_Technology/Shaping_the_Future/High_Density_European_Rad-Hard_SRAM-Based_FPGA-_First_Validated_Prototypes_BRAVE

https://nanoxplore.com/

2. EU Horizon Programm:
https://www.european-processor-initiative.eu/accelerator/

https://sipearl.com/index_en.php

von Dussel (Gast)


Lesenswert?

Christoph Z. schrieb:
> Hat mich sogar
> gewundert, dass für den GateMate noch nichts bekannt ist, wer der erste
> Kunde ist oder wer/ob da Fördergelder drin sind.
Es steht zumindest da, dass es 'unterstützt' ("supported") wird. 
https://www.colognechip.com/programmable-logic/gatemate/

von Genau (Gast)


Lesenswert?

Möglicherweise ist das eine Backup-Technologie für wichtige 
Industriebereiche, falls mal was passieren sollte. Also nicht für den 
Bastler.

von abc (Gast)


Lesenswert?

Wenig tragfähig. Wir brauchen kein Geld in Firmen stecken, die in 95% 
der Fälle keinen Erfolg haben und in den anderen 5% der Fälle unter 
US-Kontrolle geraten.

Bei den Initiativen habe ich den Eindruck, es geht darum dass sich 
irgendeine europäische Firma(Firmengruppe) irgendetwas unter den Nagel 
reist oder zugesprochen kommt.

Da wir keine/kaum derartige Firmen haben, wäre der logische Schritt, 
insofern es sich um wirtschaftlich kritische Komponenten handelt, diese 
Opensource zu machen und den Markt eher "kaputt zu machen".

Es kann keinen Erfolg haben, diesbezüglich marktwirtschaftlich 
konkurrenzfähige Produkte, sprich Produkte mit attraktiver Marge in 
irgendeiner Art, zu entwickeln und zu vertreiben. Dafür ist der 
Vorsprung zu groß, nicht nur technologisch.


Genau schrieb:
> Möglicherweise ist das eine Backup-Technologie für wichtige
> Industriebereiche, falls mal was passieren sollte. Also nicht für den
> Bastler.

Gerade mit den Bastlern müsste man anfangen, so wie es die Chinesen 
machen.
Wer legt sich schon solche FPGAs in die Firma? Die bereits millionenfach 
verwendeten Bausteine und Tools sind unausgereift genug. Diesbezüglich 
benötige ich nicht extra noch ein unausgereiftes Nischenprodukt. Noch 
dazu mit nicht-monolithischer Architektur bzgl. der Logik, schlechte 
Portierbarkeit.

von Fpgakuechle K. (Gast)


Lesenswert?

abc schrieb:
>  Noch
> dazu mit nicht-monolithischer Architektur bzgl. der Logik, schlechte
> Portierbarkeit.

Das musste mal erläutern, das ist unverständlich.


FPGA's sind ohnehin nur schlecht portierbar und eh nur soweit wie man es 
zulässt. wer seine eigne 'Bibliothek' schreibt und eine modulares 
Architektur durchzieht ist da auf der 'weniger schlechten' Seite.

Beitrag #6450738 wurde von einem Moderator gelöscht.
von Fpgakuechle K. (Gast)


Lesenswert?

Weltbester FPGA-Pongo schrieb im Beitrag #6449436:

> Mit den Strukturen, wie die es beschreiben, können sie nur mit den
> einfachen billigen FPGAs konkurrieren und deren Preis ist überwiegend
> von den Kosten für Marketing, Packaging und Vertrieb geprägt und nicht
> von den Waferkosten.

Also hier fehlen IMHO die Softwarekosten und die machten zumindest
zeitweise einen Grossteil der (Entwicklungs-)kosten für Xilinx aus. Klar
kann man den FPGA-Nutzer durch Kaufsoftware daran beteiligen, aber das
funktioniert eher schlecht. Da muss man schon seine GB-grosse Software
Suite und den Support dazu verschenken, damit sich überhaupt einer dafür
interessiert und der kauft dann auch nur für 10k FPGA's für ne
Kleinserie.

Wenn man dagegen die (selbstgeschrieben) Software schon hat und den FPGA
hauptsächlich als In-House Entscheidung einführt, kann sich das ganze
schon rechnen. Verkauf an Dritte ist dann unerwartetes Nebengeschäft.

von Christoph Z. (christophz)


Lesenswert?

abc schrieb:
> Wenig tragfähig.

Eigentlich durchgehend Full-ACK zu deinen Kommentaren.
Die ESA BRAVE FPGA Geschichte ist ja eigentlich eine Wiederholung vom 
Atmel FPGA. Atmel ist ja jetzt schon länger Microchip (USA)... Trotzdem 
bleiben die "Atmel Chips" made in France ITAR frei (Keine US 
Exportkontrolle, ev. EU Exportkontrolle).

Diese Petaflop Supercomputer Initiative finde ich leicht besser, weil da 
schon ganz viel von LLVM und RISC-V gequasselt wird. Also immerhin 
Investitionen in Open Source, was ich persönlich angemessen finde, wenn 
Steuergelder im Spiel sind.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Sobald für die Entwicklung irgendeiner Technologie öffentliche 
Fördergelder angekündigt werden, kommt es oft schlagartig zum 
Stillstand. Die einen Akteure machen dann keinen Finger mehr krumm, ohne 
Fördergelder erhalten zu haben, und die anderen lamentieren herum, dass 
sie ohne Fördermittel gegenüber Mitbewerbern benachteiligt würden.

Außerdem begibt man sich auf eine ziemliche Gratwanderung: auf der einen 
Seite muss man schon ein gewisses Know-How vorweisen können, um 
überhaupt Aussicht auf solche Zuwendungen zu haben, aber auf der anderen 
Seite darf man mit der Entwicklung noch nicht begonnen haben, denn in 
den Vergaberichtlinien fast aller Fördergelder steht ausdrücklich, dass 
noch keine Vorleistungen erbracht worden sein dürfen. Also steckt man im 
Zweifelsfall schon Geld in Konzepte und wartet dann jahrelang auf eine 
Genehmigung oder Ablehnung der Anträge. So etwas leisten sich aber nur 
irgendwelche trägen Großkonzerne. Wer jedoch wirklich frischen Wind in 
eine Branche bringen will, sucht sich lieber andere Geldgeber. Oder am 
besten gleich einen Entwicklungsstandort in einem Land, in dem es eine 
wesentlich offenere Geschäftskultur gibt.

Eine weitere Möglichkeit besteht darin, Förderanträge für beliebige 
Themen nach der Gießkannenmethode zu stellen. Gelegentlich wird dann 
doch mal einer bewilligt. Ich kenne eine Unternehmerin, deren 
Geschäftsbetrieb ausschließlich aus solch einer Vorgehensweise bestand. 
Verkaufsfähige Produkte oder Leistungen sind dabei aber natürlich 
niemals herausgekommen; das war aber wohl auch nie die Absicht. 
Glücklicherweise ist der Laden dann aber doch pleite gegangen.

Nachtrag: Ich habe gerade festgestellt, dass es den Laden doch wieder 
gibt. Derzeit wird beliebige Blabla-Beratung und Kundenakquise 
angeboten.

: Bearbeitet durch User
von Uwe B. (Firma: TU Darmstadt) (uwebonnes)


Lesenswert?

Schoen in dem Zusammenhang waere auch Unterstuetzung fuer die offenen 
FPGA Entwicklung mit Yosys and friends

von S. R. (svenska)


Lesenswert?

abc schrieb:
> Wenig tragfähig. Wir brauchen kein Geld in Firmen
> stecken, die in 95% der Fälle keinen Erfolg haben
> und in den anderen 5% der Fälle unter US-Kontrolle geraten.

Mit anderen Worten: Strom kommt aus der Steckdose, Chips aus Asien und 
die Patente aus den USA, also müssen wir uns darum nicht mehr kümmern.

> Da wir keine/kaum derartige Firmen haben, wäre der
> logische Schritt, insofern es sich um wirtschaftlich
> kritische Komponenten handelt, diese Opensource zu
> machen und den Markt eher "kaputt zu machen".

Wer sollte denn das als Open Source machen können? Wenn das wirklich 
marktrelevant wird, dann fängt ein Qualcomm an, die Entwickler in Grund 
und Boden zu klagen, während ein Intel oder ein Google die gegen gutes 
Gehalt einstellt. Und schon war's das. (Außerdem ist es extrem 
schwierig, ein Open Source-Produkt in einen streng regulierten Markt 
einzuführen.)

Wenn das eine Chance haben soll, dann braucht sowas zumindest eine 
Firmenstruktur und Unterstützer.

> Gerade mit den Bastlern müsste man anfangen,
> so wie es die Chinesen machen.

Tun sie das? Ich sehe da eigentlich nur Projekte, die zwar für Bastler 
zugänglich sind (Alibaba sei dank), aber eigentlich für irgendwelche 
Groß-bis-Riesig-Stückzahlen entwickelt wurden, z.B. bei Padauk oder 
Allwinner.

> Wer legt sich schon solche FPGAs in die Firma?

Mit anderen Worten: Niemand wird dafür gefeuert, IBM gekauft zu haben.

von abc (Gast)


Lesenswert?

Fpgakuechle K. schrieb:
> abc schrieb:
>>  Noch
>> dazu mit nicht-monolithischer Architektur bzgl. der Logik, schlechte
>> Portierbarkeit.
>
> Das musste mal erläutern, das ist unverständlich.

Das zusammengestückelte Silizium.

S. R. schrieb:
> abc schrieb:
>> Wenig tragfähig. Wir brauchen kein Geld in Firmen
>> stecken, die in 95% der Fälle keinen Erfolg haben
>> und in den anderen 5% der Fälle unter US-Kontrolle geraten.
>
> Mit anderen Worten: Strom kommt aus der Steckdose, Chips aus Asien und
> die Patente aus den USA, also müssen wir uns darum nicht mehr kümmern.

Blinder, zum Scheitern verurteilter Aktionismus bringt nichts.
Welche Vorteile hat man als Kunde beim Kauf einer vermutlich teureren 
Neuentwicklung xyz gegenüber den Alteingesessenen? Natürlich kann ich 
US-Export-Restriktionen befürchten. Aber bei so einer kleinen Klitsche 
muss ich mich fragen, ob es die Teile in 15 Jahren überhaupt noch gibt. 
Irgendeine Spezialarchitektur on top ist da nicht gerade förderlich für 
das Vertrauen.

Wenn die Kunden/Abnahme nicht zusammen kommt, dann trägt es sich 
prinzipiell nicht marktwirtschaftlich. Dann bleibt nur noch, dass es 
sich irgendwie anders tragen muss.

>> Da wir keine/kaum derartige Firmen haben, wäre der
>> logische Schritt, insofern es sich um wirtschaftlich
>> kritische Komponenten handelt, diese Opensource zu
>> machen und den Markt eher "kaputt zu machen".
>
> Wer sollte denn das als Open Source machen können?

Die Kunden der bisherigen Produkte.
Diejenigen, die es nutzen.
Universitäten.

Linux wurde nicht von Sun oder Microsoft entwickelt.
Android wurde nicht von Samsung oder Nokia entwickelt.
Kicad wurde nicht von Cadsoft entwicket.
Risc-V wurde nicht von ARM entwickelt.
IsoTP für Linux wird nicht von Vector entwickelt.

Bei Software gibt es Opensource schon länger. Bei PCBs hat Opensource 
auch schon Einzug gehalten. Das Problem ist nicht, dass bei großen 
FPGA-Nutzern nicht mehrere Millionen dafür verfügbar wären. Das Problem 
ist, dass von den FPGA-Kunden keiner mehrere Millionen in ein 
Opensource-Projekt steckt, von dem die Konkurrenz (ebenfalls 
FPGA-Nutzer) dann kostenlos profitiert.

Der Unterschied zur Software und zu PCBs ist, dass hier aufgrund der 
Fertigungskosten die "Einstiegsschwelle" hoch ist und man nicht auf 
geringer Flamme, unverbindlich oder im Universitätsbastelkeller zusammen 
findet um einen ersten Nutzen zu generieren.

Es bräuchte also ein mit mehreren Millionen Euro (pro Jahr) 
ausgestattetes Konsortium, dass die Fertigungskosten (möglichst nur 
diese) übernimmt und später die gefertigten Teile zum Selbstkostenpreis 
abgibt. Später könnte es verschiedene Fertiger geben, so wie das jetzt 
für ARM-Cores auch geht.

Peanuts im Vergleich zu GEZ, (indirekter) Solarpaneele-Förderung und 
vielem anderen.

Mit dem deutschen Giesskannen-Prinzpip bei der Förderung der 
Universitäten, und dann möglichst nur Personalkosten, wird das nichts. 
Und mit der klassischen Förderung von Unternehmen (wollen wir die kleine 
Bäckerei mal bei der Investition oder dem Schaffen eines neuen Jobs 
unterstützen) wird das auch nichts.

>> Gerade mit den Bastlern müsste man anfangen,
>> so wie es die Chinesen machen.
>
> Tun sie das?

Ja.

> Ich sehe da eigentlich nur Projekte, die zwar für Bastler
> zugänglich sind (Alibaba sei dank), aber eigentlich für irgendwelche
> Groß-bis-Riesig-Stückzahlen entwickelt wurden, z.B. bei Padauk oder
> Allwinner.

z.B. Espressif

>> Wer legt sich schon solche FPGAs in die Firma?
>
> Mit anderen Worten: Niemand wird dafür gefeuert, IBM gekauft zu haben.

Mit anderen Worten: Etwas Gutes tun wollen, kann jeder. Etwas 
Nutzbringendes zustande bringen, kann nicht jeder.

von S. R. (svenska)


Lesenswert?

abc schrieb:
> Blinder, zum Scheitern verurteilter Aktionismus bringt nichts.

Das sehe ich ein. Eine Firma zu gründen, eine sinnvolle Alternative zu 
entwickeln und zu fertigen, und damit auf dem Markt zu erscheinen 
empfinde ich aber nicht als blinden Aktionismus.

> Welche Vorteile hat man als Kunde beim Kauf einer vermutlich
> teureren Neuentwicklung xyz gegenüber den Alteingesessenen?

Wenn ich als Kunde mit den Teilen der alteingesessenen Hersteller 
zufrieden bin, dort meine Expertise und vorherigen Projekte gemacht habe 
und zu meinen Wunschkonditionen zuverlässig versorgt werde, dann habe 
ich sicherlich keinen Vorteil von einem Wechsel.

Ist dem nicht so, sollte man immer überlegen, ob ein Wechsel sinnvoll 
sein kann. Auch dann, wenn man nicht wechselt.

Ob die europäischen FPGAs teurer sind, lässt sich spontan nicht sagen 
und hängt sicher auch von der Anwendung ab.

> Natürlich kann ich US-Export-Restriktionen befürchten.

Richtig, aber das ist eher eine Frage persönlicher Paranoia.

> Aber bei so einer kleinen Klitsche muss ich mich fragen,
> ob es die Teile in 15 Jahren überhaupt noch gibt.

Ich frage mich eher, ob ich mein Produkt in 15 Jahren mit der gleichen 
Technik überhaupt noch verkaufen kann oder muss. Und was mein nächstes 
Projekt ist, welche Technik dort sinnvoll ist usw.

Die zukünftige Version meines Produktes wird wahrscheinlich neue 
Funktionen haben, und ob ein jetzt aktueller, aber in 15 Jahren 
vollständig veralteter Chip das dann noch bieten können wird, weiß ich 
nicht.

Aber ich kann in 12 Jahren nachschauen, ob es die zukünftigen Versionen 
von deren Chips gibt.

> Irgendeine Spezialarchitektur on top ist da nicht
> gerade förderlich für das Vertrauen.

Alle existierenden Standardarchitekturen waren mal Spezialarchitekturen. 
Und jetzt erzähle mir nicht, dass die großen Hersteller zu jeder Zeit 
kompatibel zu sich selbst waren. Da habe ich genug Toolchain-Flüche hier 
im Forum und anderswo im Netz gelesen.

abc schrieb:
> Wenn die Kunden/Abnahme nicht zusammen kommt, dann trägt es sich
> prinzipiell nicht marktwirtschaftlich.

Kleine Unternehmen arbeiten mit kleineren Märkten und kleineren 
Kundenstämmen noch immer wirtschaftlich. Ein Selbständiger mit 
Kleinserien arbeitet schlicht auf anderen Skalen als ein internationaler 
Großkonzern mit jahrzehntelangen Liefergarantien.


abc schrieb:
>> Wer sollte denn das als Open Source machen können?
>
> Die Kunden der bisherigen Produkte.
Ich gebe dir deine Frage von oben zurück: Welche Vorteile hat man als 
Kunde von einer kompletten Eigenentwicklung xyz gegenüber den 
Alteingesessenen? Und warum sollte ich mir als Kunde die Risiken einer 
Klage antun, wenn ich nicht sowieso unter NDA leide?

> Diejenigen, die es nutzen.
Warum sollte ich als Nutzer etwas von Grund auf neu entwickeln, was ich 
schon habe?

> Universitäten.
Universitäten werden mit öffentlichen Geldern finanziert und haben es 
daher äußerst schwer, konkurrenzfähige Projekte kommerziell zu 
betreiben. Ohne den kommerziellen Ansatz - sei es durch Entwicklung oder 
Support - trägt sich das nicht.

Deine Rechnung geht nicht auf.

abc schrieb:
> Linux wurde nicht von Sun oder Microsoft entwickelt.
Wäre aber ohne die Unterstützung von großen und kleinen Unternehmen 
heute auch nur ein Nischenprodukt.

> Android wurde nicht von Samsung oder Nokia entwickelt.
Android wurde von Google entwickelt, Windows von Microsoft und MacOS von 
Apple. Alle drei gehören zu den größten Konzernen der Welt. Und Samsung 
entwickelt sehr wohl an Android mit (wie auch alle anderen OEMs).

> Risc-V wurde nicht von ARM entwickelt.
RISC-V ist nur ein Standard, keine Implementation. Auf konkurrenzfähige 
Implementationen der Snapdragon 835-Leistungsklasse warte ich noch.

von Weltbester FPGA.Pongo (Gast)


Lesenswert?

Andreas S. schrieb:
> Sobald man auf einen der anderen Chips wechseln will, bricht entweder
> der maximale Takt ein oder man muss irgendwelche
> Synchronisierungsstufen einbauen.

Synchstufen braucht und hat man auch im FPGA, für uns in Form von FFs 
aus Sicht des Herstellers in Form von Kompensationsstufen, die wir nicht 
sehen.

Natürlich ist ein Takt um so schwieriger schnell zu halten, je länger 
der Pfad und der Baum ist, aber mit entsprechenden Strukturen ist das 
dann nur budget limitierend. So arg bricht der nicht ein, meine ich.

von Weltbester FPGA.Pongo (Gast)


Lesenswert?

Dussel schrieb:
> Christoph Z. schrieb:
>> Hat mich sogar
>> gewundert, dass für den GateMate noch nichts bekannt ist, wer der erste
>> Kunde ist oder wer/ob da Fördergelder drin sind.
> Es steht zumindest da, dass es 'unterstützt' ("supported") wird.
> https://www.colognechip.com/programmable-logic/gatemate/

Da frag ich mich sofort, warum es supported wird und was die sich davon 
versprechen. Muss ja dann was dran sein, oder?

abc schrieb:
> Wer legt sich schon solche FPGAs in die Firma?
Also da kenne ich mehrere, die sehr gerne eigene tools verwenden würden, 
die nicht von Xilinx oder anderen gesteuert sind und wo man ständig in 
die USA telefonieren muss, um support zu bekommen. Seit dem 
"SCAN"-Skandal gibt es eine Reihe von Bestrebungen, deutsche Technologie 
und Entwicklungen von den USA abzuschotten.

Es gibt dann auch noch das Thema "FPGA-to-ASIC". Wenn man Prototype-FPGA 
und finalized Chip aus einer Hand in DE erhalten könnte, eröffnet das 
ganz andere Perspektiven was man auslagern kann. Gerade im MIL-Bereich 
darf vieles nichts in Ausland geliefert werden.

von abc (Gast)


Lesenswert?

S. R. schrieb:
> Ob die europäischen FPGAs teurer sind, lässt sich spontan nicht sagen
> und hängt sicher auch von der Anwendung ab.

Doch, das lässt sich spontan sagen: Wird teurer sein, wenn der Staat 
nicht die Fertigungskosten (dh. pro verkauftem Stück) subventioniert.
 usw.

> Die zukünftige Version meines Produktes wird wahrscheinlich neue
> Funktionen haben, und ob ein jetzt aktueller, aber in 15 Jahren
> vollständig veralteter Chip das dann noch bieten können wird, weiß ich
> nicht.

Es geht nicht darum, für neue Produkte alte FPGAs zu nehmen. Es geht 
darum, dass Redesigns teuer sind und dass ich mir bevorzugt nicht x 
Bausteine für die nächsten 20 Jahre in den Schrank legen möchte, weil 
ich auch nicht weis, wie gut das Produkt in 18 Jahren noch geht.

>> Irgendeine Spezialarchitektur on top ist da nicht
>> gerade förderlich für das Vertrauen.
>
> Alle existierenden Standardarchitekturen waren mal Spezialarchitekturen.

Ja, waren. Und jetzt funktionieren sie ganz gut.

> Und jetzt erzähle mir nicht, dass die großen Hersteller zu jeder Zeit
> kompatibel zu sich selbst waren.

Wenn das Design auf das gestückelte Silizium hin optimiert werden muss 
und das nicht vollautomatisch funktioniert, dann ist das kein Vorteil 
für den Kunden. Da brauche ich nicht noch ein Designservice vom 
Hersteller dazu. Nein, ich nehme einen FPGA mit dem das nicht 
erforderlich ist.

> abc schrieb:
>> Wenn die Kunden/Abnahme nicht zusammen kommt, dann trägt es sich
>> prinzipiell nicht marktwirtschaftlich.
>
> Kleine Unternehmen arbeiten mit kleineren Märkten und kleineren
> Kundenstämmen noch immer wirtschaftlich. Ein Selbständiger mit
> Kleinserien

Das funktioniert bei der Chipherstellung mit halbwegs aktueller 
Technologie nicht. Oder wie viele Selbständige kennst Du, die Chips mit 
40nm oder besser verkaufen?


>
> abc schrieb:
>>> Wer sollte denn das als Open Source machen können?
>>
>> Die Kunden der bisherigen Produkte.
> Ich gebe dir deine Frage von oben zurück: Welche Vorteile hat man als
> Kunde von einer kompletten Eigenentwicklung xyz gegenüber den
> Alteingesessenen? Und warum sollte ich mir als Kunde die Risiken einer
> Klage antun, wenn ich nicht sowieso unter NDA leide?

Opensource hat folgende Vorteile:
. auch jemand anderes kann es produzieren, was die Abhängigkeit/das 
Risiko reduziert.
. ich kann Bugs in der SW selbst beheben oder im Auftrag für wenig Geld 
beheben lassen
. Die SW kann unabhängig vom Hersteller weiter entwickelt werden. Der 
Schwerpunkt kann dann mehr auf die Bedürfnisse aktueller Nutzer 
ausgerichtet werden und wird weniger dadurch getrieben, neue 
Märkte/Kundenkreise erschliessen "zu müssen". Schnittstellen können 
tendenziell länger stabil bleiben.

>> Diejenigen, die es nutzen.
> Warum sollte ich als Nutzer etwas von Grund auf neu entwickeln, was ich
> schon habe?

Wenn es Vorteile bringt. Darum geht es doch hier.

>> Universitäten.
> Universitäten werden mit öffentlichen Geldern finanziert und haben es
> daher äußerst schwer, konkurrenzfähige Projekte kommerziell zu
> betreiben. Ohne den kommerziellen Ansatz - sei es durch Entwicklung oder
> Support - trägt sich das nicht.
>
> Deine Rechnung geht nicht auf.

Nein, deine Rechnung geht nicht auf. Ich sage von vornherein, dass es 
konkurrenzfähig nicht geht. Die Uni soll auch nicht auf ewig den Support 
machen, sondern den FPGA-Chip designen. Support so, wie bei 
opensource-community-Projekten üblich (zB. Linux Kernel).

> abc schrieb:
>> Linux wurde nicht von Sun oder Microsoft entwickelt.
> Wäre aber ohne die Unterstützung von großen und kleinen Unternehmen
> heute auch nur ein Nischenprodukt.

Spricht ja nichts dagegen. Nur bringt es nichts, einem einzelnen kleinen 
Unternehmen ein paar Euro zu geben auf dass es ganz allein den 
Linux-Kernel maintainen und weiterentwickeln möge. Nach meinem 
Verständnis ist das aber hier beim FPGA aus Köln der Fall.

>> Android wurde nicht von Samsung oder Nokia entwickelt.
> Android wurde von Google entwickelt, Windows von Microsoft und MacOS von
> Apple. Alle drei gehören zu den größten Konzernen der Welt.

Ja, inzwischen. Mein Argument war, Google war kein 
Smartphone-Hersteller, sondern als Internet-Firma ein Nutzniesser der 
Smartphone-Technologie. Smartphone-OS hatten zum damaligen Zeitpunkt im 
Wesentlichen nur die Smartphone-Hersteller entwickelt. Erst später hat 
Google dann auch mal im Auftrag ein Smartphone fertigen lassen.

> Und Samsung
> entwickelt sehr wohl an Android mit (wie auch alle anderen OEMs).

Ja, eben. Und ja, inzwischen. Da sieht man, was halt draus werden kann.

>> Risc-V wurde nicht von ARM entwickelt.
> RISC-V ist nur ein Standard, keine Implementation. Auf konkurrenzfähige
> Implementationen der Snapdragon 835-Leistungsklasse warte ich noch.

Da verwechselst Du etwas. Das ist zunächst zum Selbermachen für 
diejenigen, die es benötigen können (z.B. FPGA-Hersteller als Hardmakro 
oder diejenigen, die ohnehin Kerne in ihren eigenen ICs einsetzten oder 
als Softmakro im FPGA). Man kann einen stabilen, Hersteller-unabhängigen 
(opensource)-Standard her nehmen und teilt sich die Aufwände bei der 
Entwicklung der Toolchain. Die typischen, auf Marge angewiesenen 
MCU-Verkäufer haben doch kein Interesse an und kaum einen Vorteil von 
RISC-V.
Das passiert erst langsam, wenn der Kunde danach fragt.

Weltbester FPGA.Pongo schrieb im Beitrag #6452810:
> abc schrieb:
>> Wer legt sich schon solche FPGAs in die Firma?
> Also da kenne ich mehrere, die sehr gerne eigene tools verwenden würden,
> die nicht von Xilinx oder anderen gesteuert sind und wo man ständig in
> die USA telefonieren muss, um support zu bekommen.

Eben. Und bekommst Du das mit dem patentierten FPGA aus Köln? Ich denke 
halt, da braucht es opensource und mehr finanziellen Aufwand.

> Es gibt dann auch noch das Thema "FPGA-to-ASIC". Wenn man Prototype-FPGA
> und finalized Chip aus einer Hand in DE erhalten könnte, eröffnet das
> ganz andere Perspektiven was man auslagern kann. Gerade im MIL-Bereich
> darf vieles nichts in Ausland geliefert werden.

Du willst ein Produkt das seit 0 Jahren am Markt erfolgreich vertrieben 
wird von einem KMU mit ein paar Mitarbeitern in solche Projekte 
einbauen?  Ist das ein kleiner Scherz? Das ist doch keine 
Spezial-Funktionalität. Nach 10...20 Jahren, schon klar. Aber initial, 
wer soll's denn kaufen und benutzen? Woher soll die erfolgreiche, 
non-confidential Historie kommen von so einem Nischen-COTS?

von S. R. (svenska)


Lesenswert?

abc schrieb:
>> Ob die europäischen FPGAs teurer sind, lässt sich spontan nicht
>> sagen und hängt sicher auch von der Anwendung ab.
> Doch, das lässt sich spontan sagen: Wird teurer sein, wenn der Staat
> nicht die Fertigungskosten (dh. pro verkauftem Stück) subventioniert.
>  usw.

Das unterscheidet sich jetzt von den anderen auch nicht. Die Subvention 
kommt da nur aus einem anderen Topf, z.B. dem Militärbudget.

> Es geht nicht darum, für neue Produkte alte FPGAs zu nehmen. [...]

Sondern darum, das alte Design für die nächsten 250 Jahre mit den alten 
Chips noch liefern zu können, ist mir schon klar. Nur betrifft das die 
meisten Produkte nicht - und falls doch, dann nimmt man eben nicht 
diesen FPGA sondern einen anderen.

>>> Irgendeine Spezialarchitektur on top ist da nicht
>>> gerade förderlich für das Vertrauen.
>> Alle existierenden Standardarchitekturen
>> waren mal Spezialarchitekturen.
> Ja, waren. Und jetzt funktionieren sie ganz gut.

Warum sollen heutige Spezialarchitekturen das zukünftig nicht können?

>> abc schrieb:
> Das funktioniert bei der Chipherstellung mit halbwegs
> aktueller Technologie nicht. Oder wie viele Selbständige
> kennst Du, die Chips mit 40nm oder besser verkaufen?

Einige. Aber die produzieren die Chips nicht selbst. ;-)

> Opensource hat folgende Vorteile: [...]

Das ist mir bekannt, aber damit bekomme ich garantiert kein 
konkurrenzfähiges Produkt hin, solange ich nicht eine enorme 
Wirtschaftsmacht aus Freiwilligen hinter mir habe.

Als Unternehmen mit Gewinnabsicht ist eine Strategie sinnvoll, bei der 
ich jegliche Standardtechnologie mit Open Source fahre (in beide 
Richtungen), aber meine Differentiatoren proprietär halte.

Du argumentierst, dass die Konkurrenz ja ohnehin bessere Chips, 
funktionierende Architekturen und ausreichende Infrastruktur haben, 
möchtest denen aber zusätzlich noch deine eigene Technologie zur 
Verfügung stellen. Da wird nie ein konkurrenzfähiges Produkt draus.

Schau dir die Windows-vs-Linux-Diskussionen an.

> Nein, deine Rechnung geht nicht auf. Ich sage von vornherein,
> dass es konkurrenzfähig nicht geht. Die Uni soll auch nicht
> auf ewig den Support machen, sondern den FPGA-Chip designen.

Designs gibt es viele. Wer fertigt das dann? Als Universität kann man 
problemlos ein paar Prototypen in High-End bauen, aber eine 
Serienfertigung mit Verkauf fällt aus.

Wer verhindert, dass Xilinx das offene Design nimmt, ein bisschen 
erweitert und einfach günstiger fertigt? Extend, embrace, extinguish? 
Oder ist das dein Ziel?

> Support so, wie bei opensource-community-Projekten
> üblich (zB. Linux Kernel).

Welche Firma soll den bitte den Support machen, wenn der Markt vom 
Platzhirsch gefressen wurde? Ein RedHat kann nur da überleben, wo auch 
RedHat-Produkte eingesetzt werden.

>>> Android wurde nicht von Samsung oder Nokia entwickelt.
>> Android wurde von Google entwickelt, Windows von Microsoft und MacOS von
>> Apple. Alle drei gehören zu den größten Konzernen der Welt.
>
> Ja, inzwischen.

Nö, die waren das auch vorher schon.
Android ist von Beginn an ein Google-Produkt.

> Mein Argument war, Google war kein Smartphone-Hersteller, sondern
> als Internet-Firma ein Nutzniesser der Smartphone-Technologie.

Richtig. Und hatte als Riesenkonzern die Möglichkeiten, da einfach mal 
so lange Geld reinzupumpen, bis es als Apple-Alternative funktionierte. 
Im Gegensatz zu AOSP ist und war Android nie offen, auch wenn Google das 
gerne so erzählt. Das ist knallharte Geschäftspolitik.

>> Und Samsung entwickelt sehr wohl an Android
>> mit (wie auch alle anderen OEMs).
> Ja, eben. Und ja, inzwischen.
> Da sieht man, was halt draus werden kann.

Die haben von Anfang an daran mitentwickelt. Wenn du dir frühe 
Android-Geräte anschaust, dann stellst du fest, dass die sich wesentlich 
mehr voneinander unterscheiden als aktuelle Geräte.

Weil die Hersteller einen Großteil der Entwicklung selbst gemacht haben 
und das Android nur als Basis nutzten - ähnlich wie Android den Kernel 
nutzt. Solche Geräte würden heute nicht mehr zertifiziert werden und - 
wie gesagt - das System ist eben nicht offen.

> Weltbester FPGA.Pongo schrieb im Beitrag #6452810:
>> Also da kenne ich mehrere, die sehr gerne eigene tools verwenden würden,
>> die nicht von Xilinx oder anderen gesteuert sind und wo man ständig in
>> die USA telefonieren muss, um support zu bekommen.
>
> Eben. Und bekommst Du das mit dem patentierten FPGA aus Köln? Ich denke
> halt, da braucht es opensource und mehr finanziellen Aufwand.

Mit einem GateMate aus Köln bekommt man wesentlich eher einen USA-freien 
FPGA als mit der weiteren Nutzung von Xilinx, Altera oder Lattice. 
Insofern: Ja sicher.

von abc (Gast)


Lesenswert?

S. R. schrieb:
>>>> Irgendeine Spezialarchitektur on top ist da nicht
>>>> gerade förderlich für das Vertrauen.
>>> Alle existierenden Standardarchitekturen
>>> waren mal Spezialarchitekturen.
>> Ja, waren. Und jetzt funktionieren sie ganz gut.
>
> Warum sollen heutige Spezialarchitekturen das zukünftig nicht können?

Ich dachte, es geht um FPGAs aus Europa. Da braucht es nicht noch 
zusätzliche Risiken. So viele "Spezialarchitekturen" sind schon 
gescheitert.

>>> abc schrieb:
>> Das funktioniert bei der Chipherstellung mit halbwegs
>> aktueller Technologie nicht. Oder wie viele Selbständige
>> kennst Du, die Chips mit 40nm oder besser verkaufen?
>
> Einige. Aber die produzieren die Chips nicht selbst. ;-)
Und deshalb taugt das Beispiel des Selbständigen nicht und meiner 
Ansicht nach ist auch ein Kleinunternehmen zu wenig.

>> Opensource hat folgende Vorteile: [...]
>
> Das ist mir bekannt, aber damit bekomme ich garantiert kein
> konkurrenzfähiges Produkt hin
> [...]Da wird nie ein konkurrenzfähiges Produkt draus.

Wie schon ein paar mal geschrieben: Ich glaube nicht, dass ein 
konkurrenzfähiges Produkt auf absehbare Zeit überhaupt möglich ist.

> Du argumentierst, dass die Konkurrenz ja ohnehin bessere Chips,
> funktionierende Architekturen und ausreichende Infrastruktur haben,
> möchtest denen aber zusätzlich noch deine eigene Technologie zur
> Verfügung stellen.

Ja.

> Designs gibt es viele. Wer fertigt das dann?

Ein (Semi-)staatliches Konsortium treibt die besten Ansätze voran und 
bezahlt die Fertigung, wie ich schon schrieb.

> Wer verhindert, dass Xilinx das offene Design nimmt, ein bisschen
> erweitert und einfach günstiger fertigt?

Niemand.

> Extend, embrace, extinguish?
> Oder ist das dein Ziel?

Spielt keine Rolle. Mein Ziel wäre nicht, eine FPGA-Firma aufzubauen, 
sondern die Abhängigkeit der hiesigen Firmen von den aktuellen 
FPGA-Herstellern zu reduzieren. Wenn dann Xilinx das Opensource-Design 
billiger nachbaut, dann lässt das weiter oben von mir erwähnte 
Konsortium eben keine ICs mehr fertigen. Unter entsprechende Lizenz 
gestellt müssten auch Verbesserungen am Design wieder opensource sein.

Was bleibt ist die Möglichkeit, bei Bedarf das FPGA-IC-Design relativ 
schnell von jemand anderem fertigen.

>> Support so, wie bei opensource-community-Projekten
>> üblich (zB. Linux Kernel).
>
> Welche Firma soll den bitte den Support machen, wenn der Markt vom
> Platzhirsch gefressen wurde?

Wir sind inzwischen bei kompletten opensource-toolchains von 
reverse-engineered FPGAs.

>> Eben. Und bekommst Du das mit dem patentierten FPGA aus Köln? Ich denke
>> halt, da braucht es opensource und mehr finanziellen Aufwand.
>
> Mit einem GateMate aus Köln bekommt man wesentlich eher einen USA-freien
> FPGA als mit der weiteren Nutzung von Xilinx, Altera oder Lattice.
> Insofern: Ja sicher.

Das Problem ist die Single-Supplier-Abhängigkeit "alle Firmen in den USA 
mit den Risiken von Exportbeschränkung" vs. "ein deutsches Startup mit 
den entsprechenden Risiken". Bei letzterem mache ich mir eher sorgen. Wo 
Support und SW besser sind, das müsste sich auch erst einmal zeigen.

Mit einem Opensource-Design sind die Risiken wesentlich reduziert, bzw. 
spielen keine Rolle mehr.

Ich habe kein Problem mit dem Bezug von Produkten aus den USA. Wenn die 
Gefahr der US-Exportbeschränkung als hoch eingeschätzt wird, dann gehört 
das Thema auf europäischer Seite ohnehin nicht in die Hände eines 
Startups.

von Christoph Z. (christophz)


Lesenswert?

S. R. schrieb:
> abc schrieb:
>> Wenig tragfähig. Wir brauchen kein Geld in Firmen
>> stecken, die in 95% der Fälle keinen Erfolg haben
>> und in den anderen 5% der Fälle unter US-Kontrolle geraten.
>
> Mit anderen Worten: Strom kommt aus der Steckdose, Chips aus Asien und
> die Patente aus den USA, also müssen wir uns darum nicht mehr kümmern.

Nein, aber aus meiner Sicht ist es Geldverschwendung Projekte zu fördern 
die 20-30 Jahre zu spät versuchen technologischen Anschluss zu finden.

Jetzt noch Geld z. B. in europäische KI Beschleuniger zu stecken könnte 
Zeitlich noch knapp aufgehen. Förderung in Bereichen, wo ich noch keine 
Milliardenschwere Konkurenz habe, ja.

Weltbester FPGA.Pongo schrieb im Beitrag #6452810:
> abc schrieb:
>> Wer legt sich schon solche FPGAs in die Firma?
> Also da kenne ich mehrere, die sehr gerne eigene tools verwenden würden,
> die nicht von Xilinx oder anderen gesteuert sind und wo man ständig in
> die USA telefonieren muss, um support zu bekommen.

Ja, es gibt schon FPGA Anwender die diesen Weg gerne gehen würden. Ich 
war ja sehr enttäuscht von der ESA, dass sie NanoXplore nicht gleich 
gezwungen haben, Open Source Software anzubieten oder wenigstens die 
Bitstream Details offenzulegen, damit Open Source dann darauf aufsetzen 
kann. (ESA hat eine lange Open Source Tradition z. B. mit dem LEON und 
fördert offene Standards)

von S. R. (svenska)


Lesenswert?

Christoph Z. schrieb:
> Nein, aber aus meiner Sicht ist es Geldverschwendung
> Projekte zu fördern die 20-30 Jahre zu spät versuchen
> technologischen Anschluss zu finden.

Wenn es primär darum geht, möglichst schnell kommerziell erfolgreich zu 
sein, dann hast du vollkommen recht. Darum geht es aber aus meiner Sicht 
nicht.

Die Chinesen hätten mit deiner Argumentation nie etwas selbst entwickeln 
müssen, "der Westen" war überall schon vorher da. Ähnlich wie bei den 
Japanern vorher und der Erfolg gibt ihnen recht.

von Christoph Z. (christophz)


Lesenswert?

S. R. schrieb:
> Die Chinesen hätten mit deiner Argumentation nie etwas selbst entwickeln
> müssen, "der Westen" war überall schon vorher da. Ähnlich wie bei den
> Japanern vorher und der Erfolg gibt ihnen recht.

Sehr richtig. Der Unterschied aus meiner Sicht ist aber, dass es in 
Japan eine Wirtschaftspolitische Grundhaltung ist, die seit der Meji 
Restauration 1868 gelebt wird. Japan hat das Ziel alles selber machen zu 
können und nur vorübergehend Technologien zu importieren. Ihre ganze 
Wirtschaftspolitik, Ministerien, Universitäten, Firmen Joint-Ventures 
sind darauf ausgerichtet. Natürlich kombiniert mit der Suche nach 
passenden Nischen, wo die frühen Produkte abgesetzt werden können 
(Transistorradios, Taschenrechner, Fotokameras). High-End Produkte sind 
in Japan auch unter Exportkontrolle, z. B. Lithographiemaschinen für die 
LCD Produktion.
Dieses langsame, einen Schritt nach dem Anderen, vorgehen hat sich als 
sehr erfolgreich erwiesen und dient vermutlich/offensichtlich als 
Vorbild für China.

Die ist eine Art Planwirtschaft, die im "Westen" halt böse ist.

Frankreich und der Gaulismus sind dem gegenüber aufgeschlossen und haben 
das in der Vergangenheit auch offen so gemacht (Habe mal den Eurofighter 
Artikel auf Wikipedia begonnen, diese Geschichte war sogar mir zu lang 
zum lesen :-) Da sind dazu auch Anekdoten drin.) und sich immer mal 
wieder deswegen zerstritten.


Meine Kritik, und so wie ich es interpretiere auch die von abc und 
Andreas S., richtet sich gegen diese one-off Projekt wo mal was teuer 
gefördert wird ohne das passende Rahmenbedingungen herrschen oder dafür 
gesorgt wird, dass diese zuerst gefördert werden, bzw. ein Gesamtkonzept 
ersichtlich ist.

von S. R. (svenska)


Lesenswert?

Du bevorzugst also die totale Abhängigkeit von anderen.
Gut, mit der Aussage kann ich leben. ;-)

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Christoph Z. schrieb:
> Meine Kritik, und so wie ich es interpretiere auch die von abc und
> Andreas S., richtet sich gegen diese one-off Projekt wo mal was teuer
> gefördert wird ohne das passende Rahmenbedingungen herrschen oder dafür
> gesorgt wird, dass diese zuerst gefördert werden, bzw. ein Gesamtkonzept
> ersichtlich ist.

Nein, das ist so gar nicht meine obige Aussage.

von Christoph Z. (christophz)


Lesenswert?

S. R. schrieb:
> Du bevorzugst also die totale Abhängigkeit von anderen.
> Gut, mit der Aussage kann ich leben. ;-)

Bevorzugen nicht, aber da ich kein Bauer bin und keinen Garten habe... 
Sorry, ich drifte ab, hier gehts um technische Abhängigkeit.

Ich habe nie gesagt dass ich eine totale Abhängigkeit gut fände. Ich 
hasse das, wenn ich ein Gerät nicht aufmachen kann oder keine 
Datenblätter ohne NDA bekomme :-)

Ich bin seit 2002 Open Source Anhänger und bin heute so unabhängig wie 
noch nie zuvor (Jedenfalls bei allem das Software mit drin hat).

Dazu muss ich auch sagen, dass ich in der Schweiz lebe. Die Illusion von 
der wirtschaftlich/industriell unabhängigen Schweiz ist auch in den 
Köpfen der Politiker/Militärs seit Ende der 60er tot, nach dem die 
Grossprojekte zum eigenen Kampfjet und eigenen Atomkraftwerk gescheitert 
sind. Seither ist bei uns eher das internationale Teamplay der Ansatz, 
besetzen und Ausbauen von Nischen etc.

Auf der anderen Seite bin ich selber ja auch Steuerzahler und möchte 
schon auch mitreden wo und wie gefördert wird.
Ist halt scheisse, wenn mein Geld in ein Produkt gesteckt wird, dass 
dann am Schluss auf meinem Schreibtisch liegt und nix tut, weil irgendwo 
im mitgelieferten verschlüsselten IP Core ein Bug drin ist, den der 
Hersteller vielleicht bis Weihnachten fixed. So ist der schöne 
NanoXplore NG-MEDIUM im Moment ein Briefbeschwerer und fliegt wegen zu 
hoher Risiken vielleicht auch aus dem Produkt (und es kommt wieder ein 
FPGA aus USA zum Einsatz).

Mal sehen, ich geb dem Teil beim nächsten Projekt gerne nochmals eine 
Chance aber mit mehr Open Source würde es definitiv mehr Spass machen.

von Weltbester FPGA-Pongo (Gast)


Lesenswert?

Andreas S. schrieb:
> Nein, das ist so gar nicht meine obige Aussage.

Was war deine Aussage?

Beitrag #6458872 wurde von einem Moderator gelöscht.
von J. S. (engineer) Benutzerseite


Lesenswert?

Christoph Z. schrieb:
> Mal sehen, ich geb dem Teil beim nächsten Projekt gerne nochmals eine
> Chance aber mit mehr Open Source würde es definitiv mehr Spass machen.

Was Neues zu dem Thema?

von vancouver (Gast)


Lesenswert?

Immerhin ist jetzt das Evalboard verfügbar:

https://www.schukat.com/schukat/schukat_cms_de.nsf/index/warengruppe?OpenDocument&wg=Y1711

Ich drücke den Jungs und Mädels aus Köln die Daumen. Das ist genau das, 
was Europa jetzt braucht. Aber sie müssten dann jetzt in die Puschen 
kommen und ihr Zeug unters Volk bringen. Der nächste logische Schritt 
wäre ein Ultra-Lowpower Zynq-Konkurrent mit RISC-V Cores.

von Mcn (Gast)


Lesenswert?

>  Der nächste logische Schritt
> wäre ein Ultra-Lowpower Zynq-Konkurrent mit RISC-V Cores.

UltraLowPower und FPGA passen nicht zusammen.

RISC-V ist absolute Nische, was die Welt braucht ist ein SoC mit 
verbreiteter und bewährter Controller-Architectur wie eben ARM.

Und RISC-V gilt insbesonders für Speichersensitive (On-Chip RAM v. 
SoC-FPGA) Anwendungen im Embedded Bereich als ungeeignet:
https://www.elektroniknet.de/halbleiter/risc-v-fuer-embedded-anwendungen-eher-nicht.179223.html

von vancouver (Gast)


Lesenswert?

Mcn schrieb:
> UltraLowPower und FPGA passen nicht zusammen.

Ideal ist das nicht, stimmt schon. Aber man kann trotzdem FPGA bauen, 
die deutlich weniger Verlustleistung haben als die heute verfügbaren.

> RISC-V ist absolute Nische, was die Welt braucht ist ein SoC mit
> verbreiteter und bewährter Controller-Architectur wie eben ARM.

Das war vor 5 Jahren der Fall. RISC-V-Projekte schießen heute wie Pilze 
aus dem Boden, die "Nische" wird immer breiter.

> Und RISC-V gilt insbesonders für Speichersensitive (On-Chip RAM v.
> SoC-FPGA) Anwendungen im Embedded Bereich als ungeeignet:
> 
https://www.elektroniknet.de/halbleiter/risc-v-fuer-embedded-anwendungen-eher-nicht.179223.html

Ich kenne diesen Artikel und halte ihn für etwas unsachlich. Nur weil 
der RV bei einer bestimmten Operation mehr Takte benötigt als der ARM, 
ihm gleich einen ganzen Anwendungsbereich abzusprechen, ist an den 
Haaren herbeigezogen. Der Befehlssatz des RV ist zudem keine 30 Jahre 
alt. Er wurde von Berkley  neu designed, nachdem sie sich eine riesige 
Menge Anwendungen angeschaut und untersucht hatten, welche 
Maschinenbefehle wie oft verwendet werden und wieviel Chipfläche und 
Energie sie benötigen. Das Ergebnis ist natürlich ein Kompromiss, und 
ja, an einigen Stellen ist RV zwangsläufig unterlegen. Das trifft auf 
jede General-Purpose-Architektur zu, auch auf ARM.

von Christoph Z. (christophz)


Lesenswert?

Mcn schrieb:
> Und RISC-V gilt insbesonders für Speichersensitive (On-Chip RAM v.
> SoC-FPGA) Anwendungen im Embedded Bereich als ungeeignet:
> 
https://www.elektroniknet.de/halbleiter/risc-v-fuer-embedded-anwendungen-eher-nicht.179223.html

Ist soweit ein interessanter Artikel in dem Sinne, das er mal wieder vor 
Augen führt, wieso 2022 die grösste Menge an verkaufter Mikrocontrollern 
immer noch 8 bitter sind.

Zum Speicherverbrauch von Risc-V code habe ich andere Zahlen gefunden:
https://www2.eecs.berkeley.edu/Pubs/TechRpts/2011/EECS-2011-63.html

Da wird von 2% grösserem Code gegenüber Thumb2 gesprochen. Solche 
Vergleiche sind natürlich immer Abhängig vom Code/Algorithmen die 
Untersucht werden. Bleibt also spannend das Thema.

vancouver schrieb:
> Ultra-Lowpower Zynq-Konkurrent mit RISC-V Cores.

Du meinst sowas wie den PolarFire-SoC aber einfach aus Europa?

Nicht low-power aber high-performance-computing und aus Europa:
https://www.european-processor-initiative.eu/accelerator/

Weiter unten wird erwähnt, dass im SGA2 dann auch ein eFPGA von Menta 
(Frankreich) drin sein soll.

Mcn schrieb:
> RISC-V ist absolute Nische, was die Welt braucht ist ein SoC mit
> verbreiteter und bewährter Controller-Architectur wie eben ARM.

NG-Ultra in Frankreich produziert (ST), in einem Prozess der in 
Frankreich entwickelt wurde (FD-SOI 28 nm), von einer französischen 
Firma entwickelt (nanoXplore) mit eigenen Entwicklungstools (NXmap).

von Christoph Z. (christophz)


Lesenswert?

Jürgen S. schrieb:
> Christoph Z. schrieb:
>> Mal sehen, ich geb dem Teil beim nächsten Projekt gerne nochmals eine
>> Chance aber mit mehr Open Source würde es definitiv mehr Spass machen.
>
> Was Neues zu dem Thema?

Von Seiten OpenSource ist mir bei nanoXplore nichts neues bekannt. Zu 
dem angesprochenen Bug im IP core auch nicht, weil wir nicht mehr 
nachgefragt haben (das Projekt schlept sich so dahin und der NG-Medium 
wird uns zu klein).

Von der Tool Seite ist es so, dass Siemens/Mentor Graphics nun vollen 
Support für den NG-Medium hat und mit Kunden am Testen ist, um den 
NG-Ultra auch vollständig zu unterstützen. Heisst HDL Designer, 
Precision RTL (inkl. high-reliability Erweiterungen), Catapult HLS.
Ist für uns hier weit ausserhalb unseres derzeitigen Budgets...

von vancouver (Gast)


Lesenswert?

Christoph Z. schrieb:

Christoph Z. schrieb:
> Da wird von 2% grösserem Code gegenüber Thumb2 gesprochen.

Da schau an...

> Bleibt also spannend das Thema.

Auf jeden Fall. Man muss auch klar sagen, dass ARM in einigen Dingen die 
Nase noch weit vorn hat, z.B. bei Security. Da ist RV noch ziemlich 
blank, mal abgesehen von eingen Ansätzen wie https://opentitan.org/


> Du meinst sowas wie den PolarFire-SoC aber einfach aus Europa?

Exakt. Wobei 5 RV64-Kerne für den Anfang mal Overkill sein dürften.

Christoph Z. schrieb:
> Nicht low-power aber high-performance-computing und aus Europa:
> https://www.european-processor-initiative.eu/accelerator/

Wobei low-Power bei EPI schon auch eine entscheidende Rolle spielt. Die 
Cluster werden später tausende solcher Chips enthalten, jeder mit 
hunderten CPUs. Mach einen Fehler von einem Microwatt, und du brauchst 
später eine doppelt so große Kühlanlage....

Menta verfolgt eine etwas andere Strategie. Sie verkaufen IP-Cores, 
deren Größe der Kunde (innerhalb gewisser Grenzen) frei wählen kann. Man 
kann ihnen sogar ein FPGA-Design geben, und sie erzeugen dann ein 
FPGA-IP der passenden Größe. Aber fertig gepackagte Menta-FPGAs wird es 
wohl keine geben.

von Mcn (Gast)


Lesenswert?

>> Da wird von 2% grösserem Code gegenüber Thumb2 gesprochen.
>
> Da schau an...

Wenn nicht glatt gelogen, dann ist der genannte Unterschied von 
lediglich zwei Prozent eine unrealistische Aussage aus 
Fanboy/Marketing-Abteilung:

Mit Open-Source Tools beträgt der Unterschied Faktor 4, lediglich 
kommerzielle tools kommen in die Nähe der Cortex-M 
Reihe:https://blog.segger.com/code-size-closing-the-gap-between-risc-v-and-arm-for-embedded-applications/

von vancouver (Gast)


Lesenswert?

Mcn schrieb:
> Marketing-Abteilung

Wie kommst du darauf, dass die RISC-V-Community eine Marketingabteilung 
besitzt? Man könnte genauso argumentieren, dass ARM der Allerwerteste 
gerade auf Grundeis geht und sie deswegen Unsinn in die Welt setzen (was 
sie vor einiger Zeit schoneinmal getan und sich damit endlos blamiert 
haben).
Aber ja, wer will, darf sich darüber freuen, dass ARM bei manchen 
Anwendungen 10% weniger Speicher braucht, und das gesparte Geld dann in 
die Lizenzkosten für den ARM-Core stecken.

von Mcn (Gast)


Lesenswert?

vancouver schrieb:
> Mcn schrieb:
>> Marketing-Abteilung
>
> Wie kommst du darauf, dass die RISC-V-Community eine Marketingabteilung
> besitzt?

Ich schrieb ja auch "Fanboy/Marketing-Abteilung:"

Und ja, ich bin der Meinung das es bezüglich der Beeinflußung der Märkte 
durch alle legitimen Mittel keinen Unterschied zwischen Communities oder 
Kommerz gibt. Höchstens im Budget.
--
> dass ARM bei manchen Anwendungen 10% weniger Speicher braucht

Naja bei embedded uns besonders wenn das Ganze im engen On-Chip 
Speichers eines FPGA'a laufen soll können 10% (meist sind es deutlich 
mehr) schon den Wechsel auf den nächstgrößeren 100€uro teuren Chip 
ausmachen (falls der überhaupt im package-Migrationspfad liegt, bei SoCs 
keine Selbstverständlichkeit).

Man kann die freien Resourcen auch für Kunden-feature/Debug-code nutzen.

von MCUA (Gast)


Lesenswert?

Von wegen 2..10%!
Wie es ausieht, ist RISC-V nichts weiter als eine ganz billige 
LD-ST-Architektur.
Da erübrigt sich doch jeder Kommentar.

von -gb- (Gast)


Lesenswert?

MCUA schrieb:
> Wie es ausieht, ist RISC-V nichts weiter als eine ganz billige
> LD-ST-Architektur.

Und trotzdem springen gerade viele auch große Firmen 
(Intel/Microchip/Qualcomm/...) auf den Zug auf, geben teilweise echt 
viel Zaster aus um Chips zu entwerfen und fertigen zu lassen.
Anscheinend ist da trotz der hier attestierten grottigen Qualität ein 
großes Geschäftsfeld.

von vancouver (Gast)


Lesenswert?

MCUA schrieb:
> Wie es ausieht, ist RISC-V nichts weiter als eine ganz billige
> LD-ST-Architektur.

Messerscharf beobachtet. So wie das nun mal eben ist bei 
RISC-Architekturen. Deswegen sind sie so effizient, das schon seit über 
40 Jahren bekannt. Und deswegen verwenden Intel und AMD schon seit 
langem intern RISC-basierte Microcode-Engines, mit denen sie dem 
Benutzer ihre altbekannten x86-Befehle vorgaukeln, damit Windows98 auch 
morgen noch läuft.

> Da erübrigt sich doch jeder Kommentar.

So ist es.

von MCUA (Gast)


Lesenswert?

>  Deswegen sind sie so effizient..

Von Wegen.
Brauchen Speicher ohne Ende.
Eine CPU mit RISC-basierter Microcode-Engine bezieht nicht! den vielen 
Speicher aus'm Hauptspeicher.
Eine zu billige Architektur (was reine LD-ST ist) ist zu teuer im 
Speicherverbrauch.

von -gb- (Gast)


Lesenswert?

MCUA schrieb:
> Eine zu billige Architektur (was reine LD-ST ist) ist zu teuer im
> Speicherverbrauch.

Das sehen gerade einige große Hersteller anders.

Was weißt du was die nicht wissen?

von vancouver (Gast)


Lesenswert?

MCUA schrieb:
> Eine zu billige Architektur (was reine LD-ST ist) ist zu teuer im
> Speicherverbrauch.


Dass RSIC-Programme etwas mehr Speicher brauchen, ist eine 
Binsenweisheit. Dafür sind Steuerwerk und Datenpfad massiv einfacher und 
schneller, besonders bei mehrstufigem Pipelining. Die parallele 
Ausführung von CISC-Befehlen, möglichst auch noch mit verschiedenen 
Befehlslängen, Ausführungszeiten und mit Out-of-Order-Execution ist 
schlichtweg ein Albtraum. Der Prozessor verplempert mehr Energie damit, 
die internen Abläufe zu organisieren, als mit der eigentlichen 
Ausführung des Befehls. Prominentes Beispiel war Intel's Itanium, und 
der ist sang- und klanglos verschwunden.

Die superkomplexen Instruktionen, die 5 Sachen auf einmal machen, haben 
nur begrenzte Nutzbarkeit und werden umso seltener benutzt, je 
komplizierter sie sind. Die meisten Compiler verwenden sie kaum, weil 
sie meistens nicht "passen", außer man optimiert sie Software so, dass 
sie zum Befehlssatz passt, aber dann kann man auch gleich Intrinsics 
verwenden. Macht halt keiner. Somit werden in einem durchschnittlichen 
CISC-Programm in 90-95% der Zeit auch nur die Befehle ausgeführt, die 
eine RISC-CPU kennt. Dazu gibts Paper zuhauf, aber die suchst du bitte 
selber.

Bei General-Purpose-CPUs ist RISC fast immer die bessere Wahl, das 
wissen alle Prozessorhersteller (aktuelles Beispiel: Apples M1). CISC 
ist hingegen sinnvoll bei Spezialarchitekturen wie etwa HPC. Z.B. gibt 
es im weiter oben erwähnten EPI-Projekt eine Application-Specific-CPU 
für Stencil-Operationen. Die basiert intern auf VLIW-Befehlen, eine 
CISC-Architektur in Reinform, obwohl die Speicherzugriffe auch dort nur 
über Load/Store-Befehle erfolgen.

Den wieviel-auch-immer Prozent höheren Speicherbedarf bei 
Load/Store-Architekturen nimmt man gerne in Kauf, denn Speicher ist 
billig, Zeit und Energie hingen nicht.

von udok (Gast)


Lesenswert?

vancouver schrieb:
> Dass RSIC-Programme etwas mehr Speicher brauchen, ist eine
> Binsenweisheit.

Und Speicher braucht ziemlich viel Energie und ist sehr teuer, vor allem 
wenn es um den schnellen L1/L2 Cache geht.  Der L1/L2 Cache bestimmt 
heute maßgeblich die Geschwindigkeit!  Alle anderen Verbesserungen 
kommen weit hinten, da die CPUs heute irrsinnig schnell sind im 
Vergleich zu DRAM.

Dafür sind Steuerwerk und Datenpfad massiv einfacher und
> schneller, besonders bei mehrstufigem Pipelining. Die parallele
> Ausführung von CISC-Befehlen, möglichst auch noch mit verschiedenen
> Befehlslängen, Ausführungszeiten und mit Out-of-Order-Execution ist
> schlichtweg ein Albtraum.

Hast du dir schon mal einen modernen Prozessor angeschaut?
Da wirst du das Dekodierwerk nicht finden, so winzig ist es...
Das Dekodierwerk war auch noch nie im kritischen Datenpfad.

> Die superkomplexen Instruktionen, die 5 Sachen auf einmal machen, haben
> nur begrenzte Nutzbarkeit und werden umso seltener benutzt, je
> komplizierter sie sind. Die meisten Compiler verwenden sie kaum, weil

Gerade heute erleben wir wieder ein Revival der komplizierten Befehle.
Bevor du dich weiter lächerlich machst, schau Dir die AVX-512 AI 
Befehlserweiterung eines Ryzen Zen-4 an...

> sie meistens nicht "passen", außer man optimiert sie Software so, dass
> sie zum Befehlssatz passt, aber dann kann man auch gleich Intrinsics
> verwenden. Macht halt keiner.

Machen aber trotzdem alle wichtigen Programme so.  Etwa dein Browser.

> Bei General-Purpose-CPUs ist RISC fast immer die bessere Wahl, das

RISC ist immer die schlechtere Wahl.  CISC (richtig implementiert) führt 
immer zu kürzeren Programmen, die weniger Energie brauchen UND schneller 
sind.  Es kostet halt Hirnschmalz, aber das nur einmalig.

Gruss,
Udo

von Martin S. (strubi)


Lesenswert?

udok schrieb:
> Gerade heute erleben wir wieder ein Revival der komplizierten Befehle.
> Bevor du dich weiter lächerlich machst, schau Dir die AVX-512 AI
> Befehlserweiterung eines Ryzen Zen-4 an...

Dieses 'Revival' gibt's schon seit >20 Jahren. Nur, dass im Embedded 
Bereich diese Befehlserweiterungen gerade mal die DSP-Nische abdecken.
Hat aber mit dem eigentlichen Thema nicht viel zu tun.

Die Gatemate-Architektur hat recht Potential was Multiplier-Kaskaden 
angeht, leider scheinen die klassischen Probleme der 
Software-Entwicklung zugeschlagen zu haben, da muss von seiten 
yosys-Synthese deutlich mehr Butter bei die Fische.

Was gar nicht gut lief: komplexere bestehende VHDL-Designs zu portieren. 
Kann sich inzwischen verbessert haben, auf jeden Fall hoffe ich, dass 
aus der LUT-Optimierung was geworden ist und sich das Thema mit der 
TDP-Inference (True Dual Port) endlich erledigt hat - das war eine recht 
harzige OpenSource-Baustelle bei yosysHQ.

Gar nicht up to date bin ich betreffend PnR, vielleicht darf ja jemand 
was dazu sagen.

Im Trockendock (ohne Evalboard) habe ich RISC-V und JPEG-Pipelines 
(Encoder) ausprobiert, musste aber sehr viel auf einem alternativen Weg 
prozedural synthetisieren, in der HDL-Variante haette das alles nicht 
auf den absehbar verfuegbaren Chip gepasst. Musste da leider den Stecker 
ziehen.
Was sehr gut aussah, war die eigentliche DSP-Pipeline, Multiplier im 
Fabric zu haben ist eine echte Wohltat fuer manche Anwendungen. Es 
braucht aber neue Ansaetze, um diese Pipelines dediziert zu designen, in 
V*-HDL macht das keinen Spass mehr.

von vancouver (Gast)


Lesenswert?

udok schrieb:
> Der L1/L2 Cache bestimmt
> heute maßgeblich die Geschwindigkeit!  Alle anderen Verbesserungen
> kommen weit hinten, da die CPUs heute irrsinnig schnell sind im
> Vergleich zu DRAM.

Richtig, aber die Caches sind SRAMs und damit in der gleichen 
Technologie aufgebaut wie die CPU. Du kannst dir also dann überlegen, ob 
es sich lohnt, den Speicher kleiner zu machen und dafür Platz und 
Energie in einer komplexeren CPU zu verbraten, die X Piplinestufen hat 
damit du auf einen brauchbare Tekfrequenz kommst. Die meisten Hersteller 
machen das eher nicht, außer dass sie dem RISC eine große Anzahl 
Register verpassen, um Speicherzugriffe zu sparen, indem Daten in der 
CPU gehalten werden.

> Da wirst du das Dekodierwerk nicht finden, so winzig ist es...
> Das Dekodierwerk war auch noch nie im kritischen Datenpfad.

Der I-Decoder ist auch nur kleiner Teil des Steuerwerks. Viel 
problematischer ist der Dispatcher, der festlegt, was wann auf welcher 
Einheit gerechnet wird. Der muss die Ressourcenanforderungen und 
Ausführungsdauer jeder Instruktion kennen, die OOO-x festlegen, die 
Verhersage der Branch Prediction berücksichtigen usw. Das ist der 
komplexeste Teil des Steuerwerks und verbrät ein Menge Platz und 
Energie. Da bei RISC alle Instructionen die gleiche Länge und 
Ausfährungszeit haben, vereinfacht sich das Steuerwerk erheblich.

> Gerade heute erleben wir wieder ein Revival der komplizierten Befehle.
> Bevor du dich weiter lächerlich machst, schau Dir die AVX-512 AI
> Befehlserweiterung eines Ryzen Zen-4 an...

AVX ist im Prinzip ein SIMD-Coprozessor für Vektoroperationen. Die 
kannst du auch an einen RISC-Prozessor dranhängen. Es gibt auch für 
RISC-V auch eine Vektor-Extension im Standard, aber der wird dadurch 
nicht zu einem CISC-Prozessor sondern bleibt eine 
Load/Store-Architektur. Siehe dazu auch 
https://www.heise.de/news/ARM-Alternative-Apple-entwickelt-RISC-V-Hardware-6183047.html

> RISC ist immer die schlechtere Wahl.  CISC (richtig implementiert) führt
> immer zu kürzeren Programmen, die weniger Energie brauchen UND schneller
> sind.  Es kostet halt Hirnschmalz, aber das nur einmalig.

Ich schätze mal, dass in Zukunft hauptsächlich CPUs mit vielen 
RISC-Kernen und anwendungsspezifischen Beschleunigern gebaut werden. Der 
klassische CISC-Dinosaurier wird aussterben (bis auf bestimmte 
Anwendungen wie HPC) oder durch schnelle und schlanke RISCs emuliert. 
We'll see.

von Dennis Z. (Gast)


Lesenswert?

Gustl B. schrieb:
> https://www.colognechip.com/programmable-logic/gatemate
>
> Sieht gar nicht schlecht aus.

Bei sowas immer die Toolchain anschauen. Die heutigen FPGAs können im 
Grunde alle das gleiche aber wenn die Toolchain Murks ist wirst du beim 
entwickeln wahnsinnig.

von Duke Scarring (Gast)


Lesenswert?

Es geht weiter mit RISC-V:
https://www.golem.de/news/cpu-google-nimmt-risc-v-support-offiziell-in-android-auf-2210-169214.html
1
Google nimmt RISC-V-Support offiziell in Android auf

von J. S. (engineer) Benutzerseite


Lesenswert?

Christoph Z. schrieb:
> Catapult HLS
Oh, gibt es das noch? Das ist aber nichts für kleine effiziente FPGAs.

von Christoph Z. (christophz)


Lesenswert?

Jürgen S. schrieb:
> Christoph Z. schrieb:
>> Catapult HLS
> Oh, gibt es das noch? Das ist aber nichts für kleine effiziente FPGAs.

Das ganze bezog sich ja auch auf die nanoXplore FPGAs. Der NG-LARGE und 
NG-ULTRA sind nicht von der kleinen Sorte :-)

Keine Ahnung von Catapult, habe nur von unserem Mentor Verkäufer gehört, 
das meine "Kollegen" am anderen Standort Lizenzen davon haben. Ich weiss 
weder was die tun noch könnte ich ihre Lizenzen mitnutzen.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Christoph Z. schrieb:
> Keine Ahnung von Catapult, habe nur von unserem Mentor Verkäufer gehört,
> das meine "Kollegen" am anderen Standort Lizenzen davon haben. Ich weiss
> weder was die tun noch könnte ich ihre Lizenzen mitnutzen.

Du sollst doch nur weitere Lizenzen kaufen, aber nicht benutzen. Der 
Mentor-Verkäufer versucht doch nur, Dir oder Euch einen gewissen Neid 
auf andere Abteilungen einzureden, damit Ihr dann auch die entsprechende 
Beschaffung veranlasst. Derartige kollektive Verhaltensweisen konnte ich 
schon häufiger in Großunternehmen beobachten, glücklicherweise mit einer 
gewissen Distanz.

von MCUA (Gast)


Lesenswert?

> Bin gespannt wie sich das entwickeln wird.
Und jetzt?
Kann man diese FPGAs nun (in Stückzahlen) kaufen, bzw was kostet das?

von -gb- (Gast)


Lesenswert?


von Nachfrage (Gast)


Lesenswert?

Gibt es jemanden hier, der mit diesen FPGAs baut und gebaut hat und 
einen Bericht anfertigen könnte im Stil eines Artikels?

von Quarkteilchen-Beschleuniger (Gast)


Lesenswert?

Nachfrage schrieb:
> Gibt es jemanden hier, der mit diesen FPGAs baut und gebaut hat
> und einen Bericht anfertigen könnte im Stil eines Artikels?

Es gibt. Der Jemand hat aber wenig Interesse daran, anonymen Nachfragern 
kostenlose Marktanalyse oder Knowhow zu liefern. Vielleicht richtest du 
einfach besser deine Fragen selbst ganz offiziell an die Kölner 
Entwickler, die sind nämlich ehrlich und responsiv.

von Duke Scarring (Gast)


Lesenswert?

Quarkteilchen-Beschleuniger schrieb:
> Vielleicht richtest du
> einfach besser deine Fragen selbst ganz offiziell an die Kölner
> Entwickler, die sind nämlich ehrlich und responsiv.
Mag sein, aber die sind befangen ;-)

von Klausi (Gast)


Lesenswert?

Quarkteilchen-Beschleuniger schrieb:
> Es gibt. Der Jemand hat aber wenig Interesse daran, anonymen Nachfragern
> kostenlose Marktanalyse oder Knowhow zu liefern. Vielleicht richtest du
> einfach besser deine Fragen selbst ganz offiziell an die Kölner
> Entwickler, die sind nämlich ehrlich und responsiv.

Wieviel Knowhow gibst du den preis, wenn du eine Note dazu verfasst, wie 
einfach oder wie schwer das Einarbeiten in die Software, wie 
betriebssicher die Chips, wie stabil die PLL und vor allem, wie 
defektfrei die Test-Hardware von denen ist?

Duke Scarring schrieb:
> Mag sein, aber die sind befangen ;-)
Ich habe gerade bei Xilinx nachgefragt:

Alle Funktionen von Vivado laufen fehlerrei
Alle Cores in Production und funktionieren
Alle Entwicklungsboards sind perfekt designed

Ich muss der einzige Kunde weltweit sein, der einen bug in der Software 
und einen in deren Cores gefunden hat und bei dem das Eval-board trotz 
REV "4" immer noch zickt und nach einem reconfig der Transceiver 
abtaucht.

von Mcn (Gast)


Lesenswert?

Klausi schrieb:

> Wieviel Knowhow gibst du den preis, wenn du eine Note dazu verfasst,

Es geht weniger um die KnowHow-Weitergabe als die vergeudete Zeit, einen 
solchen Artikel zu verfassen und die Nerven, einen mglw. einsetzenden 
Shitstorm zu ertragen.
Sagen wir mal, es kostet einen Stunde - das sind unter Freiberufler 
mindestens 60€. Warum sol  man die opfrern nur das so ein paar 
Dahergelaufene dann doch maulen, das sie sich doch nur das billigste 
China-board leisten können?!

Wenn dann so ein Artikel auf der eigenen Website oder in einem 
Fachmagazin, dann hat man wenigstens Werbung in eigener Sache.

> Ich habe gerade bei Xilinx nachgefragt:

Du lügst, übertreibst und hast einen sarkastischen Unterton, noch mehr 
Gründe dir keinen kostenlosen Bericht zu schreiben.

von Wühlhase (Gast)


Lesenswert?

Naja, hier opfern viele ihre Freizeit um die Probleme anderer Leute zu 
lösen. Das ist die ureigene Daseinsberechtigung dieses Forums, da finde 
ich die Posts von Quarkteilchen und kalinkarifek in der Tat etwas 
befremdlich.

von Thomas H. (thomash2)


Lesenswert?

Kann es sein das Trion denen auch das Wasser abgräbt?

Die anderen FPGA Firmen haben nach wie vor eine schlechte Verfügbarkeit.
Latticesemi meinte ja selber schon dass sie in das mittlere Segment 
gepushed wurden (sie das aber eigentlich nicht vor hatten)
Trion wird wohl das untere Segment ausfüllen.

Habe hier selber einige Trion boards (also Endprodukte).

von Mcn (Gast)


Lesenswert?

Wühlhase schrieb:
> Naja, hier opfern viele ihre Freizeit um die Probleme anderer Leute zu
> lösen. Das ist die ureigene Daseinsberechtigung dieses Forums,

Die gemeinsame Beschäftigung ist die Daseinsberechtigung. Die ist 
gegeben von man das Problem löst egal auf welchen Tisch es liegt, weil 
irgendwann wird auch selbst damit konfrontiert.

Aber diese Berechtigung ist nicht mehr gegeben, wenn einer seine Arbeit, 
und sei es das Durchlesen von Dokumantation oder einfache Messungen sich 
spart weil er dieses Problem anderen aufhalst. Insbesonders wenn es 
nicht wirklich ein akutes Problem des Fragestellers ist sonder quasi auf 
Vorrat. Oder seine Hausaufgabe. "Learning by doing", nicht 'by copying".

Man muß den Leute zur Eigeninitiative anhalten, sonst hat man sie 
zukünftig als Forumsschmarotzer an der Backe.

von Mork vom Ork (Gast)


Lesenswert?

Mcn schrieb:
> Sagen wir mal, es kostet einen Stunde - das sind unter Freiberufler
> mindestens 60€.
Dann biste aber zu billig. Das wären bei Vollzeit gerade mal 100.000 
Umsatz im Jahr, nach Kosten 90.000 Gewinn. Ein Angestellter der was 
taugt, kriegt meistens schon mehr und dazu noch die Hälfte der 
Sozialabgaben. Da müssen eher 80,- genommen werden, weil du mehr Aufwand 
hast und nicht alles bezahlt bekommst.

> Warum soll man die opfrern nur das so ein paar Dahergelaufene
Das nennt man Geben und Nehmen.
Als Freiberufler hättest du zudem die Chance, dein Wissen mit deinem 
Namen darzustellen.

>> Ich habe gerade bei Xilinx nachgefragt:
> Du lügst, übertreibst und hast einen sarkastischen Unterton, noch mehr
> Gründe dir keinen kostenlosen Bericht zu schreiben.
Das nennt man Satire! Lies es nochmals :-)

Die Aussage dahinter ist, dass bei Xilinx sehr viel Löchriges vorliegt.
Und die Aussage dahinter wiederum ist, dass ich die Hoffnugn habe, dass 
das bei GateMate eventuell anders sein könnte. (?)

Du verstehen?

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Mork vom Ork schrieb:
> Mcn schrieb:
>> Sagen wir mal, es kostet einen Stunde - das sind unter Freiberufler
>> mindestens 60€.
> Dann biste aber zu billig.

Entscheidend ist nicht die Kalkulation oder Gewinnerwartung, sondern der 
tatsächliche Markt. Und da gibt es eben Freiberufler, die ihre 
Leistungen schon für 60 EUR/h oder deutlich weniger anbieten.

von Wühlhase (Gast)


Lesenswert?

Mcn schrieb:
> Wühlhase schrieb:
>> Naja, hier opfern viele ihre Freizeit um die Probleme anderer Leute zu
>> lösen. Das ist die ureigene Daseinsberechtigung dieses Forums,
>
> Die gemeinsame Beschäftigung ist die Daseinsberechtigung. Die ist
> gegeben von man das Problem löst egal auf welchen Tisch es liegt, weil
> irgendwann wird auch selbst damit konfrontiert.

Nö. Wie oft schlagen hier z.B. Leute mit Fragen zu Altium auf. Oder 
kommen mit ihrem ersten Platinendesign rein und wollen "Best Practices" 
lernen.
Mal als Beispiel, wo ich eher auf der Geberseite stehe.
Nichts davon ist irgendwelches Geheimwissen, das nicht irgendwo stehen 
würde.

Es ist aber trotzdem ein großer Vorteil, wenn man jemanden fragen kann 
und eine Antwort in drei Absätzen bekommen kann, ohne 100 Seiten Doku 
lesen oder den ein oder anderen Fehlschlag erst selber untersuchen zu 
müssen. Und oft habe ich (oder auch andere) unvermutet aus solchen 
Hilfsthreads selber noch etwas mitnehmen können. Völlig umsonst ist das 
also nicht, und insofern mache ich das auch gerne.

Insofern wäre ein Artikel wie "Projekt vwx mit Xilinx und GateMate - 
Verlgeich" durchaus interessant und genau im Sinne dieses Forums. Oder 
eine Kurzanleitung, um sich die Toolchain zurechtzufrickeln. Wenn jeder 
das Rad neu erfinden müßte würden wir, wie gesagt, heute noch in Höhlen 
hausen.


Mcn schrieb:
> Man muß den Leute zur Eigeninitiative anhalten, sonst hat man sie
> zukünftig als Forumsschmarotzer an der Backe.

Es sagt niemand, daß du jedem Maker bis zur Rente seine Arbeit abnehmen 
sollst. Wenn du die Hand gibst und dein Gegenüber nimmt den ganzen Arm, 
muß man halt rechtzeitig nein sagen können.

von Mork vom Ork (Gast)


Lesenswert?

Andreas S. schrieb:
> Entscheidend ist nicht die Kalkulation oder Gewinnerwartung, sondern der
> tatsächliche Markt. Und da gibt es eben Freiberufler, die ihre
> Leistungen schon für 60 EUR/h oder deutlich weniger anbieten.

Moin Andreas, das mag sein. Ich bezog mich wegen des thread-Themas auf 
FPGAs. Wenn sich jemand für 60,- verkauft, dann kann es sich nur um 
einen Anfänger handeln und bei denen müsste man eigentlich annehmen, 
dass sie sich gar nicht verkaufen können, weil das, was sie können, die 
Anfänger in den beauftragenden Firmen nach meiner Erfahrung auch können 
und die sind aus den unterschiedlichsten Gründen billiger.

von Mork vom Ork (Gast)


Lesenswert?

Wühlhase schrieb:
> eine Kurzanleitung, um sich die Toolchain zurechtzufrickeln.
DAS wäre aber nun wirklich eine Aufgabe für die Herstellerfirma, oder?

In einem bewertenden Artikel würde ich nur gerne 2-3 kurze Sätze dazu 
lesen wollen, wie einfach ein Anfänger oder ein Fortgeschrittener sich 
aufgrund dieser Anleitungen einarbeiten kann - wie gut also die 
Anleitungen sind.

Die vielen Problemlösungen rund um die Tool-Defizite an sich muss 
niemand kostenlos liefern.
Das ist das ureigenste Knowhow des Entwicklers.
Oder des Freiberuflers.

von Dussel (Gast)


Lesenswert?

Mork vom Ork schrieb:
> Wühlhase schrieb:
>> eine Kurzanleitung, um sich die Toolchain zurechtzufrickeln.
> DAS wäre aber nun wirklich eine Aufgabe für die Herstellerfirma, oder?
Das ist ja wohl das Mindeste, haben sie aber auch erledigt: 
https://www.colognechip.com/docs/ug1002-toolchain-install-latest.pdf
Anscheinend gibt es auch fertige Pakete, so dass man sich das Gefrickel 
hoffentlich sparen kann.

von MCUA (Gast)


Lesenswert?

> Kann es sein das Trion denen auch das Wasser abgräbt?
Das gibts ja nicht.
Tausende an Lager.

von Christoph Z. (christophz)


Lesenswert?

Tachyum und Cologne Chip wollen zusammenarbeiten:
https://www.eenewseurope.com/en/tachyum-teams-up-with-cologne-chip-on-fpga-ai/

von Bogomil (Gast)


Lesenswert?

Christoph Z. schrieb:
> achyum und Cologne Chip wollen zusammenarbeiten:

"wollen" oder "müssen"?

von J. S. (engineer) Benutzerseite


Lesenswert?

Andreas S. schrieb:
> Entscheidend ist nicht die Kalkulation oder Gewinnerwartung, sondern der
> tatsächliche Markt. Und da gibt es eben Freiberufler, die ihre
> Leistungen schon für 60 EUR/h oder deutlich weniger anbieten.

Wobei zu differenzieren wäre, was das für Leistungen sind.

Gerade beim hier diskutierten Thema FPGA ist die Bandbreite bekanntlich 
gewaltig.

Es reicht vom einfachen Zusammenklicken und Einkopieren von Cores die 
dann verschaltet werden, bis hin zum Ersatz von Hardware durch VHDL, um 
die Funktionen in ASICs zu bringen. Für ersteres würde ich als Kunden 
z.B. keine 60,- ausgeben wollen, für letzteres zahlt man fast 
dreistellig.

Zwischendrin liegt dann irgendwo noch die Signalverarbeitung, wo man 
nicht nur die konkrete Funktion beherrschen muss, sondern mitunter auch 
effektive Schaltungen erdenken muss, deren Lösungen nicht auf dem Tisch 
liegen, um z.B. überfrachtete oder mangelhafte arbeitende Xilinx-Cores 
rauszuwerfen, sodass es in kleine FPGAs passt.

Mork vom Ork schrieb:
> Die vielen Problemlösungen rund um die Tool-Defizite an sich muss
> niemand kostenlos liefern.
> Das ist das ureigenste Knowhow des Entwicklers.
> Oder des Freiberuflers.
An dieser Stelle sei der Firma Xilinx für die Qualtiät ihrer Cores 
gedankt.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.