Forum: FPGA, VHDL & Co. Konfiguration eines FPGA-PCs


von Harry Hirsch (Gast)


Lesenswert?

Ich brauche einen neuen PC - speziell für FPGA-Synthese, weil der alte 
so langsam in Grätsche macht und ewig vor sich hin rödelt. Teilweise 
dauern die Synthesen 3-4h und mehr! Außerdem soll der auch pSPICE 
können.

Wer kennt sich aus, was diese Softwarepakete so brauchen?  Momentan 
läuft Quartus, es kommt aber auch Xilinx hinzu. Als CPU ist Intel 
angedacht.


1) Skylake oder Haswell?
Skylake ist schneller auf 4 Kernen wegen der Frequenz, Haswell kann aber 
6 Kerne, WENN sie verwendet werden und ist dann schneller. Kann die 
Synthese-Software das nutzen? Sollte man den Haswell nehmen?

2) Kann man die Mehrkerne wenigstens dann effektiv nutzen, wenn ich im 
Hintergrund synthetisiere und im Vordergrund arbeite, z.B. Simulation? 
Ist es also so, wie ich vermute, dass das OS das verteilt, wenn man 
konkret z.B. 3 Softwarepakete laufen ließe, die selber nur jeweils 2 
Kerne können?

Ich habe leider zur Mehrkernnutzung bei den Herstellern nur unklare 
Angaben gefunden und selber keine Erfahrung. Mein PC hat 2 Kerne und 4 
threads.

3) Bringen SSDs einen Vorteil? Nutzt es also, schnellen Plattenspeicher 
zu haben? Ich habe den Eindruck, dass Quartus schon ziemlich viel auf 
der Platte macht. Momentan habe ich 2 HDD-SATAs mittlerer 
Geschwindigkeit. Machen M2 einen Sinn?

4) Wieviel RAM kann man ansetzen? Kann man eine RAM-Disk nehmen? Oder 
wären M2 besser, weil der Speicher parallel zum RAM liegt?  Meine 
Befürchtung ist, dass der Haswell das RAM gar nicht genug auslasten 
könnte, damit eine RAM-DISK Sinn macht.

5) Können die Pakete schon GPU nutzen?  Gibt es einen SPICE Simulator, 
der das kann?  Ich benutze momentan viel LTSpice und meine Simlationen 
dauern auch schon mal 30min und mehr, was ich mehr akzeptabel ist, weil 
ich warten muss.


Frage also:


WIE STELLT MAN EINEN PC ZUSAMMEN UND KONFIGURIERT IHN, UM OPTIMAL 
SIMULIEREN ZU KÖNNEN?

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Skylake-Prozessoren haben wohl einen ganz üblen Bug, siehe heise.de:
"Bei komplexer Rechenlast mit AVX-Befehlen wie beim Primzahlprogramm 
Prime95 kann es zu Abstürzen bei Skylake-Prozessoren der Serien Celeron 
G3900, Pentium G4000, Core i3/i5/i7-6000 und Xeon E3-1200 v5 kommen."

https://communities.intel.com/thread/96157?start=0&tstart=0
http://www.computerbase.de/forum/showthread.php?t=1545912

von Mac G. (macgyver0815)


Lesenswert?

Meiner Erfahrung nach bringen schnellere Kerne mehr als viele aber dafür 
langsamere.

SSD nutzt allgemein viel - Software startet viel viel schneller und man 
kann auch mal während der Rechner am rödeln ist noch eine weitere 
komplexe Software starten...
Aber sobald die Software mal läuft bringts dann nicht mehr soviel weil 
das wichtigste eh im RAM liegt.



Den Bug hat Intel schon behoben per Microcode update.

von Duke Scarring (Gast)


Lesenswert?

Harry Hirsch schrieb:
> Teilweise
> dauern die Synthesen 3-4h und mehr! Außerdem soll der auch pSPICE
> können.
Ich kenne noch Zeiten, da hat es auch 8h gedauert. Inzwischen sind meine 
Designs aber kleiner.

Ich kann nur für Xilinx sprechen:

> 1) Skylake oder Haswell?
Bisher nutzt die Xilinx-Synthesesoftware nur in bestimmten Abschnitten 
mehr als einen Kern. Ich weiß nicht wie es bei Vivado aussieht.
Gefühlt würde ich sagen: Lieber schnellere Kerne, als mehr Kerne.

> 2) Kann man die Mehrkerne wenigstens dann effektiv nutzen, wenn ich im
> Hintergrund synthetisiere und im Vordergrund arbeite, z.B. Simulation?
Ja, definitiv. Outlook + Virenscanner + Webbrowser + Simulation + 
Synthese ist auf einem entsprechenden Rechner gut nutzbar.

> 3) Bringen SSDs einen Vorteil? Nutzt es also, schnellen Plattenspeicher
Ich nutze die SSD nur als Programmspeicher. Als Datenspeicher ist sie 
mir zu wertvoll.

> 4) Wieviel RAM kann man ansetzen? Kann man eine RAM-Disk nehmen?
Mit RAM-Disk hab ich seit Ewigkeiten nichts mehr gemacht. Wieviel RAM Du 
für die Synthese brauchst, dazu gibt es Angaben beim Hersteller. Hängt 
Hauptsächlich vom Chip und der Größe des Designs ab. Mehr ist immer 
besser.

> 5) Können die Pakete schon GPU nutzen?  Gibt es einen SPICE Simulator,
> der das kann?
Nicht das ich wüßte.

> Ich benutze momentan viel LTSpice und meine Simlationen
> dauern auch schon mal 30min und mehr, was ich mehr akzeptabel ist, weil
> ich warten muss.
Mehr Zeit zum Nachdenken.
Frag mal die Alten, wie die ohne Simulator ausgekommen sind...

Duke

von Harry Hirsch (Gast)


Lesenswert?

Hallo, da der Skylake bug hat mich auch irritiert. Tendiere trotz 
Behebung zum Haswell. Der Händler meint auch, dass das board stabiler 
sei. Hm..


Wegen der Simulationszeiten: Sicher haben die "alten" einen mieseren PC 
gehabt, aber die hatten auch weniger board-grösse und es wurde weniger 
simuliert. Heute sind die Designs grösser und schneller. Auch bei den 
FPGAs.

von Tim (Gast)


Lesenswert?

also bei mir lass ich große Sachen über einen Linux-Server laufen.
Für ein großes Geschoss mit zwei Implementierungen gleichzeitig werden 
gerade ca. 21G RAM gebucht.

Kerne werden nur einzeln ausgelastet. Manche schritte vertragen auch 4-8 
kerne.

von J. S. (engineer) Benutzerseite


Lesenswert?

Tim schrieb:
> Kerne werden nur einzeln ausgelastet. Manche schritte vertragen auch 4-8
> kerne.

Der Xilinx Mapper kann z.B. mehrere Kerne nutzen, allerdings fallen dann 
einige Möglichkeiten der Optimierung weg. Komischerweise auch solche, 
die es meines Erachtens nicht wirklich müssten. Ich kann mir aber gut 
vorstellen, dass man bei Xilinx noch gar nicht so weit ist, 
vollparalleles Rechnen durchzuführen, denn machbar wäre da so einiges. 
Z.B. die Generierung der RTL-views nach der Synthese, sowie der Modelle 
ohne Timing, können komplett parallel laufen. Auch der Placer wäre ein 
target für das Verwenden mehrerer Ansätze und damit für vollparallelem 
Arbeiten.

Was in jedem Fall geht: Synthetisieren und gleichzeitig weiterbauen mit 
Simulieren. Da hängt es oft an der CPU-Reserve und dem RAM. Interessant 
wäre das mal im Zusammenspiel mit Speicherfresser Nummer 1, namens 
MATLAB zu probieren, wobei einem da gfs der work flow einen Strich durch 
die Rechnung macht, weil man in dem Design, das man gerade simuliert, 
nicht so ohne Weiteres synthetisieren oder gar verändernd weiterarbeiten 
kann.

: Bearbeitet durch User
von (prx) A. K. (prx)


Lesenswert?

Harry Hirsch schrieb:
> Hallo, da der Skylake bug hat mich auch irritiert. Tendiere trotz
> Behebung zum Haswell.

Schaun wir mal ob du am Ende der Diskussion beim 8088 landest. Haswell 
hat nämlich auch einen Bug. Intel musste deshalb eine ganze 
Befehlsgruppe abschalten. ;-)

: Bearbeitet durch User
von KT (Gast)


Lesenswert?

Wie andere schon gesagt haben gesagt. Eher weniger dafür schnellere 
Kerne.

Speicherbedarf hängt stark von der Größe des FPGA ab, schau dir mal das 
an:

http://dl.altera.com/requirements/15.1/

Für den Arria 10 werden da bis zu 48 GB Ram empfohlen. Falls du eh 
Cyclones wegen der kostenlosen Liteversion benutzen willst dürften 8 GB 
reichen.

Xilinx dürfte auch so eine Tabelle haben.

von Bla (Gast)


Lesenswert?

Quartus kann seit einigen Versionen auch in der kostenlosen Variante 
"Multithreading" (= auf zwei Prozessoren beschränkt, aber immerhin).

Eine schnelle SSD möchte ich auch nicht mehr missen, Synthese ist 
langsam genug.

von Harry Hirsch (Gast)


Lesenswert?

Ok, also RAM ist doch nicht so kritisch, aber wenn man andere 
Anwendungen am Laufen hat, ist es vielleicht hilfreich. Jetzt lese ich 
beim Altera, dass die virtuelle Disk entsprechend gross sein muss. Ergo 
nutzen die das. Ergo: Schnelle SSD als Auslagerungsdatei?

Was wäre denn, wenn man noch zusätzlich eine RAM-Disk anlegt und das 
Projekt für die Bearbeitung dort hin kopiert? Dann legt er doch auch die 
gesamten Unterverzeichnisse und Zwischendateien dort an, oder?

von Gerald M. (gerald_m17)


Lesenswert?

Wenn du ein Projekt für quartus hast, kann ich das bei meinem i7 4790 
durchlaufen lassen und dir die Zeit sagen. Vielleicht findet sich noch 
jemand der die neue Architektur hat, zum vergleichen.
Virtuelle Kerne werden (aus guten Gründen) ignoriert.

von Harry Hirsch (Gast)


Lesenswert?

das ist nett, aber ich kann das nicht senden. Man könnte höchstens eine 
von Altera gelieferte Demo APP laufen lassen. Also ein Demoprojekt für 
eine bekannte Plattform, das man von denen lädt und dann als Referenz 
verwendet. Das wäre interessant.

Hier ist das für Xilinx
http://www.xilinx.com/design-tools/vivado/memory.htm

Brauchen auch nur 4 / 8 GB.

von Markus F. (mfro)


Lesenswert?

4/8 GB mag die Mindestanforderung sein. 16 sind besser.

Eine SSD brachte bei mir die Synthesezeiten (der Fitter ist der lahmste 
Teil) um fast die Hälfte runter. Auf meinem i7 Laptop sind meine 
(Hobby-) Projekte fast doppelt so schnell durch als auf meinem i5 
Desktop.

Wer die Web-Edition nutzt, braucht noch was anderes, auf das man so ohne 
weiteres nicht gleich kommt: eine schnelle Internetverbindung. Will man 
mehrere Prozessoren nutzen, muß TalkBack an sein. Dann telefoniert 
Quartus bei jedem Einzelschritt erst mal nach Hause. Wenn mein Laptop 
kein WLAN hat, fällt er noch deutlich hinter den (eigentlich 
langsameren) Desktop zurück, weil erstmal der http-Request auf seinen 
Timeout laufen muss...

von Vancouver (Gast)


Lesenswert?

Zur Orientierung: Bei uns laufen die Xiinx-Projekte auf Xeon-Servern mit 
8 Cores/16Threads unter Linux. Ich habe allerdings noch nie gesehen, 
dass Vivado mehr als 4 Threads anwirft, und das auch nur beim Mapping 
bzw. Routing und nicht bei der Synthese. Die 20GB Speicher sind hingegen 
immer  gut ausgelastet. Die Platten sind keine SSDs sondern schnelle 
Serverplatten, aber sicher würden SSDs nochmal einen guten Schub 
bringen. In dieser Konfiguration dauert ein Virtex-7-Projekt mit sehr 
starker Konnektivität zwischen 9 und 12 Stunden.
Swapfiles auf SSDs sind keine gute Idee, dauerhaft viele kleine 
Schreiboperationen mögen die nicht. Besser in einen gut ausgebauten 
Speicher investeren.

Wenn ich mir einen Syntheseknecht bauen wollte, würde ich einen 
schnellen 4-Core mit Hyperthreading oder 8-Core ohne HT nehmen und erst 
mal 32GB reinstecken. Als Datenspeicher eine SSD und noch eine schnelle 
Magnetplatte für den Swap, falls die 32GB nicht ausreichen. Wenn das 
öfter vorkommt, Speicher aufrüsten. Kostst ja zum Glück nicht mehr so 
die Welt.

Wenn Du Vivado verwendest: trenne Dich möglichst schnell von der GUI und 
packe Dein Projekt in ein TCL-Script. Das wirkt manchmal Wunder, 
besonders,w enn Du Speichermäßig am Anschlag bist.

von Kest (Gast)


Lesenswert?

Ein Vergleich von vor einer Woche:
Ein simples Quartus-Design (NIOS, DDR2, etwas Peripherie, Zielplattform 
Cyclone V).
Beides als Win7x64 vmWare unter Ubuntu 14.04 (Host):
Ein Haswell i7-4790 @ 3.60 GHz, 32 GByte RAM, M2-SSD. Synthese-Zeit: 7 
min 30 sec.
Ein Xeon 1275v5 @ 3.60 GHz, 32 GByte DDR4 ECC, NVe SSD (Samsung 950 
Pro): Synthese-Zeit: 5 min

Bei beiden Maschinen sind alle Kerne gut ausgelastet. Woher der große 
Unterschied kommt, weiß ich nicht.

Kest

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

Kest schrieb:
> Ein Haswell i7-4790 @ 3.60 GHz
> Ein Xeon 1275v5 @ 3.60 GHz

Für den Xeon ist eine höhere maximale Speicherbandbreite angegeben, d.h. 
34,1 GB/s vs. 25,6 GB/s. Weiterhin ist der Xeon schon aus einer 
moderneren Baureihe aus der Haswell.

Ist es korrekt, dass der Haswell mit 3,6 GHz betrieben wird, obwohl er 
für 4,0 GHz spezifiziert wurde?

http://ark.intel.com/de/products/80806/Intel-Core-i7-4790-Processor-8M-Cache-up-to-4_00-GHz
http://ark.intel.com/de/products/88177/Intel-Xeon-Processor-E3-1275-v5-8M-Cache-3_60-GHz

von Kest (Gast)


Lesenswert?

Beide CPU Takten sicherlich bis auf 4GHz hoch (Turbo). Trotzdem ist der 
Sprung ganz schön hoch, finde ich.

Kest

von Mac G. (macgyver0815)


Lesenswert?

Kest schrieb:
> Beide CPU Takten sicherlich bis auf 4GHz hoch (Turbo). Trotzdem
> ist der
> Sprung ganz schön hoch, finde ich.
>
> Kest


Wenn der Speicher 1/3 schneller ist, laufen speicherintensive 
Anwendungen auch ca. 1/3 schneller. Klingt logisch finde ich ;-)

von Harry Hirsch (Gast)


Lesenswert?

Kest schrieb:
> Beides als Win7x64 vmWare unter Ubuntu 14.04 (Host)

Warum läuft das Ubuntu und nicht direkt unter Win7?

Ich habe gelesen, dass Altera für Linux teilweise nicht verfügbar ist. 
Ist das der Grund?

von Markus F. (mfro)


Lesenswert?

Harry Hirsch schrieb:
> Kest schrieb:
>> Beides als Win7x64 vmWare unter Ubuntu 14.04 (Host)
>
> Warum läuft das Ubuntu und nicht direkt unter Win7?
>
> Ich habe gelesen, dass Altera für Linux teilweise nicht verfügbar ist.
> Ist das der Grund?

Altera stellt Quartus II für Linux (zumindest, wenn man ältere Cyclone 
füttern möchte) nur für ältliche RedHat Linuxe zur Verfügung, die 
eigentlich keiner mehr auf seinem Rechner haben will.

Damit das auf aktuellen Ubuntus läuft, muß man leider ein wenig fummeln.
Lohnt sich aber, das Gefummle, finde ich.
Meine Versuche mit vmware waren geschwindigkeitsmäßig eher enttäuschend.

von Christian R. (supachris)


Lesenswert?

Also bei Xilinx hilft ein schneller 4 Kerner, unter Windows kann auch 
Vivado nicht mehr Threads benutzen und das auch nur beim Implement. Dazu 
eine schnelle SSD und min 16GB Ram, speziell wenn man größere FPGAs 
machen will. Xilinx hat dafür eine Tabelle.
Ich arbeite an einer Z620 mit Dual Xeon und insgesamt 8 Kernen und 16GB, 
das geht schon gut, aber leider hat die Kiste keine SSD sondern nur eine 
blöde SAS Platte. Könnte ssn Admin jetzt noch shlagen dafür aber es ging 
kein Weg rein. Zu Hause am A8 5500 mit SSD und 8GB sind die Desings fast 
genauso schnell bzw. langsam.
Simulation profitiert im.Normalfall gar nicht von mehr Kernen, Modelsim, 
Spice, alles single Thread. Wenn dann noch verschlüsselte Verilog IP 
Cores zu simulieren sind wird es völlig albern. MGT am Artix 7 kann man 
komplett vergessen.

von Harry Hirsch (Gast)


Lesenswert?

Christian R. schrieb:
> Simulation profitiert im.Normalfall gar nicht von mehr Kernen,

Garnicht? Im ModelSim läuft je wenigstens die GUI mit dem WAVE und die 
Simulation selber. Datenbasis ist das aktuelle WLF. Da sehe ich 
wenigstens 3 unabhängig threads die parallel laufen könnten.

von Kest (Gast)


Lesenswert?

Harry Hirsch schrieb:
> Warum läuft das Ubuntu und nicht direkt unter Win7?
>
> Ich habe gelesen, dass Altera für Linux teilweise nicht verfügbar ist.
> Ist das der Grund?

nein, ich habe alles in VMs: diverse Versionen von Quartus und SoC-Arm 
Umgebungen, mal für Windows mal für Linux (Ubuntu). Bis jetzt hat alles 
funktioniert bzw. ich habe alles zum Laufen gebracht. Manchmal logge ich 
mich über ssh ein, dann geht nur Ubuntu. Von früher weiß ich, dass 
Quartus über Windows-Remote nicht funktioniert hat (hat lizenztechnische 
Gründe). Ob das immer noch so ist, keine Ahnung

Kest

von Alex W. (a20q90)


Lesenswert?

Warum holst dir nicht ne dicke Maschine und betreibst sie als Server mit 
ESXi? Per Remotedesktop kannst darauf auf Win zugreifen und arbeiten.
So kannst du deinen jetzigen PC weiter nutzen und stellst den Server zur 
Synthese neben hin.

von Kest (Gast)


Lesenswert?

Ein ESXi ist gerplant, aber jetzt ist meine Workstation (oder sogar zwei 
Workstations) noch vollkommen ausreichend. Das mit 
Windows-Remote-Desktop habe ich früher gemacht, jetzt greife ich auch 
mit VM-Ware darauf zu.

von Micha (Gast)


Lesenswert?

Hey Vancouver,

hast du einen Werte zum Vergleich zwischen GUI und TCL ?
Mich würde interessieren wieviel man damit wirklich rausholen kann.

von eingast (Gast)


Lesenswert?

Das sind die Ergebnisse für mein relativ großes Cyclone V Projekt (also 
im vergleich zu den High-End FPGAs eher klein) mit Quartus. Wenn ich mir 
die Spalte "Average Processors used" anschaue, würde ich auch zu weniger 
Kernen mit mehr Geschwindigkeit tendieren.

Mein System ist ein i7 mit 4 Kernen (8 mit HT), 3.4GHz und 16GB RAM. 
Quartus ist gekauft und auf "Use all processors" eingestellt.


Die Spalten wie folgt:
Elapsed Time, Average Processors used, Peak Virtual Memory, Total CPU 
Time (on all processors)

Analysis & Synthesis  00:02:54  2.0  1820 MB  00:04:34
Fitter                00:18:09  1.9  4709 MB  00:38:03
Assembler             00:00:33  1.0  1285 MB  00:00:33
TimeQuest Timing Anal.00:02:25  2.6  2809 MB  00:04:52
EDA Netlist Writer    00:00:25  1.0  1757 MB  00:00:25
Total                 00:24:26  --  --  00:48:27

von Lothar M. (Firma: Titel) (lkmiller) (Moderator) Benutzerseite


Lesenswert?

eingast schrieb:
> Mein System ist ein i7 mit 4 Kernen (8 mit HT), 3.4GHz
Dito. Und dazu noch eine SSD und insgesamt 32GB RAM...
Damit gehts zügig.

von J. S. (engineer) Benutzerseite


Lesenswert?

Harry Hirsch schrieb:
> Kann man eine RAM-Disk nehmen?

Das habe ich schon mal probiert, brachte aber nicht so arg viel. Die 
Zugriffe gehen sicher nochmal schneller, aber er macht das Meiste wohl 
im RAM und wenn die jeweilige Datei erst mal drin ist, ist der Vorteil 
weg.

Ich habe auch gesehen, dass der RAM-Speicher bei großen Designs ziemlich 
voll lief und dann die RAM-Disk zuviel Speicher verbrauchte, was vom 
benötigten echten Speicher abging. Könnte also sogar gebremst haben. 
Allerdings war das ein freeware-Programm und ich hatte da nur 8GB. Werde 
das nochmal auf der 32GB-Maschine probieren.

Ich würde aber sagen, dass es irgendwann nicht mehr viel bringt, wenn 
man eh schon eine M2-PCIe Disk drin hat.

von Michael W. (Gast)


Lesenswert?

Welches Motherboard wäre denn momentan so empfehlen für eine aktuell 4 
Kern-CPU 4GHz?

von Harry Hirsch (Gast)


Lesenswert?

Hab nochmal geschaut: Bei der zwischenzeitlich installierten ISE läuft 
auch beim Mapper bei mir nur EIN Prozessorkern und dies nicht einmal 
ständig mit 100%. Auch die Auslagerungsdatei wird nicht voll 
ausgelastet.

Kann das am Win Home Premimum liegen?

von Harry Hirsch (Gast)


Angehängte Dateien:

Lesenswert?

Kommando zurück:

Habe nun unter dem Vivado ein Demoprojekt machen lassen und das erzeugt:

Am Anfang macht er rund 30% usage, also mehr, als ein Viertel, wobei der 
1. am Meisten tut. Dann gibt es nur 13%, also 1/8 + ein bischen was, es 
ist also nur einer aktiv. Gegen Ende rennen erst 4 und dann alle 8 
threads mit zuletzt 45%.

von K. L. (Gast)


Lesenswert?

Harry schrieb:
> Skylake ist schneller auf 4 Kernen wegen der Frequenz, Haswell kann aber
> 6 Kerne, WENN sie verwendet werden

Äpfel mit Birnen verglichen, würde ich mal sagen. Beide gibt es als 
4-Kerner. Da dürfte ein Skylake schneller sein. Kommt auf die CPU an.

Genereller Unterschied: Skylakes haben (meistens) Grafik mit drin, 
Haswell mehr Cache. Wenn Du richtig viele parallele Rechnungen hast, 
dann ist mehr L3-Cache gut wegen der mehr Kerne. Haswell haben auch oft 
eine höhere Speicherbandbreite wegen Quad Channel.

Fragt sich wo Dein Schwerpunkt ist!

pSPICE kann z.B. Multi/Hyperthreading. Bei aufwändigen Simulationen mit 
selbstgeschriebenen Modellen sollte sich das schon auswirken!

von Projektleiter (Gast)


Lesenswert?

Gerade was Passendes zum Thema entdeckt:

Wenn Xilinx neue Cores baut oder diese Resynthetisiert, ist es schon mal 
nicht in der Lage, mehre threads zu starten, um zu übersetzen. Obwohl es 
ja unterschiedliche Tasks sind, sein könnte.

von Christian R. (supachris)


Lesenswert?

Doch, bei Vivado klappt das seit ein paar Versionen, da baut er dann 
mehrere Cores parallel neu.

von Ralf (Gast)


Lesenswert?

Vancouver schrieb:
> Swapfiles auf SSDs sind keine gute Idee, dauerhaft viele kleine
> Schreiboperationen mögen die nicht.

Chip hat dazu mal einen Artikel, der lautet, dass das SWAP file genau 
dahin soll, nämlich auf die SSD. Ich habe es auch nicht mehr genau vor 
Augen, warum, aber die Argumentation war schlüssig.

Mac G. schrieb:
> Meiner Erfahrung nach bringen schnellere Kerne mehr als viele aber dafür
> langsamere.

Was irgendwo logisch ist, weil Mehrkernrechnen immer Verwaltung mit sich 
bringt. Ein Vergleich 8 Kerne gegen 4 mit doppelter Frequenz, geht also 
zu Gunsten der 4 Kerne aus. Allerdings liegen die Unterschiede ja eher 
bei 20% in der Frequenz.

Mehr Kerne sind immer besser, als weniger. Aber wer will für eine 8 
Kern-Xeon zahlen?  Da bekomme ich 2 PCs!

von J. S. (engineer) Benutzerseite


Lesenswert?

Ralf schrieb:
> Mehr Kerne sind immer besser, als weniger. Aber wer will für eine 8
> Kern-Xeon zahlen?  Da bekomme ich 2 PCs!

Richtig, wobei es eben Applikationen gibt, die sich gegenseitig sehen 
müssen. Beispiel: Audio-Sequencer, Klangsynthese, Sampler, Recording und 
Mixing, Mastering. Läuft nur unzureichend, wenn es auf mehrere Maschinen 
verteilt wird. Bei mehreren Cores dagegen sehr wohl..

Das Mehr an Kernen macht sich vor allem bei wirklich parallelen 
Applikationen bemerkbar. Da reicht es schon, wenn man 2 unterschiedliche 
Programme gleichzeig laufen lässt, die beide weniger, als 4 Kerne 
belegen. Besonders effektiv ist es, wenn sich die Programme komplementär 
ergänzen, also das eine z.B. viel CPU benötigt und das andere richtige 
Speicherbandbreite. Man merkt den Vorteil, wenn man z.b. einen Winrar 
parallel zu einem Autorouter und einer Simulation ablaufen lässt, oder 
auch installiert und viel ausgepackt werden muss. Da gilt wirklich, je 
mehr, desto besser. Außerdem kann man immer schön weiter Editieren und 
mit Excel arbeiten. Ansonsten geht der Rechner so dermaßen in die Knie, 
dass er nicht einmal mehr Mausklicks annimmt.

Einzelne Programme werden die Kerne aber nur selten dauerhaft effektiv 
ausnutzen. Auch mein 3D-Renderer muss immer mal wieder "denken" und neue 
threads berechnen, es sei denn ich rendere die Bildansicht und auch im 
Hintergrund. Es ist in jedem Fall sehr erbaulich, zu sehen, wenn statt 
der üblichen 4 oder 8 gleich mal 12 Linien anspringen und das Bild 
verrechnen. Dann rennen die in der Tat mit 100% CPU. Bei meinem neuen 
Rechner habe ich eine Super-Kühlung drinnen, sodass die unter Volllast 
trotzdem nur 70 Grad (ohne Lüfter) haben und ungebremst lautlos laufen. 
Sehr angenehm!

Auch der Speicher ist relevant: Je mehr, desto besser.

Hier die Ergebnisse des RAM-Disk-Versuchs:

a)3D-Renderer 100 Bilder = 4sec, mit Spiegelungen und 
Fresnel-Optikberechnung, Projekt mit Ergebnis auf ...

... neuer SATA HD : 7min35,
... M.2 PCI-E SSD : 7min02,
... RAMDISK 16GBB : 6min55


b) Xilinx ISE, Spartan 6 Projekt, Alles inklusive Ergebnis auf ...

... neuer SATA HD : 1h24min
... M.2 PCI-E SSD : ausgelassen
... RAMDISK 16GBB : 1h13min


c) ModelSIM, VA-Synthesizer, 128 Stimmen, 3 Sekunden Audio

... neuer SATA HD : 34min20s
... M.2 PCI-E SSD : ausgelassen
... RAMDISK 16GBB : 26min15sec

Beim ModelSim ist vor allem zu beobachten, dass das Blättern im WAVE 
schneller läuft. Das fallen die Plattenzugriffe auf die physische Disk 
weg. Das ist schon ein ziemlicher Vorteil.

Ich würde sagen, dass sich das teilweise schon lohnt. Man muss halt das 
Projekt entsprechend ins RAM kopieren.

von Stephan C. (stephan_c)


Lesenswert?

Ich weiß jetzt zwar nicht, ob der TE sich schon entschieden hat aber ich 
würde auch noch die beiden verfügbaren Broadwell CPUs in den Raum 
werfen.
Der Vorteil ist, dass beide übertaktbar sind und recht wenig 
verbrauchen. Das interessanteste ist aber, dass beide eine Iris Grafik 
und damit auch einen 128MB großen L4-Cache integriert haben, der in 
manchen Anwendungen für einen ordentlichen Leistungsschub sorgen soll, 
da der L4-Cache nicht exklusiv vom Grafikchip verwendet wird.
Mit einem Z97-Board kannst du eine Broadwell CPU ebenfalls auf 4GHz über 
den Multiplikator übertakten.

Ebenfalls interessant ist der i7-5820k. Er bietet 6 Kerne und hat ein 
4-Kanal-Speicherinterface, so dass du mit 16GB Modulen auf maximal 128GB 
RAM kommst.
Wie die Broadwells hat auch der i7-5820k nur einen geringen Basistakt.
Du kannst ihn aber auch mithilfe des Multiplikators übertakten.
In den gängigen Computer-Foren habe ich schon öfter von Usern gelesen, 
dass sie ihn ohne Probleme auf 4GHz übertaktet haben, selbst bei 
niedriger Core-Spannung von ca. 1V.

Für die Skylakes hat Intel mittlerweile ein Microcode-Update zur 
Behebung des AVX2-Fehlers ausgeliefert.

von Einwand (Gast)


Lesenswert?

Wieviel bringt Übertakten? 10%? Lohnt sich das?

Wie hoch kann man da gehen, ohne Material zu zerstören? Bzw zu 
riskieren, dass einem die Kiste alle 10min abschmiert?

Und was ist mit der Kühlung?

Soweit mir bekannt, arbeiten die Overclocker mit Wasserkühlungen und 
drücken u.a. nicht nur die CPU und GPU, sondern auch Northbridge und 
RAMs in der Temperatur runter, damit sie stabil laufen.

>I5820
Beim 5820 sind nominell 3,3 GHz angegeben. Kriegt man den gfs auf 4 GHz?
Das wären ja immerhin schon 20%

von Stephan C. (stephan_c)


Lesenswert?

Beim Übertakten kann nur was kaputtgehen, wenn du die Core-Spannung zu 
stark erhöhst. Wenn du nur den Takt und nicht die Core-Spannung erhöhst, 
dann erhöht sich die Chiptemperatur nur im geringen Maße.

Den i7-5775C und den I7-5820k kann man, ohne die Core-Spannung großartig 
zu erhöhen, sehr gut mit 4GHz betreiben. Beide CPUs lassen sich dann 
noch sehr gut mit einem vernünftigen Tower-Kühler kühlen.

Manche CPUs machen sogar bei niedrigerer Core-Spannung mehr Takt, manche 
eben nicht.
Bevor man produktiv mit dem System arbeitet sollte man aber erstmal ein 
paar Stabilitätstest mit prime95 machen, um spätere Systemabstürze 
ausschließen zu können.

Eine Wasserkühlung wird erst für das extreme Übertakten benötigt, wo es 
dann darum geht, soviel Takt wie möglich rauszuholen. Dafür werden aber 
auch Core-Spannungen von 1,2V und mehr benötigt und die CPUs verbauchen 
dann 150W und mehr.
Das geht dann aber eher so in den Bereich von ca. 4,5GHz und höher.
Bei 4GHz ist dann noch entspannter.

von J. S. (engineer) Benutzerseite


Lesenswert?

>5820

Ich habe genau den Prozessor! Die Taktfrequenz beträgt maximal 100x34. 
Habe noch nicht rausgefunden, wo ich das modifizieren kann. Ich bin auch 
nicht sicher, ob ich das möchte, denn der hat schon ohne irgendeine 
Übertaktung 145 Watt bei 1.0V.

>nur geringe Erhöhung
Wenn man den auf 4GHz hochzieht, wären das in der Tat 20% und 
entsprechend geht auch die Leistung hoch. Ob das die Kühlung mitmacht, 
sei mal dahingestellt. Ich habe vor 15 Jahren viel mit Wasserkühlung 
gemacht und selbst die hat Grenzen. Am Ende braucht man immer laute 
Lüfter oder ist begrenzt.

Ich habe jetzt einen käuflichen Silent-PC mit Passivkühlung. Komplett 
lautlos. Völlig neues Arbeitsgefühl, besonders für Musik :-)

Der CPU Kühler ist extrem leistungsfähig, andererseits muss er das auch 
sein, weil die begrenzte Eigenkonvektion zu einem Wärmestau und damit 
einer starken Überhöhung der Temperatur führt. Habe mal getestet, was 
drin ist, wenn man das mit einem externen Ventilator wegbläst:

Beispiele bei gut 20° Umgebung:

Alle CPUs im Leerlauf, passive Kühlung : 43°
Alle CPUs im Leerlauf, ext. Ventilator : 24°

Alle CPUs bei Volllast, passive Kühlung : 74°
Alle CPUs bei Volllast, ext. Ventilator : 52°

Alle CPUs bei Prime95, passive Kühlung : bei 85° manuell abgebrochen
Alle CPUs bei Prime95, ext. Ventilator : 68°

Prime95 ist schon ein ziemlicher Killer! Die CPUs rennen mit 33x100 auf 
140W, aber dafür alle Vollgas ohne Pause, was es praktisch nicht gibt. 
Cinema 4D ist da eher ein Maß: Maximal 34x100 = 3400 auf 145 Watt, aber 
immer wieder Pausen vor jedem Bild zum Planen und wegspeichern. Macht am 
Ende nur maximal 75° eingeschwungen (bei langen Bildrechnungen) und rund 
70 bei normalen Bildfolgen.

Werde mir wohl einen lautlosen Lüfter drauflegen und mal schauen, wohin 
es geht. Immerhin werden ja auch die anderen Bauelemente mitgeheizt, 
wenn die Innenraumtemperatur höher ist. Und die mögen das bekanntlich 
nicht.

: Bearbeitet durch User
von Stephan C. (stephan_c)


Lesenswert?

Zum Übertakten der CPU brauchst du nur den Multiplikator hochsetzen.
Das geht entweder im BIOS oder im Tool XTU von Intel, manche 
Mainboard-Hersteller stellen auch eigene Tools zur Verfügung, mit denen 
man das machen kann.

Zum Übertakten solltest du aber auf jeden Fall Lüfter verbauen.
Es ist so schon erstaunlich, dass die CPU passiv gekühlt nur 75° warm 
wird. Das die CPU bei Prime95 wärmer wird, ist kein Wunder, da das Tool 
auch verstärkt die AVX-Einheit verwendet, die dafür bekannt ist, dass 
sie den Verbrauch nochmal ordentlich steigert.
Womit hast du eigentlich den Verbrauch gemessen?
Was hast du für einen CPU-Kühler?

Lüftermäßig kann ich dir die bequiet Silent Wings mit PWM empfehlen.
Die haben ein sehr gutes PL-Verhältnis.
Ich hab 2 davon an meinem CPU-Kühler(Alpenföhn Matterhorm) befestigt und 
die sind sehr leise und mein i7-4770 wird nicht mal 50° warm.

: Bearbeitet durch User
von K. L. (Gast)


Lesenswert?

Stephan C. schrieb:
> Zum Übertakten der CPU brauchst du nur den Multiplikator hochsetzen.

Das geht aber nur bei manchen boards. Wenn du alle over clocking 
Funktionen nutzen willst, brauchst Du ein OC-board! Viele Hersteller 
erlauben nur wenige Funktionen diesbezüglich und lassen das board den 
Prozessor auslesen und stellen sich passend ein.

Mein board kann:

*CPU-Takt 150 MHz, läuft mit 101,01 statt 100
*CPU-MULT 40, läuft  mit 45 max statt mit 40 max
*CPU-VOLT 1.25V, läuft mit 1.125 statt mit 1.0
*CPU-POWER, läuft mit 180W statt 130W
*CPU-CURR, läuft mit 135A statt 130A

weiter *RAM-TAKT, *RAM-VOLT, *IO-TAKT,

etc

Im Mittel ist er rund 15% schneller, weil er auch länger im Turbomodus 
bleiben darf.

von J. S. (engineer) Benutzerseite


Lesenswert?

Also ich habe das Tool ausprobiert - das board nimmt nichts von den 
Einstellungen an. Auch temporär geht es nicht. Weder Multiplier noch 
Ströme oder gar Spannungen können per Software geändert werden. Ist ein 
Fujitsu Server board 3348D. Wahrscheinlich auch gut so ;.)

von Mac G. (macgyver0815)


Lesenswert?

Jürgen S. schrieb:
> Ist ein
> Fujitsu Server board 3348D. Wahrscheinlich auch gut so ;.)

Server Boards sind ja auch nicht für "Gamer" gedacht wo es egal ist wenn 
die Kiste abschmiert oder doch mal ein Bit zuviel im Speicher kippt... 
;-)

von K. L. (Gast)


Lesenswert?

Gibt es eigentlich eine Möglichkeit, eine FPGA-Symthese auf zwei PCs 
ausführen zu lassen? Oder kann man die Erzeugung des fertigen Chips nur 
auf eine andere Maschine im Serverraum auslagern, um den eigenen wieder 
frei zu bekommen?

Wie ist das mit der Lizenz? Wird eine weitere Lizenz benötigt um 
entfernt zu generieren? Können dort mehrere Leute gleichzeitig mit einer 
Lizenz bauen lassen?

Ich kenne es mit der ASIC-Synthese. Man schickt seinen Job auf die 
Maschine und die nutzt mehrere physische Workstations mit einer Lizenz. 
Kann aber eine Mehrplatzlizenz sein, wie mir gerade einfällt.

von A. F. (chefdesigner)


Lesenswert?

Soweit das bei uns gehandhabt wird (und soweit es mir bekannt ist) geht 
das nicht auf mehreren Rechnern und wenn ich lese, daß ohnehin nur 4 
Kerne zum Einsatz kommen, macht es auch wenig Sinn.

Was Sinn macht, ist sicher, die komplizierten langen Tasks in der 
Erzeugung auf einen anderen Rechner zu versenden, besonders, wenn mit 
MATHWORKS designed wird. MATLAB und sein Gedöhns ist extrem Speicher 
anfordernd. MATHWORKs selber hat dazu ja schon eine Lösung geliefert und 
stattet Kunden mit einer Art Serverfarm aus, auf der die umständlichen 
Task dann offline laufen können. Man mietet sich quasi mit einem thread 
darauf ein.

Ich hätte aber einen anderen Punkt:

Wie verhält es sich eigentlich mit Xilinx unter Linux? Ich mache viel 
mit embedded Linux, früher auch mit Server-Linux und wir alle wissen, 
daß Linux mit den Rechnerresourcen sehr viel schonender umgeht, als 
Windows. Besonders multithreading/tasking wird da erheblich besser und 
stabiler gehandhabt. War zumindest früher so.

Ok, das heutige Windows kann auch gut multi und stabil ist es ja nun 
inzwischen. Ich meine aber, daß man für solche Operationen wie 
FPGA-Synthese mit Linux durchaus gewinnen müsste, oder?

Mich interessiert es privat und beruflich, weil ich privat ein bischen 
was mit FPGAs mache (momentan nur Altera+Windows) - beruflich aber im 
Bereich Projektmanagement unterwegs bin, wo es öfters um den Einsatz 
hochrechenintensiver Plattformen geht. Die Frage ist, ob man bei 
Synthesis-Prozessen unter Linux nennenswert an Zeit gewinnen könnte.

?

von Duke Scarring (Gast)


Lesenswert?

Andreas F. schrieb:
> Die Frage ist, ob man bei
> Synthesis-Prozessen unter Linux nennenswert an Zeit gewinnen könnte.
Nein, meiner Erfahrung nach nicht nennenswert.
Vor ein paar Jahren, gab es noch den Vorteil, das Linux schon 64 Bit 
konnte, und Windows noch nicht. Damit liefen große Synthese nur unter 
Linux.

Duke

von Bit Wurschtler (Gast)


Lesenswert?

Andreas F. schrieb:

> Bereich Projektmanagement unterwegs bin, wo es öfters um den Einsatz
> hochrechenintensiver Plattformen geht. Die Frage ist, ob man bei
> Synthesis-Prozessen unter Linux nennenswert an Zeit gewinnen könnte.

Der Vorteil verpufft sobald man die platformübergreifende GUI am Laufen 
hat oder anders ausgedrückt Linux bringt Vorteile bezüglich effizientes 
Aufsetzen Toolchain (make,tcl-scripting,automatisierte Regressionstest 
in der Simu) die aber von Entwicklern die nur GUI können vergebens ist. 
Deshalb in Projekten einen Mensch/Person einplanen die sich zu 100-50% 
um die Toolchain und CAD-Support kümmert.

von Weltbester FPGA-Pongo (Gast)


Lesenswert?

Bit Wurschtler schrieb:
> Deshalb in Projekten einen Mensch/Person einplanen die sich zu 100-50%
> um die Toolchain und CAD-Support kümmert.

Da ist was dran. Wenn ich sehe, was ich an Zeit mit toolchain verbrate, 
kommt das hin. War mal in einer Abteilung aktiv, wo es zwei Leute hatte, 
die nur Sripte gemacht haben und die Synthesplattform und Tools 
managten. Da waren aber auch 20 Männeken aktiv am bauen.

von -gb- (Gast)


Lesenswert?

Bei uns haben sie wegen solcher Probleme die FPGA-Entwicklung nahezu 
vollständig ausgelagert. Unter anderem wegen dieses Themas hier:
Beitrag "Embedded Linux Cluster im FGA testen und ASIC draus machen"

Nun befasse ich mich noch privat damit, vor allem im Kontext mit Linux 
und embedded processing.

Ich benutze eine HP-Workstation, älteren Datums. Da ich auch viel mit 
Grafik mache, mal kurz von mir die Frage in die Runde:

FPGA-Synthese auf MAC? Geht das?

Ich überlege, komplett auf MAC umzusteigen.

von Christian R. (supachris)


Lesenswert?

Georg B. schrieb:
> FPGA-Synthese auf MAC? Geht das?

Klar, in der VM ;)
Nativ hab ich zumindest bei den großen nix in Erinnerung.

von Duke Scarring (Gast)


Lesenswert?

Georg B. schrieb:
> FPGA-Synthese auf MAC? Geht das?

Ja, auch ohne VM.
Xilinx ISE lässt sich mittels wine installieren/starten.
Bei Vivado scheiterte die Installation unter wine am Java-Installer...

Eigentlich wird's mal Zeit, das die Hersteller ihre Tools auch für MacOS 
rausbringen.

Duke

von Markus F. (Gast)


Lesenswert?

Da sehe ich wenig Chancen. Mal ehrlich: Wer momentan mit FPGAs arbeitet 
und im Büro sitzt: Schaut euch mal um: Wieviele MACs seht ihr gerade?

Ich denke, das Beste ist nach wie vor eine eigene Linuxmaschine, mit 
schlankem Core, ohne viel Schnickschnack drauf und vor allem keine 
normale PC-Software zur Nutzung als Office-PC, der ins Internet muss, 
damit man Virtenscanner und anderes Zeug getrost abschalten kann.


Dann sollte das schnell genug sein. Solange die Tools keine echte 
verteilte Anwendung darstellen, die man auf einer Serverfarm verteilen 
kann, macht es eh nicht viel Sinn.

von Markus F. (Gast)


Lesenswert?

Ich kann bestätigen, dass Vivado die CPUs voll auslasten kann. Einfach 
alle Cores neu machen lassen und alle threads aktivieren. Und 
"Auslasten" meine ich hier durchaus wörtlich:

Meine Kiste startet mit 100MHz x 39 Turbo und rennt dann auf allen 8 
Kernen mit x36 weiter. Nach allerdings 1 Minute sind die 
CPU-Temperaturen schon jenseits der 95 Grad und er fängt an, zu 
drosseln! Am Schluss brutzelt er mit durchschnittlich 98 Grad dahin und 
erlaubt nur noch den Multiplier von z.T. 31! Fehlen also schon >10% 
CPU-Dauer-Leistung!

Beim Synthetisieren sind es dann wieder an die 4GHz, mit maximal 1-2 
weitgehend aktiven Cores. Der Rest dümpelt mit wenigen %ten vor sich 
hin, sind aber trotzdem alle bei Faktor 35 und verbrutzeln Energie. 
Komisch.

Erst, wenn die Synthese vorbei ist, fahren für alle Kerne die Multiplier 
runter. Sieht aus, als ob da sporadisch irgendwelche Sachen angeworfen 
werden, die verhindern, dass die CPUs runtergeregelt werden können. Kann 
man das irgendwie steuern?

von Tippgeber (Gast)


Lesenswert?

Markus F. schrieb:
> CPU-Temperaturen schon jenseits der 95 Grad und er fängt an, zu
> ... brutzeln
Pass auf, dass Dir die CPU nicht "wegbruzzelt". Du weißt um die maximale 
Temp deines Systems? 95 Grad scheint mir definitiv zu viel. Normal sind 
maximale Temperaturen von 100°, die man aber nicht messen kann. Die 
Dauertemperatur am Case sollten unter 75° sein!

Was ist das für ein Typ?

von J. S. (engineer) Benutzerseite


Lesenswert?

Ich habe aufgrund des Beitrags weiter vorn (m)einen alten Rechner mal 
dahingehend inspiziert und vorgefunden, dass auch auf diesem über 90°C 
erreicht werden, wenn alle Kerne arbeiten! Es ist ein I7-2600K (Sandy) 
mit 3.4GHz. Die Berechnung von Cores dauert nicht sonderlich lange, aber 
während der Implementierung geht es auch ordentlich nach oben. Waren 
ebenfalls gut 85°C, die aber läuft an die 15min.

Muss ich mir Sorgen machen?

von Thomas der Vivadohasser (Gast)


Lesenswert?

Markus F. schrieb:
> Solange die Tools keine echte
> verteilte Anwendung darstellen, die man auf einer Serverfarm verteilen
> kann, macht es eh nicht viel Sinn.

Ich habe ohnehin den Eindruck, dass speziell bei Vivado ein Großteil der 
Leistung in der GUI verschleudert wird. Selbst wenn man demnächst noch 
leistungsstärkere Rechner haben wird, dann werden es die Programmierer 
der Betriebssysteme und Anwendungen mit ihrem GUI-Wahn schon irgendwie 
schaffen, die Hardware auszubremsen.

Beitrag "Re: Xilinx Vivado ist wirklich so langsam!"

von Christian R. (supachris)


Lesenswert?

Thomas der Vivadohasser schrieb:
> Ich habe ohnehin den Eindruck, dass speziell bei Vivado ein Großteil der
> Leistung in der GUI verschleudert wird.

Hm, kann ich objektiv nicht bestätigen. Wir bauen unsere Projekte immer 
per TCL Script, auf meinem Rechner dauert der Build ohne GUI nur wenige 
Sekunden weniger als mit. Bei über 30 min fällt das nicht ins Gewicht. 
Aber die Vivado GUI nervt schon, das stimmt. Hätten sie mal lieber einen 
ordentlichen Editor integriert oder das ganze Ding in Eclipse gepackt. 
Aber nee, muss ja jeder das Rad noch 3 mal neu erfinden.

von astino (Gast)


Lesenswert?

D.h. es würde gar keinen Vorteil bieten, auf die GUI zu verzichten?

von Christian R. (supachris)


Lesenswert?

Bei mir bringt es fast nix. Ich arbeite lokal mit der Gui und auf dem 
Teamcity Server läuft es per Script.

von J. S. (engineer) Benutzerseite


Lesenswert?

Christian R. schrieb:
> Bei mir bringt es fast nix.

Das ist interessant, zumal es ja auch andere Meinungen zu geben scheint, 
denn:

Vancouver schrieb:
> Wenn Du Vivado verwendest: trenne Dich möglichst schnell von der GUI und
> packe Dein Projekt in ein TCL-Script. Das wirkt manchmal Wunder,
> besonders,w enn Du Speichermäßig am Anschlag bist.

Ich meine aber auch, dass die GUI keinen großen Einfluss haben sollte / 
kann, wenn genug Kerne zur Verfügung stehen. Nach meiner Beobachtung ist 
das maximal dann relevant, wenn das tool alle der 4 typischen Kerne 
belegt und dann noch was anderes laufen muss. Ich habe jetzt mal 
Vergleiche angestellt mit den Synthesen bei ISE und Vivado: Rennt auf 
meinem 12-Kerner gefühlt ungebremst, d.h. dem Vivado ist es ziemlich 
egal, ob im Hintergrund noch die ISE routet oder nicht. Erste 
Ergebnisse: Vivado ist bei gleichem Projekt etwas langsamer!

Vergleiche dazu dieses Thema:
Beitrag "Ist Xilinx (Vivado) wirklich so langsam?"

von Markus F. (Gast)


Lesenswert?

Christian R. schrieb:
> Hätten sie mal lieber einen
> ordentlichen Editor integriert oder das ganze Ding in Eclipse gepackt.

Ich glaube, die investieren schon lange nichts mehr in Editoren, weil 
sie genau wissen, dass die halbe Welt was Eigenes nimmt. Ist wohl 
dasselbe, wie mit dem Symbol Based Design. Das scheinen sie jetzt wohl 
beerdigt zu haben. Andererseits haben sie jetzt einen TCL Store 
aufgemacht. Da kann man wohl eigene Sachen machen und sogar in die 
GUI-Teile andocken. Gehört aber wohl besser in einen anderen Beitrag.

von FPGA-Entwickler de Luxe (Gast)


Lesenswert?

Dieses symbolorientierte Eingaben haben  die keineswegs beerdigt. Die 
nennen es jetzt nur Blockdesign und es sieht anders aus. Ist aber so 
anfällig und kaputt wie das Gemale vorher. Leider addieren sich zu den 
vielen kleinen Sauereien, die man sich mit sowas einhandelt, auch noch 
die vielen Probleme, die Vivado noch macht:

Beitrag "Klicki-Bunti-Manie der Softwareentwickler"

von A. F. (chefdesigner)


Lesenswert?

Ich komme nochmals zurück auf das Thema Xilinx unter Linux! Ich habe 
einen sagenn wir mittelalten PC, der noch mit Win7 lief auf ein Linux64 
umgestellt und finde, dass Sript gesteuerte Synthesen maximal knapp 10% 
schneller ablaufen.

Der Versuch, 2 Rechner zu clustern und eine Virtuelle Maschine auf 
beiden zu erstrecken, hat leider nicht funktioniert. Dies als Einwurf zu 
meinem Vorschlag oben, mehrere Rechner ins Spiel zu bringen.

Werde da aber dranbleiben. Ich meine, dass es möglich sein müsste.

von Strubi (Gast)


Lesenswert?

Moin,

Andreas F. schrieb:
> Ich komme nochmals zurück auf das Thema Xilinx unter Linux! Ich
> habe
> einen sagenn wir mittelalten PC, der noch mit Win7 lief auf ein Linux64
> umgestellt und finde, dass Sript gesteuerte Synthesen maximal knapp 10%
> schneller ablaufen.
>

Ich habe mir Vivado nicht allzu lange angesehen, aber so viel hat sich 
bezüglich der Effizienz doch nicht gegenüber ISE verändert. Bei ISE lief 
der ganze Prozess (Syn bis P&R) unter Linux im Makefile-Betrieb fast 
doppelt so schnell gegenüber Windows aus der Cygwin shell, ganz zu 
schweigen von den 50% CPUlast, die das QT-'Busy'-Windrad verbraten hat. 
Ich gehe mal davon aus, dass noch eine Menge alten Codes unter der Haube 
werkelt, der noch auf Sun-Kisten entworfen wurde. Posix-Emulate sind 
unter Windows nun einmal nicht sonderlich schnell. Beim exzessiven 
Disk-I/O der Xilinxtools konnte ich zwischen den zwei OS keine 
Unterschieden messen.

> Der Versuch, 2 Rechner zu clustern und eine Virtuelle Maschine auf
> beiden zu erstrecken, hat leider nicht funktioniert. Dies als Einwurf zu
> meinem Vorschlag oben, mehrere Rechner ins Spiel zu bringen.
>
> Werde da aber dranbleiben. Ich meine, dass es möglich sein müsste.

Du kannst ja ansich pragmatisch dein Design manuell partitionieren und 
auf verschiedenen Rechnern backen, das finale P&R kann aber doch nur 
eine Instanz (womöglich nur ein Core) wirklich effizient, bzw. können 
nur die Money-Tools so partitionieren, dass sich Mehrkerne auch wirklich 
nutzen lassen.
Also für mich haben sich jegliche Mehrkern-Tricks nur bedingt gerechnet. 
Besser ist, im richtigen Moment Kaffee trinken zu gehen oder genug 
Speicher zu haben, um in der Zeit was anderes machen zu können.

von FPGA-Entwickler de Luxe (Gast)


Lesenswert?

Dann muss man aber auch ausreichend CPU-Power haben. Schon gleichzeitig 
zu simulieren haut oft nicht hin, wenn zwar Speicher da wäre, aber die 
CPUs voll mit Gedöhns belastet sind. Wenn ich mit ISE gearbeitet habe, 
war ModelSIM -zumindest auf Rechnern, der 2010er Generation - kaum 
möglich. Von MATLAB will ich gar nicht reden.

Deine Aussage bestätigt aber meine Haltung zu dem GUI-Getöse. Dort wird 
unverstänlich viel Zeit verbraten.

von J. S. (engineer) Benutzerseite


Lesenswert?

Dann lohnt wirklich die Nutzung von 2 PCs, womit man auch ein bischen 
das Problem umgeht, dass man z.B. durch das Weiterentwickeln unter 
Modelsim unachtsam files ändert, was während einer Synthese negativ 
aufgeschlagen ist. Als die PCs noch nicht so leistungsfähig waren, 
hatten die meisten Entwickler eine zweite Maschine rumstehen, die die 
Synthesen macht, während z.B. ein MATLAB auf einem Hauptrechner läuft.

Bei einer ausreichenden Zahl von Kernen und RAM geht es aber auch mit 
einem: Trotz GUI ist der meistens nicht voll belastet:

Beitrag "Re: Ist Xilinx (Vivado) wirklich so langsam?"

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.