Hallo, der NVidia Jetson und Xavier, hat den schon jemand getestet? Hintergrund: Ich bin mal auf der Webseite von NVidia überflogen, dort werden bereits viele AI-Applikationen zur Examples angeboten. https://developer.nvidia.com/embedded/community/jetson-projects Habt ihr schon was zum Laufen gebracht? Wieviel Hirnschmalz hattet ihr benötigt? Ich dachte dass man da ähnlich wie bei Arduino nicht mehr viel Programmieren muss, eher einfach Bibliotheken einbinden, etwas coden noch und schon kommt es zu den etwas erwünschten Ergebnissen, oder ist das eher Illusion?
Moin, Wir haben für ein Projekt einen NVIDIA Jetson Tx2i hardwaremässig integriert. Das Ding ist schon von der Performance ganz geil wenn man in der GPU rechnet. Aber ich würde ihn nicht noch mal einsetzen wollen. Zu teuer, zu schlechte Kühlsnbindung, kein richtiger Buisness Support. VG
Wenn ich mir diese Tabelle anschaue: https://developer.nvidia.com/embedded/develop/hardware Preise sind beide gleich, aber NX hat 21 TOPs und TX2i hat 1.26 TFLOPs. TX2i ist vermutlich die ältere Generation jetzt gegenüber Jetson Xavier NX? Oder lese ich falsch?
Hi, der TX2i ist die industriel Version vom TX2. Ich glaube der Xavier hat den neueren GPU Kern. Zum Spielen auf dem Eval-Board ist es ein netter Rechner, aber so richtig überzeugt diesem im kommerziellen einzusetzen hat er mich nicht. Es gibt ein gepatchtes Ubuntu von Nvidia und der Installer telefoniert auch bei der Installation nach Hause. Das gibt je nach Firmennetzwerk Probleme mit dem Proxy oder Firewall. Aber alles Probleme die man lösen kann. Gruß
Ich arbeite für eine Firma, die Tx2 und Xavier AGX In eigenen Produkten verbaut und habe dafür auch eigene Boards entwickelt. Tx2 ist alt, Xavier nx ist quasi der Nachfolger. Xavier agx ist eine Nummer größer. Sofern du die GPU nutzen kannst, sind diese Teile Konkurrenzlos. Dafür wirst du dich mit cuda befassen müssen. Cuda ist nicht ganz ohne. Wenn du die gpu nicht nutzen kannst, lohnt sich das ganze nicht. Wir machen damit Bildverarbeitung und KI, und verwenden dafür spezielle pcie Kameras, die ihre Daten direkt in den Hauptspeicher schreiben, und der kann von CPU und GPU genutzt werden. Fchk
Sieht schon heftig kompliziert aus allein die Doku CUDA. Wie hält man sowas aus? Wie soll man Spass da dran haben? Nehmen die Leute Doping fürs Hirn? Also ich weiss gar nicht wie das funktionieren soll.
Nixblick schrieb: > Nehmen die Leute Doping fürs Hirn? Ja, alle Softwareentwickler sind auf Droge, ausnahmslos.
@Fchk: Das klingt sehr interessant. Kannst Du ein bisschen mehr zu Eurer Anwendung schreiben (oder einen Link posten)?
Sind die Dinger schneller als eine aktuelle Consumer-GPU auf einer normalen Grafikkarte?
Ben B. schrieb: > Sind die Dinger schneller als eine aktuelle Consumer-GPU auf einer > normalen Grafikkarte? Nein. Wenn die schneller wären bei gleichzeitig auch noch deutlich niedrigeren Anforderungen an die Kühlung, wäre Nvidia schön blöd die Technologie dahinter nicht überall zu benutzen.
Von der nackten Rechenleistung nicht. Aber der gesamte Speicher ist shared und das macht viele Algorithmen deutlich effizienter, weil das umkopieren entfällt. Außerdem sind das 15-30W Teile, das kannst du schlecht mit einer 200 W GPU vergleichen. Fchk
Asdf schrieb: > @Fchk: Das klingt sehr interessant. Kannst Du ein bisschen mehr zu Eurer > Anwendung schreiben (oder einen Link posten)? https://www.mdr.de/sachsen/bautzen/goerlitz-weisswasser-zittau/start-videoueberwachung-goerlitz-100.html ist ein Anwendungsfall. fchk
schaut euch mal das hier an: https://www.kickstarter.com/projects/opencv/opencv-ai-kit Soweit ich weiss nutzt die Platine von diesen Kickstarter den Prozessor von Intel (Myriad X) Wie Mächtig Myriad X im Gegensatz zur Jetson und Xavier ist weiss ich nicht. Hat vermutlich so Vor- und Nachteile. Anwendungsbeispiele die mir spontan einfallen: 1. Wenn der Bot erkennen kann ob die Tomaten reif sind. Rote Tomaten = Mit Roboterarm pflücken Grüne Tomaten = nicht pflücken 2. 3D-Druck Schlechte Druckergebnis-Erkennung 3. Ablesen von ml an Messbechern mit AI, steuert die Schlauchpumpe. Weil Durchflusssensor da problematisch ist bei höheren Viskositäten oder bei Chemikalien
Research-Freak schrieb: > der NVidia Jetson und Xavier, hat den schon jemand getestet? > Wieviel Hirnschmalz hattet ihr benötigt? Du wirst auf jeden Fall mehr brauche, so wie ich dich aufgrund der folgenden Aussage einschätze: > Ich dachte dass man da ähnlich wie bei Arduino nicht mehr viel > Programmieren muss, eher einfach Bibliotheken einbinden, etwas coden > noch und schon kommt es zu den etwas erwünschten Ergebnissen Offenbar bist du auch auf diesem seltsamen Tripp zu glauben, dass Computer sich weitgehend selbst programmieren und von ganz alleine wissen, was du von ihnen willst. > oder ist das eher Illusion? Ja, zu 200% Bleibe mal bei Arduino, einfacher wird es in diesem Leben nicht.
Allerdings ist es auch nicht so schwer, dass alles nur via CUDA und C++ geht. Auf den TX2 und Nachfolgern gibt es ein aktuelles Tensorflow und OpenCV. Damit also auch Unterstützung durch Python. was die Progammierung in Teilen sogar einfacher macht als das Arduino-Gewürge mit 10 libs, die das Gleiche machen, aber unterschiedliche Macken haben. Ich nutze TX2 für die Aggregation von Sensordaten und Machine Learning Algorithmen (nur Inferenz, Training läuft dann auf "dicker" Hardware). Dennoch sollte man sich immer überlegen, ob es direkt sowas Dickes sein muss. Jenseits von Bildern und sehr kurzen Inferenzzyklen gibt es sicherlich preiswerte Alternativen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.