Hallo zusammen, Würde gerne einen Iphone Robotor bauen. Er soll eigentlich genau so sein, wie dieser hier http://www.youtube.com/watch?v=7pIS69teEvw&feature=PlayList&p=A715297A91E3D487&playnext=1&playnext_from=PL&index=33 , nur ohne lego komponenten. Ich kenne mich bisher nur mit Programmieren aus und habe von Mikrocontrollern keine Ahnung. Habe mich in einem englischen microcontroller irc channel umgehört und dort wurde mir was von at90usb, teensy ,h-bridge und LUFA gesagt. So in etwa hatte ich mir das ganze vorgestellt: http://www.ladyada.net/make/mshield/ nur halt per usb. Wäre nett, wenn mir jemand sagen könnte, welche komponenten ich am besten nehme/brauche. Es soll u.a. darauf hinauslaufen, dass sich der Robotor von alleine bewegen kann und mit der Iphonekamera auf Hindernisse reagieren kann.
Horst Dieter schrieb: > Ich kenne mich bisher nur mit Programmieren aus und habe von > Mikrocontrollern keine Ahnung. gut, dann wirst du in der lage sein unter linux zu programmieren, oder ? Muss nur bild und bewegungsauswertungsoftware unter linux coden ( etwas leichtes am anfang - iphone cam capture, bildauswertung, dann steuerung über usb - sollte auch kein problem sein dank libusb ) , dann auf embedded linux portieren. Wenn du soweit bist kannst du dann dir sorgen um mikrocontroller auswahl machen.
Bildauswertung und cam capture läuft bereits auf meinem iphone. Hab opencv portiert... Die Steuerung macht aber doch erst sinn, wenn ich überhaupt weiß was für einen controller ich verwende?
Erstmal musst Du wissen, was der µC genau tun soll. Wieviele IO-Ports brauchst Du? Sind Analogeingänge nötig? Wie schnell muss der Prozessor sein? So wie ich das auf dem Video erkenne, benutzt Du einen iPhone als Fernbedieung des anderen. Letzterer stellt lediglich eine Grafik dar, welche durch einen Fotosensor (Diodenmatrix/-zeile) erfasst wird. Der µC fragt diese Matrix ab und steuert entsprechend die Motoren (und ggf noch andere Aktoren) an. Nebenbei könnte er natürlich auch autark die Grafikbefehle an den Roboter generieren (also Deine Steuerung mittels Kamera). Der Roboter selber benötigt dazu überhaupt keine Eigenintelligenz. Wird das Rechteck hinter Diodensensor 1 schwarz, so muss der linke Motor auf vorwärts geschaltet werden.... Daszu wird kein Prozessor benötigt. Die Intelligenz sitzt komplett im iPhone.
Horst Dieter schrieb: > Bildauswertung und cam capture läuft bereits auf meinem iphone. Hab > opencv portiert... Die Steuerung macht aber doch erst sinn, wenn ich > überhaupt weiß was für einen controller ich verwende? jein, ich dachte eher an einer aufwertung in dem µC ( mit embedded linux ). Aber gut, du kannst natürlich auf dem iphone alles auswerten und nur steuerung ans µC senden - via usb, ja LUFA klingt schon gut, als µC den at90usb geht auch, z.b. http://shop.embedded-projects.net/product_info.php/info/p99_AT90USBKey.html "h-bridge" ist für motor steuerung, ich würde sagen es reicht am anfang wenn iphone objekte erkennt und kommandos sendet an den µC und der erstmal ne LED ein/ausscahltet. Wenn das geht, kannst dann weiter sich mit dem µC und motoransteuerung beschäftigen.
Also kann man mit dem AT90USBKey erstmal anfangen und dann damit hinter auch motoren steuern bzw. AT90USBKey zum motor steuern erweitern?
Sagt mal... denkt ihr nicht, dass das etwas uebertrieben ist mit zwei iPhones und dann das Display abfragen? Wie waere es mit einer ganz einfachen Funkverbindung oder IR? Das kommt doch viiieeeeeeel billiger als zwei iPhones.
es hat doch nie jemand was von zwei iphones gesagt??? eins sollte reichen, dass dann per usb an den µC angeschlossen wird
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.