Hallo zusammen, ich habe folgenden Grundgedanken, zu dem mir aber noch die „einfachste“ Umsetzung für einen Erstversuch fehlt. Ich möchte verschiedene Darstellungen, die einer Art Reportage gleichen werden, per Videoaufnahme festhalten. Dabei bewege ich mich innerhalb einer Fläche von ca. 4 x 4 Metern. Mir ist bewusst, dass, bei ausreichender Distanz, der komplette Aufnahmebereich von einer Kamera erfasst werden kann, allerdings soll die Kamera direkt nur mich, ggf. noch ein wirklich geringes Umfeld um mich herum, im Bild haben. Ein paar Ansätze zur Standortbestimmung, wie z.B. über Bluetooth, Infrarot, Ultraschall sind schon vorhanden, allerdings bin ich mit dieser Thematik nicht stark umwandelt und auch ein Kapital von mehreren Hundert Euro ist nicht vorhanden, weshalb ich Eure Expertenhilfe in diesem Forum erfrage. Auf der oben genannten Fläche werden sich weitere Gegenstände befinden, weshalb die Sensorik in der Lage sein sollte, meine Person von den Gegenständen zu unterscheiden. Eine Standortbestimmung über Trittsensoren ist aus dem Grund nicht möglich, da diese Vorrichtung so mobil wie möglich sein soll, um die Darstellungen an unterschiedlichen Orten vorzunehmen. Zur Genauigkeit der Positionsausrichtung / -bestimmung würde ich von ± 0,5 Meter und eine Reaktionszeit zur Ausrichtung auf die neue Position von ± 5 Sekunden ausgehen. Diese Werte sind frei aus dem Bauch raus von mir bestimmt. Wenn die Genauigkeit genauer ungenauer und die Dauer länger kürzer wird, habe ich auch keine großen Probleme damit. Strom, zum Betreiben dieser Vorrichtung, wird immer zur Verfügung stehen Ich hoffe, mein Vorhaben ausführlich geschildert zu haben und wäre um zielführende Informationen und Antworten sehr erfreut! Danke! Gruß
Kevin A. schrieb: > Mir ist bewusst, dass, bei ausreichender Distanz, der komplette > Aufnahmebereich von einer Kamera erfasst werden kann, allerdings soll > die Kamera direkt nur mich, ggf. noch ein wirklich geringes Umfeld um > mich herum, im Bild haben. man kann das Bild doch noch beschneiden. Also alles Aufnehmen, dann schauen wo du steht und dann das Bild abschneiden. Sollte sich alles automatisieren lassen.
Vorab danke für die ersten Antworten, aber abgesehen von Möglichkeiten, die im Nachhinein anwendbar sind bzw. einen Kameramann zu engagieren, bin ich daran interessiert, die Umsetzung aufgrund meiner vorherigen Schilderung durchzuführen. Gruß
Welche Auflösung und Genauigkeit brauchst du? Man könnte eventuell eine Matrix aus Laser-Lichtschranken aufbauen, oder eine zweite Kamera, die nur für die Standortbestimmung zuständig ist, z.B. eine Webcam + Raspberry Pi.
Die Auflösung würde ich hier auf 800 x 600 bzw. 1024 x 786 ansiedeln, also keine High End Auflösung. Oder wäre eine höhere Auslösung für deinen Lösungsansatz geeigneter? Wäre die Vorrichtung mit den Laser-Lichtschranken dann noch mobil oder steckt da ein größerer Aufbauaufwand dahinter? Die Verwendung einer zweiten Kamera stellt für mich kein Problem dar, aber kann diese unterscheiden, wer ich bin und was die Gegenstände sind, damit sie die Daten richtig übermittelt?
Kevin A. schrieb: > Die Auflösung würde ich hier auf 800 x 600 bzw. 1024 x 786 ansiedeln, > also keine High End Auflösung. Dann wird das eher nichts mit den Lasern, so viele wird teuer...
Kevin A. schrieb: > Die Verwendung einer zweiten Kamera stellt für mich kein Problem dar, > aber kann diese unterscheiden, wer ich bin und was die Gegenstände sind, Einen farbigen Pullover anziehen und Blob-Tracking mit der 2. Kamera. https://www.youtube.com/watch?v=hstdTgiSv8Y Aus den Bildkoordinaten Winkel berechnen und 2 Servos passend ansteuern, die die eigentliche Kamera hinterherführen. Wahrscheinlich braucht man einen großzügigen Tiefpass+Hysterese gegen die Seekrankheit.
OK, danke für das Feedback. Was mir gerade noch in den Sinn gekommen ist, dass ich mal eine Nintendo Wii hatte, die über die Sensorik erkannte, an welcher Position sich der Controller aktuell befindet. Wie wäre das denn umsetzbar, wenn ich hier mit einem Sender und Empfänger arbeite?
könnte man den Kinect benutzen? https://de.wikipedia.org/wiki/Kinect da gibts anscheinend auch ein paar opensource Projekte
Ja, genau das war auch mein Gedanke mit der Nintendo Wii. Mit diesem Gerät stellt sich für mich dann noch die Frage, über welches Programm ich die Ausrichtung der Kamera steuere. Kannst du, oder ein anderes Forenmitglied, mir hierzu auch weiterhelfen? Gruß
Hi, gäbe es noch weitere Lösungsansätze, die realisierbar wären? Gruß
Wenn Du ein Notebook und eine WebCam zur Verfügung stehen hast, bietet sich Gesichtserkennung (z.B. Face Recognition über Open CV) an. Über Größe und Position des gefangenen Rechteckes im WebCam-Bild sollte sich der Standort Deines Gesichtes in 3D ungefähr bestimmen lassen. Guckst Du mal z.B. unter CodeProject.com.
Easy. Microsoft Kinect (max. 50 Euro bei ebay) und freenect. Fertig.
Danke, das hilft doch schon mal ein ganzes Stück weiter :-) Könnt ihr mir nun noch in der Thematik weiterhelfen, dass ich die Steuerung geregelt bekomm, sodass meine erkannte Position an den Motor weitergeleitet wird, damit sich dieser dementsprechend ausrichtet?
Leser schrieb: > Dann wird das eher nichts mit den Lasern, so viele wird teuer... Ein bisschen Budget muss man dafür schon einplanen, zumal es nicht nur die Kosten für die Laser wären - 40 Lasermodulen alleine wären schon ganze 8€ (z.B. ebay 200993819199)
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.