Hallo zusammen, ich würde gerne etwas ähnliches wie auf diesen Videos bauen: https://www.youtube.com/watch?v=mZfOFtIZrSc https://www.youtube.com/watch?v=FF99eVdKcjg Meine Frage ist nun wie die Personen vor den LEDs erkannt werden. Bei meiner Recherche bin ich unter anderem auf "interactive led table" und den Beitrag "Interactive LED wie geht das" gestoßen. Diese scheinen mit IR LEDs bzw. Transistoren zu funktionieren. Da das bei den vielen "Pixeln" schnell teuer wird, sieht man häufig das 4 LEDs von einem IR Transistor angesteuert werden, was nicht besonder schön aussieht. Alternativ habe ich an kapazitive Näherungssensoren gedacht (QMatrix, ...). Das Problem ist jedoch die Reichweite, kapazitive Näherungssensoren werden nicht mehr als 10cm schaffen und auch bei der IR Variante glaube ich nicht das ich gute Ergebnisse bei Entfernungen größer 50cm erhalte. (Schön wären 20cm bis 2m) Eine Alternative die mir noch eingefallen ist, ist eine Kamera. Günstige Module gibt es überall und die meisten von ihnen können auch Bilder mit geringer Auflösung liefern (qqvga), sodass der Rechenaufwand "akzeptabel" bleibt. Da ich jedoch nicht den Hintergrund (weiter weg als 3 Meter) darstellen möchte müsste ich komplizierte Algorithmen zur Personenerkennung implementieren (unrealistisch für mich) oder kann nur Bewegungen darstellen (Subtraktion zweier Bilder). Ein weiteres Problem bei der Kamera Lösung ist deren Blickwinkel, sitzt die Kamera in der Mitte der "Wand" und man ist dicht (20cm) vor der Wand ist das Verhalten stark abhängig von der eigenen Position. Steht man vor der Linse sieht die Kamera nichts anderes, steht man am Rand wird man nicht erfasst.... Was mir bei meinen Recherchen noch über den Weg gelaufen ist ist das Grid-Eye von Panasonic https://industrial.panasonic.com/ww/products/sensors/built-in-sensors/grid-eye , dies hat jedoch lediglich eine Auflösung und 8x8 =64 Pixel was für eine größere Wand (1,5m x 1,5m | 45 x 45 = 2025 LEDs) doch etwas dürftig ist. Ich würde mich über konstruktive Rückmeldungen oder neue Ansätze sehr freuen.
das ding dürfte eher mit Kamera funktionieren. bei sec 20 siehst du sehr deutlich, dass die Hand vergrößert dargestellt wird, da sie weiter weg von der wand (und damit näher zur Kamera) kommt=> perspektivische Vergrößerung. schau dir einmal die kinect an. damit sollte ich so etwas relativ einfach lösen lassen. sg
Hallo zoggl, das waren auch in etwa meine Gedanken. Die kinect hatte ich auch schon mal in betracht gezogen aber da wird man ohne einen Kleinrechner (PI, ...) nicht weit kommen oder? Besonders unauffällig ist es leider auch nicht, ähnlich wie LIDAR.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.