Forum: PC-Programmierung Geometrie Korrektur bei einem Lidar


von Mike (Gast)


Lesenswert?

https://www.ev3dev.org/docs/tutorials/using-xv11-lidar/

hi!

in dem Link wird erwähnt, dass (und wie) für einen Lidar die gegebenen 
Koordinaten noch korrigiert werden müssen.
Ich verstehe es nur nicht so ganz und hoffe mir hilft jemand.

Welcher Punkt wird jetzt vom Lidar geliefert? P(x,y) oder P'(x',y')? 
(x,y) scheint angestrahlt zu werden, aber es wird gesagt, dass (x',y') 
geliefert wird. ?
x'=r*cos(phi)... ich sehe da gar keinen rechten Winkel?

usw... ich strauchel total :-( Hat einer ein Herz?

danke!

von Weingut P. (weinbauer)


Lesenswert?

im Video bei 2:21 wird was dazu gezeigt

https://youtu.be/G6uVg34VzHw?t=141

von Mike (Gast)


Lesenswert?

Grüß dich und danke erst mal.

Es sieht so aus, als ob das das Video zur Homepage ist. Darum bringt 
mich das auch nicht weiter. Irgendwie bräuchte ich glaube ich mal eine 
andere Zeichnung oder Erklärung. :-(

https://www.robotshop.com/media/files/PDF/revolds-whitepaper.pdf Hier 
ist noch ein pdf über den Sensor über den der Autor das gefunden hat. 
Leider hat der das relevante nur raus kopiert und nicht noch mal mit 
eigenen Worten erkärt.

So ich frage mal ganz simpel und kleinschrittig:

Also es ist bei der Triangulationsmethode offenbar so, dass der Laser 
einen schmalen Strahl sendet und die Empfangskamera so eine große Fläche 
abdeckt, dass man bis zur maximalen Entfernung dann den Strahl noch 
empfangen kann. So weit so gut.

Der XV11 liefert dann zu der Winkelstellung der ganzen Sensors eine 
Entfernung die bezogen auf die Rotationsachse ist. Richtig?
Die Korrekturen beziehen sich dann auf die Entfernungen - für phi sagt 
der Autor: "phi is the current Lidar angle" ich verstehe aber nicht 
warum die Stellung der Scheibe berücksichtigt werden müsste. Die 
Geometrie von Sender und Empfänger ist doch immer gleich: oder liegt das 
einfach daran, dass das Ganze mit karthesischen Koordinaten gemacht 
wird? Wie würde es aussehen, wenn man die Polar-Koordinaten heranzieht, 
die der Sensor ja ausspuckt.

viele Grüße!

von Framulestigo (Gast)


Lesenswert?

Ich verstehe das so, dass Sensor und Sender (die Beschriftung "Laser" im 
Bild ist hier etwas irreführend) auf dem Drehteller nicht mittig sitzen. 
Entsprechend ist die Koordinate des Hindernisses um den x/y-Offset 
anzupassen.
Das die Anteile in x und y-Richtung bei einer Drehung variieren, kann 
man verstehen?!?

von Mike (Gast)


Lesenswert?

Hey von Framulestigo,

das mit Laser die ganze Messeinheit gemeint sein könnte habe ich noch 
gar nicht in Erwägung gezogen. Für mich war immer klar, dass Laser der 
Sender ist und die Empfangskamera irgendwie auf der anderen Seite der 
Rotationsachse ist.
Könnte sein, dass mir das hilft - ich werde das mal als 
Meditationsgrundlage nehmen :-) Ihr dürft mir aber gerne weitere 
Erklärungen versuchen zu präsentieren.

Aber schon seltsam: warum lässt man so eine Korrektur denn nicht den 
Controller auf dem Ding machen, der muss doch sowiso arbeiten.

danke erst mal!

von Oliver S. (oliverso)


Lesenswert?

Mike schrieb:
> Ihr dürft mir aber gerne weitere
> Erklärungen versuchen zu präsentieren.

Warum? Eine richtige reicht doch.

Mike schrieb:
> Aber schon seltsam: warum lässt man so eine Korrektur denn nicht den
> Controller auf dem Ding machen, der muss doch sowiso arbeiten.

Fragen über Fragen...

Bei dem ganzen Informationsstand und den doch sehr "soliden" Quellen 
würde ich da fragen: Woher weisst du, daß der das nicht macht?

Da du ja anscheinend so ein Ding hast, ist die Lösung einfach: Messreihe 
mit Hindernissen in verschiedenen Abständen durchführen, und schauen, 
was da so rauskommt.

Oliver

: Bearbeitet durch User
von Mike (Gast)


Lesenswert?

Nein, ich habe (noch) nicht so ein Ding. Aber weil sie nicht 
unerschwinglich sind liebäugle ich damit.
Vorher möchte ich aber etwas genauer verstehen, was man da bekäme und 
wie das funktioniert.

von Oliver S. (oliverso)


Lesenswert?

Mike schrieb:
> Vorher möchte ich aber etwas genauer verstehen, was man da bekäme und
> wie das funktioniert.

Das solltest du mal tun, und auch berücksichtigen, wofür dieser XV11 
entwickelt wurde, und welche Messbereiche und Genauigkeiten für die 
Anwendung erforderlich sind bzw. waren.

Leider ist das Ding schon so alt, daß die allermeisten ernsthaften 
Beiträge dazu schon wieder im Nirvana des Internets verschwunden sind.

Oliver

von Mike (Gast)


Lesenswert?

Nur habe ich doch zwei (bzw. im Grunde eine) Quelle genannt zu der ich 
eine Frage präsentiert habe.
Die Frage bezieht sich doch auf etwas, was völlig unabhängig des Alters 
gültig bleibt. Wer da etwas erklären kann, kann das doch tun und mir 
dabei helfen.

Irgendwie habe ich jetzt das Gefühl, du könntest das selber nicht und 
hast das Gefühl bekommen ich wäre ein passendes Opfer um mal drauf zu 
schlagen. Das ist irgendwie schade. :-(

von Framulestigo (Gast)


Lesenswert?

"Normalerweise" (mein Kenntnisstand) geben diese 2D-Teile nur Distanz 
und Messwinkelpaare aus. Bevor man zu x/y des Hindernisses aus Sicht 
eines Roboters kommt, muss man noch einige Dinge einbeziehen:
- x-y-Offset eines Sensors auf der Drehmimik (wie hier).
- x/y/Drehwinkel-Offset der Drehmimik auf dem Roboter (das X11 muss 
nicht im Drehpunkt des Roboter liegen und kann auch mal mit dem 
Nullwinkel nach hinten schauen)
- Die Pose (x/y/Drehwinkel) des Roboters selber
Da muss man also in der Regel einige Dinge transformieren. Das geht mit 
Polarkoordinaten besser.


Oliver S. schrieb:
> Da du ja anscheinend so ein Ding hast, ist die Lösung einfach: Messreihe
> mit Hindernissen in verschiedenen Abständen durchführen, und schauen,
> was da so rauskommt.
Im stationären Betrieb wirst Du diesen systematischen Fehler 
wahrscheinlich gar nicht bemerken. Der Offset in Messrichtung liegt nach 
Angaben im oben verlinkten Bild bei 3,5mm, die gut 2cm seitlicher 
Versatz machen den eigentlichen Fehler aus. Der wird erst relevant, wenn 
sich der Roboter bewegt.

Und hört jetzt auf mit dem Kinder-Pille-Palle.

von Oliver S. (oliverso)


Lesenswert?

Framulestigo schrieb:
> die gut 2cm seitlicher
> Versatz machen den eigentlichen Fehler aus. Der wird erst relevant, wenn
> sich der Roboter bewegt.

Aha. Der Offset in Messrichtung spoielt bei dem Messprinzip überhaupt 
keine Rolle, der senkrecht dazu ist eine rein statische Größe. Der 
Meßfehler ist dadurch völlig unabhängig von der 
Bewegungsgeschwindigkeit.

Oliver

von Framulestigo (Gast)


Lesenswert?

Oliver S. schrieb:
> Aha. Der Offset in Messrichtung spoielt bei dem Messprinzip überhaupt
> keine Rolle, der senkrecht dazu ist eine rein statische Größe. Der
> Meßfehler ist dadurch völlig unabhängig von der
> Bewegungsgeschwindigkeit.

Eher: Fahre den Roboter durch einen Türrahmen. Die 7mm zusätzliche 
Breite kannste vernachlässigen (geht im Rauschen unter). Ohne 
Korrekturrechnung wird die Zarge auf der linken Seite allerdings 4cm zur 
rechten Seite in Fahrtrichtung verschoben sein. Das wirst Du sehen.

Nur: Wer kommt schon auf die Idee, zum Messen nen Türrahmen zu 
verwenden?

von my2ct (Gast)


Lesenswert?

Mike schrieb:
> https://www.ev3dev.org/docs/tutorials/using-xv11-lidar/

Die Zeichnung zur Geometrie ist eine Zumutung. Wenigstens sollt aus der 
Zeichnung klar ersichtlich sein, auf welche Winkel sich die 
eingestreuten griechischen Buchstaben beziehen. So kann man nur raten.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.