irgendwie stimmen die links nicht
irgendwie stimmen die links nicht
das leben ist hart, aber wir müssen da durch.
Tolles Modell, herzllichen Glückwunsch!!
Danke für die Bezugsquellen
vG
fredyxx
So, ich wollte noch mal schreiben was ich nach einer längeren Pause gemacht habe. Vor ca.2 Wochen habe ich mir eine Microsoft Kinect 360 Kamera gekauft, habe auf Ubuntu ROS Kinetic, Rtabmap und den freenect Treiber installiert. Angefangen habe ich in Rtabmap mit einer 3D Map und dann einer 2D Map ( Abb. 1) wobei ich ein bisschen mit den Occupancy gridmap Einstellungen rumprobiert habe. Was ich aber noch nicht hinbekommen und auch noch nicht weiß wo ich anfangen soll ist, wie ich mit diese 2D Karte meinen auf Arduino basierenden Roboter ansteuern soll. Mein Ziel ist es, dass ich die Kinect mit meinem Raspberry Pi auf den Roboter montiere und das dieser selbstständig in der Gegend herumfährt und gleichzeitig eine 2D Karte erstellt.
TCHD
benutzt du eigentlich Encodermotoren?
Nein, ich habe nur normale Getriebemotoren. Ich habe schon überlegt beide Motoren mit Encodern auszustatten. Als Shield würde ich das hier benutzen: http://www.robogaia.com/3-axis-encod...no-shield.html
und als Encoder würde ich diese benutzen: http://usdigital.com/products/encode...al/modules/EM1
Oder würde es auch funktionieren mit dieser Gabellichtschranke: http://www.eibtron.com/epages/eibtro...FUeeGwodbW8PjQ ?
Geändert von Anonym (17.07.2016 um 09:49 Uhr)
nun, mit Grid-Karten etc kenne ich mich nicht aus, aber was du ja wohl machen willst, ist ein map-and-explore-robot, oder SLAM-robot (Simultaneous Localization And Mapping ), oder täusche ich mich?
Dann musst du ja die augenblicke Position im Raum mit Sensoren irgendwie messen, bezogen auf was auch immer - entweder IR- oder Funk-Baken, Transponder, Referenz-Linien auf dem Boden, Farbmarkierungen an Wänden, oder Magnetkompass, GPS, oder eben auch interne Referenzen, wie. z.B. Odometriedaten. Letztere sind zwar manchmal, ohne Slip und ohne Drift, sehr aussagekräftig, manchmal, gerade bei Kettenfahrzeugen, aber auch sehr ungenau - immerhin, es sind verwertbare Daten (gleiches gilt in anderen Bereichen auch für Kompass und GPS).
Was genau ist dein Sensormodell aus verschiedenen Sensoren, die (nach Fusion) deine Position berechnen sollen?
Ich dachte bisher, dass diese Aufgabe von der Kinect Kamera übernommen wird, da diese sich aus dem Aktuellen Bild Referenspunkte heraussucht und wenn diese sich bewegen die Bewegung registriert. Wenn er sich also einmal um die eigene Achse dreht, müsste er schon eine ziemlich exakte Position haben. Außerdem hat die Kinect eine Genauigkeit bei 2m Abstand von 3mm.
Lesezeichen