Zitat Zitat von Black Dragon
[...]Sowas ist nicht so ganz einfach und besonders im allgemeinem Fall bräuchte man einen vollfertigen SLAM-Algorithmus. Ich kenne eine Diplomarbeit, da gilt die Annahme, dass der Roboter auf einer ebenen Fläche fährt und die Kamera etwas zum Boden hin geneigt ist. Aufgrund von Bildkorrespondenzen kann man jetzt zwischen Hindernissen und dem Boden unterscheiden(Punkte, die höher gelegen sind, "bewegen" sich in den Bildern "schneller"). Mit den Punkten auf dem Boden kann man die Roboterbewegung schätzen. Dies setz natürlich voraus, dass der Boden genug Features bietet.
Hast du einen Link zu der Diplomarbeit?
Habe mich mal "spaßeshalber" in eine Tracking und Matching Vorlesung gesetzt. Das ist einiges an Aufwand, allein Features und Flussvektoren selbst zu implementieren. Ich würde es aber, grad vor dem Hintergrund, dass ihr mehrere Leute seid, selbst versuchen.

Ich will es auf jeden Fall mal ausprobieren. Meine Verwendung wäre eine Kamera unter dem Bot, die den Boten filmt. Dadurch (hoffe ich) Hinweise auf Translation UND Rotation zu bekommen.
Die Fummelei mit der Hardware ist echt zeitaufwändig wenn man da bei null anfängt und eigentlich ein Softwaretyp ist.. (Referenz auf meine Probleme in der Sig.)

Hier in Hannover war vor ein paar Tagen/Wochen die Industriemesse. Da waren einige Entwickler mit ihren Bots. Es ist erleichternd zu wissen, dass auch z.B. die Fraunhofer beim Kameratracking weiterhin Odometrie und möglichst viel an Sensordaten fusionieren um zuverlässigere Resultate zu erzielen.

Vorerst wird sich in die SLAM, PTAM und was es alles an Abwandlungen gibt, gelesen.. Euch weiterhin viel Erfolg!

//EDIT: Das fand ich grad sehr inspirierend: vehicle-movement-tracking
//EDIT: Link korrigiert.