Zu Kinematik und Inverser Kinematik s. z.B. hier:
https://homepages.thm.de/~hg6458/Robotik/Robotik.pdf (insb. S. 49ff, 62ff, 83ff.)
https://www.tu-chemnitz.de/informati.../robotik_4.pdf (insb. S. 36ff, 53ff, 72ff.)
Zu Kinematik und Inverser Kinematik s. z.B. hier:
https://homepages.thm.de/~hg6458/Robotik/Robotik.pdf (insb. S. 49ff, 62ff, 83ff.)
https://www.tu-chemnitz.de/informati.../robotik_4.pdf (insb. S. 36ff, 53ff, 72ff.)
Geändert von HaWe (29.04.2018 um 15:15 Uhr)
Es muss nicht alles in Echtzeit sein. Servoregler müssen in Echtzeit regeln. Pfadplanung muss das nicht sein. Klassisch ist hier, bsp. Hardware Regelungen mit µC (Echtzeit System), Höhere Logik mit ROS oder anderem System. Damit baut man das System in Schichten/Layer auf. Wie so etwas gehen kann, zeigt das Video des Mars Rover Curiosity.
[1] https://youtu.be/3SdSKZFoUa8?t=9m49s
Vielen Dank Leute, werde mir mal alles zu Gemüte führen.
Die einzige Frage, die sich mir stellt ist folgende:
Also über die Hand Auge Kalibrierung setze ich das Kamera-KS auf das Roboter-KS bzw. verschiebe es dahin.
Über die PointCloud erhalte ich 3 translatorische und 3 rotatorische Freiheitsgrade, welche über das Kamerasystem erkannt wird.
Somit ist dieser Punkt nach der Kalibrierung(was ja letztendlich auch nur eine Koordinatentransformation ist) ebenso im Roboter-KS.
Die inverse Kinematik also die Rückwärtstransformation findet doch also im Roboter-KS statt und dient nur dazu die 3trans und 3rot Freiheitsgrade in die 6 Gelenkwinkel des Roboters zu transformieren.
Stimmt das so ?
Lesezeichen