ist das AVM- / Omnibot Ding autonom oder PC/host- gesteuert?
ist das AVM- / Omnibot Ding autonom oder PC/host- gesteuert?
Autonom aber mit einer Funkverbindung zum Host PC, darauf läuft die Computer Vision Software.
In diesen Fall RoboRealm, immer gut für schnelle Versuche (Filter Test ect.) aber mittlerweile ist RoboRealm erwachsen und hat einige interessante Features wie den AVM Navigator.
Im Robotic-Workbench habe ich die RoboRealm Schnittstelle mit eingebaut, so kann man statt meiner OpenCV Geschichte auch RoboRealm verwenden (nur bei der 64bit Version hapert es noch bei Steven und der API).
Robotic-Workbench arbeitet auch mit den PC als Host und die µC-Hardware besitzt die low-Level Routinen (Kommunikaton mit den Sensoren und Aktuatoren sowie Servocontroller für 20 Servos, Motorsteuerung wie Stepper, DC, Odometrie ect. aber auch Laufalgorithmen für Quadro- Hexabots und vieles mehr).
Für die Verbindung zwischen PC und µC stehen bereits Bluetooth, Zigbee, Easyradio und USB zur Verfügung.
Vor ein paar tagen habe ich Robotic-Workbench auf einen kleine Odys Tablet mit einen Atom getestet und es läuft damit sehr gut :-D
Grüße
also wenn mit Funkverbindung, dann ist es ntl nicht autonom. Etwas wirklich autonomes wäre eher auf meiner Wellenlänge. Auch da gibt es ja Cams mit Blob- Farbb- und Kantenerkennung (AVR Cam, RPI Cam).
Der Rechner sitzt ja später im Roboter
Autonom setzt ja nicht voraus das die Intelligenz direkt im Roboter verbaut ist
Natürlich kannst du auch einen RasPi, CMU-CAM oder AVR Cam ect. verbauen aber die Leistungsfähigkeit und die Möglichkeiten sind damit schon sehr eingeschränkt.
Wenn du ein kleines Tablet, Netbook, Intel NUC, IPC oder ein günstiges bzw. älteres Notebook verwendest und dies in den Roboter einbaust stehen Dir ganz andere Welten offen
Aber bitte keine Philosophie-Beiträge jetzt, gell
Hier muss jeder selber entscheiden was und wie er es machen will...
Grüße
klar - aber der TOP heißt ja: "wie macht ihr das" , gell?
autonome NXTs oder Arduinos lasse ich für mich gelten - PC Verbindung nicht 8-)
Grundsätzlich geht es um Indoornavigation und welche Möglichkeiten man anwenden könnte oder bereits von euch mit Erfolg umgesetzt wurden.
Hallo,
darf ich mal abschweifen... ?
Die Frage die sich mir stellt ist eher, "was dann"?
Aktuell kann mein Bot sich im unbekannten Raum bewegen um diesen zu erkunden und dabei z.B. günstige Positionen zur Überwachung der Räumlichkeiten zu finden. Dies funktioniert auch recht gut und so kann er auch zufällig die Überwachungsposition ändern.
Kleine Spielchen, sich dem Bot unentdeckt nähern oder das dieser jemanden lokalisiert, kann man damit schon recht gut durchführen.
Ich hatte im Vorfeld auch bereits versucht zielgerichtet Punkte "anzufahren", mal unabhängig dass dies nicht immer von Erfolg gekrönt war und der Bot diese teilweise nur sehr umständlich und zeitaufwendig erreichte, kommt nun mein eigentliches Problem.
Was mache ich an diesem Punkt?
Selbst wenn der geplante Manipulator schon verbaut wäre, kommt für mich jetzt erst der richtig schwierige Teil, nämlich Objekterkennung und greifen von Objekten, die sich aber leider im tägl. Leben kontinuierlich verändern.
Um "nur" etwas zu transportieren um dann gezielt eine Person anzufahren benötige ich wiederum die Karte nicht, da ja auch Personen dynamisch sein sollten.
Also überlege ich ernsthaft ob der mir aktuell fehlende Laserscanner wirklich Vorteile bringt, ausgenommen der besseren und schnelleren Navigation, sowie der genaueren Erfassung einer Ebene des Raumes.
Wenn es jetzt ein Fußballroboter, Staubsauger etc. wäre,... aber so!?
Gruß André
Lesezeichen