Liste der Anhänge anzeigen (Anzahl: 1)
ASURO mit Kamera ferngesteuert
Hallo Zusammen,
so, jetzt habe ich es geschaft, den ASURO mit einer Kamera fernzusteuern. Es funktiniert zwar noch nicht ganz so schnell, wie bei den Fussbalrobotern der Midsize-Leage, aber immerhin.
Das Setup:
- Logitech Quickcam Pro4000, 1m über Boden
- USB-Infrarot Transceiver daneben
- SCILAB mit SIP zur Steuerung und Bildverarbeitung
Zum Test habe ich dem Roboter mal die Wegpunkte des NIkolaushauses vorgegeben und die Bahn aufgezeichnet. Das ganze siehe ein wenig wackelig aus, besonders an der oberen Kante. Bei der oberen Kante bestand das Problem, dass der ASURO am Rand des Erfassungsbereiches der IR-Sendediode gefahren ist und teilweise Kommandos verloren hat. Die IR-Sendediode des USB-Transceivers hat leider nur einen Öffnungswinkel von 17°, sodass der Lichkegel relativ schmal ist. Ich möchte die Kamera und den Sender aber höher hängen, damit der Aktionsradius des ASURO größer gemacht werden kann.
Die ersten Bilder der Bildverarbeitung habe ich hier gepostet:
https://www.roboternetz.de/phpBB2/viewtopic.php?t=15731
Gruss,
stochri
Liste der Anhänge anzeigen (Anzahl: 2)
Hallo Storchi,
nein, ich habe noch nie mit SCILAB gearbeitet.
Den Trick mit Flächenschwerpunkt habe zuerst gar nicht so mitgekriegt. Ist aber eine feine und einfache Sache und macht das Leben ziemlich leicht.
Ich habe 'mal ein wenig experimentiert. Als Basis habe ich dein ASURO-Foto genommen.
Ich habe das Bild pixelweise abgearbeitet. Alle Punkte, die eine H-Wert zwischen 350 ... 360 ... 0 ... 10 haben (also rot) und eine Sättigung von min. 70%, habe ich in die Mittelwertberechnung einbezogen, alle anderen ignoriert. Verarbeitungszeit: 150 mSec bei einem 320 x 240 großen Bild (AMD +2800, Windows XP, Visual Basic .NET).
Ich habe mir die Position des Schwerpunkts gemerkt und danach nur noch ein 50 Pixel x 50 Pixel großes Bild um den Schwerpunkt herum analysiert. Hat 3 mSec gedauert. Wenn man davon ausgeht, dass eine Webcam 30 fps liefert und 5-10 Messungen pro Sekunde bereits ein gutes Ergebnis liefern sollten, ist das schon so gut wie Echtzeit.
Danach habe ich deinem ASURO einen grünen Punkt auf der Nase verpasst (zum Detektieren der Orientierung, s. Bild) und bei der Berechnung den "grünen" und den "roten Schwerpunkt" berechnet (Ergebnis s. 2.Bild).
Das mit dem Grün hat nicht ganz so gut geklappt. Der ASURO hat da einige grüne Flächen "onboard". Man sollte also nur solche Flächen berücksichtigen, die eine min. Größe haben.
Ingesamt finde ich das Resultat sehr ermutigend. Gleich morgen werde ich schauen, dass ich an eine Webcam herankomme.
Gruß Red Baron
Liste der Anhänge anzeigen (Anzahl: 1)
Hallo Red Baron,
wie wäre es mit der Analyse des folgenden Bildes ?
Vieleicht wäre es praktischer, wenn man den Ball grün machen würde, wie im Beispiel von Dir oben. Aber ich glaube, irgendwann wird man wohl kaum drumrum kommen, mehrere Gegenstände gleicher Farbe im Bild zu finden Ich bin noch am Überlegen, wie man es schaffen könnte, die beiden roten Dinge auseinander zu halten ....
Gruss,
stochri
Liste der Anhänge anzeigen (Anzahl: 1)
Hallo Zusammen,
im Moment versuche ich gerade, einen Algorithmus für die Suche nach zwei Objekten in einem Bild zu realisieren.
Es klappt schon, nur ist der Algorithmus noch ein wenig langsam. Die Tiefpassfilterung braucht etwas zuviel Zeit.