____________________________________________
Mehr Infos zu meinem Projekt unter: http://www.aurob.com
Ich würde die Kamera an der Oberseite des Notebooks montieren. Es entsteht zwar ein toter Winkel, das sollte aber kein Problem sein, da wenn du dich bewegst dieses Bild schon gesehen hast, somit weißt du immer was in diesem Bereich ist. Sollte etwas kurzfristig in diesem Bereich auftauchen (Tier rennt durch diesen Bereich,....) hast du immer noch den Laserscanner.
Eine weitere Möglichkeit wäre die Cam mit einem Servo zu bewegen. Die Kamera montierst du in Höhe Oberkante des NB und an der Vorderseite des Roboters. Mit einem Servo schwenkst du die Kamera das du in die "Ferne" sehen kannst und auch den nahen Bereich sehen kannst, wenn es nötig ist.
Erfahrungen habe ich leider keine in diesem Bereich.
MfG Hannes
Hallo Hannes!
Danke mal für Dein Feedback!
Ich werde es mal an der Position versuchen. Bzgl. Servo - ich verwende die Kinect, d.h. die hat bereits einen Servo eingebaut. Die Stellmöglichkeiten sind zwar beschränkt, aber ich denke für meine Zwecke sollte es reichen.
Ich habe vor meinen Bot mehrere Funktionen zu spendieren - das eine ist eben die Wegerkennung - hier wird die Kinect einfach nach unten sehen und sich nur auf den Weg konzentrieren. Wenn ich nicht gerade im Wegerkennungsmode bin, soll die Kamera auch Gesichtserkennung (funktioniert bereits) machen, dafür muss sie weiter nach oben sehen.
Ev. komme ich am Wochenende zum Testen, dann werde ich mal ein Video live stellen
LG, Arno
____________________________________________
Mehr Infos zu meinem Projekt unter: http://www.aurob.com
o etwas ähnliches hab ich auch am kochen.
Mein Fahrzeug ist auch aus ausgeschlachteten Rollstuhlteilen konstruiert.
Kinect will ich aber noch nicht verwenden weil mir eine Offboard-Computervariante zum Test besser zusagt.
Daher kommt eine normale Funkkamera zum Einsatz. Das Notebook mit seiner Zusatzperipherie, wie Funkempfänger, Sender usw. steht auf einem Campingtisch und läßt mir auch zum Programmieren ausreichend Spielraum. Wenn nur nicht so verdammt viele Reflex auf dem Display wäre...
Mit GPS wird dann grob navigiert um z.B Abzweigungen zu bestimmen.
Um das Fahrzeug auf der Strasse zu halten wird zur Feinpositionierung Bildverabeitung verwendet.
Dabei zeigte sich, dass Fluchtpunktbestimmung nur bei halbwegs geraden Strassen- oder Wegkanten funktioniert. Von unregelmäßigen Rasenkanten begrnzte Weg werden kaum erkannt. Dort hilft nur, Farbunterschiede auszuwerten und einen Wegverlauf zu renkonstruieren.
Der kamerawinkel ist nicht dramatisch, solange du die Strasse mit einer tiefen Perspektive siehst.
Prinzipiell ginge auch eine senkrecht nach unten gerichtete Kamera und ein Kantenerkenner. Das würde aber wahrsch. nur selten was bringen.
Waagerechte Kamera geht auch ganz gut, solange du nicht direkt "vor die Füße" blicken willst. Damit lassen sich auch Abzweigungen sehen.
Zur optischen Hinderniserkennung ist ca. 10...20m Voraussicht ganz gut. Im Nahbereich liefert dann das Kinect Distanzinformationen. Das würde ich für eine gute Kombination halten, wenn der Robbi flüssig fahren soll.
Ich hab auch ein paar Frage an dich:
Mit welchem Programm machst du Bildverarbeitung? Welche weiteren Algorithmen hast du angedacht?
Willst du gleich mit Onboardcomputer loslegen oder erst einmal mit Bauchladennotebook und Webcam losmarschieren und Freilandtests machen?
LG Thoralf
paar links:
http://www.youtube.com/watch?v=Rbhd50XlnEk
http://www.youtube.com/watch?v=vPKVfSM0cyU
http://www.youtube.com/watch?v=nb0VpSYtJ_Y
http://www.youtube.com/watch?v=2brPk3Eb1wY
Hallo Thoralf!
Danke mal für Deinen Beitrag - irgendwie ist das Thema zwar nicht wegzudenken, aber bis jetzt hab ich wenige gefunden die Feedback geben und/oder auch daran Arbeiten ...
Ich hab meine Notebook schon mehr oder weniger fix am Bot - ist zwar zum Testen ein wenig mühsam, aber ich bin mitunter dazu übergegangen alles auf Video aufzunehmen und mit diesen dann zu experimentieren - somit muss ich auch nicht immer mit dem Bot unterwegs sein.
Derzeit bin ich eben gerade am Suchen nach der optimalen Cam-Position - aber wie Du schon schreibst, so wichtig scheint die gar nicht zu sein.
Ich entwickle aktuell mit C# (ist halt einfach) und emgucv für die optische Unterstützung. Mein Ansatz ist derzeit eine Farbvergleich - ausgeschlossen werden mal Farben die (hoffentlich) nicht auf einem Weg unterkommen - wie z.B. Grün und Blau
Direkt vor dem Bot hab ich mein ROI (region of interest) festgelegt - ich gehe davon aus, dass mein Bot beim Starten "richtig" steht - d.h. das festgelegte ROI enthält den fahrbaren/erlaubten Bereich. Mein ROI vergleiche ich dann mit dem Rest des Bildes und versuche so den Weg/Bereich für die Weiterfahrt zu finden.
Mit vanishing point detection hab ich nicht mehr weitergemacht, da ich hier nicht wirklich zu einem für mich brauchbaren Ergebnis gekommen bin. Ich bewege mich sehr viel in Parkanlagen - da bin ich einfach nicht weitergekommen, was möglicherweise an meinem eingeschränktes Wissen bzgl. Bildanalyse zu tun hat
Generell bin ich glaube ich noch weit weg von einer wirklich brauchbaren Lösung. Primär spiele ich derzeit eben mit ROI (finden von erlaubten Bereichen mit einer gewissen Abweichung), hough transformation, K-Means Clustering herum (in Kombination mit div. Smoothed filter usw). Immer wenn ich denke ich hab eine halbwegs gute Lösung, kommt die nächste Auswertung mit anderen Randbedingungen und ich stehe wieder am Anfang ;(
Das Letze YouTube Video wäre eigentlich so mein angestrebtes Ziel
Was verwendest Du? Wie sieht denn dein Bot aus? Was ist Dein Ziel?
LG, Arno
____________________________________________
Mehr Infos zu meinem Projekt unter: http://www.aurob.com
Lesezeichen