Die Symbolerkennung funktioniert auch halbwegs, da könnte man sogar etwas damit anfangen, wenn man herausgefunden hat, unter welchen Bedingungen das praktikabel ist.
Leider sind diese Demos immer hübsch anzusehen. Ich kann jetzt auch ein Video davon machen, wenn ich die Kamera auf das fahrbare Chassis montiert habe. Dann schaffe ich halbwegs taugliche Bedingungen (wenn vielleicht auch praxisferne Bedingungen, das weiß ja keiner, der das Video nicht herstellt) und zeige am PC die Auswertung der Kamera. Das ist durchaus eindrucksvoll.
Bloß was macht man mit den Ergebnissen, die für Linien z.B. ausgeworfen werden. Weil Linien können überall erkannt werden: eine offenstehende Tür, ein Mauervorsprung, eine Ecke einer Wand, ein Schrank, Fenster, Teppiche, Stühle ... Um mit einer Linie was anfangen zu können, muss sie doch zuzuordnen sein.
Wenn ich es z.B. schaffe, einwandfrei einen blauen Ball zu verfolgen und weiß, dass es nur ein blaues Objekt im Sichtfeld gibt, dann bekäme ich vermutlich die Position des Objektes (als Koordinate, im zweidimensionalen Bild), vielleicht die Größe (Umfang oder Fläche) und die Richtung (vielleicht relativ zur Bildmitte). Aus diesen Angaben könnte ich ableiten, wie weit der blaue Ball weg ist und in welcher Richtung. Mit etwas Tüftelei könnte ich so einen Tischtennis spielenden Roboterarm steuern, oder einen Arm, der den blauen, fliegenden Ball einfängt.
Aber was tue ich mit Linien?
Mit der Symbolerkennung ist es auch so eine Sache, weil das auf eine bestimmte Entfernung funktioniert. Ein Symbol von der Größe 3*3cm wird auf eine Entfernung von 30 bis 50cm erkannt. Größere Entfernungen sind möglich, dann muss das Symbol größer werden (z.B. Apriltags). Auf 2m Entfernung müsste das Symbol dann vielleicht schon 20*20cm groß sein, um eine einwandfreie Erkennung und eine hohe Erkennungswahrscheinlichkeit zu bekommen.
MfG
Lesezeichen