Ich habe dieses Thema mit Interesse verfolgt, da ich auch an Projekten mit Visionsystemen arbeite.
Bei der Variante mit zwei Lasern (oder Sharpsensoren) könnte es zu folgendem Problem kommen:
Wenn der Mittelpunkt des Bildes auf eine Kante im Raum zeigt, leuchtet einer der Laser noch auf die Wand, der andere aber auf den Bereich hinter der Kante. D.h. die Punkte treffen nicht auf gleicher Höhe auf, sondern versetzt
So wie Pebisoft das in seinem Beitrag mit der Türkante beschrieben hat.
Jetzt frag ich mich, wie man solche Fälle filtern will? Denn ohne Korrektur würde das System falsche Werte anzeigen.
Die gleiche Problematik tritt auch auf, wenn man sehr schmale Gegenstände wie z.B. Stuhlbeine detektieren möchte. Im schlimmsten Fall leuchten beide Laser dran vorbei...
Hier der Lösungsansatz vom nux:
Wenn man das Modell nach dem nux'schen PrinziepNoch ein Ansatz meinerseits.
Man installiert eine Kamera und einen Laserpointer auf einer Plattform.
Der Laser wird nun in einem FEST definierten Winkel zu der Kamera eingestellt. Jetzt muss ich im Bild nur noch die Entfernung von Bildmitte zu dem Laserpunkt messen.aufbaut, hat man diese Probleme nicht. Deswegen würde ich diese Variante bevorzugen.
Gruß
Peter
Lesezeichen