Was das Einschätzen von Entfernungen angeht, sind die menschlichen Fähigkeiten besonders bei grösseren Entfernungen sehr eingeschränkt.Wenn wir jemanden angucken können wir auch nicht auf den cm genau sagen wie weit eine Person oder ein gegenstand weg ist. Durch anstrengen der augen und etwas zeit können wir es genauer schätzen. aber für viele altägliche sachen ist es nur wichtig ob es 1 , 2 oder 3 m sind.
Ich kann mich noch erinnern, dass wir früher in bei Grundausbildung bei der Bundeswehr mal Entfernungen von grösseren Gegenständen (Häusern, Fahrzeugen, Personen) schätzen sollten. Da waren Fehlschätzungen von 100% und mehr eher die Regel als die Ausnahme.
Dabei nutzt unser Gehirn aber noch weitere Informationen die uns aufgrund unserer Intelligenz oder unseres Wissens und nicht unserer Sensorik zur Verfügung stehen.und wenn es um dinge geht wie einen Arm zu positionieren dann befindet sich das objekt unter 1m entfernt was wiederum die genauigkeit erhöht weil die Winkel der Augen größer werden.
Wenn wir jemandem die Hand geben wissen wir z.B. automatisch, dass wir die Entfernung zur Hand und nicht zu den Augen des Gegenübers abschätzen müssen.
Wenn wir etwas auf den Tisch stellen, wissen wir, dass es auf die Entfernung der vordere Tischkante ankommt auch wenn die hintere Tischkante optisch eventuell einen viel markanteren Kontrast zur Wand darstellt.
Beim Einschätzen grösserer Entfernungen nutzen wir auch meist die uns bekannte Grösse eines Objekts, D.h. wir messen nicht mit den Augen die Entfernung, sondern wissen wir gross ein Objekt ist und schätzen dessen Entfernung anhand der Grösse in der wir es sehen.
D.h. wir Menschen kombinieren unsere Sensorik mit eine riesigen Datenbank voller Infos und kommen oft nur duch die Kombination auf brauchbare Ergebnisse.
Auch hier greifen wir auf weitere Informationen zu, nämlich die Geschwindigkeit des Objektes.Oder wenn wir über die Straße gehen gucken wir auch nur ob das Auto weit genug weg ist wenn ich sagen kann >30m dann renn ich los ^^ ( natürlich nicht an einer schnellstraße )
Wir warten ja nicht auf ein parkendes Auto, wissen dass Fahräder meist langsamer sind als Motorräder und Autos. Wir schätzen ab, wie schnell das Fahrzeug fährt, ob es beschleunigt, konstant fährt oder abbremst...
Dabei nutzen wir die optische Grössenänderung, wahrscheinlich unser Gehör und auf jedenfall auch wieder unsere grosse Datenbank mit Erfahrungswerten.
Natürlich lässt sich die Geschwindigkeit auch aus der Entfernungsänderung errechnen, aber dafür muss die Berechnung der Entfernung schnell genug gehen.
OK, dann habe ich jetzt kapiert, was du mit "Übergang" meintest.@recycle
Wenn ich den Roboter jemanden angucken lasse dann gibt es in meinem Beispiel ja den Schuh und der ist bei Laborbedingungen ja andersfarbig als der boden daher gibt es dort einen spontanen übergang zu einer anderen Farbe und am oberen ende des objektes gibt es wieder so einen Übergang.
Was Forschung und Experimentieren betrifft, ist das was du da planst sicher interessant und wird in der Zukunft wahrscheinlich auch an Bedeutung gewinnen.
Da du dafür eine Menge Rechenleistung, Speicher usw. brauchst, würde ich es aber wie gesagt erst mal auf dem PC angehen.
Für einen Roboter ist es glaube ich momentan noch nichts, da es da heute sicher noch Sinn macht sparsam mit den Resourcen umzugehen. Im Nahbereich lassen sich Entfernungen mit den "üblichen" IR- und US-Sensoren einfacher, genauer und mit wesentlich weniger Rechenleistung ermitteln.
Auf grössere Entfernungen wird die Messung über Bildauswertung vermutlich so ungenau, dass sie für einen Roboter nicht mehr nutzbar sind.
Vieles von dem, wo wir Menschen noch mit sehr ungenauen "Messwerten" arbeiten können weil wir diese über Erfahrungswerte usw. für uns brauchbar machen, dürfte für einen Roboter zur Erfüllung seiner Aufgaben entweder nicht ausreichen oder sowieso gar nicht interessant sein. (wir Menschen sammeln ja auch eine Unmenge Informationen, die wir eigentlich gar nicht brauchen und irgendwann wieder löschen)
Irgendwann wird die Entfernungsmessung über Kameras aber bestimmt mal eine grössere Rolle bekommen.
Wenn ein Roboter sowieso mit Bildverarbeitung arbeitet und Rechenleistung keine Rolle mehr spielt, liegt es ja nahe die Entfernung mindestens ergänzend zu anderen Sensoren auch über die Kameras auszuwerten.
Lesezeichen