Hallo Zusammen,

Die Problemstellung / Fragestellung ist ja allgemein bekannt. Seit einiger Zeit frage ich mich, ob man nicht mit einigen aus der Natur entliehenen Tricks die Effizienz steigern könnte. Bei meinen Recherchen im Netz habe ich keine Hinweise gefunden, daß irgendwer in der Richtung ernsthaft entwickelt oder forscht, die mir vorschwebt.

Meine Ideen:

a) Man macht aus der Kamera ein künstliches Auge. In erster Linie habe ich dabei einen variablen Focus und eine Beweglichkeit in zwi Ebenen über einen gewissen Winkelbereich im Hinterkopf

b) man Gewichtet die Sensorfläche - geringere Auflösung am Rand, höhere Auflösung in der Mitte. Gleiches evtl. mit Farb- und Helligkeitsinformationen: höhere Auflösung in den Hell-Dunkel Informationen als in den Farbinformationen.

c) das Ganze natürlich als Stereo-Kamera gedoppelt.

Daraus würden sich meiner Meinung nach folgende Möglichkeiten ergeben:

Entfernungsmessung über Focus:
wie bei den früheren Digicams fährt man den Focus ein bischen vor und zurück und stoppt , wenn der Bereich in der Bildmitte den höchten Kontrast aufweist. Aus der Calibrierung kann ich ablesen, wie weit das Objekt entfernt ist. Sicherlich nichts, was mit 30fps funktioniert, was aber IMHO auch nicht nötig ist, wenn die Messungen dafür kontinuierlich erfolgen. Vielleicht gibt es auch noch smartere Algorithmen für Auto-Focus Systeme, das ist wohl das simpelste...

Entfernungsmessung über Parallaxe:
Ich identifiziere ein Objekt (Kantenerkennung) und richte beide Augen darauf aus. Aus der Calibrierung der Winkel kann ich die Entfernung ableiten

Reduktion der Datenmengen:
Der Mensch erfasst ein Bild oder seine Umgebung auch schrittweise und kann sich in ihr trotzdem kollisionsfrei bewegen (meistens). Neue, identifizierte Kanten erfahren erstmal höhere Aufmerksamkeit. Objekte, die sich bewegen, erfahrer höhere Aufmerksamkeit, statische und bekannte Objekte werden seltener in den Focus gerückt. Um eine Bewegung am Rande des Blickfelds wahrzunehmen, reicht auch eine verringerte Datenmenge aus, um das Objekt genauer zu erfassen muss man dann natürlich den Blick darauf richten und den Kopf(oder ganzen Bot) drehen.

Mechanisch ist das natürlich ein nicht unerheblicher Aufwand, dafür könnte ich mir vorstellen daß sich in der Verarbeitung der Daten ganz neue Möglichkeiten ergeben. Insbesonders wenn man solche Daten mit anderen Sensoren (Ultraschall-Radar, etc.pp. verkoppelt).

Was haltet ihr von der Idee?

Gruß
Reinald