Moin,

also meine Ansicht nach sollten die, ich nenns mal allg., "Personenverfolgungssensoren" in die Augen - schließlich ist es eine Art von "sehen": Und es sieht bestimmt sehr viel natürlicher aus, wenn der Robot mit seinem Kopf umherschaut und sucht.

Was mir dann so spontan einfällt, ist die Wii. In der Wii-Remote befindet sich eine Kamera mit einen IR-Filter (die lässt IR durch und filtert alles andere). (Die Wii-Remote berechnet dann ihre Position anhand der 2. LEDs in der "Sensor"-Bar am TV)
Wenn man also zb die CMUCam nimmt, einen IR Filter vorbastelt (einfach ein schwarzes Fotodia nehmen, braucht man kein teuren Filter kaufen), je Auge. so kann man recht schnell - also in Echtzeit - eine Ungefähre Triangulation durchführen.
Software mäßig braucht man ja pro Kamera und Bild nur einen weißen Punkt auf schwarzem Hintergrund suchen und Position im Bild bestimmen ... hmm... eigentlich sollte für einfaches Richtungsorten schon eine Kamera reichen. .... wenn man dann einen gewissen Abstand einhalten will oder sowas, kann man ja noch einen Ultraschall nutzen, beispielsweise, oder halt 2 Kameras.
Wenn ich mich rechtentsinne, sollten die CMUCams sogar schon in der Lage sein, von Haus aus, die Pos von so einem weissen Punkt zurückzugeben. Auf nem Controller wäre dann nicht mehr viel zu tun.

So... das waren jetzt alles recht spontane Ideen - also vielleicht auch alles Blödsinn.

/Stephan