Hallo,

interessantes Thema!

Hatte mich vor Jahren auch mal näher damit beschäftigt und um es etwas besser zu verstehen einen Mini-Taschenrechner auf dieser Basis erstellt. Das Ganze war einfach und überschaubar, sowie auf Grund des minimalen Leistungsumfanges auch recht schnell angelernt.
Als Beispiel konnte ich mir das Ganze dann auch noch bei zwei Antriebs-Motoren, einem Bumper und zwei gerichteten Entfernungsmessern vorstellen, wobei auch der Lernprozess schon erheblich wäre.

Allerdings habe ich dann Überlegungen getroffen, wie ich dies unter den Gesichtspunkten bezüglich des aktuellen Bot anwenden könnte.
- drehzalreguliertes Antriebssystem mit Encodern, Rampen, sowie Strom und Spannungüberwachung
- mehrere Sonarsensoren mit verschieden ausgerichteten Keulen
- Kollisionsbumpern
- Kinect-System zur Tiefenmessung bei Umrissprojektion
- Kompass und Lagesensoren
- inzwischen auch noch ein Rotationslaser
Hinzu kommen verfälschte Messwerte durch Umgebungseinflüsse, besonders beim Kompass aber auch andere Einflussfaktoren.

Da fehlte mir dann völlig der Ansatz für ein neuronales Netz, was beherrschbar , noch zeitrelevant anlernbar wäre und letztendlich auch noch ein komplexes Ziel verfolgen könnte. Also später mehr als nur eine kollisionsfreie Bewegung. Einfach nur ein trial & error führt da wohl in absehbarer Zeit nicht zum Erfolg.
Und das ist ja „nur“ das Antriebssystem,… da kommen ja noch viele andere Dinge, wie Spracherkennung, Ausgabe, Raderdedektion, Objekterkennung etc. hinzu.

So gesehen habe ich mich ganz schnell wieder den für mich überschaubaren Möglichkeiten gewidmet, denn zu einem „Chappie“ ist es wohl noch ein sehr sehr langer Weg.


Gruß André