Ja, ein spannendes Thema.

Das von Dir genannte Beispiel ist für die praktische Anwendung in der Robotik von hoher Bedeutung.

Je nach Anwendungszweck müssen autonome Roboter so schnell wie möglich auf ihre Umwelt reagieren.
Das hat jetzt nur noch wenig mit Deinem Projekt zutun aber für die zukünftige Netze ist es ein unverzichtbares Thema.

In der Praxis haben bisherige Modelle neuronaler Netze einige Nachteile, eines davon ist das wir vorhandenes Wissen nicht
auf autonome Systeme übertragen können. Erfahrungen kann man nicht kopieren und vererben sondern müssen immer trainiert werden.
Erschwerend hinzu kommt das Trainingsdaten nur simuliert werden und sehr Anwendungsspezifisch sind.

Kompliziert wird es also immer dann wenn ein autonomes System vor ungelösten Aufgaben steht.
Die Königsklasse künstlicher Intelligenz.

Um Entscheidungsbäume zu entwickeln braucht es immer Antworten die sich durch mangelnde Erfahrung
in bisher gelernten Mustern nicht so leicht finden lassen. Das System ist also Situationsbedingt
unfähig selbstständig zu entscheiden.

Um das zu verbessern orientiert man sich heute immer mehr an der Funktionsweise des menschlichen
Gehirns, genauer gesagt an unserem Großhirn. Den Ansatz verfolgt auch IBM mit True North,
ein Prozessor der die Neocortex von Säugetieren in einfacher Form simuliert.

Die Leistung wird aber erst durch Spiking Netze möglich die sich somit auch besser eignen als Multilayer Perceptron
vor allem dann wenn es sich um Anwendungsbereiche wie Sensorik und Mustererkennung handelt.