Natürlich kann die Steuerung des linken und rechten Motors verfeinert werden. Indem man, richtig von HaWe dargestellt, mehr Ausgangsneuronen verwendet.

Das, was vorgestellt wurde, ist ein sehr einfacher Lernmechanismus, bei dem die möglichen Eingangszustände vorgegeben sind.
Soll das Netz selbstständig lernen, zum Beispiel nur mit der Information, ob das Verhalten "richtig" oder "falsch" war, wird es komplizierter.
Denn in diesem Fall hat das KNN keine Vorgabe, welche Fälle es, mit welchem Ergebnis, trainieren muss. Das Wissen darüber (also die Wahrheitstabelle)
könnte wieder von einem KNN eingespeist werden. Auch das Wissen, welcher Ausgang dann wann aktiviert werden muss.
Anders könnte aber auch eine Zielvorgabe formuliert werden, die beschreibt, dass das Ergebnis immer dann richtig ist, wenn beide Eingangsneuronen
nicht aktiviert (0) sind, also kein Signal bekommen. Dieses Traingsverfahren könnte ewig dauern, weil der Roboter dann durch Zufall herausfinden muss,
wann die Linie überfahren wurde und wann sie sich zwischen den Sensoren befindet. Das kann auch dazu führen, dass sich der Roboter sehr weit von
der Linie entfernt und erst nach einigen Minuten oder Stunden die Linie erneut überquert. Womöglich könnte so ein unkoordiniertes Training dann
Tage, Wochen oder Monate dauern. Vielleicht ist es aber auch so, dass das KNN die Aufgabe gar nicht lösen kann, weil die Linie verloren wurde
und dann das Herumdrehen an den Gewichten, der einzelnen Neuronen, zu keinem Ergebnis führen kann oder zu einem falschen Ergebnis. Denn das
beide Lichtsensoren "0" liefern (Bedingung, die oben genannt wurde), wäre auch dann bewerkstelligt, wenn der Roboter ganz einfach die Linie nicht überquert.
Er könnte also einfach lernen, sich von der Linie fernzuhalten, ohne ihr zu folgen.

Würde das KNN nach der Wahrheitstabelle trainiert und der Roboter würde die Linie verlieren, würde er einfach weiter geradeaus fahren.