Ich finde das Thema neuronale Netze auch faszinierend.
Möchte aber auch nachdem die neuronalen Netze hier überschwinglich gelobt wurden auch mal die Schattenseiten davon aufzeigen.
Zum einen wie schon erwähnt: Die Beherrschbarkeit bzw. komplexität des Netzes. Viele Ein und Ausgabevektoren bedeuten auch einen enormen Lernaufwand. Hier muss man zunächst die Ein und Ausgabeschichten passend modellieren, und danach einen ausreichend großen Satz an Testdaten bereitstellen. Insbesondere in der autonomen Robotik zeigen sich hier bereits die ersten Probleme auf. So kann man bei Bildverarbeitung sehr leicht passende Testdaten generieren, will man jedoch einem Roboter autonome Navigation durch eine unbekannte Umgebung beibringen steht man hier vor einigen Problemen.

Weiterhin hat man bei neuronalen Netzen gerne auch Probleme, dass das Netz auf ein bestimmtes Merkmal aber nicht den allgemeinen Fall trainiert wird. Beispiel hierfür. Ein Netz soll auf Fahrzeuge eines bestimmten Herstellers trainiert werden. Mit den Testdaten klappt das auch wunderbar, in Praxis jedoch gar nicht. Es stellt sich dann heraus. Die Testbilder hatten alle hellen Hintergrund, da Netz hat den hellen Hintergrund und nicht Merkmale des Fahrzeugs gelernt. In diesem Fall klingt das Problem leicht vermeidbar, diesen Fehler kann es jedoch auch wesentlich weniger offensichtlich geben.

Am Institut für Anthropomatik bei uns an der Uni war das Argument gegen neuronale Netze: Man kann nicht einsehen was das Netz letzendlich macht. Man kann nicht zeigen, dass der vom Netz gefundene Algorithmus optimal für das Problem ist. Nachdem man auch nicht einsieht, was das Netz macht kann man auch kaum von Hand nachoptimieren. Insbesondere in der Industrierobotik ist das stark von Nachteil, da man hier Zeit und damit Kosten sparen will bzw. muss.