Das ist gar nicht sehr merkwürdig. Das Verhalten der NNs hängt stark von der Netzarchitektur ab und wie diese auszusehen hat, ist schwer ergründbar. Deswegen begnügt man sich wohl bei weniger komplexen Problemen mit einer einzigen Hiddenschicht. Falsch gewählte Architekturen können schnell zum Overfitting- dem Auswendiglernen der Trainingsdaten führen.Zitat von Sternthaler
Deswegen ist es aus oben genannten Gründen sinnlos, eine riesige Anzahl von Hidden layers zu benutzen. Die Fähigkeit der linearen Separierbarkeit der Eingabevektoren kann dermaßen ansteigen, dass sich die Zuordnungsrate der Testvektoren in der Entwicklung verschlechtert. Desweiteren muss das Problem auch erstmal linear seperierbar sein. Um dies zu erreichen, ist ein Vorwissen über die Problematik und dessen Verhalten unabdingbar. Die bisher erdachten NNs sind mitnichten universelle Problemlöser. Unter dem vom Verfasser dieses Threads angesprochenen Gesichtspunkt der KI- Entwicklung spielen diese Modelle nach meiner Auffassung als Basisansatz keine Rolle. Ich würde ihnen höchsten einen Beitrag am Rande für Speziallösungen zubilligen.Zitat von xunwichtig
Ich finde es übrigens bemerkenswert, dass Du xunwichtig seit Deinem neunten Lebensjahr an Intelligenz arbeitest. Das meine ich ernst. Vielleicht hast Du Lust etwas aus Deinen letzten zwei Jahren Schaffenskraft vorzustellen. Ich bin mir sicher, viele hier wären sehr interessiert.
Lesezeichen