das mit dem "Innen" erkenne ich nicht, KI bedient sich einfach künstlicher neuronaler Netze:
stell dir vor z.B. Mustererkennung, vereinfacht: Zeichenerkennung
er soll 2 untereinanderstehende dots (X) in einem 5*5 Pixel Bildraster erkennen und die Position ausgeben:
Code:
.....
.....
..X..
..X..
.....
Code:
.....
.....
.....
...X.
...X.
Dann kannst du entweder für jede der 20 Treffer-Möglichkeiten für die 25 Eingänge (Pixel) eine eigene wenn-dann-Fallunterscheidung programmieren (per Endlicher oder Zustands- Automat)
oder ein neuronales Netz mit 25 Eingängen für die einzelnen Pixel und ein paar Ausgängen, um die Position binär zu kodieren. In der Trainingsphase zeigst du ihm ein paar Zufalls-Muster und bestätigst oder verwirfst seine "Vermutung" ob es das ist was gesucht ist. Wenn die Trefferquote in der Trainings-/Lernphase ausreichend hoch ist, lässt du ihn in der Arbeitsphase alleine suchen.
Das wäre vielleicht schon mit einem einschichtigen Feed-Forward-Netz zu lösen, sicher mit einem 2-schichtigen Backpropagation-Netz.
Nun soll er zusätzlich verschiedene weitere Zeichenmuster wie diagonal gesetzte "Striche" und auch 3 untereinanderstehende und auch einzelne Dots und/oder auch "Kreise" zusätzlich erkennen.
Das wäre schon schwieriger per Zustandsautomat etc. zu programmieren,
als lernfähiges Netz gibst du ihm hier am besten wieder ein 2-schichtiges Backpropagation Netz, wieder mit 25 Eingängen und ein paar mehr Ausgängen (für Kodierung von Art des erkannten Musters, der einzelnen Positionen und der Gesamtanzahl), trainierst ihn, und lässt ihn dann wieder machen.
Kommt es zwischendurch zu einer "falschen Klassifizierung", so wird dieses falsch erkannte Muster erneut, korrigiert, eintrainiert.
Das ist KI.
Mit Gesichtserkennung oder Wegesuche (z.B. Travelling Salesman Problem mit einem neuronalen Hopfield Netz etc.) ist es prinzipiell nicht anders:
kein Hexenwerk.
Lesezeichen