Hallo !

Im Rahmen eines Studienprojektes soll die Position eines Roboters auf einem weißen Tisch erkannt werden. Der Roboter besitzt die Form eines Rechtecks und vorne und hinten farbige Markierungen(z.B. vorne mitte grünes Quadrat , hinten mitte rotes Quadrat). Der Tisch wird von einer USB-Kamera aufgenommen(Auflösung 640x480, Bild leicht verrauscht) und das Bild an einen PC übermittelt.
Zur Bilderkennung sollen aber nicht die klassischen Verfahren eingesetzt werden, sondern ein Modell vergleichbar zum dem des menschlichen Gehirns entwickelt werden. Dort werden z.B. verschieden gerasterte Versionen des Originalbildes zur Positionsbestimmung eingesetzt bzw. vom Gehirn verarbeitet(bei der ersten Version könnte z.B. ein Pixel des gespeicherten Bildes 4 Pixeln des Originalbildes entsprechen. Bei der zweiten Version z.B. 8 Pixel etc.).
Meine Idee ist nun die verschiedenen Verarbeitungseinheiten durch neuronale Netze nachzubilden, wobei die Eingabe die entsprechend aufbereiteten Versionen des Originalbildes und die Ausgabe eine Zahl ist, welche ein Pixel eindeutig identifiziert z.B. 0-307199. Allerdings weiß ich nicht, welche NN-Architektur dafür geeignet ist und ob die Geschwindigkeit heutiger Rechner bei der Bildgröße überhaupt dafür ausreicht(Netz sollte in max. 24h trainierbar sein) Wäre dankbar für Links oder Kommentare zu diesem Thema.

Grüße
Stefan