Danke für den Tipp ...
Soweit war ich damals auch schon, aber die webcam hat nicht nur wie normale Webcams "pixelweiße" gerauscht, sondern auch "blockweise" d.h. auf einer fläche von ca. 30x30px hat sich die Farbe entlang von einem Kanal verschoben.

Ich hab damals immer2 Bildern genommen und die miteinander verrechnet.
D.h. wenn zwei Pixel nur eine Abweichung von durchschnittlich a ( a war einstellbar) hatten ( a > |[r1 + g1 + b1 ] / 3 - [r2 + g2 + b2] / 3|) hab ich das Pixel aus dem Zweiten Bild genommen, wenn nicht einfach nur die Werte wenn nicht hab ich das Pixel zunächst übersprungen und im einem zweiten Durchlauf Anhand der Differenz zu den umliegenden, schon bestimmten, Pixel im Ausgabebild entschieden ob, das Pixel aus dem ersten oder aus dem zweiten Bild genommen wurde.
Die Idee war ganz gut, bloß meine Umsetzung hat zu viel Rechenzeit benötigt. Dadurch ging die Framerate in den Keller und das verrechnen von 2 Bildern hat teilweise auch die Led gefressen.
Danach ist die Webcam völlig krepiert und ich hatte auch keine Lust mehr da großartig weiter zu programmieren.

Der Grund für meine Frage war nur, dass ich demnächst (nach meiner Facharbeit d.h. in 4-5 Wochen) wieder mit Bilderkennung experimentieren will.
Konkret: Ich will mit einer Kamera meinem Modellheli folgen.
Der hat 3 Positionslampen, die schön blinken, das sollte recht einfach zu machen sein.
Dann wert ich das ganze in Linux mit C umsetzen (ohne GUI) und für einfacheren Bildfilter auf asm zurück greifen.

Sebastian