Also ich hätte hier mal zwei ganz frisch decodierte Bilder...

hier ohne Vergrößerung:
Bild hier  

und hier mit Vergrößerung(2x):
Bild hier  
(nein, das bin nicht ich)

Die wurden beide nach der von mir oben beschriebenen Variante ausgewertet,
was beim zweiten verständlicherweise viel länger gedauert hat als beim ersten.

Wie man sieht sind die Ergebnisse garnicht mal so schlecht, aber ich denke mir halt daß es auch besser gehen müsste.


@jeffrey
also bei der Schwelle willst du alles über 150 und alles unter 25 abschneiden, richtig?
Da ist es halt ein bischen schade, daß man diese Werte selbst festlegen muss
(schöner wäre es wenn derartige Grenzen automatisch errechnet werden könnten)

Was die Bewertung betrifft habe ich inzwischen einen relativ vielversprechenden Ansatz gefunden...

log(max(Bilder,[],3) ./ min(Bilder,[],3)));

Laut Wikipedia errechnet sich nämlich der Kontrast zu max/min, und das mache ich eben für jedes Pixel einzeln.
Den Logarithmus verwende ich, weil ein paar kleine Spiegelungen im Bild sind, bei denen der Kontrast natürlich extrem erhöht ist.

Resultat ist ein Bild bei dem die Schatten interessanterweise wesentlich dunkler sind als der Rest.
(also auch dunkler als Stellen die auf den Originalbildern aufgrund der Farbe des Objekts relativ dunkel sind)