Servus,

ich tüftle derzeit an einer Sensor-Linearisierung herum und komme empirisch auf keine saubere Lösung. Das Problem ist, ich habe keine lineare Funktion. Der Sensor an sich ist ein LDR mit einem Trimmpotentiometer, welcher über einen ADC digitalisiert wird in 10-Bit-Auflösung (0...1023). LDR ist gegen GND, das Poti ist gegen Uref geschaltet.

Die Funktion des LDR's zum ADC-Wert:

ADC = (LDR * 1024) / (LDR * R1)

Umgestellt nach LDR (um aus dem ADC-Wert den LDR-Wert zu errechnen):

LDR = (R1 * ADC) / (1024 - ADC)

Nun habe ich durch mehrfache Messungen sehr genaue Referenzwerte ermittelt. Diese sind an vier Stützstellen (im 1/3-Raster) ermittelt worden.

512 => 3/3 (1,000)
559 => 2/3 (0,666)
679 => 1/3 (0,333)
983 => 0/3 (0,000)

512 ist halbe ADC-Referenzspannung. Das wurde mit dem Potentiometer (R1) bei exakt 100% Lichtstärke einjustiert. Der Rest ist über exakte Zu- und Abschaltung am Messobjekt ausgemessen worden.

http://wiesolator.gotdns.org/rn/Licht-Kurve.PNG

Hier mein Versuche es in der Tabellenkalkulation anzunähern:

http://wiesolator.gotdns.org/rn/funktion.png

Weiß jemand ein Verfahren bzw. eine Vorgehensweise, wie man aus solchen (vier) Stützstellen eine saubere Gleichung ermitteln kann, die alle Zwischenpunkte (ADC-Werte) errechnen kann?

Grüße Wolfgang