@Moppi
Ich fasse mal zusammen:
ich habe, wie im TOP beschrieben, zunächst nur ein stat. Verfahren gesucht, das ähnlich wie ein Kalman- oder ein Partikelfilter (SMC) in der Lage ist, Sensorwerte nach ihrer stat. Zuverlässigkeit zu gewichten, nur einfacher und dadurch mit weniger Rechenaufand (Matrizenrechnung etc), auch dutzende e-Funktionen sind m.E. für den Dauerbetrieb auf einem kleinen µC zu aufwändig. Dass es dann nicht 100% so exakt wie ein Kalman- oder SMC Filter sein kann, ist ntl auch klar.
Die stat. Datenbasis für die Auswertung ist durch "repräsentative" Eichstichproben erstellt worden; alternativ könnten bei anderen Sensoren auch die Daten von Herstellern verwendet werden, das habe ich aber noch nicht betrachtet (kommt noch).
Statistiken auf der Basis von Datenerhebungen und Standardabw. können natürlich nie erkenntnistheoretische "Gewissheit" erzeugen, aber nach der Theorie der Statistik eine gewisse (rel. hohe) Wahrscheinlichkeit, und die kann deutlich besser sein als einfache arithmetische Mittel oder Low-Pass- oder Medianfilter, die ja auch nur irgendwelche Werte bevorzugen oder "herausfiltern".
Unbenommen ist je nach Ergebnis die weitere Datenverarbeitung (z.B. ob hier evtl doch zu viele "Ausreißer" aufgetreten sind, so dass man evtl noch weiter glätten, gewichten oder filtern muss).
Meine eigene Idee mit (1-Standardabw.) gewichtete hier für die Durchschnitte noch zu schwach.
Die gewichteten Durchschnitte per Kehrwert der Sensor-"Ungenauigkeit", wie in Wiki beschrieben, ist da offenbar eine gangbare Methode, nur was hier unter "Ungenauigkeit" zu verstehen ist, ist dort nicht exakt spezifiziert.
(1/Standardabw) als Wichtungsfaktor gewichtete aber immerhin schon deutlich besser in Richtung "zuverlässigere Quellen";
allerdings Holominos Bereechnung mit den komplizierteren vielfachen e-Funktionen ("Wahrscheinlichkeitsdichtefunktion-Methode"), die statistisch sicher deutlich sauberer und verlässlicher als einfache gewichtete Durchschnitte sind, zeigte, dass diese immer noch näher am "zuverlässigsten Sensor" liegen, d.h. (1/Standardabw) ist immer noch tendenziell zu schwach gewichtet.
Die Idee allerdings, (1/Varianz) als Wichtungsfaktor einzuführen, brachte das Ergebnis, dass jetzt das Ergebnis im Beispiel-Fall 1 (ca. 1m Distanz) sehr nah an der Wahrscheinlichkeitsdichtefunktion-Methode liegt. Als alleiniger Vergleich reicht dies natl noch nicht.
Was also wichtig wäre, wäre zumindest als Vergleich das Ergebnis für Fall 2 (ca. 10cm-Distanz, s. TOP), ggf noch weitere.
Dann könnte man entscheiden, ob entweder wirklich (1/Varianz) der tendenziell bessere Wichtungsfaktor ist oder doch lieber der etwas schwächere per (1/Standardabw).
@Holomino:
könntest du bitte den Fall 2 mal durchrechnen? Dein Programm wirst du ja noch haben, und ich selber kenne ja den gesamten Programmcode noch nicht.
Eventuell hast du auch eine Idee für einen 3. Fall, den man exemplarisch ebenfalls über ganz andere Messbereiche betrachten und vergleichen könnte..?
Oder könntest du vlt auch deinen Programmcode (C++) einfach hier einstellen, dann kann ich auch selber noch etliche solcher Tests machen?
Lesezeichen