- gestrichen -
- gestrichen -
Standardabweichung und Varianz sind absolute Werte. Bei Deiner Aufgabenstellung wächst die Standardabweichung mit dem Messwert. Das berücksichtigst Du nicht.
stimmt, ich habe sie selber (als rel. Fehler) näherungsweise ermittelt über den Messbereich (daher 5% oder 10% oder 20%), also
rel.Fehler = (Sollwert-Messwert) / Sollwert
die rel.Fehler dann quadriert,
dann alle Quadrate aufsummiert
durch die Anzahl der Messungen dividiert ("rel. Varianz")
und daraus die Wurzel gezogen ("rel.Standardabweichung")
Ich wüsste jetzt nicht, wie ichs besser machen könnte, hast du einen besseren, praktikableren Vorschlag?
Ja, den hätte ich. Aber Du solltest selber darauf kommen, wenn Du darüber nachdenkst, was mit Deiner Abweichung absolut und relativ passiert, wenn Du die doppelte Distanz misst.
die absoluten Ungenauigkeiten sind ja tatsächlich in etwa proportional zur Entfernung,
und die relativen Ungenauigkeiten, die hier einfließen, relativ gleichförmig über die Messdistanzen,
und ich messe ja die gleichen Sollwerte von Sensor zu Sensor.
D.h. wenn ein Hindernis in 10cm Entfernung ist, dann misst ein Sensor mit 5% SA exakter als einer mit 20% SA,
und wenn es in 1m Distanz ist, dann ebenfalls: in jedem Falle wären also die Messwerte gleichsinnig zu gewichten, was ich ja tue. (Klar wäre ein Kalmanfilter u.U schon besser!)
Von daher sehe ich jetzt noch nicht, was ich hier systematisch falsch machen würde -
Wie wäre also dein Vorschlag?
Du denkst zu einfach.
Wenn Du zwei Sensoren mit 10% Messfehler hast, die 100cm und 120cm messen, liegt der gewichtete Mittelwert nicht bei 110cm. Absolut misst der eine auf +/-10cm, der andere auf +/-12cm genau.
nein, sie messen beide bei 10% rel. Fehler auf 1m auf durchschnittlich (!) (absolut) 10cm genau, denn die Genauigkeit bemisst sich am echten Wert, nicht am (ggf. falsch gemessenen) Messwert,
und ist der echte Wert 120cm, dann haben beide mit 10% rel. Standardabw. 12cm durchschnittl. Messfehler.
einer mit 20% rel. Standardabw. hätte dann bei 1m allerdings 20cm durchschn. absoluten Fehler.
PS,
die Gewichtung erfolgt dann per Multiplikation der Messwerte mit dem Kehrwert der Unsicherheit, wie Wiki schrieb:
"Gewichtung von Messgrößen
In der Messtechnik kann es angebracht sein, verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten. Hierdurch wird erreicht, dass bei weiteren Berechnungen Werte mit kleineren Unsicherheiten entsprechend stärker gewichtet werden. "
Ich verstehe daher noch nicht, was hier systematisch wirklich falsch ist, und das Ergebnis gibt ja auch nur eine verlässlichere Tendenz, keine absolute erkenntnistheoretische Gewissheit!
- - - Aktualisiert - - -
ich rechne jetzt noch mal dein Beispiel mit zwei 10%-"unsicheren" Sensoren durch, wo einer 100cm misst und der andere 120cm:
S1: (1/0,1) *100 = 1000
S2: (1/0,1) *120 = 1200
(1/0,1) + (1/0,1) = 20
(1000+1200)/20 = 110
stimmt doch, oder?
In diesem Falle wäre das identisch mit dem arithm. Mittel, und bei 2 gleichermßen ungenauen Sensoren wäre das auch das, was ich statistisch erwarten würde.
Lesezeichen