Die Unsicherheit ist im Wiki verlinkt. Lese da weiter. Das ist auch ein Absolutwert.
Die Unsicherheit ist im Wiki verlinkt. Lese da weiter. Das ist auch ein Absolutwert.
nein, das wird nicht eindeutig definiert, nur darauf hingewiesen, dass es ein Absolutwert und ebenfalls ein Schätzwert ist und es verschiedene Bestimmungsmethoden gibt.
Dass dieser identisch sein soll mit der absoluten Standardabweichung und NICHT der relativen, oder auch etwas ganz anderem, das steht dort nicht (zumindest nicht gefunden).
Wenn ich dich aber richtig verstehe, würdest du die absolute Standardabweichung verwenden, ja?
Naja, aus dem Notationskapitel geht's ja recht eindeutig hervor, was gemeint ist.
Und eine leichte Verschiebung in die eine oder andere Richtung kommt mit (nach einigem schrägen Denken) absolut logisch vor. Zumindest mit der folgenden Argumentation:
Bevorzuge den "besseren" Sensor in der Gewichtung. Bei gleichem Variationskoeffizienten und gleicher Trefferwahrscheinlichkeit misst der Sensor mit dem kürzeren Messwert zumindest hypothetisch besser (weil absolut ein kleinerer Fehler zu erwarten ist).
meinst du mit Notationskapitel das hier:Naja, aus dem Notationskapitel geht's ja recht eindeutig hervor, was gemeint ist.
68% stat. Wahrscheinlichkeitsbereich liegt ja innerhalb +/- 1 sigma, und 95% zwischen +/- 2 sigma um den echten Wert herum. (edit: sigma = Standardabweichung)Zu einem Messergebnis als Näherungswert für den wahren Wert einer Messgröße soll immer die Angabe einer Messunsicherheit gehören. Diese grenzt einen Wertebereich ein, innerhalb dessen der wahre Wert der Messgröße mit einer anzugebenden Wahrscheinlichkeit liegt (üblich sind Bereiche für ungefähr 68 % und ungefähr 95 %). Dabei soll der als Messergebnis verwendete Schätzwert oder Einzelmesswert bereits um bekannte systematische Abweichungen korrigiert sein.[1]
Dabei wird aber auch auf den "GUM" zur Ermittlung verwiesen, und hier heißt es
Dese Monte-Carlo-Methode allerdings hat ja nichts mehr mit der Berechnung der Gaussschen Standardabweichung zu tun.Das Beiblatt beschreibt die Anwendung der Monte-Carlo-Methode zur Ermittlung der Messunsicherheit.
Was also ist genau dein Vorschlag, um rechnerisch?verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten
Wie gesagt, ich gehe da 'nen anderen Weg.
Das Wertbildung über mehrere Sensoren sehe ich gar nicht als so kritisch. Was mich viel mehr bei der Fusion interessiert, ist die systematische Identifikation von Ausreißern und die Bestimmung eines Gütefaktors des so gemeinsam generierten Wertes. Der Wert mag besser sein, aber seine Unschärfe hat er über die Fusion nicht verloren.
Das Bild zeigt mal drei unterschiedliche Fälle, in denen ich nur die Distanz des "besten" Sensors verschiebe. Ohne irgendwelche Ausnahmeregeln oder Thresholds zu definieren, zeigt sich schon über die Summe der Wahrscheinlichkeiten zu einer vermuteten "wahren" Distanz, wie der "genaue" Sensor immer mehr zum Ausreißer wird.
bei mehreren unterschiedlichen Sensoren kann ja der zuverlässigste Sensor mit 1% Wahrscheinlichkeit auch einen Wert außerhalb von +/- 3 sigma liefern, also bei 1m und sigma=5 z.B. >115
oder mit 5% Wahrsch. (2*sigma) <90 oder >110,
und ein unzuverlässigerer kann durchaus bei 1m und sigma=20 den echten Wert auf den Kopf treffen oder auch bei 95 landen bzw. mit 68% Wahrsch. (1*sigma) irgendwo zwischen 80 und 120.
Nur statistisch wird es sich den echten Verhältnissen auf lange Sicht annähern.
Wenn du also misst, weisst du nicht, wer recht hat, du musst dich auf statistische Funktionen zurückziehen, die mit größtmöglicher Wahrscheinlichkeit den tatsächlichen Wert am besten approximieren.
Ich verstehe jetzt daher noch nicht, wie du die Fälle 1+2 aus dem TOP in "deiner Weise" ausrechnen willst, anders als mit einem per "Vertrauenskoeffizienten" gewichteten Durchschnitt?
Angenommen ich habe Deine drei Messwerte von ganz am Anfang.
- Ich nehme rein intuitiv eine reale Distanz an, z.B. 90cm.
- Ausgehend von diesen 90cm berechne ich über die Gaussfunktion für den ersten Sensor die Wahrscheinlichkeit aus (Standardabweichung = 90cm * Variationskoeffizient, Messwert ist direkt angegeben).
value ist der MesswertCode:private double NormalizedGaussFromValue(double value, double average, double stdDeviation) { return Math.Exp(-0.5 * Math.Pow((value - average) / stdDeviation, 2)) / (Math.Sqrt(2*Math.PI) * stdDeviation); } private double EqualizedGaussFromValue(double value, double average, double stdDeviation) { return Math.Exp(-0.5 * Math.Pow((value - average) / stdDeviation, 2)); }
average ist der angenommene Scheitelpunkt der Kurve
stdDeviation ist die Standardabweichung
- Das mache ich einmal für die normalisierte Form (Integral der Glocke ist 1) und einmal für die egalisierte Form (Scheitelwert ist 1. Merke, der Scheitelwert wird nur durch den Bruchnenner normalisiert).
- Das gleiche rechne ich auch für die anderen beiden Sensorwerte aus.
- Summiere ich die Wahrscheinlichkeiten der drei Sensoren für die angenommene Distanz auf, bekomme ich eine normalisierte und eine egalisierte Gesamtwahrscheinlichkeit für die Annahme, dass meine Distanz real bei 90 cm liegt. Aber die Frage stellt sich: Wird dieser ermittelte Wert besser, wenn ich eine andere Distanz als realen Wert annehme?
- Also tickere ich alle möglichen Distanzen einmal durch und schaue, wo Maxima in den Kurven liegen (Kreuzkorrelation).
Die egalisierten Werte machen dabei die einzelnen Komponenten der Wahrscheinlichkeitssumme der drei Messwerte vergleichbar. Wo hier in der Kurve das Maximum zu finden ist, sollte sich mit der höchsten Wahrscheinlichkeit auch der reale Distanzwert befinden.
Der normalisierte Wert dient zur Abschätzung, welche Streuung das Ergebnis hat. Er zeigt im Vergleich zu den normalisierten Scheitelpunktwerten der Glockenkurven einzelner Sensoren die Qualität oder die Streuung.
(So ganz im Reinen bin ich mir da mit dem letzten Vergleich aber auch noch nicht. Der will noch nicht so, wie ich's erwarte.)
Lesezeichen