Hallo zusammen,

mir ist nicht klar, wie Fehlergrenzen bei Messgeräten exakt berechnet werden. Speziell geht es um digitale Multimeter (DMM). Auf der Rückseite meines 3 1/2 stelligen DMMs ist folgendes angegeben: Fehlergrenze = ±(0,25% rdg + 2D). Rdg. bedeutet reading (gelesen), also der Wert, den das DMM anzeigt. Nehmen wir an, ich messe einen Wert von U = 4,998 V, dann ergibt sich folgende Fehlergrenze: ±(0,0025 * 4,998 V + 2 * 0,001V) = ±0,014495 V. Somit ergibt sich der gesamte Wert zu: (4,998 ± 0,014495) V.

Die Frage ist nur, wieviele Stellen man hier angibt? 0,014495 - die letzten Stellen (495) sind theoretisch sinnlos, also wäre 0,014 oder 0,015 besser. Rundet man diese Stelle (auf, ab) oder läßt man sie einfach weg?

Vielleicht weiß einer von euch hier weiter?

Gruß
Dark_Merklin