Zitat Zitat von Searcher Beitrag anzeigen
Die Meßwerte reichen trotzdem aus um zu entscheiden, ob mit 3 (n-1) oder besser mit 4 (n) gerechnet werden sollte.
Beim AVR wird die Größe eines Quantisierungsintervalls mit Vref/n errechnet. n ist die Anzahl möglicher Ausgabewerte des ADC. Bei einem 2-Bit ADC ist n=4 und ein Quantisierungsintervall bei Vref=5V somit 5V/4=1,25V.

Zitat Zitat von HaWe Beitrag anzeigen
a/aMax=v/vMax,
aMax = (2i)-1,
vMax=vRef (5V),
i=ADC-bit-Auflösung
a=umzuwandelnder ADC-Wert
v=korrespond. skalierter Volt-Wert
Im ersten Quantisierungsintervall eines 2-Bit ADC wird jede Spannung von 0V bis 1,25V zu einer a=0 digitalisiert. Bei Skalierung mit a/aMax=v/vMax (aMax=n-1), v=a/aMax*vMax is v=0. Bei einer Eingangsspannung von bis zu 1,25V wird also zu 0V skaliert. Das sind bis zu 100% Fehler bezogen auf das Quantisierungsintervall. Der Fehler sinkt in den folgenden Quantisierungsintervallen des Meßbereichs, steigt aber ab Mitte Meßbereich (1/2 Vref) wieder auf 100% im letzten Qantisierungsintervall. Ein Skalierungsfehler, der abhängig von der Eingangsspannung ist.

Der 100% max. Fehler im ersten und letzten Quantisierungsintervall ist auch bei anderen ADC-Auflösungen zu berücksichtigen.


Zitat Zitat von Searcher Beitrag anzeigen
... rechne ich Vref/(4*2)+Vref*ADC/4. Ich rechne also mit n,
Bei Verwendung von V=Vref/(n*2)+Vref*ADC/n ist der Fehler über alle Quantisierungsintervalle maximal 50% bezogen auf das Quantisierungsintervall und in jedem Fall, auch bei anderen ADC-Auflösungen kleiner als der maximale Fehler bei a/aMax=v/vMax.


(Bin bewußt nicht auf Feinheiten an den Quantisierungsintervallgrenzen eingegangen, da sie für mich nur unwesentlichen Einfluß auf meine Betrachtung hätten und hoffe natürlich, daß sich keine Rechenfehler und vor allem keine logischen Fehler eingschlichen haben - nachrechnen erwünscht)