Forum: Mikrocontroller und Digitale Elektronik Genauigkeit von Voltcraft-Multimeter


von Eddie (Gast)


Lesenswert?

Hallo,
ich habe mir gerade die Bedienungsanleitung von einem Multimeter
(DIGITAL MULTIMETER VC-230) angesehen und verstehe die Angaben
zur Genauigkeit nicht so ganz:

--- Zitat ---

Messtoleranzen
Angabe der Genauigkeit in ± (% der Ablesung + Anzeigefehler in Counts (= 
Anzahl der kleinsten Stellen)).

--- Zitat Ende ---

Was bedeutet das mit den Counts? Könnte das mal jemand anhand eines
Beispiels erläutern?

Ich dachte auch immer, dass sich die Toleranz auf den maximalen
Bereichswert bezieht und nicht auf den abgelesenen Wert. Das
VC-230 hat z.B. einen Bereich von über 4 bis 40 Volt und danach
einen Bereich von über 40 bis 400 Volt. Die Genauigkeit ist in
beiden Bereichen mit "0.8 % + 1" angegeben. Von den Prozenten
her hätte ich also bei 40 Volt eine Abweichung von +-0.32 Volt
und bei 400 Volt eine erheblich größere Abweichung von +-3.2 Volt,
also fast das Zehnfache! Oder haben die sich verschrieben und die
Genauigkeit bezieht sich IMMER auf die obere Grenze des Messbereichs?

von Andreas K. (a-k)


Lesenswert?

Die Toleranz von Zeigerinstrumenten bezieht sich auf den Skalenendwert.

Bei digitalen Instrumenten ist es üblicherweise, wie auch hier 
angegeben, bezogen auf den angezeigten Wert. "0.8 % + 1" heisst also +/- 
0,8% vom angezeigten Wert, zzgl. +/- eine letzte Stelle.

Diese Eigenschaft von digitalen Instrumenten erlaubt überhaupt erst eine 
dekadische Einstellung. Denn sonst käme ja bei 10,xV im 100V Bereich ein 
indiskutabler relativer Fehler von 8% raus.

von Eddie (Gast)


Lesenswert?

Ok, aber warum ist das Messgerät am Anfang der Dekade um ein
Zehnfaches präziser als am Ende der Dekade? Ich stelle mir ja
einen AD-Wandler vor, der die jeweilige Dekade (z.B. über 4 bis
40 Volt) irgendwie auf seinen Eingangs-Spannungs-Bereich (sagen
wir mal 0 bis 5 Volt) transformiert bekommt und somit einen
digitalen Messwert entsprechend der Eingangs-Spannung liefert.
4,000001 Volt entsprächen in meinem Beispiel also 0 Volt beim
ADC und 40 Volt entsprächen 5 Volt. Wenn ich nun in der zu
Messenden Dekade die Spannung in 1-Volt-Schritten ändere, ergibt
das am Eingang des ADC eine Änderung der Spannung in Schritten
von 0,125 Volt. Bei 5 Volt misst der ADC 0.125 V und wenn ich
39 Volt messe, misst der ADC 4,875 V. Das da wegen der Auflösung
noch quantisiert wird ist mir schon klar, aber irgendwie ist mir
nicht klar, wie hier die Genauigkeit am unteren Ende um ein
vielfaches präziser sein kann als am oberen Ende der Dekade,
obwohl sich doch die Auflösung des AD-Wandlers auf den gesamten
Eingangs-Spannungs-Bereich bezieht?!?

von Eddie (Gast)


Lesenswert?

Korrektur: Dekade -> 40-4=36. Also 1/36 Schrittweite beim ADC,
wenn ich die zu messende Spannung in 1 Volt-Schritten verändere.
Das entspricht ungefähr 0.139 Volt-Schritten beim ADC. 5 Volt
in der Dekade entsprächen also ungefähr 0.139 Volt am ADC und
39 Volt in der Dekade entsprächen ungefähr 4,861 Volt am ADC.
Vom Sinn her sollte aber klar geworden sein, was ich meine.

von Alexander S. (esko) Benutzerseite


Lesenswert?

Eddie wrote:
> Ok, aber warum ist das Messgerät am Anfang der Dekade um ein
> Zehnfaches präziser als am Ende der Dekade?

Ist es aber nicht.
Hat das hier irgendjemand behauptet?

Am Anfang der Dekade ist der Messwert - relativ gesehen - sogar größer, 
da hier ein Offset im Verhältnis größer ist.

von Nicht_neuer_Hase (Gast)


Lesenswert?

Bei VOLTCRAFT-Geräten muss man die Genauigkeitsangaben nicht immer so 
genau nehmen, "geschätzte" Genauigkeit passt da ab und zu besser ...

Viele Grüsse

von Eddie (Gast)


Lesenswert?

Alexander Schmidt (esko) wrote:
>Ist es aber nicht.
>Hat das hier irgendjemand behauptet?

Andreas Kaiser schrieb, dass sich die Toleranz bei digitalen Geräten
auf den angezeigten Wert bezieht. Die Bedienungsanleitung behauptet
dies ja auch... Wenn ich also 4 Volt Messe, habe ich bei 1 % Toleranz
+-0.04 Volt. Messe ich hingegen 40 Volt, habe ich bei den gleichen
1 % Toleranz aber schon +-0.4 Volt. Sofern sich die Toleranz also
auf den abgelesenen Wert bezieht, ist die Genauigkeit theoretisch
am unteren Ende der Dekate um ein vielfaches genauer als am oberen
Ende.

>Am Anfang der Dekade ist der Messwert - relativ gesehen - sogar größer,
>da hier ein Offset im Verhältnis größer ist.

Das verstehe ich nicht. Könntest Du das bitte anhand eines Beispiels
verdeutlichen?

von Andreas K. (a-k)


Lesenswert?

Das in Multimeter traditionell verwendete Dual Slope Verfahren hat die 
angenehme Eigenheit, dass die meisten Bauteiletoleranzen sich aufheben 
und hauptsächlich die Toleranz der Referenzspannung übrig bleibt. Das 
ist die eine Quelle von Abweichungen.

Die andere sind die Messwiderstände, also Spannungsteiler. Und wenn 
beispielsweise diese Widerstände eine Toleranz von 1% haben (der Teiler 
insgesamt, nicht die einzelnen Widerstände), und der Teiler im 100V 
Bereich auf max. 1V runterteilt, dann ist der dadurch bewirkte Fehler 
bei 100V eben 1V. Und bei 10V am Eingang ist er 0,1V. Und bei 1V am 
Eingang ist er 0,01V. Das haben Spannungsteiler so an sich. Wäre es 
anders, könnte man mit diesem Spannungsteiler negative Spannungen 
erzeugen (0,1V rein => -0,9V raus ;-).

von Esko (Gast)


Lesenswert?

>Am Anfang der Dekade ist der Mess fehler - relativ gesehen - sogar größer,
>da hier ein Offset im Verhältnis größer ist.
Sorry, habe mich verschrieben.
> Am Anfang der Dekade ist der Messwert - relativ gesehen - sogar größer,
> da hier ein Offset im Verhältnis größer ist.

Der relative Fehler ist im unteren Bereich größer, da zur der 
prozentualen Abweichung noch einige falsche Digits dazukommen.
Der absolute Fehler ist im unteren Bereich kleiner.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.