Hallo, ich habe mir gerade die Bedienungsanleitung von einem Multimeter (DIGITAL MULTIMETER VC-230) angesehen und verstehe die Angaben zur Genauigkeit nicht so ganz: --- Zitat --- Messtoleranzen Angabe der Genauigkeit in ± (% der Ablesung + Anzeigefehler in Counts (= Anzahl der kleinsten Stellen)). --- Zitat Ende --- Was bedeutet das mit den Counts? Könnte das mal jemand anhand eines Beispiels erläutern? Ich dachte auch immer, dass sich die Toleranz auf den maximalen Bereichswert bezieht und nicht auf den abgelesenen Wert. Das VC-230 hat z.B. einen Bereich von über 4 bis 40 Volt und danach einen Bereich von über 40 bis 400 Volt. Die Genauigkeit ist in beiden Bereichen mit "0.8 % + 1" angegeben. Von den Prozenten her hätte ich also bei 40 Volt eine Abweichung von +-0.32 Volt und bei 400 Volt eine erheblich größere Abweichung von +-3.2 Volt, also fast das Zehnfache! Oder haben die sich verschrieben und die Genauigkeit bezieht sich IMMER auf die obere Grenze des Messbereichs?
Die Toleranz von Zeigerinstrumenten bezieht sich auf den Skalenendwert. Bei digitalen Instrumenten ist es üblicherweise, wie auch hier angegeben, bezogen auf den angezeigten Wert. "0.8 % + 1" heisst also +/- 0,8% vom angezeigten Wert, zzgl. +/- eine letzte Stelle. Diese Eigenschaft von digitalen Instrumenten erlaubt überhaupt erst eine dekadische Einstellung. Denn sonst käme ja bei 10,xV im 100V Bereich ein indiskutabler relativer Fehler von 8% raus.
Ok, aber warum ist das Messgerät am Anfang der Dekade um ein Zehnfaches präziser als am Ende der Dekade? Ich stelle mir ja einen AD-Wandler vor, der die jeweilige Dekade (z.B. über 4 bis 40 Volt) irgendwie auf seinen Eingangs-Spannungs-Bereich (sagen wir mal 0 bis 5 Volt) transformiert bekommt und somit einen digitalen Messwert entsprechend der Eingangs-Spannung liefert. 4,000001 Volt entsprächen in meinem Beispiel also 0 Volt beim ADC und 40 Volt entsprächen 5 Volt. Wenn ich nun in der zu Messenden Dekade die Spannung in 1-Volt-Schritten ändere, ergibt das am Eingang des ADC eine Änderung der Spannung in Schritten von 0,125 Volt. Bei 5 Volt misst der ADC 0.125 V und wenn ich 39 Volt messe, misst der ADC 4,875 V. Das da wegen der Auflösung noch quantisiert wird ist mir schon klar, aber irgendwie ist mir nicht klar, wie hier die Genauigkeit am unteren Ende um ein vielfaches präziser sein kann als am oberen Ende der Dekade, obwohl sich doch die Auflösung des AD-Wandlers auf den gesamten Eingangs-Spannungs-Bereich bezieht?!?
Korrektur: Dekade -> 40-4=36. Also 1/36 Schrittweite beim ADC, wenn ich die zu messende Spannung in 1 Volt-Schritten verändere. Das entspricht ungefähr 0.139 Volt-Schritten beim ADC. 5 Volt in der Dekade entsprächen also ungefähr 0.139 Volt am ADC und 39 Volt in der Dekade entsprächen ungefähr 4,861 Volt am ADC. Vom Sinn her sollte aber klar geworden sein, was ich meine.
Eddie wrote: > Ok, aber warum ist das Messgerät am Anfang der Dekade um ein > Zehnfaches präziser als am Ende der Dekade? Ist es aber nicht. Hat das hier irgendjemand behauptet? Am Anfang der Dekade ist der Messwert - relativ gesehen - sogar größer, da hier ein Offset im Verhältnis größer ist.
Bei VOLTCRAFT-Geräten muss man die Genauigkeitsangaben nicht immer so genau nehmen, "geschätzte" Genauigkeit passt da ab und zu besser ... Viele Grüsse
Alexander Schmidt (esko) wrote: >Ist es aber nicht. >Hat das hier irgendjemand behauptet? Andreas Kaiser schrieb, dass sich die Toleranz bei digitalen Geräten auf den angezeigten Wert bezieht. Die Bedienungsanleitung behauptet dies ja auch... Wenn ich also 4 Volt Messe, habe ich bei 1 % Toleranz +-0.04 Volt. Messe ich hingegen 40 Volt, habe ich bei den gleichen 1 % Toleranz aber schon +-0.4 Volt. Sofern sich die Toleranz also auf den abgelesenen Wert bezieht, ist die Genauigkeit theoretisch am unteren Ende der Dekate um ein vielfaches genauer als am oberen Ende. >Am Anfang der Dekade ist der Messwert - relativ gesehen - sogar größer, >da hier ein Offset im Verhältnis größer ist. Das verstehe ich nicht. Könntest Du das bitte anhand eines Beispiels verdeutlichen?
Das in Multimeter traditionell verwendete Dual Slope Verfahren hat die angenehme Eigenheit, dass die meisten Bauteiletoleranzen sich aufheben und hauptsächlich die Toleranz der Referenzspannung übrig bleibt. Das ist die eine Quelle von Abweichungen. Die andere sind die Messwiderstände, also Spannungsteiler. Und wenn beispielsweise diese Widerstände eine Toleranz von 1% haben (der Teiler insgesamt, nicht die einzelnen Widerstände), und der Teiler im 100V Bereich auf max. 1V runterteilt, dann ist der dadurch bewirkte Fehler bei 100V eben 1V. Und bei 10V am Eingang ist er 0,1V. Und bei 1V am Eingang ist er 0,01V. Das haben Spannungsteiler so an sich. Wäre es anders, könnte man mit diesem Spannungsteiler negative Spannungen erzeugen (0,1V rein => -0,9V raus ;-).
>Am Anfang der Dekade ist der Mess fehler - relativ gesehen - sogar größer, >da hier ein Offset im Verhältnis größer ist. Sorry, habe mich verschrieben. > Am Anfang der Dekade ist der Messwert - relativ gesehen - sogar größer, > da hier ein Offset im Verhältnis größer ist. Der relative Fehler ist im unteren Bereich größer, da zur der prozentualen Abweichung noch einige falsche Digits dazukommen. Der absolute Fehler ist im unteren Bereich kleiner.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.