Forum: Analoge Elektronik und Schaltungstechnik Genauigkeitsklasse


von Daniel F. (Gast)


Lesenswert?

Ich habe Momenten Probleme damit die Genauigkeitsklasse meiner 
Messreihen zu bestimmen. Es wurden mit einem Amperemeter Ströme von 0,2A 
in 0,1er-Schritten bis 1A bestimmt und dann von einem Multimeter 
abgelesen. Dabei sollte dann die Ströme vom Amperemeter am Multimeter 
abgelesen werden und es traten Abweichungen auf. Es wurde einmal 
vorwärts und einmal rückwärts abgelesen. Ich habe einfach die erwarteten 
Ströme jeweils durch die zugetroffen Ströme am Multimeter geteilt und 
alle Endwerte dann miteinander Multipliziert, aber habe bei meiner 
Methode bedenken. Ich hoffe jemand kann mir da weiterhelfen.

Bsp. :

Amperemeter: 0,2A
Multimeter: 0,205A

Genauigkeitsklasse = 0,2A / 0,205A = 0,975%


Gruß Daniel

von Pandur S. (jetztnicht)


Lesenswert?

Die Genauigkeitsklaees eines Messgeraetes sind in % vom Bereich.

Also 1A Bereich 1%, bedeutet 10mA Genauigkeit in diesem Bereich. 
Unguenstig wenn man den dann nur bis 100mA braucht.

von Peter R. (pnu)


Lesenswert?

Genauigkeitsklasse gibt den maximalen Fehler an, in Prozent des 
maximalen Zeigerausschlages.

Diese Angabe hatte Sinn bei Zeigermessgeräten, bei denen die durch 
Reibung erzeugte Anzeige unabhängig von der Zeigerstellung der gröbste 
Fehlereinfluss war.

Also viele Messungen im ganzen Messbereich ausführen, Fehler in Prozent 
des Messbereichsendes ausrechnen. Alle Messfehler müssen bei Klasse 1 
unter 1 Prozent des Messbereichsendes liegen, sonst wird die 
Klassenangabe verletzt.
bei 200mA-Instrument und Klasse 1 darf keine Messung mehr als 2mA Fehler 
ergeben.

Das Messen "von unten" oder "von oben" ist Quatsch. Wegen der Dynamik 
der Zeigerbewegung schwingt ein Zeiger oft über und zeigt anstatt des 
Messfehlers "nach unten" den Messfehler "nach oben" an. Der durch 
Reibung erzeugte Messfehler streut statistisch weil er von der 
Zeigerbewegung vor dem Stillstand abhängig ist.

von Dieter B. (debe)


Lesenswert?

Früher hat man in solchen Fällen noch leicht mit dem Finger auf's 
Zeigerinstrument geklopft um die Stellfehler zu minimieren.

von Manfred (Gast)


Lesenswert?

Oh D. schrieb:
> Die Genauigkeitsklaees eines Messgeraetes sind in % vom Bereich.
Genauigkeits-_klasse_ kenne ich nur bei Zeigermeßgeräten, da passt Deine 
Aussage "% vom Endwert". In der Berufsschule wurde gelehrt, möglichst am 
Ende der Meßbereiches zu arbeiten.

Wer hat heute noch Zeiger im realen Einsatz, da gucke ich doch mal ins 
Handbuch eines digitalen Multimeters (Fluke80) und finde dort 
"Genauigkeit wird folgendermaßen angegeben:  ±([% der Ablesung] + [Zahl 
der niedrigwertigsten Stellen]) bei 18 °C bis 28 °C ... "

Da sind es dann also 0,irgendwas Prozent vom_Meßwert zuzüglich 
x-digits der letzten Stelle.

von Harald W. (wilhelms)


Lesenswert?

Dieter B. schrieb:

> Früher hat man in solchen Fällen noch leicht mit dem Finger auf's
> Zeigerinstrument geklopft um die Stellfehler zu minimieren.

Das mache ich bei meinem Barometer auch heute noch.

von U. B. (Gast)


Lesenswert?

Genauigkeitsklasse = 0,2A / 0,205A = 0,975%

Was ist das denn für eine Rechnung?

0,2A / 0,205 A ≈ 0,976 * 100% = 97,6%

Also eine Abweichung des "Amperemeters" von ca. -2,4% gegenüber dem 
"Multimeter" (bzw. umgekehrt).

von Wolfgang (Gast)


Lesenswert?

Peter R. schrieb:
> Das Messen "von unten" oder "von oben" ist Quatsch.

Dieter B. schrieb:
> Früher hat man in solchen Fällen noch leicht mit dem Finger auf's
> Zeigerinstrument geklopft um die Stellfehler zu minimieren.

Das kann man sich sparen, wenn man dem Messsignal ein Dithersignal 
überlagert. Dann kann der Zeiger nicht haken.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.