Ich habe Momenten Probleme damit die Genauigkeitsklasse meiner Messreihen zu bestimmen. Es wurden mit einem Amperemeter Ströme von 0,2A in 0,1er-Schritten bis 1A bestimmt und dann von einem Multimeter abgelesen. Dabei sollte dann die Ströme vom Amperemeter am Multimeter abgelesen werden und es traten Abweichungen auf. Es wurde einmal vorwärts und einmal rückwärts abgelesen. Ich habe einfach die erwarteten Ströme jeweils durch die zugetroffen Ströme am Multimeter geteilt und alle Endwerte dann miteinander Multipliziert, aber habe bei meiner Methode bedenken. Ich hoffe jemand kann mir da weiterhelfen. Bsp. : Amperemeter: 0,2A Multimeter: 0,205A Genauigkeitsklasse = 0,2A / 0,205A = 0,975% Gruß Daniel
Die Genauigkeitsklaees eines Messgeraetes sind in % vom Bereich. Also 1A Bereich 1%, bedeutet 10mA Genauigkeit in diesem Bereich. Unguenstig wenn man den dann nur bis 100mA braucht.
Genauigkeitsklasse gibt den maximalen Fehler an, in Prozent des maximalen Zeigerausschlages. Diese Angabe hatte Sinn bei Zeigermessgeräten, bei denen die durch Reibung erzeugte Anzeige unabhängig von der Zeigerstellung der gröbste Fehlereinfluss war. Also viele Messungen im ganzen Messbereich ausführen, Fehler in Prozent des Messbereichsendes ausrechnen. Alle Messfehler müssen bei Klasse 1 unter 1 Prozent des Messbereichsendes liegen, sonst wird die Klassenangabe verletzt. bei 200mA-Instrument und Klasse 1 darf keine Messung mehr als 2mA Fehler ergeben. Das Messen "von unten" oder "von oben" ist Quatsch. Wegen der Dynamik der Zeigerbewegung schwingt ein Zeiger oft über und zeigt anstatt des Messfehlers "nach unten" den Messfehler "nach oben" an. Der durch Reibung erzeugte Messfehler streut statistisch weil er von der Zeigerbewegung vor dem Stillstand abhängig ist.
Früher hat man in solchen Fällen noch leicht mit dem Finger auf's Zeigerinstrument geklopft um die Stellfehler zu minimieren.
Oh D. schrieb: > Die Genauigkeitsklaees eines Messgeraetes sind in % vom Bereich. Genauigkeits-_klasse_ kenne ich nur bei Zeigermeßgeräten, da passt Deine Aussage "% vom Endwert". In der Berufsschule wurde gelehrt, möglichst am Ende der Meßbereiches zu arbeiten. Wer hat heute noch Zeiger im realen Einsatz, da gucke ich doch mal ins Handbuch eines digitalen Multimeters (Fluke80) und finde dort "Genauigkeit wird folgendermaßen angegeben: ±([% der Ablesung] + [Zahl der niedrigwertigsten Stellen]) bei 18 °C bis 28 °C ... " Da sind es dann also 0,irgendwas Prozent vom_Meßwert zuzüglich x-digits der letzten Stelle.
Dieter B. schrieb: > Früher hat man in solchen Fällen noch leicht mit dem Finger auf's > Zeigerinstrument geklopft um die Stellfehler zu minimieren. Das mache ich bei meinem Barometer auch heute noch.
Genauigkeitsklasse = 0,2A / 0,205A = 0,975% Was ist das denn für eine Rechnung? 0,2A / 0,205 A ≈ 0,976 * 100% = 97,6% Also eine Abweichung des "Amperemeters" von ca. -2,4% gegenüber dem "Multimeter" (bzw. umgekehrt).
Peter R. schrieb: > Das Messen "von unten" oder "von oben" ist Quatsch. Dieter B. schrieb: > Früher hat man in solchen Fällen noch leicht mit dem Finger auf's > Zeigerinstrument geklopft um die Stellfehler zu minimieren. Das kann man sich sparen, wenn man dem Messsignal ein Dithersignal überlagert. Dann kann der Zeiger nicht haken.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.