Hallo zusammen, Ich hätte mal eine Frage bezüglich der Genauigkeit, Präzision und der Toleranz. Ich habe auch mal einen kleinen Ausschnitt aus meiner Excel Tabelle gemacht. Mal ein fiktives Beispiel: Ich habe ein Multimeter(Analog) welches einen wählbaren Messbereich(Toleranz) von <2V (2%), <5V (3%) und <30V (5%) hat. Ich messe nun damit eine Spannungsquelle welche genau 10,00V ausgibt. Ich stelle den Messbereich also auf <30V und habe damit eine Toleranz von 5% (30V*0,05 = 1,5V). Das Messgerät könnte dann 8,50V bis 11,50V anzeigen, obwohl exakt 10,00V an der Spannungsquelle anliegen. Ist die Überlegung bis hier hin richtig? Jetzt wird es für mich kompliziert Des weiteren habe ich gelesen das die Präzision bzw. die Genauigkeit erst einmal nichts über das Messergebnis aussagen. Die Präzision bedeutet ja erst einmal nur wie präzise die Messungen an einander liegen. Beispiel: Wenn ich immer 9.00V Messe bei 10 Messungen dann ist das Messgerät SEHR Präzise, aber ungenau, weil es 1,00V vom tatsächlichen Wert abweicht. Aber wie berechne ich nun die Genauigkeit? sorry für den Vielen Text aber ich weiss nicht wie ich das umschreiben soll :( Gruß Peter
:
Verschoben durch User
Peter schrieb: > Ich habe ein Multimeter(Analog) welches einen wählbaren > Messbereich(Toleranz) von <2V (2%), <5V (3%) und <30V (5%) hat. Prozentangaben sind immer relativ, d.h. erstmal mußt du feststellen, worauf sich deine zu den Messbereichen angegebenen Fehlerbreiten beziehen. Bezugsgröße kann der Messbereich sein, aber auch der aktuelle Messwert.
Zum reinen Verständnis gehe ich für mich selbst davon aus das meine Bezugsgröße 10,00V und mein Messbereichsendwert 30V ist dadurch werden sich ja 1,5V ergeben
Peter schrieb: > Die Präzision bedeutet ja erst einmal nur wie präzise die Messungen an > einander liegen. Nein. Die Präzision gibt nur an, was das Messgerat noch unterscheiden kann: 1 mikroVolt, 1 millivolt oder 1 MegaVolt. Genauigkeit ist die Abweichung vom tatsächlichen Wert. Und Toleranz gibt an, wieviel der gemessene Wert vom tatsächlichen Wert abweichen darf.
:
Bearbeitet durch User
Marc Vesely schrieb: > Peter schrieb: >> Die Präzision bedeutet ja erst einmal nur wie präzise die Messungen an >> einander liegen. > > Nein. Die Präzision gibt nur an, was das Messgerat noch unterscheiden > kann: 1 mikroVolt, 1 millivolt oder 1 MegaVolt. Nein, das ist die Auflösung.
Yalu X. schrieb: >> Nein. Die Präzision gibt nur an, was das Messgerat noch unterscheiden >> kann: 1 mikroVolt, 1 millivolt oder 1 MegaVolt. > > Nein, das ist die Auflösung. Ja. Wieder einmal Finger schneller als das bisschen Gehirn. Auf der anderen Seite fragt ja auch niemand "Wie auflösend kannst du das messen", deswegen wohl...
:
Bearbeitet durch User
Das würde mich mal interessieren, wo Du das überhaupt gelesen hast. An sich ist "Präzision" nur ein Synonym für "Genauigkeit". Was Du aber beschreibst, nämlich, wie stark wiederholte Messungen voneinander abweichen kenne ich als "Wiederholgenauigkeit". Das ist aber nur eine Nebenbemerkung zur Terminologie. Ich kann mir auch nicht genau denken, was Du eigentlich meinst, wenn Du danach fragst, die "Genauigkeit zu berechnen". Was meinst Du damit?
Bitflüsterer schrieb: > Was Du aber beschreibst, nämlich, wie stark wiederholte Messungen > voneinander abweichen kenne ich als "Wiederholgenauigkeit". Siehe http://de.wikipedia.org/wiki/Pr%C3%A4zision "Die Bedeutung des Begriffs Präzision wird unter DIN 55350-13 mit dem Hinweis auf die Bedeutungsgleichheit zum ehemals Wiederholgenauigkeit genannten Merkmal definiert." Ich finde den Begriff "Wiederholgenauigkeit" aber auch viel treffender und klarer.
Bitflüsterer schrieb: > An sich ist "Präzision" nur ein Synonym für "Genauigkeit". Präzision ist die Standardabweichung der Messungen. Genauigkeit ist die Abweichung des Mittelwertes vom wahren Wert. Genauigkeit kann man kalibrieren. Präzision nicht. Gruß Anja
Yalu X. schrieb: > Bitflüsterer schrieb: >> Was Du aber beschreibst, nämlich, wie stark wiederholte Messungen >> voneinander abweichen kenne ich als "Wiederholgenauigkeit". > > Siehe http://de.wikipedia.org/wiki/Pr%C3%A4zision > > "Die Bedeutung des Begriffs Präzision wird unter DIN 55350-13 mit dem > Hinweis auf die Bedeutungsgleichheit zum ehemals Wiederholgenauigkeit > genannten Merkmal definiert." > > Ich finde den Begriff "Wiederholgenauigkeit" aber auch viel treffender > und klarer. Sehr interessant. Ich hatte meine Weisheit von http://de.wiktionary.org/wiki/Pr%C3%A4zision Ist im Ggs. zur DIN auch kostenlos. Aber wie mit Waren scheint es auch mit dem Wissen zu sein: Billig ist zu teuern. Wieder was gelernt.
Guten Morgen zusammen, im Grunde hatte ich eine Diskussion mit einem Lehrer er Beschrieb die Genauigkeit mit folgendem Satz. Genauigkeit--> Mittelwert der Abweichungen vom Mittelwert. Und der Satz ist finde ich nicht richtig. Denn die Abweichungen vom Mittelwert sind für mich die Präzision bzw. Wiederholgenaugkeit. und nun wollt ich im demonstrieren was die Genauigkeit eines Messgerätes ist.
Peter schrieb: > Genauigkeit--> Mittelwert der Abweichungen vom Mittelwert. Ist 0. Der Lehrer ist unpräzise, wenn müsste er sagen Mittelwert des Betrags der Abweichungen. Aber dafür gibts eigentlich die Standardabweichung.
Genau und er sagte die Präzision kann man mit der Standartabweichung berechnen. und das ist auch richtig. Meiner Meinung nach und auch das was ich im Inet gelesen habe
Peter schrieb: > kann man mit der Standartabweichung berechnen. > und das ist auch richtig. Ganz sicher nicht. Jedenfalls nicht bei elektrischen Größen. Bei der mechanischen Abweichung von in den Boden gesteckten Fähnchen vielleicht.
Moin zusammen, da würde ich mich auch gerne mal einklinken. Aber wenn ich mit dem Messgerät immer 7,50 Volt messe an 5 Tagen an einer Quelle die immer 10V ausgibt. Dann kann ich doch Sagen das die Messung sehr präzise ist. Aber die Messung ist sehr ungenau weil der gemessene Wert um 2,5V vom wahren Wert abweicht.
Ich würde eher sagen, das Messergebnis sei reproduzierbar, bei einer Genauigkeit oder Auflösung von 10mV und mit einem konstanten Messfehler von -2,5V behaftet.
Matthias L. schrieb: > Peter schrieb: >> Genau und er sagte die Präzision kann man mit der Standartabweichung >> berechnen. > > Ganz sicher nicht. Jedenfalls nicht bei elektrischen Größen. Bei der > mechanischen Abweichung von in den Boden gesteckten Fähnchen vielleicht. Aus 1) B.2.14 accuracy of measurement closeness of the agreement between the result of a measurement and a true value of the measurand B.2.15 repeatability (of results of measurements) closeness of the agreement between the results of successive measurements of the same measurand carried out under the same conditions of measurement B.2.16 reproducibility (of results of measurements) closeness of the agreement between the results of measurements of the same measurand carried out under changed conditions of measurement B.2.18 uncertainty (of measurement) parameter, associated with the result of a measurement, that characterizes the dispersion of the values that could reasonably be attributed to the measurand B.2.19 error (of measurement) result of a measurement minus a true value of the measurand Aus 2) 2.15 measurement precision closeness of agreement between indications or measured quantity values obtained by replicate measurements on the same or similar objects under specified conditions NOTE 1 Measurement precision is usually expressed numerically by measures of imprecision, such as standard deviation, variance, or coefficient of variation under the specified conditions of measurement. NOTE 2 The ‘specified conditions’ can be, for example, repeatability conditions of measurement , intermediate precision conditions of measurement , or reproducibility conditions of measurement (see ISO 5725-1:1994). NOTE 3 Measurement precision is used to define measurement repeatability , intermediate measurement precision , and measurement reproducibility . NOTE 4 Sometimes “measurement precision” is erroneously used to mean measurement accuracy 1) Evaluation of measurement data — Guide to the expression of uncertainty in measurement http://www.bipm.org/utils/common/documents/jcgm/JCGM_100_2008_E.pdf 2) International vocabulary of metrology – Basic and general concepts and associated terms (VIM) http://www.bipm.org/utils/common/documents/jcgm/JCGM_200_2012.pdf
>Und wo in dem ganzen Gedöhns steht etwas über Standarten? Wenn man sich über "Standart" lustig macht, sollte man zumindest versuchen, den Rest auch korrekt zu schreiben: http://www.duden.de/suchen/dudenonline/ged%C3%B6ns
OT: Ach was, wirklich? Ich mach' mich über die Standarten nicht lustig, ich finde sie blöd. In einem Thread, in dem es um sprachliche Genauigkeit geht, erst recht. Ich wollt's nur mit einem Rest Humor 'rüberbringen, aber nun ja, der ist nicht universell... Dass es sich bei "Standart" um einen versehentlichen Verschreiber handelt, nehme ich nach den langjährigen Diskussionen darum niemandem mehr ab. Jaja, "Sprache lebt". Gut, soll sie. Gegen Verbesserungen und Vereinfachungen ist gar nichts einzuwenden, Umgangssprache (wo sie hinpasst) ist auch durchaus akzeptabel. Aber wo bitte liegt der sprachliche Vorteil eines notorisch falsch gesetzten Buchstabens? IMHO gibt's keinen, denn die Grundschul-Prüfmethode "häng was dran" ergibt schon ein klares Bild: Nur ganz hartgesottene sprachliche Individualisten versuchen sich an dem Verb "standartisieren" - da ist das "d" seltsamerweise wieder Standard. ;-) Lass gut sein, ich geb' ja zu, dass mein Einwurf nur unter OT einzuordnen war.
:
Bearbeitet durch User
>Ich wollt's nur mit einem Rest Humor 'rüberbringen, aber nun ja, der ist >nicht universell Ach so, du hast "Gedöhns" mit Absicht falsch geschrieben, sag das doch gleich.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.