Hallo, muss absolute Fehler von U berechen.
U ergibt sich aus Strom I=1mA und R=100 Ohm (Messabweuchung von
beiden=0,001%)
Das Spannungsmessgerät hat Messbereich 400mV und Unsicherheit +-0,001%
v.E.
U=IR=0,001A*100 Ohm=100mV
die Lösung ist
0,03%*100mV = 3 mV
ich kann aber nicht nachvollziehen, wocher diese 0,03% kommen..
ich vermute 0,03% kommen von der Summe der Absoluten Fehler
doch was mich irritiert, welche Rolle spielt dann Messbereich 400mV..?
und was heisst 0,001% v.E?
Gruß
Alex S. schrieb:> die Lösung ist> 0,03%*100mV = 3 mV
1) Das ist offensichtlich falsch (es wären 30µV).
2) Auch auf 3mV komme ich mit deinen Angaben nicht.
v.E.: vom Endwert.
Der Gesamtfehler errechnet sich aus der Summe der Einzelfehler, das hast
du richtig erkannt und 0.001% vE bedeutet, dass sich das auf den
Messbereich bezieht (vom Endwert) ;). Das quasi Gegenstück dazu ist
v.M., dann bezieht sich der prozentuale Fehler auf den Messwert (vom
Messwert) ;)
Alex S. schrieb:> doch was mich irritiert, welche Rolle spielt dann Messbereich 400mV..?> und was heisst 0,001% v.E?
Huhu
v.E. heisst (vermutlich) "vom Endwert". Hab ich allerdings noch nie bei
einem Messgerät auf Deutsch gesehen.
Bei Messgeräten wird der maximale Fehler typischerweise auf den
Maximalwert des Messbereiches (<-- !!!) bezogen.
Also bei Deinem 400mV Messbereich dann +-0,001% von 400mV.
Hth
Andreas
Das ist ja wohl ein Übungsbeispiel. Leider ist es offenichtlich falsch
abgeschrieben worden (die falschen %-Angaben, Messabweichung bei einem
Widerstand).
Ich komme so halt auf 0,6mV (unter der Annahme, dass mit "0,001%"
eingentlich 0,001 oder 0,1% gemeint waren).
Hallo,
ich glaube die Prozentzeichen kann man alle weglassen ( Was für tolle
Genauigkeiten ), da ist wohl was durcheinander geraten.
Diese 0,1% = 0,001 vom Endwert sind bei 400 mV = 0,4 mV.
Dies ist bezogen auf den Messwert von 100mV dann 0,4/100 = 0,004 also
schon vier mal soviel.
Dein Fehler ist ja,
U*(1+-deltaU)= I*(1+-deltaI)* R*(1+-deltaR)
Maximal gemacht Zähler möglichst groß und Nenner möglichst klein.
U/(I*R) = (1+deltaI)*(1+deltaR)/(1-deltaU)= (1.001*1.001)/(0,996)=1.006
:-(
Alex S. schrieb:> U=IR=0,001A*100 Ohm=100mV
Hier werden die beiden Fehler von Strom und Spannung multipliziert und
lt. Felerfortpflanzung (
http://de.wikipedia.org/wiki/Fehlerfortpflanzung ) dadurch addiert. Also
macht das 2x 0,001%= 0,002%. Also 100mV +/- 0,002%
Und jetzt kommt noch der Fehler der durch die fehlerhafte
Spannungsmessung einfliesst. Das sind nochmal 0,001% von 400mV.
also
es kann auch sein, dass ich was falsch widergegeben habe
hier ist noch mal die komplette aufgabe, vielleich sind hier noch mehr
Angaben, die eine Rolle spielen
es gibt da noch einige Angaben doch mir gehts nur um Fehler von U, ohne
die Störspannung 0,2mV miteinzubeziehen
______________________________http://img1.picload.org/image/dllcird/rtemp.png
Tipp von mir: Leg den Kram auf Seite und Zock ne Runde WoW oder
ähnliches. So viele Leichtsinnsfehler, wie dir jetzt schon passiert
sind, wird das nie was. Bekomm den Kopf erst mal wieder frei ;)
was mich noch irritiert, die Spannung U erhält man in dieser Aufgabe
duch Multiplikation von I*R=100 mV
Doch im Endeffekt wird diese Spannung mit einem Spannungsmessgerät
gemessen, (Unsicherheit von 0.01% v.E. MB=400mV)
heisst das dass ich die relativen Fehler von I und R (je 0,01%)
eigentlich gar nicht miteinzubeziehen brauche? oder spielen sie hier
eine Rolle?
total unverständlich die Aufgabe((
P.s. auf alle Fälle noch mal Link auf die Aufgabe:
http://img1.picload.org/image/dllcird/rtemp.png
Alex S. schrieb:> und was heisst Unsicherheit 10% v.M.? ist das von Messwert? Gruß
Was hab ich denn in meiner ersten Antwort geschrieben, was es heißt? ;)