Guten Tag, meine Frage wäre schon im Betreff gestellt. Was ist eine gute Kalibrierquelle ( bzw. was ist überhaupt eine Kalibrierquelle)? Ist das so was ähnliches wie ein Frequenzgenerator? Gruß Andreas
:
Bearbeitet durch User
Kommt darauf an für welches Maß? Für die Zeit wäre das zum Beispiel ganz brauchbar: http://www1.symmetricom.com/csac/?product_name=Chip_Scale_Atomic_Clock&division=TTM&request_type=Quote%20Request&lead_source=PPC&campaign_name=CSAC&search_engine=Google&_kk=csac%20atomic%20clock&_kt=75775319-5f29-4232-9abb-b85fc73c9c60&gclid=COSqxKWp07wCFUoOwwodghYAdQ
Da stellt sich pauschal erst einmal die Frage, welche physikalischen Größen Du 'kalibrieren' möchtest? Dann geht es weiter mit der generellen Frage, ob Du ein Gerät nur 'justieren' willst oder tatsächlich 'kalibrieren' musst? Denn: Kalibrieren bedeutet die Abweichung des Istwertes zum Sollwert aufzuzeigen unter Angabe der Messunsicherheit und der verwendeten Messmittel, die natürlich besser (in Genauigkeit und Auflösung) sein sollten als das zu vermessende Objekt. Kalibrierte Messmittel sind auch auf Ihre Urformen (die für Deutschland überwiegend bei der PTB in Braunschweig stehen) rückführbar. Z.B. steht das Zeit-/Frequenznormal dort, von der dann die offizielle Zeit bei einem Sender (bekannt unter "DCF77") in Mainflingen (bei Frankfurt/M) ausgestrahl wird. Für Längen wäre es das Ur-Meter, dass, wenn ich mich recht erinnere, irgendwo in Paris (Frankreich) steht.
>Für Längen wäre es das Ur-Meter, dass, wenn ich mich recht erinnere, >irgendwo in Paris (Frankreich) steht. Seit 1960 ist es nicht mehr die Grundlage.
Hier: http://www.helmut-singer.de/stock/x18.html kannst Du Dir mal verschiedene Geräte und Bauteile anschauen die man zum Kalibrieren benutzt.
Raimund Rabe schrieb: > Für Längen wäre es das Ur-Meter, dass, wenn ich mich recht erinnere, > irgendwo in Paris (Frankreich) steht. Davon hat aber damals fast jedes Land eine Kopie bekommen. Die PTB hat m.W. inzwischen drei. :-) Allerdings ist das Meter schon längere Zeit über die Licht- geschwindigkeit definiert. Gruss Harald
Damit kann man schon einiges machen (nicht ganz billig): http://cal-center.com/images/products/5720A_1355493755_9648.jpg
Also ich finde ja, eine gute Kalibrierquelle ist eine Quelle, die überall, zu jeder Zeit die exakt selbe Menge abgibt. Aber die Ansichten sind ja verschieden… :D
Andreas Hoffmann schrieb: > Ist das so was ähnliches wie ein Frequenzgenerator? Nein, ein Frequenzzähler ist ein Frequenzmesser, genaugenommen ein Frequenzvergleicher. Er zeigt an, wie die Frequenz eines zugeführten Signales im Verhältnis zum eingebauten oder extern angeschlossenen Vergleichssignal ist. Das Vergleichssignal kann von einer Kalibrierquelle kommen.
Wolfgang schrieb: > Andreas Hoffmann schrieb: >> Ist das so was ähnliches wie ein Frequenzgenerator? > > Nein, ein Frequenzzähler ist ein Frequenzmesser Thema verfehlt. Gefragt war nach einem Frequenz_generator_. @Andreas: Kalibrierquelle für welche physikalische Größe? Spannung? Widerstand? Frequenz? Masse? Häufig verwendet man im Hobbybereich keine Kalibrierquelle mit genau bekanntem Wert, sondern nimmt eine normale kurzzeitstabile Quelle und ein Vergleichsmeßgerät. Das sollte natürlich deutlich besser sein als das zu kalibrierende (oder abzugleichende) Gerät. Die Quelle für eine Spannung könnte dann z.B. ein Labornetzteil sein. Da schließt man einfach beide Meßgeräte an und stellt die gewünschte Kalibrierspannung ein (gemessen mit dem Vergleichsgerät). XL
Michael Köhler schrieb: > Also ich finde ja, eine gute Kalibrierquelle ist eine Quelle, die > überall, zu jeder Zeit die exakt selbe Menge abgibt. Aber die Ansichten > sind ja verschieden… :D Und mit welcher Abweichung ist bei Dir exakt noch exakt?
Michael Köhler schrieb: > Also ich finde ja, eine gute Kalibrierquelle ist eine Quelle, die > überall, zu jeder Zeit die exakt selbe Menge abgibt. Wenn es sich dabei um eine elektrische Spannung handelt, ginge das nur mit einem Referenzelement, welches auf den Josephson-Effekt beruht. Gruss Harald
Michael Köhler schrieb: > die exakt selbe Menge abgibt In Experimentalphysik hättest du für die Aussage ein "ungenügend" erhalten. In Messtechnik auch :-)
Harald Wilhelms schrieb: > Allerdings ist das Meter schon längere Zeit über die Licht- > geschwindigkeit definiert. muss Dich korrigieren 1m ist gleich 1 650 763,73 Wellenlängen der orangefarbenen Spektrallinie des Krypton 86 (meine Literatur Stand von 1975)
wolle g. schrieb: >> Allerdings ist das Meter schon längere Zeit über die Licht- >> geschwindigkeit definiert. > > muss Dich korrigieren > 1m ist gleich 1 650 763,73 Wellenlängen der orangefarbenen Spektrallinie > des Krypton 86 (meine Literatur Stand von 1975) Hatten wir zu der Zeit in D nicht noch einen Kaiser? http://de.wikipedia.org/wiki/Meter
@wolle g.: Seit 1983 ist das Meter aus der Basiseinheit 1 Sekunde und der Vakuumlichtgeschwindigkeit definiert, s.u.: http://de.wikipedia.org/wiki/Urmeter#Neudefinitionen_des_Meters_aufgrund_Optik_und_Zeitmessung
Hallo, ich stelle mal eine Anschlussfrage: Wenn ich mein Multimeter kalibrieren möchte ("ganau genug einstellen" reicht auch aus...), was wäre die genauste Spannungsreferenz welche ein Hobbyanwender in Chipform zu bezahlbaren Preisen (also max. im 50 Euro Bereich) bekommen kann ? Also sowas wie ein Präzesions 7805 (wobei es mir aber nicht auf die 5V ankommt - es kann auch jede andere "sinnvolle" Spannung sein), aber ähnlich einfach in der Beschaltung ? Wie gesagt - es geht nicht um die "perfekte, zertifizierte" Kalibrierquelle - sondern um das auf einfachen und bezahlbaren Weg für einen neugierigen Hobbyisten. mfg Bastler
Bastler schrieb: > auf einfachen und bezahlbaren Weg für einen neugierigen Hobbyisten. Ladegeräte für Li Akkus sollten bei vollem Akku normalerweise 4,2V bei einer Genauigkeit von 1% haben. Neue Zinkkohleelemente eine Ausgangsspannung von 1,64V bei ebenfalls 1%. Vielleicht reicht Dir das ja schon. Es muss ja nicht immer gleich ein Josephson-Element sein. :-) Gruss Harald
Bastler schrieb: > sondern um das auf einfachen und bezahlbaren Weg für > einen neugierigen Hobbyisten. Hier wird Dir geholfen: http://www.voltagestandard.com/ oder such mal nach AD584LH in der Bucht. Alternativ kannst Du auch eine ISL21009 Referenz (0.5mV bei 25 Grad) oder einen MAX6350 verwenden. Gruß Anja
Harald Wilhelms schrieb: > Hatten wir zu der Zeit in D nicht noch einen Kaiser? Ein Glück, dass ich eine Jahreszahl angegeben hatte! sonst: peinlich,peinlich
U. B. schrieb: > Seit 1983 ist das Meter aus der Basiseinheit 1 Sekunde und der > Vakuumlichtgeschwindigkeit definiert, s.u.: Wobei diese "Definition" fragwürdig ist. Genau genommen ist das nämlich keine Definition, sondern nur ein Meßwert. Schon bei der Lichtgeschwindigkeit ist deren konstanter Wert nur postuliert. Die Sekunde leitet sich aus der mittleren Länge des Sonnentages ab, von der man seit einigen Jahrzehnten weiß daß sie nicht wirklich konstant ist (die Erde rotiert immer langsamer, womit die Länge des Tages zunimmt). Das Meter ist ursprünglich definiert als der 40-millionste Teil des Erdumfangs, was angesichts von Plattentektonik und relativistischer Raumkrümmung auch nur näherungsweise konstant ist. Am Ende sind alle Einheiten (außer vielleicht der Lichtgeschwindig- keit) nur Übereinkunft. Wenn das "wahre" Meter doppelt so lang wäre wie unseres und die "wahre" Sekunde ebenso, dann würden wir überhaupt keinen Unterschied bemerken können. Oder anders gesagt: wenn die Franzosen damals das Meter nicht als den 40-millionsten, sondern als den 50-millionsten Teil des (geschätzten) Erdumfangs definiert hätten, dann wäre der Nennwert der Lichtgeschwindigkeit heute eben 375 Mio km/s. Sobald man eine der Größen (willkürlich) festlegt, erhält man den passenden Wert der anderen. Und deswegen habe ich arge Bauchschmerzen dabei, die Festlegung, was denn ein amtlicher Meter sei, auf Basis der Lichtgeschwindigkeit eine Definition zu nennen. Denn genau genommen ist es nur die willkürliche Festlegung auf einen (von vielen möglichen) Meßwerten für die Vermessung des "echten" Meters. Hätte man diese Messunng 10 Jahre später durchgeführt, dann hätte man wegen des dann längeren Sonnentags halt eine andere Zahl heraus bekommen. Und die wäre praktisch genauso gut gewesen. XL
Axel Schwenke schrieb: > Die Sekunde leitet sich aus der mittleren Länge des > Sonnentages ab, von der man seit einigen Jahrzehnten weiß daß sie nicht > wirklich konstant ist (die Erde rotiert immer langsamer, womit die Länge > des Tages zunimmt). Das ist die Herkunft der Sekunde, im Zuge der Neudefinition aller Basiseinheiten wurde die aber neu Festgelegt. http://de.wikipedia.org/wiki/Sekunde Axel Schwenke schrieb: > Schon bei der Lichtgeschwindigkeit ist deren konstanter Wert > nur postuliert. Naja, praktisch deuten alle Experimente der letzten 100 Jahren darauf hin, das die Lichtgeschwindigkeit in allen Bezugssystemen den gleichen Wert hat. Als einzige Abweichung von der konstanz der Lichtgeschwindigkeit wird im Moment die Abhängigkeit von der Wellenlänge gehandelt. Die liegt aber wenn im Moment noch unter unserer Längenmessfähigkeit. Wenn sich diese Vermutungen bestätigen sollten müsste man dann lediglich noch die Frequenz festlegen, bei der die Lichtgeschwindigkeit gemessen werden soll. Es wird zudem seit vielen Jahren (Jahrzehnten) Aufwand getrieben, alle Basiseinheiten so festzulegen, das sie sich physikalisch sehr genau und einfach messen lassen. Zudem sollen sie ja Unveränderlich sein. Das die Größen irgendwann mal willkürlich festgelegt wurde liegt in der Natur der Sache, da es keine "natürliche" Einheit gibt. Gruß Kai
Axel Schwenke schrieb: > Die Sekunde leitet sich aus der mittleren Länge des > Sonnentages ab, von der man seit einigen Jahrzehnten weiß daß sie nicht > wirklich konstant ist (die Erde rotiert immer langsamer, womit die Länge > des Tages zunimmt). Vorher Sonnentag, um die 1900-Jahrhundertwende dann mittlere Länge und Sternentag (die Erde eiert auch etwas), und ab 1967 dann die Definition über die Cäsiumfrequenz. Axel Schwenke schrieb: > Und die wäre praktisch genauso gut gewesen. Ja, wäre sie, und vermutlich auch mit der davor etwas ungenaueren Definition in Übereinstimmung. Aber das ist doch genau das, was man mit der Definition einer Größeneinheit erreichen will: Eine Vorschrift zu haben, mit der man (möglichst) unabhängig von sonstigen Einflüssen einen (möglichst) genau bestimmbaren Wert erhält. Ob der Meter nun das 39,37007-fache oder das 39,37008-fache der Daumenbreite eines bestimmten Menschens sind, ist ja eigentlich egal; wichtig ist nur, das alle sich auf einen bestimmten Wert geeinigt haben, und leicht ihre Messgeräte anhand dieser Messlatte einstellen können (selbst wenn besagter Mensch mal zu- oder abnimmt oder stirbt).
Udo Schmitt schrieb: > Kommt darauf an für welches Maß? Für die Zeit wäre das zum > Beispiel ganz > brauchbar: > http://www1.symmetricom.com/csac/?product_name=Chi... <-70 dBc/Hz Nunja... Ob das ein guter Standard ist, sei mal dahingestellt.
Bastler schrieb: > Wenn ich mein Multimeter kalibrieren möchte ("ganau genug einstellen" > reicht auch aus...), was wäre die genauste Spannungsreferenz welche ein > Hobbyanwender in Chipform zu bezahlbaren Preisen (also max. im 50 Euro > Bereich) bekommen kann ? Welches Multimeter? Ein preiswertes Handmultimeter, bei welche sämtliche Messbereiche gemeinsam mit einem Trimmer justiert wird, gibt es wie oben schon angeführt preiswerte und dennoch recht genaue Lösungen. Bei modernen Multimeter, welches auch Rechnergestützt justiert werden kann, Z.B. HP34401, muss jeder Messbereich für sich justiert werden. Dazu zählen auch zunehmend die modernen Handmultimeter der oberen Einstiegsklasse. Da braucht man dann eine Kalibrierquelle entsprechender Genauigkeit, welche für jeden Messbereich die erforderliche Größe zur Verfügung stellt. Diese sind leider garnicht billig, und liegen schnelle bei 20000 Euro und mehr. Da kommt man fast nicht dran vorbei es zum Kalibrierdienst zu geben. Ralph Berres
Wobei es diesen "Kalibrierdienst" in jeder größeren Firma oder Uni gibt. Nennt sich "Prüfmittelüberwachung". Vielleicht ist ja was passendes in Deiner Nähe, wo Du Deine Kiste in der Mittagspause mal an den Fluke MetCal hängen kannst. Die werden Dir zwar kein DKD-Zertifikat ausstellen, dafür bist Du aber mit ein paar Paketen Kaffee dabei.
Andreas Hoffmann schrieb: > Was ist eine gute > Kalibrierquelle ( bzw. was ist überhaupt eine Kalibrierquelle)? > > Ist das so was ähnliches wie ein Frequenzgenerator? Nein, eine Stimmgabel*. *)Die Qualität der Antworten ist direkt proportional zur Qualität der Fragen.
Axel Schwenke schrieb: >> Seit 1983 ist das Meter aus der Basiseinheit 1 Sekunde und der >> Vakuumlichtgeschwindigkeit definiert, s.u.: > > Wobei diese "Definition" fragwürdig ist. > > Genau genommen ist das nämlich keine Definition, sondern nur ein > Meßwert. Schon bei der Lichtgeschwindigkeit ist deren konstanter Wert > nur postuliert. > Am Ende sind alle Einheiten (außer vielleicht der Lichtgeschwindig- > keit) nur Übereinkunft. So ist es. Aber der Zustand, das jedes Staatsinstitut seine eigene Meterdefinition verwendet, wäre wesentlich schlechter. Die derzeitige Lösung hat den Vorteil, das bei einer Neudefinition der Sekunde (Die Definition über die Cäsiumfrequenz ist im Prinzip schon überholt), nicht auch gleich das Meter neu deiniert werden muss. > wenn die Franzosen damals das Meter nicht als den 40-millionsten, Die Definition hiess "Der zehnmillionste Teil des Erdquadranten" und das war eine runde Zahl. :-) > Und deswegen habe ich arge Bauchschmerzen dabei, Da bist Du vermutlich nicht der Einzige. Wichtig ist es aber, das man eine Definition findet, auf die sich alle relevanten Personen auf der Welt einigen können. Gruss Harald
Kai S. schrieb: >> Schon bei der Lichtgeschwindigkeit ist deren konstanter Wert >> nur postuliert. > > Naja, praktisch deuten alle Experimente der letzten 100 Jahren darauf > hin, das die Lichtgeschwindigkeit in allen Bezugssystemen den gleichen > Wert hat. Es gibt z.Z. durchaus Überlegungen, ob solche "Konstanten" wirklich konstant sind. Aber um da Messungen machen zu können, braucht man zuerst eine Neudefinition der Sekunde über sog. optische Uhren. > Es wird zudem seit vielen Jahren (Jahrzehnten) Aufwand getrieben, alle > Basiseinheiten so festzulegen, das sie sich physikalisch sehr genau und > einfach messen lassen. Genauer gesagt: "Durch physikalische Gesetze festgelegt." Bei einigen Grössen, wie die Masse oder die Stromstärke, ist das leider noch nicht gelungen. Gruss Harald
> Am Ende sind alle Einheiten (außer vielleicht der Lichtgeschwindig- > keit) nur Übereinkunft. Wobei die Geschwindigkeit eine abgeleitete Grösse ist, mit der Dimension Länge mal Zeit ^-1 ... > Genauer gesagt: "Durch physikalische Gesetze festgelegt." > Bei einigen Grössen, wie die Masse oder die Stromstärke, ist > das leider noch nicht gelungen. Das Ampere ist schon "festgelegt", http://de.wikipedia.org/wiki/Ampere#Aktuelle_Definition nur auf diese Art blöd herzustellen. In der Praxis ist man auf Umwege angewiesen: http://www.ptb.de/cms/index.php?id=ampere
Udo Schmitt schrieb: > Michael Köhler schrieb: >> die exakt selbe Menge abgibt > > In Experimentalphysik hättest du für die Aussage ein "ungenügend" > erhalten. > In Messtechnik auch :-) Korinthenkacker gibts halt überall. Da wir hier aber weder in der Experimentalphysik sind noch in der Messtechnik sondern in einem Forum bekomme ich halt nur dumme Sprüche gedrückt. Damit kann ich ja leben ;)
U. B. schrieb: > In der Praxis ist man auf Umwege angewiesen: > > http://www.ptb.de/cms/index.php?id=ampere Ja, man definiert den Strom über den Quotienten von Spannung und Widerstand, weil diese Größen über phyikalische Gesetze definiert sind. Das gleiche hätte man aber gern auch für den Strom. Daran wird seit vielen Jahren gearbeitet; bislang ist es aber noch nicht gelungen, eine Definition mit der erforderlichen Genauigkeit zu machen. Gruss Harald
Für Spannung würde ich eine BandGap-Referenz wählen Zeit (Frequenz) mit einem Empfänger für den Sender der DCF77 (http://fa2010.softxl.net/02/DCF77/Baumappe_DL1SNG_DCF77-Frequenznormal.pdf)
Harald Wilhelms schrieb: > U. B. schrieb: > >> In der Praxis ist man auf Umwege angewiesen: >> >> http://www.ptb.de/cms/index.php?id=ampere > > Ja, man definiert den Strom über den Quotienten von Spannung und > Widerstand, weil diese Größen über phyikalische Gesetze definiert > sind. Das gleiche hätte man aber gern auch für den Strom. Daran > wird seit vielen Jahren gearbeitet; bislang ist es aber noch nicht > gelungen, eine Definition mit der erforderlichen Genauigkeit > zu machen. Aktuell (wahrscheinlich dieses Jahr) ist/wird die Definition Elementarladungen pro Sekunde. Genauer gesagt: Der Wert der Elementarladung wird dann exakt festgelegt. Das Kelvin wird ebenso neu definiert indem die Boltzmann-Konstante exakt festgelegt wird... http://www.bipm.org/utils/common/pdf/si_brochure_draft_ch123.pdf (ab 2.4.4 und 2.4.5)
Ist ja niedlich! Etwa 32 von 34 ENGAGIERTEN Beiträge, die NIEMANDEN außerhalb der Klugscheißer-Riege interessieren! Nicht mal (verständlicherweise) den TO...
> Ist ja niedlich! ALLEN Schreibern der > Etwa 32 von 34 ENGAGIERTEN Beiträgen, ... war halt nicht gegenwärtig, dass letztere > ... NIEMANDEN außerhalb der Klugscheißer-Riege interessieren! > Nicht mal (verständlicherweise) den TO... Das dafür notwendige Einfühlungsvermögen ist nunmal nicht jedem gegeben; der TO wird sich sicher darüber freuen, dass er diese seine eigene Auffassung gar nicht selber kundtun muss.
CulCul schrieb: > Etwa 32 von 34 ENGAGIERTEN Beiträge, die NIEMANDEN außerhalb der > Klugscheißer-Riege interessieren! > > Nicht mal (verständlicherweise) den TO... Wobei der TO nicht einmal geschrieben hat, was er genau sucht. Der zweite der immerhin ein Spannungsnormal sucht, auch nicht genau geschrieben hat, was er nun justieren möchte. Es ist nun leider mal so, das die zur Zeit aktuellen Multimeter ab der oberen Einstiegsklasse nicht mehr mit nur einer stabilen 2V Quelle auskommen, somit für jeden Messbereich eine passende stabile Quelle vorhanden sein muss. Die Kalibriergeräte, die das justieren sämtlicher Messbereiche ( also DC und AC bis 1000V und einige Ampere ) ermöglichen, gibt es nicht als Bastlergeräte zum fast Nulltarif. Die kosten auch gebraucht eher über 10000 Euro, neu über 20000 Euro. Da ist es in der Regel billiger sein Gerät einen Kalibrierdienst anzuvertrauen. Die verlangen zwar auch ca. 200 Euro, aber das ist immer noch weit billiger als 10000 Euro und mehr zu investieren. Man sollte aber darauf bestehen, das das Gerät nach dem Kalibrieren auch justiert wird, und dann wieder kalibriert wird. Damit man ein vorher nachher Vergleich hat, um zu sehen welche Messbereiche wie weit weggedriftet sind. Allerdings driften die modernen 5 und 6stelligen Multimeter selbst nach vielen Jahren nur unmerklich weg. Die daraus resultierende Unsicherheit reicht für den Hobbybereich immer noch bei weiten aus. Es betrifft also für den Hobbyisten nur Multimeter die nach einer selbst durchgeführten Reparatur merklich ungenau geworden sind. Die Anmerkung jede Uni hat so ein Gerät. Schön wäre es. Es muss schon eine verdammt große Uni sein, mit verdammt vielen Multimetern, welche alle einen Kalibrierschein benötigen. Sonst lohnt sich die Investitionen auch nicht. Die Hochschule Trier hat jedenfalls nur ein Kalibriergerät für 3 1/2 Stellige Multimeter, welches noch komplett von Hand betätigt werden muss. Ralph Berres
Ein Kalibriergerät muss so gut sein, wie mans braucht. Eine Größenordnung besser als das eigene Gerät ist ausreichend und im betreffenden Fall das beste, weil sinnvolle Kalibriermittel. Kalibriergeräte, die die Grenze der Technik ausloten, sind doch .... In der üblichen Elektrotechnik werden Spannungen oder Ströme nie genauer als mit 1%Fehler vorliegen. Eine Spannungs-oder Stromquelle, die um eine Größenordnung besser ist, also z.B. 1mV Fehler je Volt, ist dann völlig ausreichend. Dazu liefern einige IC-Hersteller Spannungsquellen, die diese Grenzen bei Auslieferung einhalten. (siehe ein paar Beiträge weiter oben bzw.Datenblätter dazu) Bei "Frequenz" ist ein passender Rundfunksender bzw. DCF schon viel zu gut, um einen eigenen Frequenzgenerator zu justieren bzw. zu kalibrieren.
:
Bearbeitet durch User
Peter R. schrieb: > In der üblichen Elektrotechnik werden Spannungen oder Ströme nie genauer > als mit 1%Fehler vorliegen. Eine Spannungs-oder Stromquelle, die um eine > Größenordnung besser ist, also z.B. 1mV Fehler je Volt, ist dann völlig > ausreichend. Ich würde dem Rest der Leser hier nicht vorschreiben wollen, was für sie genau genug ist. Peter R. schrieb: > Dazu liefern einige IC-Hersteller Spannungsquellen, die diese Grenzen > bei Auslieferung einhalten. (siehe ein paar Beiträge weiter oben > bzw.Datenblätter dazu) Sofern man ein Multimeter hat, bei welche alle Messbereiche gemeinsam mit nur einen Einstellregler für die Justierung versehen ist, trifft das zu. Viele Messgeräte ( insbesonders die aktuellen ) werden aber jeder Messbereich gesondert justiert. Da kommt man mit einer Referenzspannung leider nicht sehr weit. Peter R. schrieb: > Bei "Frequenz" ist ein passender Rundfunksender bzw. DCF schon viel zu > gut, um einen eigenen Frequenzgenerator zu justieren bzw. zu > kalibrieren Wieder der Versuch anderen vorzuschreiben, wie genau sein Messgerät zu sein braucht. Was nützt einen ein 8stelliger Zähler, bei welchen man die letzten 2-3 Stellen ebenso gut zukleben kann, weil überhaupt nicht mehr aussagefähig? Im übrigen gibt es insbesonders im Funkamateurbereich auch Anwendungen, bei denen man eine genaue Frequenz benötigt. Ralph Berres
Ich habe nur Beispiele genannt, wieso soll das eine Vorschrift sein ? Ich gönne Jedem seine Spannungsquelle, mit der ein sechsstelliges DVM kalibrierbar ist oder sein Cäsium-Frequenznormal, habe aber meine eigene Meinung dazu. Nur sollte man nicht den Grundsatz aus dem Auge verlieren "so viel wie notwendig".
Nun ja Bastler hat ja nach einer Möglichkeit gefragt wie er preisgünstig sein Multimeter justieren kann. Er hat uns leider nicht gesagt was für ein Multimeter. Somit ist uns unbekannt, ob er mit einer Spannung z.B. 2 Volt auskommen würde. Wenn dem so ist, haben mehrere Teilnehmer hier geschrieben, das es preisgünstige Spannungsreferenzen gibt, die für ein 3,5stelliges Multimeter genau genug sind, auch ohne vorherige kalibrierung durch eine Kalibrierdienst. Wenn er aber für die Justierung für jeden Messbereich seines Multimeter eine entsprechende Spannung bzw. Strom sowohl für AC als auch für DC braucht ( Widerstand lassen wir mal außen vor ), dann gibt es defacto keine preiswerte Hobbylösung. Dann ist es eine persöhnliche Abwägung, ob ihm das justieren seines Multimeters durch ein Kalibrierdienst das Geld wert ist. Nicht mehr und nicht weniger will ich damit ausdrücken. So ganz ohne Wertung welche Genauigkeit er persöhnlich benötigt. Eine Investition in eine entsprechendes Kalibriergerät ist auf jeden Fall für den Hobbyisten nicht rentabel, da schnell im 4-5 stelligen Eurobereich anzusiedeln. Ralph Berres
Michael Köhler schrieb: > Korinthenkacker gibts halt überall. Da wir hier aber weder in der > Experimentalphysik sind noch in der Messtechnik ROFL Erzähle mir doch mal was Kalibrieren NICHT mit Messtechnik zu tun hat? Es hat ZUR GÄNZE mit Messtechnik zu tun. Du disqualifizierst dich selbst wenn du nicht nur Unsinn schreibst sondern die, die dich korrigieren auch noch versuchst zu beleidigen.
Peter R. schrieb: > In der üblichen Elektrotechnik werden Spannungen oder Ströme nie genauer > als mit 1%Fehler vorliegen. Naja, 1% ist die Mindestforderung für die Ladespannung beim Laden von Li-Akkus.
Harald Wilhelms schrieb: > Naja, 1% ist die Mindestforderung für die Ladespannung > beim Laden von Li-Akkus. Das ist ein gutes Beispiel, wie sich die Anforderungen an die Messtechnik im Laufe der Zeit ändern. In der Zeit der Zeigerinstrumente gehörten Geräte mit 1% Genauigkeit schon zu den guten Geräten. Also sollte jeder seine Messtechnik an die Aufgabe anpassen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.