Forum: Mikrocontroller und Digitale Elektronik DMM Eigenbau


von Manuel F. (dobby)


Lesenswert?

Hallo liebe Spezialisten!

Vorgeschichte:

Ich habe vor mir ein Multimeter zu bauen. Ich sehe vor meinem geistigen 
Auge schon die entsetzten Blicke. :) Aber keine Sorge, ich gehöre nicht 
zu der Kategorie von Hobbybastlern die ein 6-1/2 stelliges DMM mit einem 
Arduino, zum Preis einer Packung Äpfel, bauen möchte. Ich selbst bin 
Industrieelektroniker und mache hauptsächlich SPS-Programmierung. Es 
geht mir mehr um den Erkenntnisgewinn und den Spaß an der Freude. 
Nachdem ich mich auch ausgiebig mit der Serviceanleitung meines Philips 
PM2527 befasst habe war mein Interesse geweckt. (Auch optisch ein 
schönes Gerät, das Auge misst mit) Nachdem ich mich nun schon ausgiebig 
mit ADC's, Kalibrierung, Genauigkeit aus anderen Quellen beschäftigt 
habe sind mir durchaus schon ein paar einleuchtende Erkenntnisse 
untergekommen. Mir ist der Unterschied zwischen Auflösung und 
Genauigkeit bewusst. Ebenso habe ich mich mit Datenblättern und 
App-Notes von ADC's befasst und kenne auch die Unterschiedlichen 
Fehlerarten welche die Genauigkeit der Wandlung beeinflussen. Allerdings 
gibt es auch Punkte die noch nicht zufriedenstellend geklärt sind. 
Deshalb zu meiner Frage.

Die Frage/Das Problem:

Mein Verständnisproblem liegt in der insgesamten Genauigkeit des ADCs. 
Wie wird zum Beispiel die Genauigkeit von z.B. DC Spannungsmessbereichen 
bei DMM's bestimmt? Klar ist das alle Fehler vom analogen Front-End mit 
Verstärker, Abschwächer bis zum digitalen Wert einfließen so weit so 
gut. Wenn ich jetzt nur den ADC betrachte gibt es ja Offset-Fehler, 
Gain-Fehler, DNL- und INL-Fehler und den Quantisierungsfehler zusätzlich 
dazu kommt der Fehler der durch die Referenz (inkl Rauschen) erzeugt 
wird.

1. Angenommen ich habe einen Kalibrator dann kann ich doch eigentlich 
alle Fehler die statisch sind rauskalibrieren. Sprich Gain-, Offset- und 
Referenzfehler. Das würde bedeuten das einzige was meine Genauigkeit 
begrenzt ist das Rauschen der Eingänge, der Referenz, der INL und DNL 
und der Quantisierungsfehler? (Mal abgesehen von einer Linearisierung 
per Kurvenzug und dynamischen Drift wie Alterung und Temperatur und 
vorausgesetzt man hat eine entsprechend genaue Kalibriermöglichkeit). 
Sehe ich das Richtig? Das würde bedeuten das der absolute Spannungswert 
einer Referenz eher untergeordnet ist. Wichtiger wäre das Rauschen und 
die Stabilität der Referenzspannungsquelle.

2. Ebenso wäre es doch auch wenn man das Komplette System von der 
Messbuchse bis zum ADC betrachtet. Statische Fehler können eigentlich 
immer mit einer Kalibrierung ausgeglichen werden. Das heißt die 
Genauigkeit ist nur so gut wie die Gesamtzahl der nichtlinearen Fehler 
im Aufbau und die Genauigkeit der verwendeten Kalibrierquelle.

3. Wie stellen Hersteller wie Agilent oder Keithley die Genauigkeiten 
fest. Sind das Werte die anhand der Schaltung errechnet werden und nach 
Entwicklung eines Prototyps validiert werden?

Ich glaube das reicht für den Anfang. Ich wünsche euch schon mal ein 
schönes Wochenende.

: Verschoben durch Moderator
von Egon D. (Gast)


Lesenswert?

Manuel F. schrieb:

> 1. Angenommen ich habe einen Kalibrator dann kann
> ich doch eigentlich alle Fehler die statisch sind
> rauskalibrieren.

Theoretisch ja.


> Das würde bedeuten das der absolute Spannungswert
> einer Referenz eher untergeordnet ist.

In gewissen Grenzen -- ja.


> Wichtiger wäre das Rauschen

Rauschen spielt i.d.R. aufgrund der integrierenden
Arbeitsweise des A/D-Wandlers kaum eine Rolle.


> und die Stabilität der Referenzspannungsquelle.

Richtig.


> 2. Ebenso wäre es doch auch wenn man das Komplette
> System von der Messbuchse bis zum ADC betrachtet.
> Statische Fehler können eigentlich immer mit einer
> Kalibrierung ausgeglichen werden.

Richtig.

Deswegen sind in der Praxis die Drifteinflüsse bzw.
die Querempfindlichkeiten der begrenzende Faktor:
Abhängigkeit von der Höhe der Betriebsspannung, von
der Umgebungstemperatur, von der Kühlung. Alterung
der Referenz, der verstärkungsbestimmenden Widerstände,
elektromagnetische Einstreuungen, mit viel Pech
parasitäre Photo-Effekte an pn-Übergängen, Temperatur-
spannungen, mechanische Spannungen.


> Das heißt die Genauigkeit ist nur so gut wie die
> Gesamtzahl der nichtlinearen Fehler im Aufbau und
> die Genauigkeit der verwendeten Kalibrierquelle.

Jein -- siehe oben.
Als Wandler werden i.d.R. Prinzipien mit inhärenter
Linearität bevorzugt, d.h. integrierende Wandler mit
der Zeit oder der Frequenz als Zwischengröße.

Normalerweise ist die Stabilität das Problem -- je
länger der Zeitraum, desto schlimmer.


> 3. Wie stellen Hersteller wie Agilent oder Keithley
> die Genauigkeiten fest.

Weiss ich nicht verbindlich.


> Sind das Werte die anhand der Schaltung errechnet
> werden und nach Entwicklung eines Prototyps validiert
> werden?

Mindestens.
Fehlerrechnung beim Entwurf ist natürlich Pflicht,
qualitätssichernde Tests vor und während der Produktion
sicherlich auch. Bei Bedarf bekommt man auch zu jedem
einzelnen Gerät einen Kalibrierschein.


> Ich glaube das reicht für den Anfang. Ich wünsche euch
> schon mal ein schönes Wochenende.

Ebenso.

von Egon D. (Gast)


Lesenswert?

Manuel F. schrieb:

> Die Frage/Das Problem:

Mist, zu spät gesehen: Falsches Unterforum.

"Bitte hier keine Fragen posten!"

von Michael Gugelhupf (Gast)


Lesenswert?

Egon D. schrieb:
> "Bitte hier keine Fragen posten!"

Ein Moderator wird das sicher gerne verschieben.

Zur Frage. Die von dir erwähnten Fehler sind nicht notwendigerweise 
statisch. Zum Beispiel, je höher die Auflösung und Genauigkeit des 
Geräts werden soll, desto wichtiger wird das Driftverhalten (Kurz- und 
Langzeit) und die Kompensation der Drift der Bauelemente und -gruppen. 
Solange die stabil sind kann man den Rest "rauskalibrieren" (justieren).

Wenn du ein Multimeter bauen möchtest, dann kann ich nur raten hab Spaß 
und bau mehrere.

Fang mit was Einfachem an. Da sind die Teile preiswert und du bekommst 
ein Gefühl dafür. Leider bekommt man keine wirklich guten analogen 
Messwerke mehr (billiges Zeug gibt es noch). Denn eigentlich macht der 
Selbstbau eines einfachen FET-Multimeters auch Spaß. Daher würde ich 
sagen fang mit was Digitalem an.

Das du mit einem Selbstbau preislich kein kommerzielles Gerät schlagen 
kannst ist dir vermutlich klar. Die Zeiten sind lange vorbei.

Leseempfehlungen:

Hier ist was man so in der Spitzenklasse treibt 
https://www.ohwr.org/project/opt-adc-10k-32b-1cha/wikis/home Open 
Source, deine Steuergelder bei der Arbeit, für wenn du mal am CERN 
Large Hadron Collider lästigen Nuklearteilchen beim Spielen zusehen 
musst :)

Schon eher Selbstbau-Mittelklasse 
Beitrag "Projekt DVM 4,5 Digit aus Standardbauteilen mit automatischer Bereichsumschaltung" Trotz seines Alters kann 
man aus dem 7135 einiges rausholen. Er ist auch sehr einfach mit einem 
Mikrocontroller steuer- und auslesbar. Die Schaltungen im Datenblatt 
übertreiben beim Mikrocontroller-Anschluss. Statt dessen einfach Anzahl 
der Takte zählen solange BUSY High ist, 10001 abziehen -> Messwert. Den 
Takt kann man vom Mikrocontroller erzeugen lassen. Das macht das 
Taktzählen noch einfacher.

Wem der ICL7135 zu alt ist, man findet aktuelle Multimeter-ICs in 
unbekannter Qualität auf Aliexpress. Alledings zuerst mal googeln ob man 
ein Datenblatt dazu findet.

Es gibt auch Bausätze. Die die ich kenne sind Müll. Zeug wie 
https://www.aliexpress.com/item/32908620132.html (4x so teuer wie das 
Fertiggerät) oder (analog) 
https://de.aliexpress.com/item/32910142494.html

https://www.renesas.com/www/doc/application-note/an028.pdf

Hier treffen sich die Verrückten 
https://lists.febo.com/mailman/listinfo/volt-nuts_lists.febo.com

von Larry (Gast)


Lesenswert?

Am hilfreichsten wuerde es wohl sein, mit einem 
"Einbereich"-Digitalvoltmeter
mit einem 24 bit ADC zu beginnen.
Das hat zwar z.B. nur einen Bereich von 0 bis 16.777215 V aber eine
Aufloesung (nicht Genauigkeit) von 1 uV.
Dort kannst du dann umfassend die Probleme kennenlernen die praezise
Messtechnik bereiten kann.
Solch ein Geraet vermittelt aber bei Messungen und der Fehlersuche in
anderen Geraete viel Spass, die durch die hohe Aufloesung moeglich wird.

von Manuel F. (dobby)


Lesenswert?

Erst einmal danke für die ausführlichen Antworten. Die Links scheinen 
sehr interessant zu sein. Danke für die Hinweise. Ich werde mir das die 
nächsten zwei Tage Mal in Ruhe zu Gemüte führen.

Egon D. schrieb:
> Mist, zu spät gesehen: Falsches Unterforum.
> "Bitte hier keine Fragen posten!"

Oh Entschuldigung das habe ich wohl überlesen.

Michael Gugelhupf schrieb:
> Das du mit einem Selbstbau preislich kein kommerzielles Gerät schlagen
> kannst ist dir vermutlich klar. Die Zeiten sind lange vorbei.

Das ist mir vollkommen klar. Ich denke ich bin messtechnisch gut 
aufgestellt. Von daher besteht da auch keine Notwendigkeit.

Michael Gugelhupf schrieb:
> deine Steuergelder bei der Arbeit, für wenn du mal am CERN  Large Hadron
> Collider lästigen Nuklearteilchen beim Spielen zusehen musst

Für so eine ausgepuffte technische Spielerei wie dem LHC knappse ich 
gerne was von meinem sauer verdienten Geld ab. :) Ich unterstütze auch 
kicad gelegentlich finanziell welches ja vom CERN mitentwickelt wird.

Larry schrieb:
> Dort kannst du dann umfassend die Probleme kennenlernen die praezise
> Messtechnik bereiten kann.

Das stimmt wohl ich habe schon des öfteren Teardown Berichte und Videos 
gesehen. Es ist gigantisch was da für Aufwand betreiben hat um das 
letzte bisschen Genauigkeit herauszuholen. Alleine schon wenn Platine 
eingefräst werden um mechanische Spannung und damit einen Piezoeffekt 
auf Bauteile zu minimieren.

Alleine in meinem Philips Tisch DMM wurde viel Aufwand mit Digital IC's 
betrieben für die Messbereichsumachaltung und Anzeige der Messwerte. 
Das wäre dann die zweite Stufe meines Projekts. Heute ist das ja alles 
mit Microcontrollern lösbar. Und auf Grund der Möglichkeit kann man sich 
da mit Sicherheit kaputt spielen.

Ich denke es werden später bestimmt noch ein paar Fragen auftauchen mit 
denen ich mich wieder vertrauensvoll an das Forum wenden werde. Bis 
dahin wünsche ich euch erstmal alles Gute. Genug Lesestoff habe ich ja 
jetzt erstmal.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.