Forum: Mikrocontroller und Digitale Elektronik 8266-12E ADC Kalibrieren?


von allgemein (Gast)


Angehängte Dateien:

Lesenswert?

Hi,

ich habe meine Labornetzteil angeschlossen um ADC des 8266-12E zu 
testen. Ich habe folgende Werte beobachtet:

Spannung        ADC Wert
0,049918978  0
0,153596854  100
0,307193709  251
0,460790563  403
0,614387417  550
0,767984272  701
0,921581126  849
0,998379553  927
1,07517798  1000
1,105897351  1024

Problem: ADC fangt an erst ab 0,04V und erst bei 1,10V ist Schluss. Ich 
dachte, dass der ADC 0,0-1,0 <-> 0..1024 messen sollte...

Muss die Spannung bei jeder ESP8266-12E programmatisch kalibriert 
werden?

von Stefan F. (Gast)


Lesenswert?

Der ADC von diesem Chip ist nur ein ganz grobes Schätzeisen. In einem 
älteren Datenblatt steht geschickt verklausuliert, dass in Normalbetrieb 
bis zu 20% Abweichung zu erwarten ist. Im Aktuellen Datenblatt haben sie 
das wieder raus genommen.

Schalte mal die Funkschnittstelle aus, bevor du den ADC benutzt. Er ist 
dann zwar immer noch ziemlich ungenau, aber immerhin liefert er dann 
reproduzierbarere Ergebnisse.

von Steffen (Gast)


Lesenswert?

Mit den so abgeschnittenen Messwerten kann man nicht viel sagen. Kannst 
Du bitte noch mal alle Stellen Du für die Ausgangsspannung deines 
Labornetzteils bekommst aufschreiben? Dann kann man besser sagen ob das 
zu dem 10bit ADC passt.

von Kolja L. (kolja82)


Lesenswert?

Und wer kontrolliert die Kontrolleure?

von allgemein (Gast)


Lesenswert?

Steffen schrieb:
> Mit den so abgeschnittenen Messwerten kann man nicht viel sagen. Kannst
> Du bitte noch mal alle Stellen Du für die Ausgangsspannung deines
> Labornetzteils bekommst aufschreiben? Dann kann man besser sagen ob das
> zu dem 10bit ADC passt.

Na das sind alle Werte, die ich probeweise gemessen hatte:
Spannung        ADC Wert
0,049918978  0
0,153596854  100
0,307193709  251
0,460790563  403
0,614387417  550
0,767984272  701
0,921581126  849
0,998379553  927
1,07517798  1000
1,105897351  1024

Spannung -> gestellte Spannung des Labotbetzteil (gemessen mit 
Multimeter)
ADC Wert -> Wert aus analogRead(AO)

mehr habe ich nicht. Aus dem Diagramm ist sichtbar, dass mind. die 
Punkte in einer Linie stehen. Das ist Schon gut... Schade nur, dass die 
Bereich 0.00V-0.05V und über 1.00V verschoben sind. Das lässt sich aber 
programmatisch justieren.
Welche Erfahrungen habt ihr?

von Georg (Gast)


Lesenswert?

allgemein schrieb:
> Welche Erfahrungen habt ihr?

Normalerweise ist kein ADC-System einfach so brauchbar wie es aus der 
Verpackung kommt, an irgendeinem Punkt muss man immer kalibrieren. Egal 
ob mit Trimpoti oder mit Software. Zweckmässigerweise betrachtet man 
dazu das Gesamtsystem, also Referenz, ADC und Signalaufbereitung (OpAmp 
Vorverstärker usw.) und sieht eine 2-Punkt, ev. auch 
Einpunkt-Kalibrierung vor.

Für eine Serienfertigung kann man eine Kalibrier-Software vorsehen, z.B. 
0V anlegen und Funktion 1 wählen, 1,000V anlegen und Funktion 2 wählen 
-> Kalibrierdaten werden im EEProm gespeichert. Wenn man sehr viel Geld 
hat, kann das auch ein Testautomat durchführen.

Georg

von Einer K. (Gast)


Lesenswert?

allgemein schrieb:
> Welche Erfahrungen habt ihr?

Hmm...

Eigentlich recht gute....
Es gibt einige vorzügliche, I2C und SPI, A zu D Wandler.
Allerbeste Erfahrung damit gemacht.

von A. B. (Gast)


Lesenswert?

allgemein schrieb:
> Na das sind alle Werte, die ich probeweise gemessen hatte:
> Spannung        ADC Wert
> 0,049918978  0
> 0,153596854  100
> 0,307193709  251
> 0,460790563  403
> 0,614387417  550
> 0,767984272  701
> 0,921581126  849
> 0,998379553  927
> 1,07517798  1000
> 1,105897351  1024
>
> Spannung -> gestellte Spannung des Labotbetzteil (gemessen mit
> Multimeter)

Das ist wohl ein Scherz ... Das Multimeter möchte ich sehen (und haben). 
Ein 10-stelliges DMM dürfte ziemlich unbezahlbar und empfindlicher als 
eine Mimose sein.

Und das Labornetzteil erzeugt eine stabile, rausch- etc. freie 
Ausgangsspannung???

von Wolfgang (Gast)


Lesenswert?

A. B. schrieb:
> Und das Labornetzteil erzeugt eine stabile, rausch- etc. freie
> Ausgangsspannung???

Da keine weitere Fehlerangabe zu den Zahlenwerten vorhanden ist, wird 
die letzte Stelle wohl sinnvollerweise etwa der Genauigkeit entsprechen.

Sonst würde man die Stellen vernünftigerweise doch weglassen, weil sie 
sowieso bedeutungslos sind, um den im Laborjagon üblichen Begriff 
"Hausnummern" zu vermeiden.

von Holger (Gast)


Lesenswert?

Georg schrieb:
> ev. auch
> Einpunkt-Kalibrierung vor.

Moin,

was ja schon per Definition Schwachsinn bei einem ADC ist. Eine 
Einpunktkalibrierung kommt nur in Frage, wenn das Messmittel 
ausschließlich am Kalibrierpunkt messen soll.

Mit einer entsprechenden Unsicherheit kann man dann noch um diesen Punkt 
herum das Messmittel verwenden. Wer aber z.B. einen ADC, der einen 
Bereich von 0...5V abdecken kann, nur bei 2,5 V kalibriert und eine 
entsprechende Korrektur über den gesamten Bereich anwendet, der macht 
einen ziemlichen Schwachsinn.


Holger

von Georg (Gast)


Lesenswert?

Holger schrieb:
> was ja schon per Definition Schwachsinn bei einem ADC ist

Kommt auf die Anwendung an - wenn die Steilheit durch die Bauteile fest 
eingestellt ist, z.B. für einen Pt100, bleibt ja nur ein Punkt. Aber 
Hauptsache, wieder mal rumgepöbelt.

Georg

von Holger (Gast)


Lesenswert?

Ach und woher kennst Du die Steilheit?

von allgemein (Gast)


Lesenswert?

A. B. schrieb:
> Das ist wohl ein Scherz ... Das Multimeter möchte ich sehen (und haben).
> Ein 10-stelliges DMM dürfte ziemlich unbezahlbar und empfindlicher als
> eine Mimose sein.

Das kommt aus der Spannungsteiler 1/13, der ich im Excel zurückberechnet 
hatte. Ich messe Spannungen bis zu 13V.

Ich habe einem weiteren ESP8266 ausprobiert und die Formel dort ist ganz 
anders... So meine Schlussfolgerung: jeder chip muss extra kalibiert 
werden. Nach der Kalibrierung läuft die Messung wurderbar und 0,01V 
genau.

von Steffen (Gast)


Lesenswert?

allgemein schrieb:
> Nach der Kalibrierung läuft die Messung wurderbar und 0,01V
> genau.

Da ist dann aber immer noch was im Argen. Für 0,01V über 1V bräuchte man 
nicht mal 7 Bit.

von Holger (Gast)


Lesenswert?

allgemein schrieb:
> So meine Schlussfolgerung: jeder chip muss extra kalibiert
> werden.

Richtig! Jedes Messmittel muss kalibriert werden. Und zwar an mehrern 
Punkten. Aus meiner täglichen Laborpraxis kann ich sagen, dass es keine 
aber auch wirklich keine zwei Temperatursensoren mit der exakt selben 
Kennlinie gibt. Anhand der Kalibrierung kann man entsprechende 
Korrekturen berechnen.

Hier noch einmal zum Verständis. Kalibrieren bedeutet nicht, dass am 
Messgerät etwas verändert wird. Es werden keine Knöpfe gedrückt, keine 
Potis verdreht oder sonstige Justagen vorgenommen.

Bei einer Kalibrierung werden die Werte des Normals, des 
Kalibriergegenstandes und die Messunsicherheit angegeben. Siehe auch VIM 
2.39 
(http://www.bipm.org/utils/common/documents/jcgm/JCGM_200_2012.pdf). 
Manche Labore überprüfen noch die Einhaltung der 
Hersteller-Spezifikationen. Das ist dann aber eher Service.


Holger

von Steffen (Gast)


Lesenswert?

Holger schrieb:
>> So meine Schlussfolgerung: jeder chip muss extra kalibiert
>> werden.
>
> Richtig! Jedes Messmittel muss kalibriert werden.

Naja, es kommt doch drauf an mit welcher Unsicherheit man leben kann. 
Und wenn die Bauteilwerte es hergeben, dann muss eben nicht alles 
kalibriert werden.

von Holger (Gast)


Lesenswert?

Steffen schrieb:
> dann muss eben nicht alles
> kalibriert werden

Und das ist leider ein weit verbreiteter Irrglaube. Nur eine 
Kalibrierurg gibt dem Benutzer die Sicherheit, dass das Messmittel 
innerhalb der eigenen Messunsicherheitsanforderungen liegt. Ich würde 
mich da nicht auf Herstellerspezifikationen verlassen. Die sind oft 
genug geschönt.

von Steffen (Gast)


Lesenswert?

Holger schrieb:
> Und das ist leider ein weit verbreiteter Irrglaube. Nur eine
> Kalibrierurg gibt dem Benutzer die Sicherheit, dass das Messmittel
> innerhalb der eigenen Messunsicherheitsanforderungen liegt. Ich würde
> mich da nicht auf Herstellerspezifikationen verlassen. Die sind oft
> genug geschönt.

Ich sprach hier von hergestellter Elektronik so wie eine Schaltung mit 
dem ADC hier aus dem Thread.

Wenn es um richtige Messgeräte geht, dann brauchst Du doch trotzdem die 
Herstellerangaben. Die Kalibrierung sagt Dir ja nur, dass das Gerät zu 
dem Zeitpunkt an dem kalibriert wurde innerhalb der Spezifikationen lag. 
Wenn das 10 Monate her ist, dann ist man gut beraten ins Datenblatt des 
Gerätes zu sehen und zu schauen was da die ein-Jahres Spezifikation ist.

von Holger (Gast)


Lesenswert?

Steffen schrieb:
> Wenn das 10 Monate her ist, dann ist man gut beraten ins Datenblatt des
> Gerätes zu sehen und zu schauen was da die ein-Jahres Spezifikation ist.

Richtig ist, dass die Kalibrierung eine Momentaufnahme unter 
kontrollierten Bedingungen ist. Die Messunsicherheit wird sich an einem 
anderen Messort sicherlich erhöhen (Transport, Umgebungsbedingungen). 
Aber auch die Driftangabe des Herstellers ist oft genung geschönt. Erst 
eine Kalibrierhistorie hilft einem da weiter.

Ich habe zumindest schon erlebt, dass die Herstellerangaben sehr 
konservativ aber andererseits auch viel zu gering angeben waren.

Und in meinem Labor habe ich mehrere identische 
Messwerterfassungssysteme eines Herstellers. Die meisten sind innerhalb 
der Spezifikationen aber hin und wieder eben auch nicht. Und da ist auch 
nicht immer so, dass es eine eindeutige Drift in eine Richtung gibt.

von Steffen (Gast)


Lesenswert?

Holger schrieb:
> Richtig ist, dass die Kalibrierung eine Momentaufnahme unter
> kontrollierten Bedingungen ist. Die Messunsicherheit wird sich an einem
> anderen Messort sicherlich erhöhen (Transport, Umgebungsbedingungen).
> Aber auch die Driftangabe des Herstellers ist oft genung geschönt. Erst
> eine Kalibrierhistorie hilft einem da weiter.

Ja, das bringt einem sicherlich zusätzliche Sicherheit, aber es ist für 
neue Geräte ja nicht praktikabel. Ich kann ja nicht ein neues Messgerät 
anschaffen und es dann erst nach Jahren für relevante Messungen nutzen, 
nur weil ich mir erst eine Kalibrierhistorie erstellen möchte.

Die Spezifikationen sind ja auch keine Garantien der Hersteller. 
Speziell bei Fluke und Präzisionsmesstechnik findet man für die 
Spezifikationen ja noch Konfidenzintervalle. Genauso gibt mir auch das 
Kalibrierlabor keine 100%ige Sicherheit. Es bleibt also immer eine 
gewisse Unsicherheit, egal was man macht.


Holger schrieb:
> Ich habe zumindest schon erlebt, dass die Herstellerangaben sehr
> konservativ aber andererseits auch viel zu gering angeben waren.

Bei HP/Agilent habe ich bisher was das angeht durchweg gute Erfahrungen 
gemacht. Wir haben aber auch einige, von vielen hochgelobte, alte Prema 
Geräte in der Firma bei denen ich die Spezifikationen nicht glauben 
kann.


Holger schrieb:
> Und in meinem Labor habe ich mehrere identische
> Messwerterfassungssysteme eines Herstellers. Die meisten sind innerhalb
> der Spezifikationen aber hin und wieder eben auch nicht. Und da ist auch
> nicht immer so, dass es eine eindeutige Drift in eine Richtung gibt.

So etwas wird bei uns dann eigentlich gesperrt. Da kann man während der 
Entwicklung noch mit spielen, aber für verlässliche Sachen taugt es dann 
ja nicht mehr, wenn es immer mal wieder raus ist ohne das es 
vorhersagbar ist.

von Andreas S. (Firma: Schweigstill IT) (schweigstill) Benutzerseite


Lesenswert?

allgemein schrieb:
> Das kommt aus der Spannungsteiler 1/13, der ich im Excel zurückberechnet
> hatte. Ich messe Spannungen bis zu 13V.

Dann solltest Du auch bei der Wahrheit bleiben und nicht haltlose 
Behauptungen aufstellen. Dazu noch eine andere Frage: Wie hast Du denn 
bitteschön Ausgangswerte des 10-Bit-A/D-Wandlers von 0 und 1024 
erhalten können?

: Bearbeitet durch User
von Visitor (Gast)


Lesenswert?

allgemein schrieb:
> ESP8266_12E_ADC_Diagramm.PNG

Was ist eigentlich die Sinnhaftigkeit der blauen Datenpunkte?

von Holger (Gast)


Lesenswert?

Steffen schrieb:
> So etwas wird bei uns dann eigentlich gesperrt.

Bei uns natürlich auch. Und dann Instandsetzung oder Ersatz.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.