Forum: Analoge Elektronik und Schaltungstechnik Verständnisfrage Kalibration und Messung von Spektrometern


von BlueAudio (Gast)


Lesenswert?

Hallo zusammen,

mir stellt sich aktuell folgende Frage. Ich habe ein Spektrometer 
welches mit einer Wellenlängengeauigkeit von +-0.5 nm spezifiziert ist.

Die Kalibration solcher Spektrometer wird nach den Richtlinien für die 
Verwendung im Pharmazeutischen Bereich unter anderem mit flüssigen 
Holmiumoxidfiltern validiert. Es handelt sich um das NIST 2034, 
angegeben mit:

          640.5 nm +- 0.04nm


Ein Kollege meinte für die Limits meiner Messung geleten bei geforderter 
Abweichung < 0.5nm

 Lambda_min =  640.5 - 0.5 - 0.04
 Lamdda_max =  640.5 + 0.5 + 0.04

Ich frage mich jetzt ob das tatsächlich richtig ist. Angeommen das 
Spektrometer hat an dieser Stelle einen Wellenlängenfehler von +0.54nm 
und der Messtandart schöpft seine maximale Abweichung von -0.04nm voll 
aus, so würde sich doch gemessen eine Abweichung von nur 0.5nm ergeben 
obwohl die tatsächliche Fehlmessung ja 0.54 nm beträgt und damit ausser 
Spezifikation ist oder?

von Georg (Gast)


Lesenswert?

BlueAudio schrieb:
> obwohl die tatsächliche Fehlmessung ja 0.54 nm beträgt und damit ausser
> Spezifikation ist oder?

Du kannst unter diesen Bedingungen eben nicht besser messen als +- 0,54 
nm, die Toleranz des Standards ist zur Toleranz des Geräts zu addieren - 
du kannst ja dein Gerät um 0,04 nm falsch kalibriert haben. Zwar bloss 
in einer Richtung, der Messfehler könnte also z.B. -0,46..+0,54 
betragen, aber da du die Abweichnung ja nicht kennst, musst du mit 
Fehlkalibration in beiden Richtungen rechnen.

Das ist der Grund, warum ein Standard oder ein Referenzmessgerät 
mindetens 10 mal genauer sein soll als das zu kalibrierende.

Georg

von cab_leer (Gast)


Lesenswert?

Georg schrieb:
> Du kannst unter diesen Bedingungen eben nicht besser messen als +- 0,54
> nm,

Das Ziel ist auch nicht möglichst genau zu messen, sondern die 
Ungenauigkeit zu bestimmten. Und zwar nicht statistisch sondern konkret 
für dieses Gerät. Dafür habe ich den Messtandart mit +-40pm Abweichung 
um den Sollwert. Dieser Standart wird auch nicht zum Kalibrieren des 
Gerätes genutzt sondern zur Verifikation.

Das Gerät darf mit der gemessenen Wellenlänge max. um +-500pm von der 
physikalisch richtigen Wellenlänge abweichen (die ich ja auf +-40pm 
genau kenne).

Meine Frage ist jetzt: Müsste das Toleranzbudget sich jetzt nich auf 
+-460pm verkleinern um Sicherzustellen, dass die max. Abweichung der 
gemessenen Wellenlängen kleiner +-500pm ist?

von Georg (Gast)


Lesenswert?

cab_leer schrieb:
> Meine Frage ist jetzt: Müsste das Toleranzbudget sich jetzt nich auf
> +-460pm verkleinern

Das ist doch unrealistisch, wie willst du ein Gerät besser machen als 
seine Hersteller-Spezifikation?

Die Toleranzen sind zu addieren, daran führt kein Weg vorbei, alles 
andere ist reines Wunschdenken. Um die 0,5 nm so zu verifizieren wie du 
dir das vorstellst, bräuchtest du einen Standard mit 0 % Toleranz, was 
es in dieser unserer physikalischen Welt nicht gibt.

Georg

von cab_leer (Gast)


Lesenswert?

Georg schrieb:
> Das ist doch unrealistisch, wie willst du ein Gerät besser machen als
> seine Hersteller-Spezifikation?

Du verstehst meine Frage nicht Georg. Es geht nicht darum das Gerät 
besser zu machen, sondern sicherzustellen, dass meine Geräte garantiert 
nachweisbar der Spezifikation entsprechen und ich Geräte die das nicht 
tun zu 100% aussortieren kann.

Mein Ansatz wäre also die maximale zulässige Abweichung in meinen 
Validierungsprogramm auf +-460pm zu setzen, sodass ich selbst bei 
ungünstiger Lage des Standarts an seinen Grenzen (+0,04 oder -0.04) nm 
die zulässigen +-0.5 für das Gerät sicherstelle.

von Benedikt S. (benedikt_s)


Lesenswert?

Mein Ansatz wäre also die maximale zulässige Abweichung in meinen
Validierungsprogramm auf +-460pm zu setzen, sodass ich selbst bei
ungünstiger Lage des Standarts an seinen Grenzen (+0,04 oder -0.04) nm
die zulässigen +-0.5 für das Gerät sicherstelle.

https://www.ptb.de/cms/fileadmin/internet/fachabteilungen/abteilung_8/8.4_mathematische_modellierung/266_PTB_SEMINAR/VORTRAEGE/Zeier_-_Konformitaet.pdf

Aus Seite 20 Wird der Sicherheitsabstand beschrieben, das möchtest du 
machen. Das ist so auch zulässig du musst aber damit leben das du 
möglicherweise trotz Abweichung in der Toleranz ausstierst.

von Georg (Gast)


Lesenswert?

cab_leer schrieb:
> Mein Ansatz wäre also die maximale zulässige Abweichung in meinen
> Validierungsprogramm auf +-460pm zu setzen, sodass ich selbst bei
> ungünstiger Lage des Standarts an seinen Grenzen (+0,04 oder -0.04) nm
> die zulässigen +-0.5 für das Gerät sicherstelle.

Ich bezweifle, dass das so zulässig ist. Du gehst davon aus, dass ein 
Gerät einen ganz bestimmten Fehler hat, z.B. +0,3 nm. Das ist aber nicht 
das, was eine Toleranzangabe aussagt - die 0,5 nm sind der Messfehler 
des Gerätes zu jedem beliebigen Zeitpunkt, im Extremfall kann das Gerät 
morgen um 1,0 nm anders messen als heute, und das spezifikationsgerecht. 
In einer solchen Angabe sind ja verschiedenste Fehlerquellen 
zusammengefasst, u.a. auch Digitalisierungsfehler durch begrenzte 
Auflösung, Temperatureinflüsse usw. usw.

Dein Fehler ist, dass du eine prinzipiell unbekannte Grösse festlegen 
willst, aber das Dumme an einem unbekannten Fehler ist eben, dass er 
unbekannt ist. Dein Gerät liefert laut Hersteller immer ein 
Wertintervall von insgesamt 1.0 nm, daran kann weder eine Kalibrierung 
noch eine Verifizierung etwas ändern.

Du misst ein Gerät mit nicht ganz -0,46 nm Abweichnung und lässt es 
durch - morgen kann es 1,0 nm mehr anzeigen und ist damit um 0,56 nm 
falsch.

Aber für mich ist das Thema ausdiskutiert, du bist anderer Meinung, also 
mach es so wie du meinst. In der Praxis ist es wahrscheinlich völlig 
egal.

Georg

von Lurchi (Gast)


Lesenswert?

Die Angaben für das Spektrometer und die Filter fassen verschiedene 
Dinge zusammen. Die Wellenlänge/Anzeige kann sich etwa mit der 
Temperatur oder dem Alter ändern und es gibt eine gewisse Bandbreite. 
Der Filter vom Spektrometer kann auch noch wenn der Wellenlänge abhängen 
- bei den zu Kalibrierung genutzten Wellenlängen fallen z.B. Fehler bei 
der Linearität nicht groß auf - an den Rändern oder in Zwischenräumen 
aber schon.

Wenn man will könnte man die Fehler ggf. detaillierter aufspalten und so 
ggf.  unter günstigen Bedingungen bessere Werte erhalten. So groß ist 
der Unterschied zwischen 0.5 nm und 0.54 nm bei der Unsicherheit auch 
nicht - da kann man noch fast mit gutem gewissen auf 0.5 nm abrunden.

von cab_leer (Gast)


Lesenswert?

Benedikt S. schrieb:
> 
https://www.ptb.de/cms/fileadmin/internet/fachabteilungen/abteilung_8/8.4_mathematische_modellierung/266_PTB_SEMINAR/VORTRAEGE/Zeier_-_Konformitaet.pdf
>
> Aus Seite 20 Wird der Sicherheitsabstand beschrieben, das möchtest du
> machen. Das ist so auch zulässig du musst aber damit leben das du
> möglicherweise trotz Abweichung in der Toleranz ausstierst.

danke für den Link, das hilft mir weiter und deckt sich auch mit meiner 
Annahme.

Georg schrieb:
> Aber für mich ist das Thema ausdiskutiert, du bist anderer Meinung, also
> mach es so wie du meinst. In der Praxis ist es wahrscheinlich völlig
> egal.
>
> Georg

Versteh mich nicht falsch Georg, ich bin dankbar für deinen Input. Ich 
gebe dir völlig Recht, dass das Gerät theoretisch nicht notwendigerweise 
immer den gleichen statischen Fehler aufweist und legalerweise sogar 
innerhalb kürzester Zeit von +0.5 auf -0.5nm Messfehler wechseln darf. 
Tut es aber nicht. Der Fehler kommt in diesem Fall zum Großteil von der 
Abweichung die die Kalibrierfunktion des Gerätes an verschiedenen 
Stellen von der idealen Wellenlängenskala hat, sowie von der Abweichung 
der Bandbreite von der Designbandbreite an verschiedenen Stellen des 
Spektrums.


Nichts desto trotz, und das zeigt ja auch die Präsentation der PTB, bin 
ich mit meinem Guard Band in Höhe der Unsicherheit meines 
Wellenlängenstandarts in der Lage für diese Größe und unter meinen 
Umgebungsbedingungen eine größere Sicherheit zu erreichen als ohne deren 
Berücksichtigung. Das gilt natürlich nur unter der Annahme, dass die 
Präzision der Messung << als das Genauigkeitsintervall ist. Das wird 
durch eine Messreihe und Ermittlung der Standardabweichung bestimmt.

von Wolfgang (Gast)


Lesenswert?

BlueAudio schrieb:
> Ich frage mich jetzt ob das tatsächlich richtig ist. Angeommen das
> Spektrometer hat an dieser Stelle einen Wellenlängenfehler von +0.54nm
> und der Messtandart schöpft seine maximale Abweichung von -0.04nm voll
> aus, so würde sich doch gemessen eine Abweichung von nur 0.5nm ergeben
> obwohl die tatsächliche Fehlmessung ja 0.54 nm beträgt und damit ausser
> Spezifikation ist oder?

"Kalibrierung" heißt "Feststellung der Abweichung".

Wenn du weisst, dass dein Spektrometer um +0.54nm falsch liegt, kennst 
du doch die Abweichung und kannst eine entsprechende Korrektur an deine 
Messwerte anbringen.

von Cab_leer (Gast)


Lesenswert?

Wolfgang schrieb:
> BlueAudio schrieb:
> Ich frage mich jetzt ob das tatsächlich richtig ist. Angeommen das
> Spektrometer hat an dieser Stelle einen Wellenlängenfehler von +0.54nm
> und der Messtandart schöpft seine maximale Abweichung von -0.04nm voll
> aus, so würde sich doch gemessen eine Abweichung von nur 0.5nm ergeben
> obwohl die tatsächliche Fehlmessung ja 0.54 nm beträgt und damit ausser
> Spezifikation ist oder?
>
> "Kalibrierung" heißt "Feststellung der Abweichung".
> Wenn du weisst, dass dein Spektrometer um +0.54nm falsch liegt, kennst
> du doch die Abweichung und kannst eine entsprechende Korrektur an deine
> Messwerte anbringen.

Da steht ja Gedankenexperiment.
Bei dem Test geht es ja um
Den Test der kalibration. Die kalibration soll eine 
wellenlängengenauigkeit besser als plusminus 0,5nm liefern. Es geht 
einzig um
Die Frage wie bei
Dieser Aufgabe die Unsicherheit des Standards berücksichtigt wird um 
innerhalb des angestrebten Genauigkeitsbereich zu bleiben ohne 
falsch-positive aussagen zu treffen

von HildeK (Gast)


Lesenswert?

cab_leer schrieb:
> Mein Ansatz wäre also die maximale zulässige Abweichung in meinen
> Validierungsprogramm auf +-460pm zu setzen, sodass ich selbst bei
> ungünstiger Lage des Standarts an seinen Grenzen (+0,04 oder -0.04) nm
> die zulässigen +-0.5 für das Gerät sicherstelle.

Ich bin zwar kein Fachmann, was Kalibrierung und Verifikation betrifft, 
aber diese Argumentation kann ich nachvollziehen.
Du validierst mit den Grenzen ±460ppm und bist dann sicher, dass das 
Gerät auf jeden Fall innerhalb von ±500ppm liegt.

Wenn das Gerät laut Spezifikation ±500ppm haben kann, dann werden im 
ungünstigsten Fall einige 'false positive' dabei herauskommen, die 
mangels besserem Nachweis aussortiert werden müssen, obwohl sie die Spec 
gerade so erfüllt hätten.
Etwas anderes wird der Hersteller des Gerätes auch nicht tun können, um 
seine Spezifikation zu garantieren.

von Cab_leer (Gast)


Lesenswert?

Danke übrigens für die hilfreichen Beiträge

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.