Guten Tag, ich habe eine Verständnisfrage zum 12-Bit ADC und der Abtastrate. In meinem Programm habe ich einen Task, der alle 10 ms aufgerufen wird. In der Task wird unter anderem eine Funktion aufgerufen, die den ADC startet. Sprich alle 10 ms wird eine Umwandlung durchgeführt. Und ich lese den 12-Bit Wert aus. Macht es denn einen Unterschied, wenn ich die Abtastrate beispielsweise auf 100 000 SPS (Eine Umwandlung dauert 10 µs) oder auf 10 000 SPS (Eine Umwandlung dauert 100 µs) konfiguriere. Denn so oder so bekomme ich alle 10 ms einen 12-Bit ADC Wert. Gibt es da irgendwelche Nachteile wenn man die Abtastrate zu hoch stellt? (Die Abtastfrequenz ist mehr als doppelt so groß wie das zumessenden Signal) Vielen Dank für Eure Antworten Grüße Max
Maximilian P. schrieb: > Die Abtastfrequenz ist mehr als doppelt so groß wie das zumessenden > Signal Das nützt Dir überhaupt nix wenn Du Maximilian P. schrieb: > so bekomme ich alle 10 ms einen 12-Bit ADC Wert. = 100Hz = Max. Signal 50Hz. Gruss Chregu
Verstehe ich nicht, vielleicht interessieren ihn nur Frequenzen unterhalb von 50 Hz? Zur Umwandlungsdauer: Was ist das denn für ein ADC, hast du ein Datenblatt oder eine genaue Bezeichnung? Ich würde vermuten, dass bei längerer Umwandlungszeit hochfrequentes Rauschen weniger stört weil es herausgemittelt wird.
Gustl B. schrieb: > Ich würde vermuten, dass bei längerer Umwandlungszeit hochfrequentes > Rauschen weniger stört weil es herausgemittelt wird. ... sofern sich das direkt auf die Integrations /-sample Zeit auswirkt, ja.
Gustl B. schrieb: > ch würde vermuten, dass bei längerer Umwandlungszeit hochfrequentes > Rauschen weniger stört weil es herausgemittelt wird. Ja, man könnte erwarten, dass dadurch die Eigenstörungen durch den Digitalteil des µC geringer werden. Es kann aber auch das Gegenteil passieren, nämlich dass die Eigenstörungen als Schwebung auffallen, wenn irgend eine Softwareschleife mit geringfügig abweichender Frequenz dafür verantwortlich ist. Man wird das testen müssen. Auch auf mögliche Störungen durch die Netzfrequenz sollte man achten. Generell ist es aber sinnvoll während der Wandlungszeit keine I/O- Operationen vorzunehmen, weil es durch die dann fliessenden Ströme zu einem erhöhten Rauschpegel auf der Masseleitung kommen kann.
Eine höhere Abtastrate kann Sinn machen, wenn die dominante Störung beim ADC Rauschen ist. Ein digitaler Tiefpass, angewandt auf die ADC Ausgangsdaten, erhöht dann die Genauigkeit. Grüße Markus
Maximilian P. schrieb: > Gibt es da irgendwelche Nachteile wenn man die Abtastrate zu hoch > stellt? Wahrscheinlich etwas höherer Stromverbrauch -- wobei das in den meisten Fällen zu vernachlässigen sein dürfte, war nur mein erster Gedanke zu der Frage. Ansonsten mal im Datenblatt schauen welche Dinge beim ADC von der Abtastrate abhängig sind, ein Beispiel wäre die Umwandlungszeit was andere ja oben schon erwähnt hatten. Von der Signalverarbeitung her sehe ich keinen Unterschied (für den Fall dass die Umwandlungszeit des ADC immer gleich ist, egal mit welcher Abtastrate er läuft), wenn Du sowieso nur 100 Werte übernimmst. OK, ein Unterschied fällt mir gerade noch ein: Wenn die 100 Hz von einer anderen Taktquelle kommen als die Abtastfrequenz des ADC (also nicht per unterschiedlicher Frequenzteiler aus einem gemeinsamen Oszillator stammen), dürfte bei höherer Abtastrate des ADC der Jitter kleiner werden, da die mögliche Zeitdifferenz zwischen dem eigentlichen Samplen und dem Abholen kleiner ist. Aber da das Abholen in deinem Fall per Software geschieht, dürfte da eh ein recht großer Jitter drauf sein (d.h. dass die Abstände zwischen den Taskaufrufen vermutlich nicht immer exakt 10 ms sind sondern mal etwas mehr und mal weniger).
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.