Hallo Forum,
gut war ich in Mathe noch nie, aber für dieses Problem wüsste ich nicht
mal, wonach ich suchen soll.
Ich messe mit einem ATmega/ADC über einen Spannungsteiler eine Spannung
von max. 65V.
Aus dem ADC Wert die gemessene Spannung (am Pin) auszurechnen, ist kein
Problem.
Die gemessene Spannung dann in die tatsächliche Spannung vor dem
Spannungsteiler umzurechnen, ist ebenfalls kein Problem.
Damit die übrige Peripherie des Gerätes allerdings ordnungsgemäß
funktioniert, muss die Spannung, die ich da messe, im Bereich zwischen
48V und 65V liegen. Sie kann, rein technisch, aber auch bis 0V
runtergehen - nur arbeitet die Peripherie dann eben nicht mehr korrekt.
Und diesen Intervall, 48V - 65V möchte ich gerne als Skala für eine
Prozent-Anzeige verwenden.
Also nicht:
1 | 0.0 V = 0%
|
2 | ...
|
3 | 32.5 V = 50%
|
4 | ...
|
5 | 65.0 V = 100%
|
sondern stattdessen
1 | <= 48.0 V = 0%
|
2 | ...
|
3 | = 56.5 V = 50%
|
4 | ...
|
5 | >= 65.0 V = 100%
|
Das <= 48V als 0% intepretiert werden sollen bzw. >= 65V als 100% krieg
ich ja noch hin. Aber wie komme ich den "skalierten" Prozentwert
dazwischen?
Das muss doch irgendwie auszurechnen sein... O_o
Hat dazu jemand vielleicht eine Idee und kann mir einen Denkanstoß
geben?
Würde mich über jegliche Hilfe sehr freuen.
Vielen Dank, Tobias