Hi
Ich stehe etwas auf dem Schlauch, vielleicht kann mir jemand den Weg
weisen?
Ich habe eine Eingangszahl.
Jedem Bit dieser Zahl ist ein bestimmter Wert zugeordnet.
Z.B:
Bit0 -> 0,3
Bit1 -> 0,8
Bit2 -> 1,5
Bit3 -> 2,2
Alle Werte, deren Bits in der Eingangszahl gesetzt sind, sollen einfach
zur Ausgangszahl zusammenaddiert werden.
Also Eingangszahl = 5 (Binär 0101) => Ausgangszahl 1,8 (1,5+0,3).
Oder Eingangszahl = 14 (Binär 1110) => Ausgangszahl 4,5 (2,2+1,5+0,8).
Michael B. schrieb:> Vor allem auch richtiger ... (lass mal rechnen).
Mist, ja. Man müsste noch shiften. Damit bleibt deine Antwort wohl die
Nachvollziehbarste.
Das ist schneller und wenns denn unbedingt sein muss, kann man das
Ergebnis ja immer noch in den Floatwert umrechnen. Mit ein wenig
Nachdenken kann man solche Floatrechnungen aber oft umgehen.
Kay-Uwe R. schrieb:> Und am schnellsten so:
Eine LUT ist bei 16 Werten tatsächlich auch ein guter Ansatz.
Den Index 10 hätte ich aber schöner formatiert... ;-)
Oder gleich richtig obfuscated:
Andreas B. schrieb:> So?> for (i=0; i<8, ... num[i];
Amoklaufender Pointer: num hat nur 4 Elemente, der Index selektiert 8.
War aber auch schon recht spät...
Michael B. schrieb:> Ich seh' jetzt nicht die Korrektur, na ja, kann ja noch kommen.
Summe = ((Eingang&1)*0.3) + (((Eingang&2)/2)*0.8) +
(((Eingang&4)/4)*1.5) + (((Eingang&8)/8)*2.2);
Man kann die LUT auch mit einer Initialisierungsroutine bestimmen und
die Gewichtungen dort als Parametersatz mitgeben. So wären
(niederfrequente) Änderungen zur Laufzeit möglich:
Martin S. schrieb:> Lothar M. schrieb:>> Eine LUT ist bei 16 Werten tatsächlich auch ein guter Ansatz.>> aber nicht als float, etwas oversized...
Was denn? 16 floats sind 64 Byte groß. Das ist ggf. kürzer als ein
Programm. Und ints sind bei einer 32-Bit-Maschine gleichgroß.
Ich würde hier bis mindestens zu einer 256er-LUT gehen. Für
16-Bit-Eingangswerte dann auf zwei 256er-LUTs splitten und Low- und
High-Byte-Anteile addieren. Für 32 Bit analog 4 LUTs.
Kay-Uwe R. schrieb:> Was denn? 16 floats sind 64 Byte groß.
Der Unfug bei Floats ist die für jede Addition zusätzlich erforderliche
Hin- und Hershifterei. Nicht jedem ist der Rechenaufwand egal.
Rainer W. schrieb:> Der Unfug bei Floats ist die für jede Addition zusätzlich erforderliche> Hin- und Hershifterei. Nicht jedem ist der Rechenaufwand egal.
Barrel-Shifter und Co-Prozessoren wurden aber schon erfunden, oder? Wenn
die Vorgabe Floats sind, dann sind das eben Floats. Umso mehr sind daher
LUTs angesagt. Da gibt es nur load und store.
Kay-Uwe R. schrieb:> Wenn die Vorgabe Floats sind
Meine langjährige Erfahrung: wer so eine Frage stellt, verwendet Floats
nicht unbedingt deshalb, weil er sie für die Aufgabe auch tatsächlich
braucht. Siehe meinen ersten Post zu diesem Thema...
Lothar M. schrieb:> weil er sie für die Aufgabe auch tatsächlich> braucht.
jup
Kay-Uwe R. schrieb:> Was denn? 16 floats sind 64 Byte groß.
alles gut, war nicht böse gemeint.
16 uint8_t brauchen 16 Bytes, rechnen können wir :-)
Einfach 3,8,15 und 22 in Ihren Summen in die LUT und erst am ende einen
schönen float draus machen, wenn überhaupt wirklich nötig...
Kay-Uwe R. schrieb:> Barrel-Shifter und Co-Prozessoren wurden aber schon erfunden ...
Was erfunden wurde, ist spätestens dann egal, wenn es um einen konkreten
µC geht. Dann kommt es nämlich nur darauf an, wie dieser konkrete µC
HW-mäßig ausgestattet ist und was per SW emuliert werden muss.
Aber noch geht es ja nur darum, Peter vom Schlauch herunter zu helfen.
Ob irgendwelcher Optimierungsaufwand lohnt, hängt sowieso von der
konkreten Anwendung bzw. vom sportlichen Ehrgeiz ab.
Martin S. schrieb:> Einfach 3,8,15 und 22 in Ihren Summen in die LUT und erst am ende einen> schönen float draus machen, wenn überhaupt wirklich nötig...
Und dann wird statt 0.3 auf einmal 0.31841 und statt 0.8 0.79876
verlangt - und dann?
Hier steht ausdrücklich "zum Beispiel":
Peter N. schrieb:> Z.B:> Bit0 -> 0,3> Bit1 -> 0,8> Bit2 -> 1,5> Bit3 -> 2,2
Kay-Uwe R. schrieb:> Und dann wird statt 0.3 auf einmal 0.31841 und statt 0.8 0.79876> verlangt - und dann?
Bei Addition Besitz eine Ganzzahl bei gleicher Größe im Speicher immer
noch mehr gültige Stellen als Float, wenn sie geeignet normiert ist.
Lothar M. schrieb:> Amoklaufender Pointer: num hat nur 4 Elemente, der Index selektiert 8.> War aber auch schon recht spät...
Es ging ums Prinzip. Weder hat er die Groesse des Parameters angegeben
(koennte ja auch int32 sein), noch die Laenge des float array
festgelegt.
Apollo M. schrieb:> ... variable shifting is ugly and time/code space consuming!
Wer sagt das? Unter welcher Platform soll das so sein?
Andreas B. schrieb:> Unter welcher Platform soll das so sein?
Signifikant und getestet unter AVR/GCC, PIC/xc8, ARM/Keil Plattform ...
Probier es mal selber aus aus und schau dir code size/run time an.
Apollo M. schrieb:> Probier es mal selber aus aus und schau dir code size/run time an.
Mach ich mal bei Gelegenheit. Aber wundern wuerde mich das schon. Jede
CPU hat eine simple Shift operation.
Andreas B. schrieb:> Jede CPU hat eine simple Shift operation.
Das ist klar und sicher, aber eine variable extra loop (mit shift) ist
ungünstig, wenn das auch ohne geht.
In den AVR/Tiny Cores von Spence Konde wurde die Arduino Standard
shiftout/in() Funktion entspr. meinem Vorschlag ersetzt. Spence Konde
hat zuvor umfangreich detailierte Tests durchgeführt und weitere
Varianten erprobt. Ziel war maximal shift speed.
Andreas B. schrieb:> Wer sagt das?Rainer W. schrieb:> gleicher Größe im Speicher immer> noch mehr gültige Stellen als Float
Wenn wir schon dabei sind, und was heißt das hier? Was sind "gültige
Stellen im Speicher"?
oder das:
Rainer W. schrieb:> geeignet normiert ist
?
Martin S. schrieb:> Wenn wir schon dabei sind, und was heißt das hier? Was sind "gültige> Stellen im Speicher"?
Bei einem Float nach IEEE 754 mit 32 Bit stehen für die Ziffern 23 Bit
zur Verfügung - der Rest geht für Vorzeichen und Exponent drauf.
https://de.wikipedia.org/wiki/Gleitkommazahl#Speicherformate
Bei einer Ganzzahl von 32 Bit stehen für die Ziffern bis zu 31 Bit zur
Verfügung (ein Bit von den 32 fürs Vorzeichen).
Wenn man die Ganzzahl also optimal normiert, hat man 8 Bit mehr für
gültige Stellen zur Verfügung, also ein Faktor 256 mehr in der
Auflösung.
Martin S. schrieb:> Rainer W. schrieb:>> geeignet normiert ist> ?https://de-academic.com/dic.nsf/dewiki/1029361
Peter N. schrieb:> Ich habe eine Eingangszahl.> Jedem Bit dieser Zahl ist ein bestimmter Wert zugeordnet.> Z.B:> Bit0 -> 0,3> Bit1 -> 0,8> Bit2 -> 1,5> Bit3 -> 2,2
Für mich sieht das irgendwie aus, als wären es...
* nicht 0,3 sondern 0,4
* nicht 1,5 sondern 1,6
...was die Sache vielleicht einfacher macht.
mfg mf
Man könnte auch über die Abstände als Ganzzahl rechnen..
Bit0->+3
Bit1->+5
Bit2->+7
Bit3->+7
Das bleibt eine kleine Lutz, da geht auch noch mehr für Optimierung.
Philipp K. schrieb:> Man könnte auch über die Abstände als Ganzzahl rechnen..
Das würde für ein anderes Problem (Ganzzahl) in anderen Fällen (mehr
Punkte) mit speziellen Randbedingungen (kein Abstand> 8 oder 16 Bit)
Speicherplatz sparen können. Zulasten von Laufzeit und Code. Hier sehe
ich keinen Vorteil zur Kiss-Lösung