Hallo, hat jemand einen Vorschlag, wie ich eine Binärzahl am besten in eine Dezimalzahl umwandeln kann, um die Zahl dann Stelle für Stelle in ASCII-Code umzuwandeln und an ein LC-Display zu übertragen (Wenn ich nur Binärvariablen habe)? Danke Ole
Hallo, das müsste die Assemblerdatei sein die das macht. Ist für 12-Bit PICs (PIC16C54, PIC16C55, PIC16C56, PIC16C57,...). Du kannst sie dir aber einmal ansehen.
Ich kenn ne tolle Seite, da findest du so einiges über Mikrocontroller: http://www.mikrocontroller.net/forum/forum.php?action=search&forum=1
Soll keine Prozessorlösung werden, aber ich hab' jetzt was gefunden, was funktioniert (Die Zahl in einzelne Nibbles aufzeilen, wenn eins größergleich 10 ist noch 6 hinzuaddieren und evt. noch 1 wegen der nächstkleineren Stelle). Wahrscheinlich macht der Assembler-Quellcode von Stefan Helmert genau das gleiche (Ich kann nicht so gut Assembler...) Aber trotzdem Danke für eure Hilfe! Ole
Rechne mal bitte an z.B. 219 vor, so wie Du es beschrieben hast bzw. ich es verstanden habe, kriege ich großen Murks raus.
219: 11011011 LOW-Nibble: 1011 (>= 10) HIGH-Nibble: 1101 (>= 10) -> LOW- und HIGH-Nibble + 6: LOW-Nibble: 10001 HIGH-Nibble: 10011 + 1 (Wegen dem MSB = 1 von LOW-Nibble): 10100 1er-Stelle: die ersten 4 Bit von hinten: 0001........ hm... Da ist irgendwo noch ein Fehler... Geht nur bei Zahlen bis 15...
in C sähe der Code etwa so aus int output = 0; if(userin[0] == '1') output = output + 128; if(userin[1] == '1') output = output + 64; if(userin[2] == '1') output = output + 32; if(userin[3] == '1') output = output + 16; if(userin[4] == '1') output = output + 8; if(userin[5] == '1') output = output + 4; if(userin[6] == '1') output = output + 2; if(userin[7] == '1') output = output + 1; char byte2LCD = output; Das Byte in form des Chars kann dann einfach so an das Display gesendet werden, soweit der controller des displays ASCII zeichen versteht. Das funzt auch für grafik displays, wobei bedacht werden muss, dass dann z.B. bei einem SED1520 controller das Byte als 8 pixel dargestellt wird und nichtmehr als Zeichen. Hope That Helps. //TF
Oh man, diese Routine von Stefan ist ja geradezu monströs (129 Instruktionen). So umständlich muß man das also mit einem PIC machen. Durchsehen kann da eh keiner ganz ohne Kommentare oder Beschreibung. Allgemein gilt: Die einfachste und schnellste Methode bei CPUs ohne Division ist die Subtraktionsmethode. Man zieht 10000, 1000, 100, 10 ab bis zum Überlauf, zählt mit, wie oft man das machen kann und schon hat man in diesen 4 Zählregistern die Digits, übrig bleiben die Einer. Addiert man dann die ASCII-'0' dazu, hat man den ASCII-Code und fertig. Anbei mal ein Beispiel nach dieser Methode für den AVR (nur 21 Instruktion = 16% der PIC-Version). Ist bloß etwas optimiert (abwechselnde Subtraktion / Addition bis zum Vorzeichenwechsel), man spart sich dadurch die Korrektur nach jedem Überlauf. Peter
Wenn es darum geht das Ergebnis des ADCs anzuzeigen, gibt es für den ATMega8 noch eine deutlich schnellere Lösung. Dazu muss die Referenzspannung aber Ganzzahlig und kleiner als 11 sein. Dann lässt es sich über den mul Befehl ziemlich schnell umrechnen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.