Hallo, ich habe da ein Problem, und weiß offensichtlich nicht weiter. Wie berechne ich beim PIC µ-C einen Timer Overflow, der jede Sekunde (1sec.) eintritt. Beschaltet ist der mit einem 20MHz Quarz (nutzen tu ich fosc/4 = 5MHz) und es stehen mir drei Timertypen zur Verfügung: Timer0: 8 Bit, max. 256er Vorteiler Timer1: 16 Bit, max. 8er Vorteiler Timer2: 8 Bit, max. 16 Vorteiler, 16er Nachteiler Ich weiß nun nicht mit welchem Timer es sich überhaupt ausgeht, und wäre froh, wenn mir jemand eine Rechnung posten könnte, da ich schon so viel gerechnet habe, aber mich das Ganze immer mehr verwirrt, als dass es mir nützt!! Danke schonmal vorweg.
Das geht nicht so einfach. Welcher PIC ist es denn ? Ich nehme i.d.R. Timer1 und CCP1 (Compare-Modus) und lasse einen 10tel- oder 100tel-Sekunden-Timer laufen, dessen Ticks dann gezählt werden und zur vollen Sekunde ein Flag für das Hauptprogramm setzt.
Es geht nur so, wie bei Bernd beschrieben. Bei der Taktfrequenz geht es nicht langsamer. Alternative: zusätzlichen Uhrenquarz 32768 an timer1
Ok danke. Dann mach ich z.B. einen 100ms Timer und lass den zehn Mal überlaufen, um auf 1s zu kommen ;-D
Ich mach mir immer einen 10ms Timer und zähle den 100x. In der Routine werden dann auch gleich alle zeitunkritischen Dinge (wie z.Bsp. Taster) abgefragt.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.