Hallo, Zu dem kleinen C-Progrämmchen im Anhang habe ich eine Frage. Bei der Berechnung von a kommt es zu keinem Überlauf, im Gegensatz zu b. 1. Frage: Warum muss ich nur (2ul * 2000000000) / 1000000000 und NICHT (2ul * 2000000000ul) / 1000000000ul; schreiben? Weiß der Compiler, wenn die erste Zahl eine unsigned long ist, dass die restlichen auch als solche betrachtet werden sollen? 2. Frage: Bei der Definition von b: Als was wird die Zahl 2 betrachtet? Als unsigned char? Nachtrag: Compiler ist GCC 4.7.1. Danke. Third Eye
Hi, Third E. schrieb: > Weiß der Compiler, wenn die erste Zahl eine unsigned long ist, dass die > restlichen auch als solche betrachtet werden sollen? das nennt sich Promotion: https://de.wikipedia.org/wiki/Promotion_(Typumwandlung) Treten in einem arithemtischen Ausdruck genauere und ungenauere Typen zusammen auf, werden die ungenaueren automatisch in den genauesten Typ umgewandelt. Die 2 für sich gesehen ist ein Integer. Im gegebenen Ausdruck allerdings wird sie in einen 32 bit signed Integer umgewandelt, weil 2000000000 31 bit benötigt. Evtl. wandelt der Compiler aber gar nicht um sondern wendet den Shift-Operator an. Grüße, Markus
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.