Ganzzahlen sind die grundlegendste Datenstruktur in der Informatik – wenn wir sie überhaupt als „Struktur“ bezeichnen können. Unsere Aufgabe als Programmierer ist es, diesen Zahlen eine Bedeutung zu geben. Egal wie komplex die Software ist: Am Ende ist es nur eine ganze Zahl, und Ihr Prozessor versteht nur ganze Zahlen.
Wenn wir negative Zahlen brauchen, haben wir das Zweierkomplement erfunden. Wenn wir Bruchzahlen benötigen, erstellen wir eine Art wissenschaftliche Notation und – boom – wir haben eine Gleitkommazahl. Am Ende des Tages gibt es kein Entrinnen vor Nullen und Einsen.
In C ist int fast der natürliche Typ. Obwohl sich Compiler möglicherweise beschweren, erlauben Ihnen die meisten mit ein paar Flags hier und da, so etwas zu schreiben:
main(void) { return 0; }
Technisch gesehen ist dies dasselbe wie:
int main(void) { return 0; }
Dieses Verhalten stammt aus einer Zeit, als es vernünftig war anzunehmen, dass es sinnvoll sei, standardmäßig eine Ganzzahl zu verwenden, wenn der Programmierer keinen Typ spezifizierte.
C wurde mit dieser Idee im Hinterkopf entworfen. Anfangs hatte int keine Standardgröße. Der PDP-11-Prozessor – die Maschine, für die C ursprünglich erstellt wurde – verwendete eine 16-Bit-Adressierung. Daher wurde davon ausgegangen, dass es sinnvoll wäre, wenn ein int auch 16 Bit groß wäre. Die Idee war, dass die Größe von int mit der Weiterentwicklung der Prozessoren zunehmen würde.
Dieser Ansatz führte zu einigen Problemen. Wenn die Größe von int zwischen den Plattformen variiert, können sich Programme, die für verschiedene Prozessoren kompiliert wurden, unterschiedlich verhalten. Dies widerlegte die Idee, dass C eine „agnostische“ Sprache sei, die sich in verschiedene Architekturen kompilieren lässt.
Im Gegensatz zu int hatte das Zeichen beispielsweise immer eine genau definierte Größe: 8 Bits, vorzeichenbehaftet. Trotz seines Namens ist char kein abstrakter Typ für Textzeichen; es ist nur eine 8-Bit-Zahl. Beispielsweise wird das Literal „a“ zur Kompilierungszeit schlicht und einfach in die Zahl 97 konvertiert.
Und was ist mit anderen Typen, wie kurz und lang? Die Idee war einfach:
short <= int <= long
Compiler-Implementierer hatten völlige Freiheit, die spezifischen Größen zu bestimmen.
Mit dem ANSI C-Standard wurden einige Regeln festgelegt:
Diese Organisation hat geholfen, aber die Größe von int blieb gelinde gesagt verwirrend. Die Dinge wurden mit dem C99-Standard verbessert, der den stdint.h-Header einführte.
Jetzt haben wir Typen mit fester Größe:
Von da an war es Sache des Compilers, diesen Header mit Typen fester Größe zu implementieren.
Mit modernen Compilern wie GCC und Clang sind Größen heute vorhersehbarer:
Type | Size |
---|---|
char | 8 bits |
short | 16 bits |
int | 32 bits |
long | 64 bits (32 bits on 32-bit systems) |
long long | 64 bits |
Obwohl „Long Long“ immer noch etwas eigenartig ist, bringt es zumindest eine gewisse Konsistenz (ich finde Long Long sogar stylisch, um ehrlich zu sein).
Heute sind wir mit Headern wie stddef.h und stdint.h gut ausgestattet. Verwenden Sie int nur dort, wo es nötig ist, etwa für den Rückgabetyp der Hauptfunktion. Für alles, was über das Prototyping hinausgeht, bevorzugen Sie die Verwendung von Ganzzahlen fester Größe aus stdint.h und für Array-Indizes oder Schleifen die Verwendung von size_t aus stddef.h. Ich hoffe, das erspart Ihnen später einige Kopfschmerzen.
Danke, dass du es bis hierher geschafft hast – bis zum nächsten Mal!
Das obige ist der detaillierte Inhalt vonGanzzahlen in C: Ein bisschen Geschichte. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!