double a;
unsigned int b;
実行時に、OS はこれらの変数に関連付けられているバイト数と、それらのビットをどのように解釈する必要があるかをどのように知るのでしょうか? これが言語/OS に依存する場合は、Windows 上の C を想定します。
変数識別子のビット表現をバイトサイズとデータ型にマップする LUT はありますか? uC でのアセンブリ プログラミングから、コンパイラは魔法のように変数に割り当てられたバイト数を認識し、ゼロ パディングなどを適切に実行したことを思い出します。