「C Primer Plus 5/e」という本の中で、著者が次のように書いているのを見ました。
C 標準では、float は少なくとも 6 桁の有効数字を表すことができ、少なくとも
10^(-37)
から まで の範囲を許容する必要があると規定されてい10^(+37)
ます。
ただし、そうすると同時に自然なサイズを使用するには、4 バイトが必要です。実際には、10^(-63) から 10^(+63) までの範囲を持つことができます。
http://en.wikipedia.org/wiki/Floating_point#Internal_representation
だから私は頭の中で質問をしました:なぜC標準は範囲の要件を選択するのですかat least 10^(-37) to 10^(+37)
? もちろん、計算速度の考慮もあるかもしれません。しかし、この理由以外に、32 ビット空間全体を使用しない理由はありますか?