FLT_MAX
のビットパターンがあり01111111011111111111111111111111
ます。
私の理解が正しければ、そのようなビット パターンは1.111...1 * 2^128
(10 進数の後に 23 個の 1 を使用して) 表す必要があります。ただし、 の実際の値FLT_MAX
は だけ1.0 * 2^128
です。何が起きてる?
FLT_MAX
のビットパターンがあり01111111011111111111111111111111
ます。
私の理解が正しければ、そのようなビット パターンは1.111...1 * 2^128
(10 進数の後に 23 個の 1 を使用して) 表す必要があります。ただし、 の実際の値FLT_MAX
は だけ1.0 * 2^128
です。何が起きてる?