FLT_MAXのビットパターンがあり01111111011111111111111111111111ます。
私の理解が正しければ、そのようなビット パターンは1.111...1 * 2^128(10 進数の後に 23 個の 1 を使用して) 表す必要があります。ただし、 の実際の値FLT_MAXは だけ1.0 * 2^128です。何が起きてる?
FLT_MAXのビットパターンがあり01111111011111111111111111111111ます。
私の理解が正しければ、そのようなビット パターンは1.111...1 * 2^128(10 進数の後に 23 個の 1 を使用して) 表す必要があります。ただし、 の実際の値FLT_MAXは だけ1.0 * 2^128です。何が起きてる?