IEEE 754-2008 によると、binary32 および decimal32 標準があります。
Decimal Decimal
Name Common name Base Digits E min E max Digits E max
binary32 Single precision 2 23+1 −126 +127 7.22 38.23
decimal32 10 7 −95 +96 7 96
したがって、どちらも 32 ビットを使用しますが、10 進数 32 は 7 桁で E max は 96 ですが、float32 は 7.22 桁で E max は ~38 です。
これは、10 進数の 32 の精度は似ていますが、範囲がはるかに優れていることを意味しますか? では、float32 ではなく decimal32 を使用することを妨げているのは何ですか? それは彼らのパフォーマンス(すなわちスピード)ですか?