推論モデルに最適な精度をどのように決定しますか? BF16 と F16 はどちらも 2 バイトを使用しますが、小数部と指数部に異なる数のビットを使用します。
範囲は異なりますが、なぜある人が他の人よりも選ばれたのかを理解しようとしています.
ありがとうございました
|--------+------+----------+----------|
| Format | Bits | Exponent | Fraction |
|--------+------+----------+----------|
| FP32 | 32 | 8 | 23 |
| FP16 | 16 | 5 | 10 |
| BF16 | 16 | 8 | 7 |
|--------+------+----------+----------|
Range
bfloat16: ~1.18e-38 … ~3.40e38 with 3 significant decimal digits.
float16: ~5.96e−8 (6.10e−5) … 65504 with 4 significant decimal digits precision.