私は AI に関する博士号の研究を行っており、テスト プラットフォームに CUDA ライブラリを使用しなければならないところまで来ました。以前にCUDAで遊んだことがあり、GPGPUの仕組みなどは基本的に理解していますが、floatの精度に悩んでいます。
GTX680 を見ると、FP64: 1/24 FP32 が表示されますが、Tesla は 1.31 TFLOPS で完全な FP64 を持っています。1 つはゲーミング カードで、もう 1 つはプロ向けのカードであることをよく理解しています。
私が尋ねている理由は単純です。Tesla を購入する余裕はありませんが、GTX680 を 2 台購入できるかもしれません。主な目標は CUDA コアとメモリをできるだけ多く持つことですが、float の精度が問題になる可能性があります。
私の質問は次のとおりです。
- ゲーム用 GPU の小さな浮動小数点数の精度は、どの程度の妥協点ですか?
- 32ビット浮動小数点精度の1/24は小さすぎませんか? 特に1/8 FP32の以前のフェルミと比べて
- float の精度が小さいため、計算結果が間違っている可能性はありますか? つまり、SVM、VSM、マトリックス演算、ディープ ビリーフ ネットワークなどでは、浮動小数点が小さいためにアルゴリズムの結果に問題が生じる可能性がありますか?それとも単に演算に時間がかかるか、より多くのメモリを使用することを意味しますか?
ありがとう !