問題タブ [half-precision-float]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - 2 バイトの float がなく、実装が既に存在するのはなぜですか?
私は本当にメモリが不足していて、より小さな範囲が必要であると仮定します(short
vsに似ていint
ます)。シェーダー言語half
は、半分の精度の浮動小数点型を既にサポートしています (値が -1 と 1 の間になるように変換するだけではありません。つまり、次のような float を返しますshortComingIn / maxRangeOfShort
)。2 バイトの float に対して既に存在する実装はありますか?
また、2 バイトの float がない理由について (歴史的な?) 理由を知りたいと思っています。
python-3.x - 混合精度トレーニング レポート RET_CHECK の失敗、ShapeUtil::Equal(first_reduce->shape()、inst->shape())
新しいセットアップ: 2x2080ti Nvidia ドライバー: 430 Cuda 10.0 Cudnn 7.6 Tensorflow 1.13.1
古いセットアップ: 2x1080ti Nvidia ドライバー:410 Cuda 9.0 Tensorflow 1.10
セグメンテーション用のモデルを実装しました。FP32 または混合精度でトレーニングできます (こちらの指示に従ってくださいhttp://on-demand.gputechconf.com/gtc-taiwan/2018/pdf/5-1_Internal%20Speaker_Michael%20Carilli_PDF%20For% 20共有.pdf )。
古いセットアップでも動作しますが、1080ti は float16 を完全にはサポートしていないため、新しいセットアップに切り替えました。
新しいセットアップでは、FP32 は正常に動作しますが、混合精度には常にエラーがあります: ->shape(), inst->shape())
モデル構造:
ここでエラーが発生します。
エラー: