問題タブ [half-precision-float]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
opencl - OpenCL 1.2 を使用した NVIDIA Ampere 世代の GPU で半精度浮動小数点がサポートされているかサポートされていないか
float4 要素を使用して OpenCL で read_imagef および write_imagef 操作を行うカーネルを実装しましたが、正常に動作します。
そこで、半精度浮動小数点要素を使って実装してみました。この場合、「ptxas fatal: 関数 read_imageh のアドレスを取得できません」または halfn 変数にアクセスする際の他の同様のエラー メッセージを示すビルド エラーが発生しました。
CL_DEVICE_PREFERRED_VECTOR_WIDTH_HALF 引数を指定して clGetDeviceInfo をチェックすると、サポートされていないことを意味する 0 が返されました。NVIDIA Ampere アーキテクチャは半精度浮動小数点演算をサポートしているため、これは当てはまらないと思います。
使用するデバイスは、OpenCL バージョン 1.2 を搭載した NVIDIA GeForce RTX 3060 Ti です。
tensorflow - トレーニング済みモデルに半精度 (BFLOAT16 と FLOAT16) を選択する方法は?
推論モデルに最適な精度をどのように決定しますか? BF16 と F16 はどちらも 2 バイトを使用しますが、小数部と指数部に異なる数のビットを使用します。
範囲は異なりますが、なぜある人が他の人よりも選ばれたのかを理解しようとしています.
ありがとうございました