問題タブ [amd-rocm]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ubuntu - AMD GPU 上の Tensorflow
AMD RX 470 を使用しており、GPU を使用して Deep Neural Net を実行したいと考えています。ROCm を確認しましたが、これを実行する方法がわかりませんでした。また、簡単なインストール手順も見つかりませんでした。誰かが非常に役立つ簡単な指示を提供できれば、私はUbuntuを初めて使用します。ありがとうございました
python - TensorFlow 1.3 ROCm ポート: '_pywrap_tensorflow_internal' を開けません
Ubuntu 16.04.4 で、TensorFlow 1.3 ROCm ポート (AMD Radeon RX Vega 64 用) をインストールしました。
の指示に従って、AMD Debian リポジトリから以前に ROCm をインストールした場所
https://github.com/RadeonOpenCompute/ROCm
次に、pip を使用して、仮想化なしで TF .whl パッケージをインストールします。
を使用してインストールを確認しようとすると
次のエラーが表示されます。
_pywrap_tensorflow_internal.so が存在することを確認しました:
私のホイールとピップのバージョンもチェックしました:
一見すると、何らかの環境変数が設定されていないように見えるため、正しいパスで _pywrap_tensorflow_internal.so が検索されていません。これが事実なのか、それとも問題の原因が他の場所にあるのか、誰か教えてもらえますか? 私はいくつかの検索を行い、本質的に空になりました。役立つ回答をお寄せいただきありがとうございます。
gpu - ROCm(llvm) コンパイラのパフォーマンスを調整するには?
AMDGPU pro dirver で実行できるコードを生成するために、llvm (roc-1.6.x) を少し変更しました。実行できますが、同じ opencl コードの場合、AMDGPU のオンライン コンパイラよりもパフォーマンスが 10% 以上遅くなります。llvm を調整するために設定できるフラグがいくつかあるのではないかと思います。いくつかの例を挙げていただければ、それは素晴らしいことです。
opencl - AMD GPU でカーネルを起動するときに計算ユニット ID を見つける
ROCm ソフトウェア スタックを使用して、Polaris20 GCN4th AMD GPU で OpenCL プログラムをコンパイルおよび実行していますが、GPU 上のどの計算ユニット (id) が現在のワークアイテムまたはウェーブフロントで現在使用されているかを調べる方法があるかどうか疑問に思っています。
つまり、カーネル内の計算を GPU 上の特定の計算ユニットまたは特定のハードウェアに関連付けることができるので、カーネルの実行中にハードウェアのどの部分が使用されているかを追跡できます。
ありがとうございました!