問題タブ [arrayfire]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - 290X で機械学習ライブラリをセットアップしようとしています
機械学習/AI を探索するためのライブラリを見つけるのに苦労しています。R9 290x を 2 台持っていますが、適切に機能するライブラリが見つからないようです。
最初に、machine_learning サンプル フォルダーのベンチマークで示されているように、優れた CPU パフォーマンスを備えていますが、機械学習の GPU パフォーマンスが低い array-fire を試しました。
rocm と MIOpen を調べて、hip 対応の tensorflowを試しましたが、290x 世代ではサポートされていないことがわかりました。テンソルフローのllvm-amdgpuサポートにも取り組んでいる人を見つけましたが、まだ準備ができていないようです
Haskell の加速を調べたところ、 amdgpu backendに関する問題が見つかりましたが、まだ準備ができていないようです。
多分私は十分に広く検索していませんか?しかし、私が知る限り、ほとんどすべてが cuda で実行されており、現時点ではこれに新しい GPU を購入する余裕はありません。
python - ArrayFire を使用した複数のホスト スレッド
ArrayFire for Python で複数のホスト スレッドを使用することについて、初心者から質問があります。現在、Open MPI と mpi4py を使用して並列化された、高度に並列化された CPU のみのコードがあります。各 CPU スレッドは大規模な行列乗算を実行し、多くの場合、複数のスレッドが同時に乗算されます。ArrayFire を使用して単一の GPU で行列乗算を実行することにより、パフォーマンスを向上させたいと考えています。
複数の CPU ホスト スレッドが行列乗算ジョブを GPU に送信し、GPU にこれらの乗算を同時に実行させることができるかどうかを把握しようとしています。それとも、各 CPU ホスト スレッドは、GPU がアイドル状態になるまで、乗算ジョブを GPU に送信する必要がありますか?
GPU コンピューティングの言語に精通していないため、答えを見つけるのに苦労しています。特定の GPU がカーネルの同時実行をサポートしているというのが私の印象ですが、私たちの GPU (Radeon Vega 10) がサポートしているかどうかを判断することはできませんでした。
ArrayFire for Python でこのようなことを行う方法に関する一般的なヒントやリソースをいただければ幸いです。
c++ - Arrayfire 疎行列の問題
シンプルであるべきものと混同する。これをデバッグするのに少し時間を費やしましたが、あまり進んでいません。誰かが私を助けてくれれば幸いです。
この関数で指定されている値/列/行のトリプルを指定して、arrayfire で疎行列を定義しようとしています。次の行列をスパースとして保存したい:
次のようにコーディングします。
次の出力が得られます。
格納された行列を密な形式で出力すると、意図したものとはまったく異なる結果が得られます。
rr の高密度バージョンを印刷する出力を作成するにはどうすればよいですか。