rhel 6.1 に基づく 3 ノードのクラスターがあります。
すべてのノードで、2 つの CPU と 4 つの GPU の Tesla M2090/
私は Openmpi 1.6.1 を使用しています。これは正常に動作します (GPU Linpak バージョンでテストされたシステム)。
mvapich2 1.9 をインストールすると、同じ問題が発生します。
このテストで多分トラブル?
Cuda バージョン 5.0
インフィニバンド - メラノックス。
このベンチマークのコンパイルは成功し、CPU (H to H) (localhost と 2 つのノードの両方) のみを使用してポイントツーポイントを開始すると、次のようになります。
mpirun -np 2 ./osu_latency HH
それはうまくいきます。しかし、GPU (CPU から GPU メモリへのコピー) を使用する場合:
mpirun -np 2 ./osu_latency HD
プログラムはsegmentation fault(11)でクラッシュします。
次のパラメーターを使用して、 http://www.nersc.gov/assets/Trinity--NERSC-8-RFP/Benchmarks/Dec17/OMB-NERSC8.tarからこのベンチマーク バージョン 3.7 をコンパイルします。
--prefix=/usr/local/bench/osu --enable-cuda --with-cuda=/usr/local/cuda-5.0 --with-cuda-include=/usr/local/cuda-5.0/include - -with-cuda-libpath=/usr/local/cuda-5.0 CC=/usr/local/mpi/openmpi16/bin/mpicc
絶対パスでプログラムを実行しようとしましたが、効果がありません。
問題はどこだ?少し早いですがお礼を!