2

rhel 6.1 に基づく 3 ノードのクラスターがあります。

すべてのノードで、2 つの CPU と 4 つの GPU の Tesla M2090/

私は Openmpi 1.6.1 を使用しています。これは正常に動作します (GPU Linpak バージョンでテストされたシステム)。

mvapich2 1.9 をインストールすると、同じ問題が発生します。

このテストで多分トラブル?

Cuda バージョン 5.0

インフィニバンド - メラノックス。

このベンチマークのコンパイルは成功し、CPU (H to H) (localhost と 2 つのノードの両方) のみを使用してポイントツーポイントを開始すると、次のようになります。

mpirun -np 2 ./osu_latency HH

それはうまくいきます。しかし、GPU (CPU から GPU メモリへのコピー) を使用する場合:

mpirun -np 2 ./osu_latency HD

プログラムはsegmentation fault(11)でクラッシュします。

次のパラメーターを使用して、 http://www.nersc.gov/assets/Trinity--NERSC-8-RFP/Benchmarks/Dec17/OMB-NERSC8.tarからこのベンチマーク バージョン 3.7 をコンパイルします。

--prefix=/usr/local/bench/osu --enable-cuda --with-cuda=/usr/local/cuda-5.0 --with-cuda-include=/usr/local/cuda-5.0/include - -with-cuda-libpath=/usr/local/cuda-5.0 CC=/usr/local/mpi/openmpi16/bin/mpicc

絶対パスでプログラムを実行しようとしましたが、効果がありません。

問題はどこだ?少し早いですがお礼を!

4

0 に答える 0