2 つのノード間の通信にインフィニバンドを使用すると (MPI 実装として MVAPICH2 を使用)、アプリケーションで間違った結果が生成されます。
OpenMPI は、ネットワークを指定する可能性を提供します
$ mpirun --mca btl tcp,self ...
MVAPICH2 に似たものはありますか?
MVAPICH2のドキュメントには、これに関する直接のスポットがあります。彼らのページから引用:
4.9 TCP/IP-Nemesis のビルドの構成
Nemesis チャネルで TCP/IP を使用するには、次の構成が必要です。
$ ./configure --with-device=ch3:nemesis
デフォルトでは、静的ライブラリと共有ライブラリの両方がビルドされます。静的ライブラリのみでビルドするには、次のように構成します。
$ ./configure --with-device=ch3:nemesis --disable-shared
TotalView デバッガーを使用できるようにするには、ライブラリを次のように構成する必要があります。
$ ./configure --with-device=ch3:nemesis --enable-g=dbg --enable-debuginfo
TCP/IP-Nemesis を使用して構成するための追加の手順は、 http ://www.mcs.anl.gov/research/projects/mpich2/documentation/index.php?s=docs で入手可能な MPICH ドキュメントに記載されています 。