0

並列 HDF5 をクラスターで 1 週間動作させるのに苦労していますが、何の進歩もありません。誰かがこれで私を助けてくれたらいいのにと思います。ありがとう!

RedHat Enterprise Linux 5.5 x86_64 OS を搭載した光沢ファイル システム上に Parallel HDF5 (hdf5-1.8.15-patch1) を構築しています。impi 4.0.2 と openmpi 1.8 の両方でコンパイルしようとしましたが、エラーなしで成功しました。「チェックを行う」と、両方ともシリアル テストに合格しましたが、パラレル テスト (特に t_mpi) に入った直後にハングしました。最終的に、ctrl + C で終了する必要がありました。出力は次のとおりです。

lijm@c01b03:~/yuan/hdf5-1.8.15-patch1/testpar$ make check
  CC       t_mpi.o
t_mpi.c: In function ‘test_mpio_gb_file’:
t_mpi.c:284: warning: passing argument 1 of ‘malloc’ with different width due to prototype
t_mpi.c:284: warning: request for implicit conversion from ‘void *’ to ‘char *’ not permitted in C++
t_mpi.c: In function ‘test_mpio_1wMr’:
t_mpi.c:465: warning: passing argument 2 of ‘gethostname’ with different width due to prototype
t_mpi.c: In function ‘test_mpio_derived_dtype’:
t_mpi.c:682: warning: declaration of ‘nerrors’ shadows a global declaration
t_mpi.c:37: warning: shadowed declaration is here
t_mpi.c:771: warning: passing argument 5 of ‘MPI_File_set_view’ discards qualifiers from pointer target type
t_mpi.c:798: warning: passing argument 2 of ‘MPI_File_set_view’ with different width due to prototype
t_mpi.c:798: warning: passing argument 5 of ‘MPI_File_set_view’ discards qualifiers from pointer target type
t_mpi.c:685: warning: unused variable ‘etypenew’
t_mpi.c:682: warning: unused variable ‘nerrors’
t_mpi.c: In function ‘main’:
t_mpi.c:1104: warning: too many arguments for format
t_mpi.c: In function ‘test_mpio_special_collective’:
t_mpi.c:991: warning: will never be executed
t_mpi.c:992: warning: will never be executed
t_mpi.c:995: warning: will never be executed
t_mpi.c: In function ‘test_mpio_gb_file’:
t_mpi.c:229: warning: will never be executed
t_mpi.c:232: warning: will never be executed
t_mpi.c:237: warning: will never be executed
t_mpi.c:238: warning: will never be executed
t_mpi.c:253: warning: will never be executed
t_mpi.c:258: warning: will never be executed
t_mpi.c:259: warning: will never be executed
t_mpi.c:281: warning: will never be executed
t_mpi.c:246: warning: will never be executed
t_mpi.c:267: warning: will never be executed
t_mpi.c:319: warning: will never be executed
t_mpi.c:343: warning: will never be executed
t_mpi.c:385: warning: will never be executed
t_mpi.c:389: warning: will never be executed
t_mpi.c:248: warning: will never be executed
t_mpi.c:269: warning: will never be executed
t_mpi.c: In function ‘main’:
t_mpi.c:1143: warning: will never be executed
t_mpi.c:88: warning: will never be executed
t_mpi.c:102: warning: will never be executed
t_mpi.c:133: warning: will never be executed
t_mpi.c:142: warning: will never be executed
  CCLD     t_mpi
make  t_mpi testphdf5 t_cache t_pflush1 t_pflush2 t_pshutdown t_prestart t_shapesame
make[1]: Entering directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
make[1]: `t_mpi' is up to date.
make[1]: `testphdf5' is up to date.
make[1]: `t_cache' is up to date.
make[1]: `t_pflush1' is up to date.
make[1]: `t_pflush2' is up to date.
make[1]: `t_pshutdown' is up to date.
make[1]: `t_prestart' is up to date.
make[1]: `t_shapesame' is up to date.
make[1]: Leaving directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
make  check-TESTS
make[1]: Entering directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
make[2]: Entering directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
make[3]: Entering directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
make[3]: Nothing to be done for `_exec_check-s'.
make[3]: Leaving directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
make[2]: Leaving directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
make[2]: Entering directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
===Parallel tests in testpar begin Thu Jun 11 22:07:48 CST 2015===
**** Hint ****
Parallel test files reside in the current directory by default.
Set HDF5_PARAPREFIX to use another directory. E.g.,
HDF5_PARAPREFIX=/PFS/user/me
export HDF5_PARAPREFIX
make check
**** end of Hint ****
make[3]: Entering directory `/home/lijm/yuan/hdf5-1.8.15-patch1/testpar'
============================
Testing  t_mpi
============================
 t_mpi  Test Log
============================
===================================
MPI functionality tests
===================================
Proc 1: hostname=c01b03
Proc 2: hostname=c01b03
Proc 3: hostname=c01b03
Proc 5: hostname=c01b03
--------------------------------
Proc 0: *** MPIO 1 write Many read test...
--------------------------------
Proc 0: hostname=c01b03
Proc 4: hostname=c01b03
Command exited with non-zero status 255
0.08user 0.01system 0:37.65elapsed 0%CPU (0avgtext+0avgdata    0maxresident)k
0inputs+0outputs (0major+5987minor)pagefaults 0swaps
make[3]: *** [t_mpi.chkexe_] Error 1
make[2]: *** [build-check-p] Interrupt
make[1]: *** [test] Interrupt
make: *** [check-am] Interrupt

上記の 2 つの MPI 実装の出力は同じですが、openmpi も警告を出力します。

警告: OpenFabrics サブシステムは、物理メモリの一部のみを登録できるように構成されているようです。これにより、MPI ジョブが不安定なパフォーマンスで実行されたり、ハングしたり、クラッシュしたりする可能性があります。

この問題を検索しました。しかし、それがハングの原因である可能性はないと思います。理由は最後に記載されています。

ぶら下がっている場所を探してみました。私が見つけたのは、それが最初に遭遇する集団機能に常に行き詰まるということです。たとえば、t_mpi で。最初にハングします:

MPI_File_delete(ファイル名, MPI_INFO_NULL); (477行目)、

in test_mpio_1wさん。この行をコメントアウトすると、すぐ下の MPI_File_open でスタックします。しかし、これらの関数内で何が起こったのかはわかりません。

もう一つ気になったことがあります。「make」を行う HDF5 のフォルダーは NFS ファイル システムにあり、別の場所にある特定のフォルダーからのみ光沢にアクセスできます。したがって、テストはデフォルトでローカルで実行されるため、HDF5_PARAPERFIX を光沢フォルダーに設定しないと、テストがうまく実行されることがわかりました。ということは、メモリーの限界ではなく、光沢そのものの問題ではないでしょうか。

ありがとうございました!

4

1 に答える 1

0

ここで何が起こっているのかを言うのは難しいです。

Lustre ドライバに「generic unix file system」を適用している可能性があります。Intel MPI では、lustre 最適化コード パスを使用するには、2 つの環境変数 (I_MPI_EXTRA_FILESYSTEM と I_MPI_EXTRA_FILESYSTEM_LIST) が必要です。詳細)。

OpenMPI をビルドするときも、光沢サポートを明示的に要求する必要があります。

スタックしているプロセスの 1 つまたは複数にデバッガーをアタッチして、ハングしている場所を確認できると、非常に役立ちます。I / Oルーチンで立ち往生?通信に詰まった?

于 2015-06-11T21:30:19.510 に答える