1

さて、私は MPI + C を使用していくつかの宿題をしています。実際、Peter Pacheco の著書 An Introduction to Parallel Programming から、割り当て 3.2 のプログラミングの小さなコードを書きました。コードは 3 つまたは 5 つのプロセスで動作するようですが、6 つ以上のプロセスを試すと、プログラムが壊れます。

問題が発生している場所を追跡するためにいくつかのprintfsを配置するという、非常に「悪い」デバッグアプローチを使用しています。この「メソッド」を使用すると、MPI_Reduce の後、奇妙な動作が発生し、プログラムがランク ID について混乱することがわかりました。具体的には、ランク 0 が消え、非常に大きな (そして誤った) ランクが 1 つ表示されます。

私のコードは以下にあり、その後、3 プロセスと 9 プロセスの出力を投稿しています...

mpiexec -n X ./name_of_program

ここで、X はプロセス数です。

私のコード:

#include <stdio.h>
#include <stdlib.h>
#include <mpi.h>

int main(void)
{
MPI_Init(NULL,NULL);

long long int local_toss=0, local_num_tosses=-1, local_tosses_in_circle=0, global_tosses_in_circle=0;

double local_x=0.0,local_y=0.0,pi_estimate=0.0;

int comm_sz, my_rank;

MPI_Comm_size(MPI_COMM_WORLD, &comm_sz);
MPI_Comm_rank(MPI_COMM_WORLD, &my_rank);         

if (my_rank == 0) {
    printf("\nEnter the number of dart tosses: ");
    fflush(stdout);
    scanf("%lld",&local_num_tosses);
    fflush(stdout);
}

//
MPI_Barrier(MPI_COMM_WORLD);

    MPI_Bcast( &local_num_tosses, 1, MPI_LONG_LONG_INT, 0, MPI_COMM_WORLD);

    MPI_Barrier(MPI_COMM_WORLD);

    srand( rand() ); //tried to improve randomness here!

for (local_toss=0;local_toss<local_num_tosses;local_toss++) {
    local_x = (-1) + (double)rand() / (RAND_MAX / 2);
    local_y = (-1) + (double)rand() / (RAND_MAX / 2);

    if ( (local_x*local_x + local_y*local_y) <= 1 ) {local_tosses_in_circle++;}
}


MPI_Barrier(MPI_COMM_WORLD);

MPI_Reduce
(
    &local_tosses_in_circle,
    &global_tosses_in_circle,
    comm_sz,
    MPI_LONG_LONG_INT,
    MPI_SUM,
    0,
    MPI_COMM_WORLD
);  

printf("\n\nDEBUG: myrank = %d, comm_size = %d",my_rank,comm_sz);
fflush(stdout);

    MPI_Barrier(MPI_COMM_WORLD);

if (my_rank == 0) {
    pi_estimate = ( (double)(4*global_tosses_in_circle) )/( (double) comm_sz*local_num_tosses );
    printf("\nPi estimate = %1.5lf \n",pi_estimate);
    fflush(stdout);
}

MPI_Finalize();
    return 0;
}

今、2つの出力:

(i) 3 つのプロセスの場合:

Enter the number of dart tosses: 1000000

DEBUG: myrank = 0, comm_size = 3

DEBUG: myrank = 1, comm_size = 3

DEBUG: myrank = 2, comm_size = 3
Pi estimate = 3.14296

(ii) 9 つのプロセスの場合: ( \n 出力が奇妙で、動作しない場合があることに注意してください)

        Enter the number of dart tosses: 10000000


        DEBUG: myrank = 1, comm_size = 9
        DEBUG: myrank = 7, comm_size = 9


        DEBUG: myrank = 3, comm_size = 9
        DEBUG: myrank = 2, comm_size = 9DEBUG: myrank = 5, comm_size = 9
        DEBUG: myrank = 8, comm_size = 9



        DEBUG: myrank = 6, comm_size = 9

        DEBUG: myrank = 4, comm_size = 9DEBUG: myrank = -3532887, comm_size = 141598939[PC:06511] *** Process received signal ***
        [PC:06511] Signal: Segmentation fault (11)
        [PC:06511] Signal code:  (128)
        [PC:06511] Failing at address: (nil)
        --------------------------------------------------------------------------
        mpiexec noticed that process rank 0 with PID 6511 on node PC exited on signal 11 (Segmentation fault).
        --------------------------------------------------------------------------
4

1 に答える 1

1

MPI_Reduceの 3 番目の引数が ではない1場合に機能しますcomm_size(各バッファーの要素数が 1 であるため)。

MPI_Reduce
(
    &local_tosses_in_circle,
    &global_tosses_in_circle,
    1, //instead of comm_size
    MPI_LONG_LONG_INT,
    MPI_SUM,
    0,
    MPI_COMM_WORLD
);  

プロセスの数を増やすとMPI_Reduce、関数のスタック内の他のもの ( や など) が上書きされ、データが破損します。my_rankcomm_sz

MPI_Barrierまた、ステートメントは必要ないと思います。とにかくブロックしていますMPI_ReduceMPI_Bcast

改行については心配しません。それらは欠落していませんが、おそらく多くのプロセスが同時に stdout に書き込むため、出力の別の場所にあります。

ところで: を使用したデバッグprintfは非常に一般的です。

于 2013-04-08T17:18:38.360 に答える