私には2つのプログラムがあります。いくつかの計算を実行する「ワーカー」を生成する「マスター」。マスターにワーカーから結果を取得して合計を保存してもらいたい。MPI_Reduceを使用してワーカーから結果を収集しようとしていますが、ワーカーはMPI_Reduceを使用してマスターMPI_Commに送信しています。それが正しいかどうかはわかりません。これが私のプログラムです:
マスター:
#include <mpi.h>
#include <iostream>
using namespace std;
int main(int argc, char *argv[]) {
int world_size, universe_size, *universe_sizep, flag;
int rc, send, recv;
// intercommunicator
MPI_Comm everyone;
MPI_Init(&argc, &argv);
MPI_Comm_size(MPI_COMM_WORLD, &world_size);
if (world_size != 1) {
cout << "Top heavy with management" << endl;
}
MPI_Attr_get(MPI_COMM_WORLD, MPI_UNIVERSE_SIZE, &universe_sizep, &flag);
if (!flag) {
cout << "This MPI does not support UNIVERSE_SIZE. How many processes total?";
cout << "Enter the universe size: ";
cin >> universe_size;
} else {
universe_size = *universe_sizep;
}
if (universe_size == 1) {
cout << "No room to start workers" << endl;
}
MPI_Comm_spawn("so_worker", MPI_ARGV_NULL, universe_size-1,
MPI_INFO_NULL, 0, MPI_COMM_SELF, &everyone,
MPI_ERRCODES_IGNORE);
send = 0;
rc = MPI_Reduce(&send, &recv, 1, MPI_INT, MPI_SUM, 0, everyone);
// store result of recv ...
// other calculations here
cout << "From spawned workers recv: " << recv << endl;
MPI_Finalize();
return 0;
}
ワーカー:
#include <mpi.h>
#include <iostream>
using namespace std;
int main(int argc, char *argv[]) {
int rc, send,recv;
int parent_size, parent_id, my_id, numprocs;
// parent intercomm
MPI_Comm parent;
MPI_Init(&argc, &argv);
MPI_Comm_get_parent(&parent);
if (parent == MPI_COMM_NULL) {
cout << "No parent!" << endl;
}
MPI_Comm_remote_size(parent, &parent_size);
MPI_Comm_rank(parent, &parent_id) ;
//cout << "Parent is of size: " << size << endl;
if (parent_size != 1) {
cout << "Something's wrong with the parent" << endl;
}
MPI_Comm_rank(MPI_COMM_WORLD, &my_id) ;
MPI_Comm_size(MPI_COMM_WORLD, &numprocs) ;
cout << "I'm child process rank "<< my_id << " and we are " << numprocs << endl;
cout << "The parent process rank "<< parent_id << " and we are " << parent_size << endl;
// get value of send
send = 7; // just an example
recv = 0;
rc = MPI_Reduce(&send, &recv, 1, MPI_INT, MPI_SUM, parent_id, parent);
if (rc != MPI_SUCCESS)
cout << my_id << " failure on mpi_reduce in WORKER" << endl;
MPI_Finalize();
return 0;
}
私は両方をコンパイルし、次のように実行します(osxの場合はmpic ++):
mpic++ so_worker.cpp -o so_worker
mpic++ so_master.cpp -o so_master
mpirun -n 1 so_master
これは、ワーカーを生成するマスターを実行する正しい方法ですか?
マスターでは、MPI_Reduceから常に0が返されます。インターコミュニケーターからMPI_reduceを使用できますか、それともワーカーからMPI_Sendを使用し、マスターからMPI_Recvを使用する必要がありますか?なぜ機能しないのかよくわかりません。
どんな助けでもいただければ幸いです。ありがとう!