私は C で OpenMPI を学んでいます。このプログラムで行列の乗算を行うと少し問題が発生します。結果が間違っています。プログラムはコンパイルされますが、行列乗算アルゴリズムがどこか間違っているように感じます。
この問題を解決するための私のアプローチは、MPI_Scatter を使用して行列 A を分散させ、次に行列 B を転置することです。次に、MPI_Scatter 行列 B を分散させます。それらが分散されたら、行列乗算の計算を行い、結果をルート プロセスに戻します。何かが欠けているかどうかはわかりませんが、Scatter and Gather についてはまだ完全には理解していません。Send を使用して個々のプロセスに送信し、別のプロセスから Recv を送信できることは知っていますが、これは Scatter and Gather ではどのように機能しますか。このコードのどこかで間違いを犯した場合はお知らせください。ありがとう。
私のソースコード:
#define N 512
#include <stdio.h>
#include <math.h>
#include <mpi.h>
#include <sys/time.h>
print_results(char *prompt, float a[N][N]);
int main(int argc, char *argv[]) {
int size, rank, blksz, i, j, k;
float a[N][N], b[N][N], c[N][N];
char *usage = "Usage: %s file\n";
float row[N][N], col[N][N];
FILE *fd;
int portion, lowerbound, upperbound;
double elapsed_time, start_time, end_time;
struct timeval tv1, tv2;
MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
MPI_Comm_size(MPI_COMM_WORLD, &size);
blksz = (int) ceil((double) N / size);
/*
if (argc < 2) {
fprintf (stderr, usage, argv[0]);
return -1;
}
if ((fd = fopen(argv[1], "r")) == NULL) {
fprintf(stderr, "%s: Cannot open file %s for reading.\n", argv[0],argv[1]);
fprintf(stderr, usage, argv[0]);
return -1;
}
*/
//Read input from file for matrices a and b.
//The I/O is not timed because this I/O needs
//to be done regardless of whether this program
//is run sequentially on one processor or in
//parallel on many processors. Therefore, it is
//irrelevant when considering speedup.
if (rank == 0) {
for (i = 0; i < N; i++)
for (j = 0; j < N; j++)
a[i][j] = i + j;
for (i = 0; i < N; i++)
for (j = 0; j < N; j++)
b[i][j] = i + j;
/*
for (i = 0; i < N; i++) {
for (j = i + 1; j < N; j++) {
int temp = b[i][j];
b[i][j] = b[j][i];
b[j][i] = temp;
}
}
*/
}
//TODO: Add a barrier prior to the time stamp.
MPI_Barrier(MPI_COMM_WORLD);
// Take a time stamp
gettimeofday(&tv1, NULL);
//TODO: Scatter the input matrices a and b.
MPI_Scatter(a, blksz * N, MPI_FLOAT, row, blksz * N, MPI_FLOAT, 0,
MPI_COMM_WORLD);
MPI_Scatter(b, blksz * N, MPI_FLOAT, col, blksz * N, MPI_FLOAT, 0,
MPI_COMM_WORLD);
//TODO: Add code to implement matrix multiplication (C=AxB) in parallel.
for (i = 0; i < blksz && rank * blksz + i < N; i++) {
for (j = 0; j < N; j++) {
c[i][j] = 0.0;
for (k = 0; k < N; k++) {
c[i][j] += row[i][j] * col[j][k];
}
}
}
//TODO: Gather partial result back to the master process.
MPI_Gather(c, blksz * N, MPI_FLOAT, c, blksz * N, MPI_FLOAT, 0,
MPI_COMM_WORLD);
// Take a time stamp. This won't happen until after the master
// process has gathered all the input from the other processes.
gettimeofday(&tv2, NULL);
elapsed_time = (tv2.tv_sec - tv1.tv_sec) + ((tv2.tv_usec - tv1.tv_usec)
/ 1000000.0);
printf("elapsed_time=\t%lf (seconds)\n", elapsed_time);
// print results
MPI_Barrier(MPI_COMM_WORLD);
print_results("C = ", c);
MPI_Finalize();
}
print_results(char *prompt, float a[N][N]) {
int i, j;
printf("\n\n%s\n", prompt);
for (i = 0; i < N; i++) {
for (j = 0; j < N; j++) {
printf(" %.2f", a[i][j]);
}
printf("\n");
}
printf("\n\n");
}