0

私はこのサイトや他のサイトを見回しましたが、何もうまくいきませんでした. 私は自分の特定のケースについて質問を投稿することに頼っています。

多数のマトリックスがあり、カーネルを使用して GPU がそれらすべてに対して同じ操作を実行できるようにすることが目標です。カーネルを動作させることができると確信していますが、cudaMalloc / cudaMemcpy を動作させることができません。

いくつかのフロートを指す要素と呼ばれるメンバーを持つ Matrix 構造体へのポインターがあります。cuda以外のすべてのmallocを問題なく実行できます。

あらゆる/すべての助けに感謝します。

コード:

typedef struct {
    int width;
    int height;
    float* elements;
} Matrix;

int main void() {
    int rows, cols, numMat = 2; // These are actually determined at run-time
    Matrix* data = (Matrix*)malloc(numMat * sizeof(Matrix));

    // ... Successfully read from file into "data" ...

    Matrix* d_data;
    cudaMalloc(&d_data, numMat*sizeof(Matrix)); 
    for (int i=0; i<numMat; i++){
        // The next line doesn't work
        cudaMalloc(&(d_data[i].elements), rows*cols*sizeof(float));

        // Don't know if this works
        cudaMemcpy(d_data[i].elements, data[i].elements,  rows*cols*sizeof(float)), cudaMemcpyHostToDevice);
    }

    // ... Do other things ...
}

ありがとう!

4

1 に答える 1

7

自分の記憶がどこにあるかを意識する必要があります。malloc はホスト メモリを割り当て、cudaMalloc はデバイスにメモリを割り当て、そのメモリへのポインタを返します。ただし、このポインタはデバイス関数でのみ有効です。

あなたが望むものは次のように実現できます:

typedef struct {
    int width;
    int height;
    float* elements;
} Matrix;

int main void() {
    int rows, cols, numMat = 2; // These are actually determined at run-time
    Matrix* data = (Matrix*)malloc(numMat * sizeof(Matrix));

    // ... Successfully read from file into "data" ...
    Matrix* h_data = (Matrix*)malloc(numMat * sizeof(Matrix));
    memcpy(h_data, data, numMat * sizeof(Matrix);

    for (int i=0; i<numMat; i++){

        cudaMalloc(&(h_data[i].elements), rows*cols*sizeof(float));
        cudaMemcpy(h_data[i].elements, data[i].elements,  rows*cols*sizeof(float)), cudaMemcpyHostToDevice);

     }// matrix data is now on the gpu, now copy the "meta" data to gpu
     Matrix* d_data;
     cudaMalloc(&d_data, numMat*sizeof(Matrix)); 
     cudaMemcpy(d_data, h_data, numMat*sizeof(Matrix));
     // ... Do other things ...
}

明確にするため Matrix* dataに、ホスト上のデータが含まれています。 Matrix* h_dataパラメータとしてカーネルに渡すことができる要素にデバイスメモリへのポインタが含まれています。メモリは GPU 上にあります。 Matrix* d_data完全に GPU 上にあり、ホスト上のデータのように使用できます。

カーネルコードでは、マトリックス値にアクセスできます。たとえば、

__global__ void doThings(Matrix* matrices)
{
      matrices[i].elements[0] = 42;
}
于 2013-10-16T13:53:55.333 に答える