1

私は現在、CudabyExampleという本を使用して並列コンピューティングのクラスに参加しています。この本の第4章では、「GL/glut.h」と「GL/glext.h」のインクルードを含むいくつかの.hファイルを使用しています。GLUTをオンラインでインストールする手順があり、それに従います。これはうまくいったと思いますが、よくわかりません。次に、glextの方向性を見つけようとしましたが、これについてはあまり見つけることができないようです。.hファイルを1つ見つけて、それをGLフォルダーにも含めて使用しようとしました。これに似たものをコンパイルするときにエラーが発生したため、これは機能しないようです。

エラー1エラー:デバイスからホスト関数( "cuComplex :: cuComplex")を呼び出す/ _ global _ function( "julia")は許可されていませんC:\ Users \ Laptop \ Documents \ Visual Studio 2010 \ Projects \ Lab1 \ Lab1 \ lab1.cu 29 1 Lab1

これは、.dllやglutに似たものなど、glext.hにもっと必要なためだと思いますが、よくわかりません。これに関する助けをいただければ幸いです。ありがとうございました。

編集: -これは私が使用しているコードであり、上位2つのincludeステートメントと.hファイルがGoogleコードからのものであることを除いて、本に表示されているものから変更していません:助けてくれてありがとう

#include "cuda_runtime.h"
#include "device_launch_parameters.h"
#include "book.h"
#include "cpu_bitmap.h"

#define DIM 1000

struct cuComplex {
    float r;
    float i;
    cuComplex( float a, float b) : r(a), i(b) {}
    __device__ float magnitude2(void) {
        return r*r + i*i;
    }
    __device__ cuComplex operator* (const cuComplex& a) {
        return cuComplex(r*a.r - i*a.i, i*a.r + r*a.i);
    }
    __device__ cuComplex operator+ (const cuComplex& a) {
        return cuComplex(r+a.r, i+a.i);
    }
};

__device__ int julia( int x, int y) {
    const float scale = 1.5;
    float jx = scale * (float)(DIM/2 -x)/(DIM/2);
    float jy = scale * (float)(DIM/2 - y)/(DIM/2);

    cuComplex c(-0.8, .156);
    cuComplex a(jx, jy);

    int i = 0;
    for(i=0;i<200;i++) {
        a = a * a + c;
        if(a.magnitude2() > 1000)
            return 0;
    }

    return 1;
}

__global__ void kernel(unsigned char *ptr ) {
    //map from threadIdx/BlockIdx to pixel position
    int x = blockIdx.x;
    int y = blockIdx.y;
    int offset = x + y * gridDim.x;
    //now claculate the value at that position
    int juliaValue = julia(x,y);
    ptr[offset*4 + 0] = 255 * juliaValue;
    ptr[offset*4 + 1] = 0;
    ptr[offset*4 + 2] = 0;
    ptr[offset*4 + 3] = 255;
}

int main( void ) {
    CPUBitmap bitmap(DIM, DIM);
    unsigned char *dev_bitmap;
    HANDLE_ERROR(cudaMalloc((void**)&dev_bitmap, bitmap.image_size()));
    dim3    grid(DIM,DIM);
    kernel<<<grid,1>>>( dev_bitmap );
    HANDLE_ERROR( cudaMemcpy( bitmap.get_ptr(), dev_bitmap, bitmap.image_size(), cudaMemcpyDeviceToHost));
    bitmap.display_and_exit();
    HANDLE_ERROR( cudaFree( dev_bitmap ));
}
4

1 に答える 1

2

以下を追加してみてください。

元のコード:

cuComplex( float a, float b) : r(a), i(b) {}

変更:

__host__ __device__ cuComplex( float a, float b ) : r(a), i(b)  {}

それは私のために問題を修正しました。追加した2つのインクルードファイルも必要ありませんでしたが、ビルドプロセスによっては異なります。

CUDAプログラムは、ホストコードとデバイスコードの2種類のコードで構成されています。ホストコードはホストCPUで実行され、GPUで実行できません。また、デバイスコードはGPUで実行され、CPUで実行できません。プログラムを装飾しない場合は、すべてホストコードになります。ただし、__global__や__device__などのキーワードで表されるCUDAセクションの追加を開始すると、プログラムにデバイスコードが含まれるようになります。

受け取ったコンパイラエラーは、デバイスで実行されている関数がCPU用にコンパイルされたコードを使用しようとしていることを示しています。これはノーノーであり、コンパイラはこれを許可しません。この例は、ある時点(本が書かれたとき)ではおそらくこのエラーを生成しなかったため、珍しいものであり、さらにcuComplex構造体のコードは__device__キーワードで装飾されているように見えます。ただし、変更したコード行の構造体の最も外側のレベルには、__device__を識別するキーワードはありません。__ device__ __ host__キーワードを追加すると、「この論理セクションでは、デバイスでコンパイルされたバージョンとホストでコンパイルされたバージョンのコードの両方を作成する」ようにコンパイラーに指示されます。これは、デバイスでコードのこのセクションを使用できるようにすることをコンパイラーに明示的に通知します。そして、その追加で、

どうやら、この場合、コンパイラがデバイスコードを生成するために必要な装飾のレベルについて何かが変わったようです。おそらく、古いコンパイラでは、構造体内の__ device__キーワードで、cuComplex型で呼び出し可能な演算子のデバイスバージョンを生成する必要があることをコンパイラに通知するのに十分でした。

于 2012-10-07T23:00:37.117 に答える