4

PyCUDA で共有メモリを割り当てるために、正しいパラメータをprepare関数(およびprepared_call)に渡すのに問題があります。PyCUDA に渡す変数の 1 つが意図したものではなく、このようにエラー メッセージを理解しています。しかし、変数がどこから来たのかわかりません。longfloat32

さらに、公式の例ドキュメントはprepareblock、必要かどうかに関して互いに矛盾しているように思えますNone

from pycuda import driver, compiler, gpuarray, tools
import pycuda.autoinit
import numpy as np

kernel_code ="""
__device__ void loadVector(float *target, float* source, int dimensions )
{
    for( int i = 0; i < dimensions; i++ ) target[i] = source[i];
}
__global__ void kernel(float* data, int dimensions, float* debug)
{
    extern __shared__ float mean[];
    if(threadIdx.x == 0) loadVector( mean, &data[0], dimensions );
    debug[threadIdx.x]=  mean[threadIdx.x];
}
"""

dimensions = 12
np.random.seed(23)
data = np.random.randn(dimensions).astype(np.float32)
data_gpu = gpuarray.to_gpu(data)
debug = gpuarray.zeros(dimensions, dtype=np.float32)

mod = compiler.SourceModule(kernel_code)
kernel = mod.get_function("kernel")
kernel.prepare("PiP",block = (dimensions, 1, 1),shared=data.size)
grid = (1,1)
kernel.prepared_call(grid,data_gpu,dimensions,debug)
print debug.get()

出力

Traceback (most recent call last):
File "shared_memory_minimal_example.py", line 28, in <module>
kernel.prepared_call(grid,data_gpu,dimensions,debug)
File "/usr/local/lib/python2.6/dist-packages/pycuda-0.94.2-py2.6-linux-x86_64.egg/pycuda/driver.py", line 230, in function_prepared_call
func.param_setv(0, pack(func.arg_format, *args))
pycuda._pvt_struct.error: cannot convert argument to long
4

1 に答える 1

6

私はこの同じ問題に遭遇し、答えを見つけるのにしばらく時間がかかりました。エラー メッセージの原因は、data_gpu が GPUArray インスタンスであることです。

data_gpu = gpuarray.to_gpu(data)

これを Prepared_call に渡すには、 data_gpu.gpudata を実行して、関連付けられたDeviceAllocationインスタンス (つまり、実質的にはデバイス メモリ ロケーションへのポインター) を取得する必要があります。

また、prepare にブロック引数を渡すことは非推奨になりました。したがって、正しい呼び出しは次のようになります。

data_gpu = gpuarray.to_gpu(data)
func.prepare( "P" )
grid = (1,1)
block = (1,1,1)
func.prepared_call( grid, block, data_gpu.gpudata )
于 2013-05-30T20:20:27.627 に答える