np.array
または またはnp.zeros
またはnp.empty(shape, dtype)
を使用してホスト内にグローバル デバイス関数を作成し、コピーする方法を知ってcuda.to_device
います。
また、共有配列を次のように宣言することもできますcuda.shared.array(shape, dtype)
しかし、gpu関数内の特定のスレッドのレジスタに一定サイズの配列を作成する方法.
試してみcuda.device_array
ましnp.array
たが、何も機能しませんでした。
私は単にスレッド内でこれをやりたい -
x = array(CONSTANT, int32) # should make x for each thread