1

同じ GPU を使用する異なるコンテキスト (CPU スレッド) 間で cudaMalloc の GPU バッファを共有することは可能ですか? 各コンテキストは、GPU 全体を使用して出力を配布する前処理カーネルによって満たされる必要がある入力バッファーを割り当てます。

このシナリオは、GPU との間で複数のデータ転送を回避するのに理想的です。アプリケーションは、複数のアンテナ信号を組み合わせて複数のビームを生成するビームフォーマーであり、各ビームは異なる GPU コンテキストによって処理されます。ビームの処理パイプライン全体が既に配置されているので、ビームフォーミング部分を追加するだけです。各スレッドに独自のビームを生成させると、入力データが複製されるため、それを避けたいと思います (また、一度に複数のビームを生成する方がはるかに効率的です)。

4

2 に答える 2