可能な場合、Thrust 関数で複数の GPU を使用して計算を行うことはできますか? 単一の GPU で問題なく動作するこの Thrust コードを作成しました。(Tesla C2050) しかし、計算に使用したい他の 3 つの Tesla C2050 カードがマシンに接続されています。
マシンに複数の GPU が接続されている場合、GPU ごとに 1 つの CUDA カーネルを並行して実行できることを知っています。つまり、デバイス 0 でカーネル 0、デバイス 1 でカーネル 1 などです。しかし、私の場合はすべてを使用したいと思います。スラスト::ソートなどの単一のスラスト関数呼び出しで 4 つの GPU を使用します。これは可能ですか?