現在、次のような並列 for ループがあります。
int testValues[16]={5,2,2,10,4,4,2,100,5,2,4,3,29,4,1,52};
parallel_for (1, 100, 1, [&](int i){
int var4;
int values[16]={-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1};
/* ...nested for loops */
for (var4=0; var4<16; var4++) {
if (values[var4] != testValues[var4]) break;
}
/* ...end nested loops */
}
私ができることは、リソースを追加することだけであるという点まで、できる限り最適化しました。
GPU を利用してタスクを並列処理することに興味があります。このような恥ずかしい並列タスクは、最新の GPU を非常に効果的に利用できると読んだことがあります。
任意の言語を使用して、このような単純な並列 for ループに GPU を使用する最も簡単な方法は何ですか?
GPU アーキテクチャやネイティブ GPU コードについては何も知りません。