Theano と Deep Learning を使い始めたばかりです。Theano チュートリアル ( http://deeplearning.net/software/theano/tutorial/using_gpu.html#returning-a-handle-to-device-allocated-data )の例を試していました。コード例を次に示します。
from theano import function, config, shared, sandbox
import theano.tensor as T
import numpy
import time
vlen = 10 * 30 * 768 # 10 x #cores x # threads per core
iters = 1000
rng = numpy.random.RandomState(22)
x = shared(numpy.asarray(rng.rand(vlen), config.floatX))
f = function([], T.exp(x))
print(f.maker.fgraph.toposort())
t0 = time.time()
for i in xrange(iters):
r = f()
t1 = time.time()
print("Looping %d times took %f seconds" % (iters, t1 - t0))
print("Result is %s" % (r,))
if numpy.any([isinstance(x.op, T.Elemwise) for x in f.maker.fgraph.toposort()]):
print('Used the cpu')
else:
print('Used the gpu')
「vlen」を定義する表現を理解しようとしていますが、
vlen = 10 * 30 * 768 # 10 x #cores x # threads per core
この例で指定されている GPU コアの数と、30 が選択された理由について言及しているテキストはどこにもありません。また、768 スレッドの値が使用された理由もわかりません。私の GPU (GeForce 840M) には 384 コアがあります。値 30 の代わりに 384 を代入すると、384 個のコアすべてを使用すると仮定できますか? また、768 スレッドの値は固定のままにする必要がありますか?