だから私はGoogle TPUでかなり新しいです。私がすでに調査したところによると、TensorFlow で記述された機械学習モデルのトレーニング用に特別に最適化されています。現在、TPU が他のタイプの機能でどのように機能するかを確認しようとしています。これらの機能は機械学習とは関係ありません。Google Colab の TPU で実行できるようにコードを調整しようとしていますが、それが機能しているかどうか、またはこれが最善のアプローチであるかどうかはわかりません。これは、行列乗算アルゴリズムのコードです。O(n3)
import os
import numpy as np
from random import seed
from random import random
import tensorflow as tf
import time;
#check that this is running on the TPU
try:
tpu = tf.contrib.cluster_resolver.TPUClusterResolver() # TPU detection
print('Running on TPU ', tpu.cluster_spec().as_dict()['worker'])
except ValueError:
print("Running on GPU or CPU")
tpu = None
#TPU details
if 'COLAB_TPU_ADDR' not in os.environ:
print('ERROR: Not connected to a TPU runtime; please see the first cell in this notebook for instructions!')
else:
tpu_address = 'grpc://' + os.environ['COLAB_TPU_ADDR']
print ('TPU address is', tpu_address)
def multiplicationComputation():
#size of matrix
row_size = 128
col_size = 128
N = row_size*col_size
#class for matrix
class MatrixMultiplication:
matrix1 = np.empty(N) #DO NOT USE np.arange(N)
matrix2 = np.empty(N)
product = np.empty(N) #product size is the matrix1.columns x matrix2.rows
#create MatrixMultiplication object
m = MatrixMultiplication()
#fill objects's data structures
#seed for matrix 1
seed(1)
for x in range(N):
value = random()
m.matrix1[x] = value
#seed for matrix 2
seed(7)
for x in range(N):
value = random()
m.matrix2[x] = value
#multiply matrix1 and matrix2
start = time.time()
qtySaves = 0;
for i in range(row_size):
for j in range(col_size):
i_col = i * col_size
sum = 0
for k in range(row_size):
k_col = k * col_size
multiplication = m.matrix1[i_col + k] * m.matrix2[k_col + j]
sum = sum + multiplication
m.product[i_col + j] = sum #The result of the multiplication is saved on the product matrix
qtySaves = qtySaves + 1
end = time.time()
#print result
print()
print("Result O(n^3): ")
for i in range(N):
if i % row_size == 0 and i > 0:
print()
print(str(m.product[i]), end =" ")
print()
print("For n = " + str(N) + ", time is " + str(end - start))
#rewrite computation so it can be executed on the TPU
#tpuOperation = tf.contrib.tpu.rewrite(multiplicationComputation)
tpuOperation = tf.contrib.tpu.batch_parallel(multiplicationComputation, [], num_shards=8)
#run
session = tf.Session(tpu_address, config=tf.ConfigProto(isolate_session_state=True, log_device_placement=True)) #isolate session state = True for distributed runtime
try:
session.run(tf.contrib.tpu.initialize_system()) #initializes a distributed TPU system
session.run(tpuOperation)
finally:
#TPU sessions must be shutdown separately from closing the session
session.run(tf.contrib.tpu.shutdown_system())
session.close()
私が恐れているのは、これが TPU で実行されていないことです。呼び出すsession.list_devices()
と、CPU がリストされていることがわかります。コードが実際には TPU ではなく CPU で実行されているのではないかと心配しています。これは、上記のコマンドの出力です。
TPU devices:
[_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:CPU:0, CPU, -1, 10448234186946304259),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:XLA_CPU:0, XLA_CPU, 17179869184, 2088593175391423031),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU:0, TPU, 17179869184, 1681908406791603718),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU:1, TPU, 17179869184, 2618396797726491975),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU:2, TPU, 17179869184, 14243051360425930068),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU:3, TPU, 17179869184, 15491507241115490455),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU:4, TPU, 17179869184, 9239156557030772892),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU:5, TPU, 17179869184, 16970377907446102335),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU:6, TPU, 17179869184, 6145936732121669294),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU:7, TPU, 17179869184, 11372860691871753999),
_DeviceAttributes(/job:tpu_worker/replica:0/task:0/device:TPU_SYSTEM:0, TPU_SYSTEM, 17179869184, 12653526146081894211)]
今のところ、どのアクセラレータを使用するかについてのアドバイスは求めていません。TPU をテストして、コードが実行されていることを確認したいと考えています。助けてください!