0

TF Slim の train_image_classifier.py を使用してトレーニングする場合、すべてのメモリを割り当てるのではなく、必要な GPU メモリのみを割り当てるよう Slim に指示したいと思います。

SlimではなくストレートアップのTFを使用していた場合、次のように言えます。

config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)

または、GPU メモリの使用量にハード キャップを設定するには、次のようにします。

gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))

Slim に同じことを伝えるにはどうすればよいですか?

私の理解の失敗は、スリムが独自のループを使用しているように見え、ループの設定の核心に関するドキュメントが見つからないことです。だから、たとえ誰かが私に良い Slim ドキュメントを教えてくれたとしても、それは素晴らしいことだ.

前もって感謝します!

4

1 に答える 1