TF Slim の train_image_classifier.py を使用してトレーニングする場合、すべてのメモリを割り当てるのではなく、必要な GPU メモリのみを割り当てるよう Slim に指示したいと思います。
SlimではなくストレートアップのTFを使用していた場合、次のように言えます。
config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)
または、GPU メモリの使用量にハード キャップを設定するには、次のようにします。
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
Slim に同じことを伝えるにはどうすればよいですか?
私の理解の失敗は、スリムが独自のループを使用しているように見え、ループの設定の核心に関するドキュメントが見つからないことです。だから、たとえ誰かが私に良い Slim ドキュメントを教えてくれたとしても、それは素晴らしいことだ.
前もって感謝します!