これは、GPU メモリが少ない PyTorch ユーザーにとってかなり一般的なメッセージだと思います。
RuntimeError: CUDA out of memory. Tried to allocate MiB (GPU ; GiB total capacity; GiB already allocated; MiB free; cached)
授業でオブジェクト検出アルゴリズムを研究したいと考えています。また、多くのディープ ラーニング アーキテクチャは大容量の GPU メモリを必要とするため、私のマシンではそれらのモデルをトレーニングできません。各レイヤーを GPU にロードしてからロードし直すことで、画像を処理しようとしました。
for m in self.children():
m.cuda()
X = m(X)
m.cpu()
torch.cuda.empty_cache()
しかし、あまり効果がないようです。GPU メモリをほとんど使用せずに大規模なディープ ラーニング モデルをトレーニングするためのヒントやコツはあるのでしょうか。前もって感謝します!
編集:私は深層学習の初心者です。ダミーの質問でしたら申し訳ありません:)