pytorch では、後の計算のためにすべてのエポックで出力を保存したいと考えています。しかし、それはいくつかのエポックの後に OUT OF MEMORY ERROR につながります。コードは次のようになります。
L=[]
optimizer.zero_grad()
for i, (input, target) in enumerate(train_loader):
output = model(input)
L.append(output)
*** updata my model to minimize a loss function. List L will be used here.
その理由は、pytorch がすべてのエポックからすべての計算グラフを保存するためだとわかっています。ただし、損失関数は、すべての予測結果を取得した後にのみ計算できます
モデルをトレーニングする方法はありますか?