上の画像データセットで使用finetuning
しています。を使用すると、、、、、 が減少し、反復が開始されます。これは非常に優れています。Caffe
Tesla K40
batch size=47
solver_type=SGD
base_lr=0.001
lr_policy="step"
momentum=0.9
gamma=0.1
training loss
test accuracy
2%-50%
100
RMSPROP
、 、などの他のオプティマイザを使用するADAM
とADADELTA
、はほぼ同じままで、反復後training loss
も改善されません。test accuracy
1000
については、ここでRMSPROP
述べたようにそれぞれのパラメータを変更しました。
については、ここでADAM
述べたようにそれぞれのパラメータを変更しました
については、ここでADADELTA
述べたようにそれぞれのパラメータを変更しました
誰かが私が間違っていることを教えてもらえますか?