上の画像データセットで使用finetuningしています。を使用すると、、、、、 が減少し、反復が開始されます。これは非常に優れています。CaffeTesla K40batch size=47solver_type=SGDbase_lr=0.001lr_policy="step"momentum=0.9gamma=0.1training losstest accuracy2%-50%100
RMSPROP、 、などの他のオプティマイザを使用するADAMとADADELTA、はほぼ同じままで、反復後training lossも改善されません。test accuracy1000
については、ここでRMSPROP述べたようにそれぞれのパラメータを変更しました。
については、ここでADAM述べたようにそれぞれのパラメータを変更しました
については、ここでADADELTA述べたようにそれぞれのパラメータを変更しました
誰かが私が間違っていることを教えてもらえますか?