2

20 クラスのトレーニング セットを使用して、事前トレーニング済みのモデルを微調整しようとしました。重要なことは、20 個のクラスがありますが、1 つのクラスがトレーニング イメージの 1/3 を構成するということです。私の損失が減らず、テストの精度がほぼ 30% になっているのはそのためですか?

アドバイスありがとうございます

4

2 に答える 2

4

同様の問題がありました。ニューラル ネットワークの重みの初期値の分散を大きくすることで解決しました。これは、ニューラル ネットワークの事前調整として機能し、バックプロップ中に重みが消滅するのを防ぎます。

Jenny Orr 教授のコースでニューラル ネットワークの講義に出くわし、非常に有益であることがわかりました。(Jenny は、初期の頃に Yann LeCun および Leon Bottou とニューラル ネットワーク トレーニングに関する多くの論文を共著していたことに気づきました)。

それが役に立てば幸い!

于 2016-07-23T16:25:56.237 に答える