20 クラスのトレーニング セットを使用して、事前トレーニング済みのモデルを微調整しようとしました。重要なことは、20 個のクラスがありますが、1 つのクラスがトレーニング イメージの 1/3 を構成するということです。私の損失が減らず、テストの精度がほぼ 30% になっているのはそのためですか?
アドバイスありがとうございます
20 クラスのトレーニング セットを使用して、事前トレーニング済みのモデルを微調整しようとしました。重要なことは、20 個のクラスがありますが、1 つのクラスがトレーニング イメージの 1/3 を構成するということです。私の損失が減らず、テストの精度がほぼ 30% になっているのはそのためですか?
アドバイスありがとうございます
同様の問題がありました。ニューラル ネットワークの重みの初期値の分散を大きくすることで解決しました。これは、ニューラル ネットワークの事前調整として機能し、バックプロップ中に重みが消滅するのを防ぎます。
Jenny Orr 教授のコースでニューラル ネットワークの講義に出くわし、非常に有益であることがわかりました。(Jenny は、初期の頃に Yann LeCun および Leon Bottou とニューラル ネットワーク トレーニングに関する多くの論文を共著していたことに気づきました)。
それが役に立てば幸い!