サイズ8000x(32x32x3画像)のトレーニングとサイズ2000x(同じサイズの画像)のテストで構成される分類用のデータセットがあります。
車両と背景を区別するという非常に単純な作業を行っています。cross_entropy をコスト関数として使用しています。
私が使用しているネットは、最初のフィルターのサイズが 1x ではなく 3x であることを除いて、 DeepMNISTで使用されているものとほぼ同じです。乗り物かそうでないか。この比較的単純なタスクの結果を見て、私は自分自身にいくつかの質問をするようになりました:
-まず、十分な大きさのバッチ サイズ (>200) を使用しないと、2 つのセットでほぼ毎回精度 62% (ローカル最適値) でスタックしますが、これは私のニーズには十分ではありません。
-第二に、適切なバッチ サイズと学習率で適切なオプティマイザー Adam を使用するたびに、92% まで上がりますが、出力は常に [0.999999999 0.000000000001] のように非常に気がかりなほど良好です。
タスクが難しいため、これは発生しないはずです。
したがって、ヒートマップを作成するために完全に畳み込みを行うと、飽和のためにほぼすべての場所で 1.000001 が得られました。
私は何を間違っていますか?ホワイトニングで問題は解決すると思いますか?バッチ正規化? 他の何か?私は何に直面していますか?