私はニューラル ネットワークに不慣れで、問題を把握するために、基本的なフィードフォワード MLP を実装しました。現在、逆伝播によってトレーニングしています。より洗練されたより良い方法があることは承知していますが、Introduction to Machine Learningでは、1 つまたは 2 つのトリックを使用すると、基本的な勾配降下法が現実世界のデータから学習するのに効果的であることが示唆されています。トリックの 1 つは適応学習率です。
考え方としては、誤差が小さくなると学習率を定数 a だけ増やし、誤差が大きくなると学習率の分数bだけ減らすというものです。したがって、基本的に学習率の変化は次のように決定されます。
+(a)
正しい方向に学習している場合
-(b * <learning rate>)
私たちが学習を台無しにしている場合。ただし、上記の本には、これらのパラメーターの設定方法に関するアドバイスはありません。パラメーターの調整はそれ自体が全体のトピックであるため、正確な提案は期待できませんが、少なくともその大きさについてのヒントにすぎません。何か案は?
ありがとう、
トゥヌズ