分類タスクを実行するニューラル ネットワークがありますが、トレーニング セットが十分に大きい場合はかなりうまく機能します。
ただし、一度に1 つのラベル付きの例でNN をトレーニングする方法を探しています。
つまり、一度に 1 つの例でデータをインターセプトし、NN の重みを更新する必要があります。将来のバッチ トレーニングの目的でデータを保存することは許可されていません。
オクターブでフィードフォワードNNを構築しました(CourseraのスタンフォードのMLコースに従います)。それぞれの新しい例を使用して NN で back-prop を実行できますが、そのアプローチは信頼性に欠けて収束し、かなりの時間がかかります。
ニューラル ネットワークのコンテキストでオンライン学習のためのより効率的なアルゴリズムは他にありますか?
Matlab のadapt()関数がまさにこれを行っているように見えることに気付きました。ドキュメントは、舞台裏で何をしているのかを指定していません。back-prop の反復は 1 回だけですか?