私は興味深い機械学習の問題に取り組んでおり、次のことを処理するための優れたアルゴリズムを誰かが知っているかどうかを知りたいです:
- アルゴリズムは、 N 個の入力とM 個の出力の関数を近似することを学習する必要があります
- N は非常に大きく、たとえば1,000 ~ 10,000
- M は非常に小さく、たとえば5 ~ 10です。
- すべての入力と出力は浮動小数点値であり、正または負の可能性があり、絶対値が比較的小さい可能性がありますが、境界の絶対的な保証はありません
- 期間ごとに、N 個の入力を取得し、M 個の出力を予測する必要があります。期間の終わりに、M 個の出力の実際の値が提供されます (つまり、これは学習をオンラインで行う必要がある教師あり学習の状況です) 。
- 基になる関数はnon-linearですが、それほど厄介ではありません (たとえば、ほとんどの入力空間で滑らかで連続的であると期待しています)
- 関数には少量のノイズがありますが、信号/ノイズは良好である可能性が高く、N 個の入力が出力値の 95%+ を説明すると予想されます
- 基礎となる機能は時間の経過とともにゆっくりと変化しています- 単一の期間で劇的に変化する可能性は低いですが、数千の期間にわたってわずかに変化する可能性があります
- (関数の変更以外に)心配する隠れた状態はありません。つまり、必要なすべての情報は N 入力にあります。
私は現在、多くの隠しノードを備えたある種のバックプロパゲーション ニューラル ネットワークが機能する可能性があると考えていますが、それは本当にこの状況に最適なアプローチであり、変化する関数を処理しますか?