既知のパラメーター (y,x) と未知数 (a,b) の間に y=ax^b のような関係がある場合、2 つの未知の出力を持つニューラル ネットワークの教師ありトレーニングが可能です。ここで(a、b)はネットワークの出力です!!!
1 に答える
1
普遍的な近似定理の直接的な結果は、次元の超立方体のコンパクトなサブセットからの任意の連続関数を、指定された誤差範囲 で標準のフィード フォワード ニューラル ネットワークで近似できることです。R^d
k
eps
つまり、簡単に言えば、実際にはすべての関数をニューラル ネットワークを使用してトレーニングすることができます。これは、実際には、どのアルゴリズムでも実際にこれを行うという意味ではありません (これは純粋に存在証明であり、「どこを見ればよいか」という直感はありません)。
あなたの質問が「私の機能に近似するネットワークをトレーニングすることは可能ですか?」答えは「はい」です。質問が「ニューラル ネットワークで自分の関数を正確に表現することは可能ですか」の場合、答えは「はい」ですが、カスタムのアクティベーション関数が与えられます。
于 2013-09-15T13:55:20.987 に答える