2

このブログの次のコードを見ています

sigmoidtanhアクティベーション機能の両方を使用するオプションを提供します。

XOR テストは、tanh関数 yield で問題なく動作するようです ~(0,1,1,0)

しかし、に変更するsigmoidと、間違った出力が得られます〜(0.5,0.5,0.5,0.5)

オンラインで見つけた別のコードでこれを試してみましたが、まったく同じ問題が発生します。

唯一の変更点は、活性化関数 (およびその導関数) のようです。これを変更するには、バックプロパゲーションなど、他の変更が必要ですか?

助けてくれてありがとう!

4

1 に答える 1

0

使用しているモデルはバイアスをトレーニングしていないようです。との唯一の違いはtanhsigmoidスケーリングとオフセットです。新しいスケーリングの学習は重みによって行われますが、新しいオフセットを補正することも学習する必要があります。これは、バイアスも学習することによって行う必要があります。

于 2016-09-07T06:11:26.973 に答える