2

多層ニューラル ネットワークをトレーニングする場合、効果的に学習するにはシグモイド活性化関数を使用する必要があります。

層パーセプトロンをトレーニングするときにシグモイド活性化関数を使用する利点はありますか、または単純なステップ (ヘビサイド) 関数で十分 (または望ましい) ですか?

私はゆっくりとニューラルネットワークについて頭を悩ませていますが、これに関する助けをいただければ幸いです。

4

1 に答える 1

3

はい、利点があります。結果は 0 から 1 の間であり、YES または NO である必要はなく、MAYBE でもあります。ニューロンが 1 つのモデルの場合でも、非ステップの活性化関数を使用する方が適切です。

必要な場合は、出力がどのように読み取られるかによって異なります。バイナリ (YES、NO) 値、またはその中間が必要ですか?

シグモイド関数を使用したくない場合は、線形関数も使用できると思います。

于 2009-02-05T12:18:35.453 に答える