4

私はここで少し混乱しています。私はニューラルネットワークのテーマから始めたばかりで、最初に構築したものは、各ニューロンにしきい値を設定したステップアクティベーションを使用しました。今、私はシグモイド活性化を実装したくありませんが、このタイプの活性化はしきい値を使用せず、ニューロン間の重みのみを使用しているようです。しかし、これについて私が見つけた情報には、しきい値の単語があり、活性化関数のどこにあるべきかを見つけることができないのは私だけです。

ニューラルネットワークのシグモイド活性化関数でしきい値が使用されていますか?

4

3 に答える 3

5

シグモイド関数の値はの範囲内[0;1]にあり、その値が、であると仮定した場合0.5、しきい値として使用されます。h(theta) < 0.50h(theta) >= 0.51

しきい値は、ネットワークの出力層でのみ使用され、分類する場合にのみ使用されます。したがって、4つのクラスに分類しようとしている場合、出力レイヤーには4つのノードがあり、このしきい値を使用してまたはy = [y1,y2,y3,y4]を割り当てます。y[i] 10

于 2012-09-13T11:56:19.757 に答える
5

ステップアクティベーションのように個別のジャンプはありません。しきい値は、シグモイド関数が0.5になるポイントと見なすことができます。一部のシグモイド関数ではこれが0になりますが、一部の関数では別の「しきい値」に設定されます。

ステップ関数は、急勾配が無限大に設定されたシグモイド関数のバージョンと考えることができます。この場合、明らかなしきい値があり、急勾配でないシグモイド関数の場合、しきい値は、関数の値が0.5、つまり最大急勾配のポイントであると見なすことができます。

于 2012-09-13T12:18:02.773 に答える
1

する必要はありません。シグモイド曲線自体は、部分的にしきい値として機能します。

于 2012-09-13T12:17:38.217 に答える