連続出力変数に関する 1 つの問題を調査するために、ニューラル ネットワークを構築しようとしています。使用したニューラル ネットワークの概略図を以下に示します。
ニューラル ネットワークの概略図: 入力層サイズ = 1; 隠れ層のサイズ = 8; 出力レイヤー サイズ = 1。
この場合、sigmoid() アクティベーション関数の代わりに tanh() アクティベーション関数を使用する必要がある理由はありますか? 以前、ニューラル ネットワークを使用してロジスティック回帰問題を解決するために sigmoid() アクティベーション関数を使用していましたが、連続出力変数がある場合に tanh() 関数を使用する必要があるかどうかは明確ではありません。
連続出力変数の値に依存しますか? 例: (i) 出力変数が 0 から 1 に正規化される場合は sigmoid() を使用します。 (ii) 出力変数が負の値を持つ場合は tanh() を使用します。
前もって感謝します