私は個人的にニューラル ネットワークの理論を研究していて、いくつか質問を受けました。
多くの本や参考文献では、隠れ層の活性化関数にハイパータンジェント関数が使われていました。
本は、tanh関数の線形結合が与えられた誤差で関数のほぼすべての形状を記述できるという本当に単純な理由を思いついた.
しかし、質問が来ました。
- これが tanh 関数が使用される本当の理由ですか?
- もしそうなら、それが tanh 関数が使用される唯一の理由ですか?
- もしそうなら、tanh関数はそれを行うことができる唯一の関数ですか?
- そうでない場合、本当の理由は何ですか? ...
私はここに在庫があると考え続けています...この精神的な(?...)トラップから私を助けてください!