RBM で整流器や連続入力などを扱う場合は、バイナリ以外のさまざまな種類の隠れユニットを使用する必要があることを理解しています。教師あり深層学習の開始点として RBM が使用されているとします。tanh 活性化はどうでしょうか。バイナリ シグモイド RBM をフィッティングし、訓練された重みを tanh-activation-function ニューラル ネットワークの開始点として使用できますか? 基本的に、tanh はバイナリ RBM にある再スケーリングされた sigm ですが、実行可能だと思いますか? もしそうなら、どのように正確ですか?
ありがとう