出力が確率 ([0, 1] 区間) を表す単なる実数値であるニューラル ネットワーク (フィード フォワード ネットワークなど) をトレーニングします。最後の層 (つまり、出力ノード) にはどのアクティベーション関数を使用すればよいですか?
活性化関数を使用せずに出力tf.matmul(last_hidden_layer, weights) + biases
するだけの場合、負の出力が得られる可能性がありますが、これは受け入れられません。出力は確率であり、予測も確率である必要があるためです。tf.nn.softmax
またはモデルを使用するtf.nn.softplus
と、テスト セットで常に 0 が返されます。なにか提案を?