次の TensorFlow 関数では、最終層で人工ニューロンの活性化をフィードする必要があります。私は理解しています。しかし、なぜロジットと呼ばれるのかわかりませんか?それは数学関数ではありませんか?
loss_function = tf.nn.softmax_cross_entropy_with_logits(
logits = last_layer,
labels = target_output
)
次の TensorFlow 関数では、最終層で人工ニューロンの活性化をフィードする必要があります。私は理解しています。しかし、なぜロジットと呼ばれるのかわかりませんか?それは数学関数ではありませんか?
loss_function = tf.nn.softmax_cross_entropy_with_logits(
logits = last_layer,
labels = target_output
)
分類モデルが生成する生の (正規化されていない) 予測のベクトルで、通常は正規化関数に渡されます。モデルがマルチクラス分類問題を解決している場合、ロジットは通常、softmax 関数への入力になります。次に、softmax 関数は、可能なクラスごとに 1 つの値を持つ (正規化された) 確率のベクトルを生成します。
さらに、ロジットは、シグモイド関数の要素ごとの逆関数を指す場合があります。詳細については、tf.nn.sigmoid_cross_entropy_with_logits を参照してください。