言語モデルを作成しようとしています。私はlogit
サイズのターゲットを持っています:[32, 312, 512]
どこ:
.shape[0]
はbatch_size
.shape[1]
はsequence_max_len
.shape[2]
はvocabulary size
問題は、次のように損失関数logit
に渡すときです。target
self.loss = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(
logits=self.logit, labels=self.y))
現在のバッチの適切な損失を計算しますか? または、次の形状を表現するために形状を変更するlogit
必要があります: ?target
[32, 312*512]
よろしくお願いします。