言語モデルを作成しようとしています。私はlogitサイズのターゲットを持っています:[32, 312, 512]
どこ:
.shape[0]はbatch_size.shape[1]はsequence_max_len.shape[2]はvocabulary size
問題は、次のように損失関数logitに渡すときです。target
self.loss = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(
logits=self.logit, labels=self.y))
現在のバッチの適切な損失を計算しますか? または、次の形状を表現するために形状を変更するlogit必要があります: ?target[32, 312*512]
よろしくお願いします。