0

sequence-to-sequence コードのサンプル TensorFlow コードの seq2seq_model.py コードでアテンション マスクを計算するために使用される Attention() メソッドは、デコード中に呼び出されないようです。

これを解決する方法を知っている人はいますか?ここで同様の質問が提起されました: Tensorflowで注意活性化を視覚化する 、しかし、デコード中にマトリックスを取得する方法は明確ではありません。

ありがとう!

4

1 に答える 1

0

なぜマスクが必要なのですか?視覚化するだけの場合は、テンソルを渡してセッション実行でフェッチする必要があるかもしれません。

于 2016-12-20T11:15:09.670 に答える