問題タブ [seq2seq]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
deep-learning - バッチマトリックスマトリックス製品を行うのはなぜですか?
私はPytorch seq2seq チュートリアルに従っており、そのtorch.bmm
メソッドは以下のように使用されます:
注意の重みとエンコーダーの出力を乗算する必要がある理由を理解しています。
bmm
私がよく理解していないのは、ここでメソッド
が必要な理由です。torch.bmm
文書によると
バッチ 1 とバッチ 2 に格納されている行列のバッチ行列行列積を実行します。
batch1 と batch2 は、それぞれが同じ数の行列を含む 3 次元テンソルでなければなりません。
batch1 が (b×n×m) テンソル、batch2 が (b×m×p) テンソルの場合、out は (b×n×p) テンソルになります。
deep-learning - pytorch seq2seq エンコーダー forward メソッド
私はPytorch seq2seq チュートリアルに従っており、以下はエンコーダー関数の定義方法です。
forward
ただし、トレーニング中にメソッドが実際に呼び出されることはないようです。
チュートリアルでエンコーダーの forward メソッドがどのように使用されているかを次に示します。
encoder.forward
ただの代わりになるはずではありませんencoder
か?私が認識していない Pytorch の自動「転送」メカニズムはありますか?
tensorflow - tensorflow( tf.reverse(inputs,[-1])) で seq2seq モデルをフィードするときに入力を逆にするのはなぜですか?
テンソルフローで seq2seq モデルをフィードするときに入力を逆にするのはなぜですか ( tf.reverse(inputs,[-1])
)