問題タブ [attention-model]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
0 に答える
322 参照

tensorflow - ビデオシーケンスのゼロからのソフトアテンション

ビデオ シーケンスの分類にソフト アテンションを実装しようとしています。NLP には多くの実装と例があるため、このスキーマに従ってみましたが、ビデオ1については. 基本的に、Attention Model を間に挟んだ LSTM です。 ここに画像の説明を入力

1 https://blog.heuritech.com/2016/01/20/attention-mechanism/

注意層のコードは次のとおりで、正しく実装されているかどうかはわかりません。

したがって、このレイヤーを LSTM の間 (または 2 つの LSTM の最初) に追加すると、トレーニングが非常に遅くなります。より具体的には、オプティマイザーを宣言するときに多くの時間がかかります。

私の質問は次のとおりです。

  1. 実装は正しいですか?もしそうなら、適切にトレーニングするために最適化する方法はありますか?
  2. seq2seq API で動作させることができませんでした。この特定の問題に取り組むことができる Tensorflow の API はありますか?
  3. これをシーケンス分類に使用することは実際に意味がありますか?