問題タブ [attention-model]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - ビデオシーケンスのゼロからのソフトアテンション
ビデオ シーケンスの分類にソフト アテンションを実装しようとしています。NLP には多くの実装と例があるため、このスキーマに従ってみましたが、ビデオ1については. 基本的に、Attention Model を間に挟んだ LSTM です。
1 https://blog.heuritech.com/2016/01/20/attention-mechanism/
注意層のコードは次のとおりで、正しく実装されているかどうかはわかりません。
したがって、このレイヤーを LSTM の間 (または 2 つの LSTM の最初) に追加すると、トレーニングが非常に遅くなります。より具体的には、オプティマイザーを宣言するときに多くの時間がかかります。
私の質問は次のとおりです。
- 実装は正しいですか?もしそうなら、適切にトレーニングするために最適化する方法はありますか?
- seq2seq API で動作させることができませんでした。この特定の問題に取り組むことができる Tensorflow の API はありますか?
- これをシーケンス分類に使用することは実際に意味がありますか?