特別な単語埋め込みを使用して LSTM を構築したいと考えていますが、これがどのように機能するかについていくつか質問があります。
ご存知かもしれませんが、一部の LSTM は文字を操作するため、文字を入力して文字を出力します。単語を抽象化して、ネストされた LSTM を使用して堅牢な埋め込みを学習し、わずかな文字レベルのエラーに耐性があるようにして、同じことをしたいと思います。
したがって、小さな LSTM が単語のすべての文字を展開し、これにより単語の埋め込みが作成されます。文に埋め込まれた各単語は、高レベルの LSTM への入力として供給されます。LSTM は、文字ではなく、すべての時間ステップで単語レベルで動作します。
質問: - それについて述べた研究論文はもう見つかりません。私が話していることを知っているなら、私がやりたいことに名前を付けたいと思います. - そのための TensorFlow オープンソース コードはすでに存在しますか? -それ以外に、それを実装する方法についてのアイデアはありますか? ニューラル ネットワークの出力は、処理が難しくなる可能性があります。出力が入れ子になった LSTM を使用して文字のトレーニングを行うには、単語の埋め込みを元に戻す必要があるからです。全体を 1 つのユニットとして 1 回トレーニングする必要があります (ワークフロー: LSTM chars in、LSTM on words、LSTM chars out)。
rnn_cell.MultiRNNCell
LSTMをネストするのではなく、互いの上に積み重ねると思います。
そうでなければ、メインの LSTM の外側のオートエンコーダーとして埋め込み (インとアウト) をトレーニングすることをお勧めしますか?