私は、このモデルの違いがここで説明されていることを理解しようとしています。次のモデルです。
from keras.layers import Input, LSTM, RepeatVector
from keras.models import Model
inputs = Input(shape=(timesteps, input_dim))
encoded = LSTM(latent_dim)(inputs)
decoded = RepeatVector(timesteps)(encoded)
decoded = LSTM(input_dim, return_sequences=True)(decoded)
sequence_autoencoder = Model(inputs, decoded)
encoder = Model(inputs, encoded)
ここで説明するシーケンスからシーケンスへのモデルは 2 番目の説明です
違いはなんですか ?最初のものには RepeatVector がありますが、2 番目にはそれがありませんか? 最初のモデルは、デコーダの隠れ状態を予測の初期状態として使用していませんか?
1 番目と 2 番目のものについて説明している論文はありますか?