0

LSTM を使用した Sequence-to-Sequence Modeling for Language Translation ブログに取り組んでいます。しかし、次のコード行を理解できません。なぜ 5 行目に == 1.0 を入れて t+1 を行っているのでしょうか?

for i, (input_text, target_text) in enumerate(zip(input_texts, target_texts)):
    for t, char in enumerate(input_text):
        encoder_input_data[i, t, input_token_index[char]] = 1.0
    encoder_input_data[i, t + 1 :, input_token_index[" "]] = 1.0
    for t, char in enumerate(target_text):
        # decoder_target_data is ahead of decoder_input_data by one timestep
        decoder_input_data[i, t, target_token_index[char]] = 1.0
        if t > 0:
            # decoder_target_data will be ahead by one timestep
            # and will not include the start character.
            decoder_target_data[i, t - 1, target_token_index[char]] = 1.0
    decoder_input_data[i, t + 1 :, target_token_index[" "]] = 1.0
    decoder_target_data[i, t:, target_token_index[" "]] = 1.0

インターネットで検索していますが、これがわかりません。誰かが私を助けることができれば、それは大きな助けになります。

「データの準備」セクションに、このコード行があります。

ブログのリンク: https://keras.io/examples/nlp/lstm_seq2seq/

4

0 に答える 0