seq2seq タスクで既存の単語単位ではなく文字単位を使用できるようにするには、tensorflow の既存の seq2seq モデルにどのような変更が必要ですか? そして、これは予測的な ext アプリケーションに適した構成でしょうか?
このタスクでは、次の関数シグネチャを変更する必要がある場合があります。
def embedding_rnn_seq2seq(encoder_inputs, decoder_inputs, cell,
num_encoder_symbols, num_decoder_symbols,
output_projection=None, feed_previous=False,
dtype=dtypes.float32, scope=None):
入出力語彙の削減とは別に、そのような文字レベルの seq2seq モデルを実装するには、他にどのようなパラメーターの変更が必要になるでしょうか?