このウェブサイトから注目して、seq-to-seq モデルを実装する方法を理解しようとしています。
私の質問: nn.embedding は単語ごとにいくつかの ID を返すだけなので、各単語の埋め込みはトレーニング全体で同じになりますか? それとも、トレーニングの過程で着替えていますか?
私の 2 番目の質問は、トレーニング後に nn.embedding の出力が word2vec 単語埋め込みなどであるかどうかについて混乱しているためです。
前もって感謝します
このウェブサイトから注目して、seq-to-seq モデルを実装する方法を理解しようとしています。
私の質問: nn.embedding は単語ごとにいくつかの ID を返すだけなので、各単語の埋め込みはトレーニング全体で同じになりますか? それとも、トレーニングの過程で着替えていますか?
私の 2 番目の質問は、トレーニング後に nn.embedding の出力が word2vec 単語埋め込みなどであるかどうかについて混乱しているためです。
前もって感謝します