1

このウェブサイトから注目して、seq-to-seq モデルを実装する方法を理解しようとしています。

私の質問: nn.embedding は単語ごとにいくつかの ID を返すだけなので、各単語の埋め込みはトレーニング全体で同じになりますか? それとも、トレーニングの過程で着替えていますか?

私の 2 番目の質問は、トレーニング後に nn.embedding の出力が word2vec 単語埋め込みなどであるかどうかについて混乱しているためです。

前もって感謝します

4

1 に答える 1