1

私は単語の埋め込みに取り組んでおり、単語ベクトルの次元数について少し混乱しています。つまり、word2vec を例にとると、私の質問は、なぜ隠れ層に 100 個の隠れニューロンを使用する必要があるのか​​ということです。この数字には何か意味や論理がありますか? または任意の場合、300ではないのはなぜですか? または10?多かれ少なかれなぜですか?ベクトルを表示する最も簡単な方法は 2 次元空間 (X と Y のみ) であることが知られていますが、なぜそれ以上の次元があるのでしょうか? 私はそれについていくつかのリソースを読みましたが、ある例では 100 次元を選択し、別の例では 150、200、80 などの他の数値を選択しています。

数値が大きいほど、単語間の関係を表示するスペースが大きいことはわかっていますが、2 次元のベクトル空間 (X と Y のみ) では関係を表示できなかった?! なぜより大きなスペースが必要なのですか?各単語はベクトルで表示されるのに、2 次元または 3 次元空間でベクトルを表示できるのに、なぜ高次元空間を使用する必要があるのでしょうか? そして、余弦などの類似性手法を使用して、100 ではなく 2 次元または 3 次元で類似性を見つける方が簡単です (計算時間の観点から) ですよね?

4

1 に答える 1