異なるコーパスで 2 つの word2vec/GLoVe モデルをトレーニングしてから、1 つの単語のベクトルを比較したいと考えています。さまざまなモデルがさまざまなランダムな状態で開始されるため、そうする意味がないことはわかっていますが、事前にトレーニングされた単語ベクトルを開始点として使用するとどうなるでしょうか。2 つのモデルが、それぞれのドメイン固有の知識を組み込むことによって、事前にトレーニングされたベクトルに基づいて構築され続け、完全に異なる状態に移行しないと仮定できますか?
この問題について議論している研究論文をいくつか見つけようとしましたが、何も見つかりませんでした。