私は最近、文の埋め込みに 3 つの異なる埋め込みレイヤーを使用するこの論文End-To-End Memory Networks を読みました。今、私はこのアーキテクチャを keras で再現しようとしています。
しかし、3 つの異なる埋め込みを作成する方法がわかりません。これらは、同じコーパスに基づくまったく同じ次元ですが、埋め込みには異なる値が必要です。このレイヤーを実装するには、Embedding Layersを使用する必要がありkernel_initializer =random_uniform
ますか?
Word2Vec のような事前トレーニング済みの埋め込みは知っていますが、現在、事前トレーニング済みのモデルは重要ではありませんか?