-1

Generative Adversarial Neural (GAN) のジェネレーター モデルの初期ランダム ベクトルを生成するために、100 などの任意の方法でベクトルのサイズを定義できる単位分散とゼロ平均を持つガウスまたは一様事前分布と共に線形補間が頻繁に使用されます。

トレーニング用に 1000 個の画像があり、バッチ サイズが 64 であるとします。次に、各エポックで、与えられた小さなバッチの各画像に対応する事前分布を使用して、多数のランダム ベクトルを生成する必要があります。しかし、私が見る問題は、ランダムベクトルと対応する画像の間にマッピングがないため、複数の初期ランダムベクトルを使用して同じ画像を生成できることです。この論文では、異なる球面補間をある程度まで使用することで、この問題を克服することを提案しています。

では、最初にトレーニング画像の数に対応するランダム ベクトルを生成し、モデルをトレーニングするときに、最初に生成された同じランダム ベクトルを使用するとどうなるでしょうか?

4

1 に答える 1

1

GAN では、入力として使用されるランダム シードは、実際には実際の入力画像には対応しません。GAN が実際に行うことは、既知のノイズ分布 (ガウス分布など) から iid サンプル (トレーニング セットなど) で表される複雑な未知の分布への変換関数を学習することです。GAN のディスクリミネーターが行うことは、生成されたデータ (変換されたガウス分布など) と実際のデータ (トレーニング データ) の間の発散 (ワッサースタイン発散、KL 発散など) を計算することです。これは確率的に行われるため、本物のデータと偽のデータの間にリンクは必要ありません。実践的な例でこれについて詳しく知りたい場合は、Wasserstein GAN をトレーニングして、ある 1D ガウス分布を別のガウス分布に変換することをお勧めします。

とにかく、あなたの論文があなたに伝えようとしているのは、GANを訓練し、生成されたデータを既知のノイズ空間から未知の画像空間にどのようにマッピングしたかを見たいということです. このため、引用している球面のような補間スキームが発明されました。また、GAN が潜在空間の一部を笑顔などの画像の重要な特徴にマッピングすることを学習したことも示しています。しかし、これは GAN のトレーニングとは何の関係もありません。

于 2018-05-23T10:15:25.963 に答える