1

私は現在、GAN 構造である Pix2Pix アルゴリズムを実装しようとしていますが、ディスクリミネーターの収束とジェネレーターの出力画像にいくつかの問題があります...

1) 収束問題 :

弁別器がまったく収束していないようです。ジェネレーターの損失を印刷すると、非常にうまく機能しているようです。 発電機損失 しかし、ディスクリミネーターの損失を印刷すると、次のプロットが表示されます。 転覆

またはより正確には: 損失ディス

そのような行動の考えられる理由は何か知っていますか? 弁別器の学習を安定させるにはどうすればよいですか?

2) 色収差

生成された画像にもいくつか問題があります。確かに、私はしばしば色の合計彩度を持っています.印刷されたオブジェクトには、そのような色が1つしかありません: ここに画像の説明を入力

解決策は、たとえば200ステップごとに弁別器をトレーニングするようです。この場合、次のようなものを取得します。 ここに画像の説明を入力

でも、全然満たされない…。

(正確には、最初の列はジェネレーターの入力、2 番目の列はジェネレーターの出力、3 番目の列はターゲット画像です。今のところ、ネットワークで同じ画像を再現しようとしているだけです...簡単なはず…)

NB : 初期化も色に対して非常に重要な役割を果たしているようです。実際、まったく同じパラメーターを使用して、何千もの手順を経て実際に異なる結果が得られました。

誰かがこれらの現象を説明するアイデアを持っていますか?

あなたの読書とあなたの潜在的な助けに感謝します!

4

0 に答える 0