問題タブ [batch-normalization]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
keras - keras を使用したバッチ正規化による dnn のレイヤーに関する理論的な質問
バッチ正規化を使用した DNN のモデル、特に keras を使用したモデルを理解するのに苦労しています。私が構築したこのモデルの各層の構造と内容を誰か説明してもらえますか?
これは、私のモデルのすべてのレイヤーだと思います。
よろしくお願いします。
python - Tensorflow - バッチサイズに依存する予測出力
Tensorflow で Generative Adversarial Network を実装しました。テスト時に生成された画像は、トレーニング中に使用したのと同じ batch_size (64) を使用して生成した場合、非常に良好です。一度に 1 つの画像を生成すると、結果は恐ろしいものになります。
考えられる原因は 2 です。
- バッチ正規化?
- 動的バッチサイズを取得するための tf.shape の間違った使用法
これが私のコードです: