問題タブ [keras-rl]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - dqn がうまく機能しない: 報酬が変わらず、損失が増え続けている
gym-retro と keras-rl の DQNAgent で Gradius をトレーニングしようとしているのですが、うまくいきません。報酬は増加せず、損失は増加し続けます。何が悪いのか理解できません。
出力の一部を以下に示します。
プログラムは私の大学のサーバーで実行されており、サーバーを SSH で接続しています。
「ピップフリーズ」の結果は次のとおりです。
最初の conv2d レイヤーに何か問題があるのではないかと疑っています。おそらく SequentialMemory の window_length に関連しています。最初の conv2d レイヤーが正しく取得または畳み込まれないと考えています。そのため、CustomProcessor クラスの process_state_batch でバッチをソートしました。しかし、問題は解決されませんでした。
私が書いたすべてはここにあります。
PS:
これらの解決策を試しました。1、maxpooling レイヤーと密なレイヤーを追加します。 2、グラデーション クリッピングを使用します。 3、Adam の rl を下げますが、それでも機能しません。コードは以下です。