問題タブ [markov-decision-process]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 予知保全における MDP
予知保全の分野で、強化学習、マルコフ決定プロセスのサンプル python 実装を探しています。
私は自分で試してみましたが、異なるドメインに関連するサンプルを見つけたか、役に立たないものを見つけました。
私はこれが初めてです。予知保全における MDP の実装例を共有していただけると、非常に助かります。
r - if (temp < vmin) { のエラー: 引数の長さがゼロです
いくつかの制御問題に対して、マルコフ連鎖近似をコーディングしようとしています。しかし、R に次のバグがあり、Stackoverflow で同様の質問を確認しましたが、解決方法がわかりません。どんな助けでも大歓迎です。
バグは、for ループ内のすべての 'u' の中で最小値を見つけたいところから来ています。
具体的には、uit-for-loop
次のそれぞれについてuit
、新しい単一の値を取得でき(私は思った)temp
、これを単一の値変数によって保存された一時的な最小値と比較したいと思いますvmin
。if-else
それが文中の考え方です。
パラメータの設定と初期化の手順は省略した方がよいでしょう。
reinforcement-learning - 未来予測結果を強化学習の状態に追加できないか
ddpg のように、(s, a, r, s_next) を保存します。s_next の予測結果を s に入れることができますか? MDPに違反していますか