問題タブ [ray]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ray - rllib (Ray) のカスタム環境でトレーニングされたアクターを評価するには?
SimpleCorridorの例に従って、独自の環境を作成し、モデルをトレーニングできます! 良い。しかし、このトレーニング済みモデルを評価しようとすると、rllib はカスタム環境を認識しません。
カスタム環境でトレーニング済みモデルを評価するにはどうすればよいですか?
ここrllib rollout ...
で提案されているように使用すると、カスタム環境であるため、環境が認識されません。私は自分のファイル内のプロジェクトでそれを呼び出すことができるように、関数を持っていることを望んでいました。run_experiments
evaluate_experiment
それが問題です。私のcuston_envを見たい場合はこれです
現在、環境をコピーしてgym/envs/
パッケージ ディレクトリ内に貼り付け、__init__.py
ファイルに登録する必要があります。
これを行う別の方法を見るのは良いことです
ありがとう
ray - ワーカーごとに 1 つの環境を使用して環境を並行してステップ実行する方法は?
それぞれが Ray を実行する Docker コンテナーで構成されるシステムを構築しました。1 つのコンテナーがヘッドの役割を果たし、他のコンテナーはワーカーとして役割を果たします。コンテナーごとにワーカーごとに 1 つの環境が実行されている間に、カスタム環境のステップを並行して実行する方法はありますか? Rays のドキュメント ( https://ray.readthedocs.io/en/latest/rllib-env.html?highlight=remote_worker_envs#vectorized ) に記載されている方法は、各ワーカーに 1 つの env が必要なため、役に立ちません。