3

SimpleCorridorの例に従って、独自の環境を作成し、モデルをトレーニングできます! 良い。しかし、このトレーニング済みモデルを評価しようとすると、rllib はカスタム環境を認識しません。

カスタム環境でトレーニング済みモデルを評価するにはどうすればよいですか?

ここrllib rollout ...で提案されているように使用すると、カスタム環境であるため、環境が認識されません。私は自分のファイル内のプロジェクトでそれを呼び出すことができるように、関数を持っていることを望んでいました。run_experimentsevaluate_experiment

それが問題です。私のcuston_envを見たい場合はこれです

現在、環境をコピーしてgym/envs/パッケージ ディレクトリ内に貼り付け、__init__.pyファイルに登録する必要があります。

これを行う別の方法を見るのは良いことです

ありがとう

4

1 に答える 1