0

XGBoost を使用して実験を行っています。反復回数を 1000 に設定すると、妥当な結果が得られます。

私が何か違うことをしようとしたよりも:

1000回の反復を実行する代わりに、100回の反復を実行したいと思います。これを10回繰り返します(合計でも1000回の反復)。この 10 ステップの間に、target_learn = target_learn - target_fitted (前のステップから) をセットアップしました。

そして、target_fitted = target_fitted + 予測よりも

Target_fitted 予測は、すべてのデータセットに対するテスト セットのクロス検証によって得られます。

異なる結果が得られました - 非常に精度が悪いです。

200回実行された5回の反復のみを実行するよりもはるかに...さらに悪い..

私がこれをやろうとしている理由は、反復中に学習マトリックスを変更したいからです (少し繰り返し何かをしようとしています)。

結果が異なる理由は何ですか...各ステップの最初の反復は何か違うように思われるので、モデルでこの反復を何度も行っているため、精度が低下しています...

他のパラメータは同じです..

または多分私は何かを完全に見逃しています..?どうも

4

1 に答える 1