XGBoost を使用して実験を行っています。反復回数を 1000 に設定すると、妥当な結果が得られます。
私が何か違うことをしようとしたよりも:
1000回の反復を実行する代わりに、100回の反復を実行したいと思います。これを10回繰り返します(合計でも1000回の反復)。この 10 ステップの間に、target_learn = target_learn - target_fitted (前のステップから) をセットアップしました。
そして、target_fitted = target_fitted + 予測よりも
Target_fitted 予測は、すべてのデータセットに対するテスト セットのクロス検証によって得られます。
異なる結果が得られました - 非常に精度が悪いです。
200回実行された5回の反復のみを実行するよりもはるかに...さらに悪い..
私がこれをやろうとしている理由は、反復中に学習マトリックスを変更したいからです (少し繰り返し何かをしようとしています)。
結果が異なる理由は何ですか...各ステップの最初の反復は何か違うように思われるので、モデルでこの反復を何度も行っているため、精度が低下しています...
他のパラメータは同じです..
または多分私は何かを完全に見逃しています..?どうも