今まで、機械学習アルゴリズム (gbm、ランダム フォレスト、xgboost など) がデータに存在する悪い機能 (変数) を処理できるという印象を受けていました。
私の問題の 1 つでは、約 150 の機能があり、xgboost を使用すると、すべての機能を使用すると約 1 の対数損失が発生します。しかし、約 10 個の悪い機能 (何らかの手法を使用して見つかったもの) を削除すると、対数損失が 0.45 になります。それは大きな改善です。
私の質問は、悪い機能が本当にそんなに大きな違いを生むのでしょうか?