Scikit-Learn の勾配ブースティング回帰アルゴリズムを理解しようとしています。私は彼らのソース コードをたどり、選択した損失関数に基づくツリーの反復的な構築をよく理解しました。私が答えを理解できなかったのは、私が呼び出したときに、基礎となるすべての推定器からラベルの平均をどのように取るのかということです。 predict()
その関数呼び出しをこの行までたどりました。ここでは、 scale
が保持 learning_rate
されます。指定されていない場合、デフォルトで 0.1 になります。したがって、500 本の木を使用するとしたら、特定のサンプルに対して 500 本の異なるラベルのそれぞれに 0.1 を掛ける理由がわかりません。
誰かがこれを詳細に説明している公開された論文に私を導くことができれば、それは大歓迎です.