もともとこのように考えられていたわけではありませんが、標準の Adaboost アルゴリズムは、指数損失関数を使用して順方向の段階的な加法モデル推定を行うことと同等です。つまり、いくつかの弱分類器c1,...,cMとサンプル ポイントx1,...,xNが与えられた場合、アルゴリズムから得られる重みは次のようになります。
- F_0(x) = 0 に設定
- m = 1 からMの場合: (w_m, f_m ) = arg min over (w, c_i) of (損失関数(y_i, F_m-1(x_i) + w * c_i(x_i)) をすべての x_i に適用) に設定します。
- F_m(x) = F_m-1(x) + w_m * f_m(x) を設定します
強い分類器は、出力 F_M(x) です。この強力な学習器をアダブースト出力と同じにする損失関数は次のとおりです。
L(y,f(x)) = exp(-y*f(x))
{-1,1} の値を取る分類器用。これはすべて、Hastie、Tibshirani、Friedman のElements of Statistical Learningのセクション 10.4 で説明されています。
私の質問は、前方段階的回帰に関係しています。これは貪欲なアルゴリズムであり、w_i が推定されると固定され、次に重み w_i+1 が検出されます。これは、切り株分類器やツリー分類器などの「独立した」弱い分類器を処理するように実際に設計されているようです。相互に排他的な独立変数 (特徴) に制限されているため、分類器を当てはめた後の残りの部分は、その分類器によってもはや説明されません。
言い換えれば、一連の関数を特定のターゲット関数に適合させるために、最初の関数を適合させず、その係数を修正してから、2 番目の最適な係数を見つけ、最初の定数を保持するなど... 知っている場合を除きます。機能が独立していること。しかし、これは多かれ少なかれアルゴリズムが行うことです。
これは、(私の経験から) SVM のようなより包括的な分類子や線形モデルを使用した Adaboost と比較して、切り株学習器または決定木を使用した Adaboost の成功を説明していますか? 誰かが参照を与えることができますか?- 文献でこの側面が議論されているのを見たことがありません。ありがとう。