AdaBoostは、バイナリ/二分/2クラスの分類器であり、精度が1/2よりも優れている弱い学習者を後押しするように設計されています。AdaBoostM1はMクラスの分類器ですが、チャンスレベルが約1 / Mであると予想される場合、弱い学習者は1/2の精度よりも優れている必要があります。バランシング/重み付けは、最初は等しい有病率クラスを取得するために使用されますが、AdaBoostに固有の再重み付けは、これをすぐに破壊する可能性があります。解決策は、カッパやインフォームドネス(AdaBook)のような偶然に修正された対策に基づいてブーストすることです。
Mが大きくなると、たとえばテキスト分類の場合、この不一致が大きくなるため、偶然よりもはるかに強力な分類子が必要になります。したがって、M = 100の場合、確率は約1%ですが、AdaBoostM1には50%の最小精度が必要です。
基本分類子が強くなるにつれて(つまり、チャンスをかろうじて超えることはなくなります)、物事を改善するためのブーストの範囲は狭くなります-それはすでに検索スペースの非常に特定の部分に私たちを引っ張っています。エラーや外れ値に過剰適合している可能性が高くなっているため、さまざまなバリアントのバランスを取る余地はありません。
情報に基づく多くのリソース(matlabコードとxlsシートおよび初期の論文を含む)はここにあります:http ://david.wardpowers.info/BM他の偶然修正されたカッパ測定との比較はここにあります:http://aclweb.org /anthology-new/E/E12/E12-1035.pdf
ブックメーカーの情報を使用したAdaboostのweka実装と実験が利用可能です-作成者に連絡してください。