0

アンサンブル学習(ビッティング、スタッキングなど)を使用して、複数の分類器(ANN、SVM、kNNなど)を組み合わせようとしています。

分類子を作成するために、20種類以上の説明変数を使用しています。ただし、各分類子には、説明変数の最良のサブセットがあります。したがって、ラッパーメソッドの各分類器の説明変数の最適な組み合わせを探して、アンサンブル学習(viting、stacking ...など)を使用して複数の分類器(ANN、SVM、kNNなど)を組み合わせたいと思います。

wekaでメタ学習を使用することで、アンサンブル自体を使用できるようになります。しかし、ラッパーメソッドは各分類子の予測を要約するため、説明変数の最適な組み合わせを取得することはできません。

おそらくmatlabまたはRで簡単に解決できるのであれば、私はwekaに固執していません。

4

1 に答える 1

1

アンサンブル アプローチでは、非常に単純な分類器で最良の結果が達成されています。一方、アンサンブルのコストを補うために、これはかなり高速になる可能性があります。

これは、最初は直感に反するように思えるかもしれません。より良い出力を生成するために、より良い入力分類器が期待されるでしょう。ただし、これが機能しない理由は 2 つあります。

まず第一に、単純な分類子を使用すると、通常、それらをさらに微調整して、多様な入力分類子のセットを取得できます。全次元メソッド + 機能バギングにより、多様な分類子のセットが得られます。機能の選択または削減を内部的に行う分類子は、多様性を得るために機能のバギングを大幅に無効にします。次に、SVM などの複雑な方法は、まったく同じ結果に向けて最適化/収束する可能性が高くなります。結局のところ、複雑なメソッドは、はるかに大きな検索スペースを通過し、この検索スペースで最良の結果を見つけることになっています。しかし、それはまた、同じ結果が再び得られる可能性が高いことを意味します. 最後になりましたが、非常にプリミティブな分類器を使用すると、エラーの動作が改善され、アンサンブルの組み合わせで均等になる可能性が高くなります。

于 2012-11-17T10:05:45.877 に答える