MCS (Multi classifier system) を使用して、限られたデータに対してより良い作業を行うこと、つまりより正確になることを試みています。
現時点では K-means クラスタリングを使用していますが、FCM (Fuzzy c-means) を使用してデータをグループ (クラスター) にクラスター化することを選択する場合があります。データは色など、何でも表すことができます。まず、前処理と正規化の後にデータをクラスター化し、その間に多くの異なるクラスターをいくつか取得します。次に、クラスターをベイズ分類器のデータとして使用します。各クラスターは異なる色を表し、ベイズ分類器がトレーニングされ、クラスターからのデータが個別のベイズ分類器に渡されます。各ベイズ分類器は、1 つの色のみでトレーニングされます。色のスペクトル 3 ~ 10 を青、13 ~ 20 を赤、0 ~ 3 の間のスペクトルを 1.5 まで白とすると、1.5 ~ 3 まで徐々に青に変わり、青から赤まで同じになります。
私が知りたいのは、ベイズ分類器がより強力になるように、どのように、またはどのような集計方法 (それを使用する場合) を適用できるか、およびそれがどのように機能するかです。集計方法はすでに答えを知っているのでしょうか、それとも出力を修正するのは人間の相互作用であり、それらの答えはベイズトレーニングデータに戻されますか? それとも両方の組み合わせ?Bootstrap の集計を見ると、アンサンブル内の各モデルを同じ重みで投票する必要があるため、この特定のインスタンスでは集計方法としてバギングを使用するかどうかはよくわかりません。ただし、ブースティングには、新しいモデルの各インスタンスをトレーニングして、以前のモデルが誤って分類したトレーニング インスタンスを強調することによって、アンサンブルを段階的に構築することが含まれます。新しいインスタンスで段階的に構築する方法がわからないので、これがバギングのより良い代替手段になるかどうかはわかりませんか? そして最後のものは、仮説空間から仮説をサンプリングし、ベイズの法則を使用してそれらを組み合わせることによってベイズ最適分類子を近似しようとするアンサンブル手法であるベイジアンモデル平均化ですが、検索空間から仮説をどのようにサンプリングするかは完全にわかりませんか?
通常、2 つの分類アルゴリズム間でバウンスするために競争的アプローチを使用することを知っています。1 つは「はい」と言い、1 つはおそらく重み付けを適用できると言い、それが正しければ両方の分類子のベストを得ることができますが、維持のために私は競争的アプローチを望んでいません。
別の質問は、これら2つの方法を一緒に使用すると有益であるということです.私が提供した例は非常に原始的であり、その例には当てはまらないかもしれませんが、より複雑なデータでは有益です.