Wekaを使用していて、ランダムフォレストで回帰を実行したいと思います。具体的には、データセットがあります。
Feature1,Feature2,...,FeatureN,Class
1.0,X,...,1.4,Good
1.2,Y,...,1.5,Good
1.2,F,...,1.6,Bad
1.1,R,...,1.5,Great
0.9,J,...,1.1,Horrible
0.5,K,...,1.5,Terrific
.
.
.
最も可能性の高いクラスを予測することを学ぶのではなく、特定の特徴ベクトルのクラス全体の確率分布を学びたいと思います。私の直感では、WekaでRandomForestモデルだけを使用することは、二乗誤差(条件付き確率分布)ではなく絶対誤差(最尤法)を最小化しようとするため、適切ではありません。その直感は正しいですか?分類ではなく回帰を実行したい場合に使用するより良いモデルはありますか?
編集:私は実際にそれが実際には問題ではないかもしれないと今考えています。おそらく、分類器は条件付き確率P(Class | Feature1、...、FeatureN)を学習しており、結果の分類は、その確率分布を最大化するクラス内のcを見つけるだけです。したがって、RandomForest分類器は条件付き確率分布を与えることができるはずです。もう少し考えなければなりませんでした。それが間違っている場合は、私を訂正してください。