確率推定が必要な場合は、1 クラス SVM を使用しないでください。これは、彼らが設計されたものではありません。いくつかの正の例が与えられた場合、ノンパラメトリック密度推定を提供するカーネル密度推定のようなものが必要です。
1 クラス SVM とクラスタリングの違いは、クラスタリングでは複数のクラスからポイントが与えられるが、どのポイントがどのクラスに対応するかがわからないことです: これが推論の目標です (また、クラスの密度推定値と、特徴空間全体の限界密度も)。ワンクラス SVM は 1 つのクラスからのみポイントを与えられ、そのクラスのメンバーと他のメンバーとの間の分離を学習することが期待されます。
編集: クラスタリングは密度推定と同じではありません。クラスタリングは、割り当てが指定されていない場合に、どのインスタンスがどのクラス (クラスター) に属しているかを判断することに関係しており、提供された例と入力空間内の任意の点との間の類似性スコアが必ずしも得られるわけではありません。
目標が、この新しいインスタンスが私が見たポジティブなトレーニング例にどの程度似ているかを言うことである場合、トレーニング例に確率分布を当てはめ、新しいポイントで密度関数を評価します。この密度がしきい値を下回った場合、新しいポイントは提供された例で定義されたクラスの外にあると言います。
必要に応じて、クラスのパラメトリック モデルを作成できますが、問題について何か知っているか、標準分布 (多変量正規分布またはナイーブ ベイズが 2 つの明白な分布) を使用する意思がない限り、通常は注意が必要です。したがって、代替手段は、ノンパラメトリック密度推定を使用することです。これは、私が言及したカーネル密度の推定です。