0

結果を予測したい分類の問題がありますが、正しいか間違っているかの単一の分類ではなく、分類子に答えをいくつかの「試行」(片道の賭けをするようなもの) で取得させたいと考えています。 、これに最適なプロセスについて疑問に思っていました。

例: 結果 A、B、C、および D が与えられた場合、それが「A または B」、または「A または C」であり、「正しい」ソリューション (少なくとも正しい個々の答え) それに応じて学習プロセスに影響を与えます。

これまでのところ、私の考えでは、多かれ少なかれ上記 (A または C) のようにデータ セットアップをビンに分割し、通常の方法で分類器をトレーニングするか、複数の分類器を多様になるようにトレーニングし、単純に結果ですが、より良い/別の方法があるかどうか疑問に思っていましたか? これが固有の問題ではないことは確かですが、Google の用語が正しいかどうかはわかりません。

それが関連する問題かどうかはわかりませんが、オプションに「わからない」を含める方法もありますか?分類しませんか?

4

1 に答える 1

1

多くの分類子は、あなたが望むことを行うことができます。
Naive Bayes は各ラベルの確率を提供できるため、最も可能性の高い単一のラベルだけでなく、最も可能性の高い k 個のラベルを取得して出力することができます。
ロジスティック回帰、SVM は各ラベルのスコアを提供することもでき、同様のことを行うことができます。
もう 1 つのトリックは、入力特徴ベクトルをわずかに摂動させて分類器に供給することです。それを数回繰り返すと、1 つの出力ラベルではなく、複数の出力ラベルが得られます。複数の潜在的な回答を取得するために、それらを頻度で数えて並べ替えることができます。次に、いくつかのカットオフ基準を作成して、それらのラベルのサブセットのみを選択し、それらをユーザーに返すことができます。

于 2011-11-24T03:06:40.930 に答える