2

IBM Bluemix で Visual Recognition サービスを使用しています。

私はいくつかの分類子を作成しました。特に、この目的でこれらのうちの 2 つを作成しました。

  • 1 つ目は、画像内の特定のオブジェクトの認識に関する信頼スコアを返す必要がある「一般的な」分類子です。オブジェクトの 50 の肯定的な例と、オブジェクトに類似したものの 50 の否定的な例 (詳細、そのコンポーネント、それに似た画像など) を使用してトレーニングしました。
  • 2 番目: 最初の分類のスコアが非常に高い場合、以前に識別されたオブジェクトの特定のタイプを認識する、より具体的な分類子。この新しい分類器は、最初のものとしてトレーニングされています: タイプ A オブジェクトの 50 個のポジティブ サンプル、タイプ B オブジェクトの 50 個のネガティブ サンプル。この 2 番目の分類は、最初の分類よりも具体的である必要があります。これは、画像がより詳細であり、すべて類似しているためです。

その結果、2 つの分類器が適切に機能し、特定の画像セットの期待される結果はほとんどの場合、真実に対応します。これは、両方が十分にトレーニングされていることを意味します。

しかし、私には理解できないことがあります。

両方の分類器で、正のトレーニング セットで使用された画像の 1 つを分類しようとすると、信頼スコアが 90 ~ 100% 近くになるはずです。代わりに、0.50 ~ 0.55 の範囲に含まれるスコアを常に取得します。正のトレーニング セット (スケーリング、反射、カット アウトなど) の 1 つに非常によく似た画像を試してみると、同じことが起こります。信頼度は 0.55 付近を超えることはありません。

100 個の肯定的な画像と 100 個の否定的な画像を使用して同様の分類器を作成しようとしましたが、最終結果は変わりません。

問題は、なぜ信頼スコアがこれほど低いのかということです。ポジティブ トレーニング セットで使用される画像で 90 ~ 100% に近くないのはなぜですか?

4

1 に答える 1

4

Visual Recognition カスタム分類子のスコアは 0.0 から 1.0 の範囲ですが、単位がなく、パーセンテージや確率ではありません。(合計しても 100% または 1.0 にはなりません)

サービスがサンプルから分類子を作成するとき、positive_examples の 1 つのクラスの機能を他の positive_examples (および指定されている場合は negative_examples) のクラスと区別するものを見つけようとします。スコアは、クラスのポジティブ サンプルと分類器内の他のすべてとの間の決定境界までの距離に基づいています。各クラスのスコア出力を調整して、何かがそのクラスに属しているかどうかを示す適切な決定しきい値が 0.5 になるようにします。

ただし、アプリケーションでの誤報と検出漏れの費用対効果のバランスを考えると、画像がクラスに属するかどうかを判断するために、より高いまたはより低いしきい値を使用することが必要になる場合があります。

クラスの例の詳細を知らなくても、クラス間にかなりの類似性があり、おそらく特徴空間では例が個別のクラスターに含まれておらず、スコアがこの境界への近さを反映していると推測できます。

于 2016-08-02T03:05:41.257 に答える