IBM Bluemix で Visual Recognition サービスを使用しています。
私はいくつかの分類子を作成しました。特に、この目的でこれらのうちの 2 つを作成しました。
- 1 つ目は、画像内の特定のオブジェクトの認識に関する信頼スコアを返す必要がある「一般的な」分類子です。オブジェクトの 50 の肯定的な例と、オブジェクトに類似したものの 50 の否定的な例 (詳細、そのコンポーネント、それに似た画像など) を使用してトレーニングしました。
- 2 番目: 最初の分類のスコアが非常に高い場合、以前に識別されたオブジェクトの特定のタイプを認識する、より具体的な分類子。この新しい分類器は、最初のものとしてトレーニングされています: タイプ A オブジェクトの 50 個のポジティブ サンプル、タイプ B オブジェクトの 50 個のネガティブ サンプル。この 2 番目の分類は、最初の分類よりも具体的である必要があります。これは、画像がより詳細であり、すべて類似しているためです。
その結果、2 つの分類器が適切に機能し、特定の画像セットの期待される結果はほとんどの場合、真実に対応します。これは、両方が十分にトレーニングされていることを意味します。
しかし、私には理解できないことがあります。
両方の分類器で、正のトレーニング セットで使用された画像の 1 つを分類しようとすると、信頼スコアが 90 ~ 100% 近くになるはずです。代わりに、0.50 ~ 0.55 の範囲に含まれるスコアを常に取得します。正のトレーニング セット (スケーリング、反射、カット アウトなど) の 1 つに非常によく似た画像を試してみると、同じことが起こります。信頼度は 0.55 付近を超えることはありません。
100 個の肯定的な画像と 100 個の否定的な画像を使用して同様の分類器を作成しようとしましたが、最終結果は変わりません。
問題は、なぜ信頼スコアがこれほど低いのかということです。ポジティブ トレーニング セットで使用される画像で 90 ~ 100% に近くないのはなぜですか?