私はOpenCVとVisual C++で英語の手書き OCR を開発しています。特徴抽出にはゾーンベースのアプローチを使用します。ここでは64×64
画像を使用します。したがって、1 つのサンプル画像に対して64 個の特徴があります。大文字と単純文字の両方に52 のクラスがあるため、私のSVMはマルチクラス SVMになります。特徴ベクトルの形式は次のとおりです。
Class A image1 0:0.222000 1:0.0250222 ..... 63:0.000052
Class A image2 (some float values) ....
Class A image200 (some float values)
同様に、 52 クラスの両方に200 枚の画像があります。現在の精度をテストすると、35% ~ 40%しかありません。データのスケーリングによって予測の精度が向上することを確認しました。しかし、明確にしなければならないことがいくつかあります。
これらの特徴値をどのようにスケーリングできますか?
OpenCV LibSVMで各テスト特徴ベクトルの一致確率を取得する関数はありますか( OpenCV 2.4.5のドキュメントを検索しましたが、これを見つけることができませんでした)。
誰でもこれらを説明できますか? 、そして可能であれば、いくつかの非常に少ないコード行でも。