私が Web 上で見つけたすべての SURF の実装は、小さな画像 (たとえば、100x100 以下) から有用な数の関心点を抽出するのが特に苦手なようです。
私はいくつかのアプローチを試しました:
1)分析前に小さな画像のサイズを大きくするために、さまざまなアップスケーリングアルゴリズム(最近傍のような単純なものからより高度なものまで - 基本的にすべてのアップスケーラー imagemagick が提供するもの)を使用します。
2) その他の画像処理の微調整により、コントラスト強調や積分画像の計算における異なる RGB 重みの使用など、画像の特徴を引き出します。
3) (再) 圧縮。圧縮アーチファクトが主に既存のフィーチャの周囲に現れ、相対的な「表面積」が増加するという仮定に基づいています。
ただし、これらのいずれも、小さな画像から抽出された関心点の数に測定可能な影響を与えていません。
他に試す価値のあるものはありますか?それとも、SURF は小さな画像が苦手なだけですか? もしそうなら、他のどのアルゴリズムがそれらに適していますか?