6

私はバイオインフォマティクスのタスクに近づいており、いくつかの細胞画像からいくつかの特徴を抽出する必要があります.

写真でわかるように、SIFT アルゴリズムを使用して画像内のキー ポイントを抽出しました。

ここに画像の説明を入力

写真 (赤丸で囲んだ部分) にも見られるように、いくつかの重要なポイントは外れ値であり、それらの特徴を計算したくありません。

cv::KeyPoint次のコードでベクトルを取得しました。

const cv::Mat input = cv::imread("/tmp/image.jpg", 0); //Load as grayscale

cv::SiftFeatureDetector detector;
std::vector<cv::KeyPoint> keypoints;
detector.detect(input, keypoints);

vectorしかし、たとえば、画像の中心にある特定の関心領域 (ROI) 内に 3 つ未満のキー ポイントがあるすべてのキー ポイントから破棄したいと思います。

したがって、入力として指定された特定の ROI 内のキー ポイントの数を返す関数を実装する必要があります。

int function_returning_number_of_key_points_in_ROI( cv::KeyPoint, ROI );
   //I have not specified ROI on purpose...check question 3

3 つの質問があります。

  1. 同様のことを行う既存の機能はありますか?
  2. そうでない場合は、自分で実装する方法を理解するのに役立ちますか?
  3. このタスクに円形または長方形の ROI を使用しますか?また、それを入力でどのように指定しますか?

ノート:

関数の効率的な実装が必要であることを指定するのを忘れていました。つまり、キーポイントごとに他のすべての相対位置をチェックすることは、良い解決策ではありません (別の方法が存在する場合)。

4

1 に答える 1

8

統計ルートを使用することにしましたが、ビューに複数のセルがある場合、これは機能しない可能性があります。

私の解決策はかなり簡単です:

  1. キーポイントの位置を計算する
  2. キーポイントの空間位置の重心を見つける
  3. 重心までのすべてのポイントのユークリッド距離を計算します
  4. 元のキーポイントをフィルターするdistance < mu + 2*sigma

このアルゴリズムを使用して取得した画像は次のとおりです (キーポイント == 緑、重心 == 赤):

ここに画像の説明を入力

最後に、これが私が行った方法のコード例です。

#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/features2d/features2d.hpp>

#include <iostream>
#include <vector>

using namespace cv;
using namespace std;

void distanceFromCentroid(const vector<Point2f>& points, Point2f centroid, vector<double>& distances)
{
    vector<Point2f>::const_iterator point;
    for(point = points.begin(); point != points.end(); ++point)
    {
        double distance = std::sqrt((point->x - centroid.x)*(point->x - centroid.x) + (point->y - centroid.y)*(point->y - centroid.y));
        distances.push_back(distance);
    }
}

int main(int argc, char* argv[])
{
    Mat input = imread("cell.jpg", 0); //Load as grayscale

    SiftFeatureDetector detector;
    vector<cv::KeyPoint> keypoints;
    detector.detect(input, keypoints);

    vector<Point2f> points;
    vector<KeyPoint>::iterator keypoint;
    for(keypoint = keypoints.begin(); keypoint != keypoints.end(); ++keypoint)
    {
        points.push_back(keypoint->pt);
    }

    Moments m = moments(points, true);
    Point2f centroid(m.m10 / m.m00, m.m01 / m.m00);

    vector<double> distances;
    distanceFromCentroid(points, centroid, distances);

    Scalar mu, sigma;
    meanStdDev(distances, mu, sigma);

    cout << mu.val[0] << ", " << sigma.val[0] << endl;

    vector<KeyPoint> filtered;
    vector<double>::iterator distance;
    for(size_t i = 0; i < distances.size(); ++i)
    {
        if(distances[i] < (mu.val[0] + 2.0*sigma.val[0]))
        {
            filtered.push_back(keypoints[i]);
        }
    }

    Mat out = input.clone();
    drawKeypoints(input, filtered, out, Scalar(0, 255, 0));

    circle(out, centroid, 7, Scalar(0, 0, 255), 1);

    imshow("kpts", out);
    waitKey();

    imwrite("statFilter.png", out);

    return 0;
}

それが役立つことを願っています!

于 2012-06-08T14:17:35.840 に答える