8

私はまだ本をスキャンするスクリプトをハッキングしていますが、今のところ必要なのは、ページめくりを自動的に検出できるようにすることだけです。この本は画面の 90% を占めるので (私は動体検知に汚れたウェブカメラを使用しています)、ページをめくると、基本的に同じ方向に動きます。

モーション トラッキング スクリプトを変更しましたが、派生物がうまくいきません。

#!/usr/bin/env python

import cv, numpy

class Target:
    def __init__(self):
        self.capture = cv.CaptureFromCAM(0)
        cv.NamedWindow("Target", 1)

    def run(self):
        # Capture first frame to get size
        frame = cv.QueryFrame(self.capture)
        frame_size = cv.GetSize(frame)
        grey_image = cv.CreateImage(cv.GetSize(frame), cv.IPL_DEPTH_8U, 1)
        moving_average = cv.CreateImage(cv.GetSize(frame), cv.IPL_DEPTH_32F, 3)
        difference = None
        movement = []

        while True:
            # Capture frame from webcam
            color_image = cv.QueryFrame(self.capture)

            # Smooth to get rid of false positives
            cv.Smooth(color_image, color_image, cv.CV_GAUSSIAN, 3, 0)

            if not difference:
                # Initialize
                difference = cv.CloneImage(color_image)
                temp = cv.CloneImage(color_image)
                cv.ConvertScale(color_image, moving_average, 1.0, 0.0)
            else:
                cv.RunningAvg(color_image, moving_average, 0.020, None)

            # Convert the scale of the moving average.
            cv.ConvertScale(moving_average, temp, 1.0, 0.0)

            # Minus the current frame from the moving average.
            cv.AbsDiff(color_image, temp, difference)

            # Convert the image to grayscale.
            cv.CvtColor(difference, grey_image, cv.CV_RGB2GRAY)

            # Convert the image to black and white.
            cv.Threshold(grey_image, grey_image, 70, 255, cv.CV_THRESH_BINARY)

            # Dilate and erode to get object blobs
            cv.Dilate(grey_image, grey_image, None, 18)
            cv.Erode(grey_image, grey_image, None, 10)

            # Calculate movements
            storage = cv.CreateMemStorage(0)
            contour = cv.FindContours(grey_image, storage, cv.CV_RETR_CCOMP, cv.CV_CHAIN_APPROX_SIMPLE)
            points = []

            while contour:
                # Draw rectangles
                bound_rect = cv.BoundingRect(list(contour))
                contour = contour.h_next()

                pt1 = (bound_rect[0], bound_rect[1])
                pt2 = (bound_rect[0] + bound_rect[2], bound_rect[1] + bound_rect[3])
                points.append(pt1)
                points.append(pt2)
                cv.Rectangle(color_image, pt1, pt2, cv.CV_RGB(255,0,0), 1)

            num_points = len(points)

            if num_points:
                x = 0
                for point in points:
                    x += point[0]
                x /= num_points

                movement.append(x)

            if len(movement) > 0 and numpy.average(numpy.diff(movement[-30:-1])) > 0:
              print 'Left'
            else:
              print 'Right'

            # Display frame to user
            cv.ShowImage("Target", color_image)

            # Listen for ESC or ENTER key
            c = cv.WaitKey(7) % 0x100
            if c == 27 or c == 10:
                break

if __name__=="__main__":
    t = Target()
    t.run()

すべてのボックスの平均的な中心の平均的な動きを検出しますが、これは非常に非効率的です。このような動きを迅速かつ正確に (つまり、しきい値内で) 検出するにはどうすればよいでしょうか?

私は Python を使用しており、フレームワーク全体が Python に基づいているため、引き続き使用する予定です。

そして、助けていただければ幸いです。よろしくお願いします。乾杯。

4

2 に答える 2

2

私はこれまで Python で OpenCV を使用したことがなく、openframeworks を使用した C++ で少しだけ使用しました。

これについては、 OpticalFlowの velx,vely プロパティが機能すると思います。

オプティカル フローの仕組みの詳細については、このペーパーを参照してください。

HTH

于 2010-12-21T03:51:26.393 に答える
1

cv.GoodFeaturesToTrack を使用しないのはなぜですか? それはスクリプトのランタイムを解決するかもしれません...そしてコードを短くします...

于 2011-03-15T17:24:24.340 に答える