1

バックグラウンド

LIDAR によって収集されたラスター ファイルは、集水域の地形を記録します。集水域を適切にモデル化するには、川が切れ目や途切れのない連続しているように見える必要があります。下の図に示すように、ラスター ファイル内の道路は、川を遮るダムのように見えます。

流域で検討されている特定の領域

目的

これらのリバーブレイクが主な問題であり、私はそれらを取り除こうとしていますが失敗しています.

アプローチ

Python 経由で、OpenCV ライブラリのさまざまなツールとビルド済み関数を使用しました。このアプローチで使用した主な関数は cv2.inpaint 関数です。この関数は、イメージ ファイルマスク ファイルを取り込み、マスク ファイルのピクセルがゼロ以外の場合は元のイメージを補間します。

ここでの主なステップは、川のブレイクでコーナーを検出することによって行ったマスク ファイルを決定することです。マスク ファイルは、周囲のピクセルのパターンに従ってピクセルを塗りつぶすように修復機能をガイドします。

問題

私の問題は、これがすべての方向から発生することですが、川自体からのピクセルデータのみを推定する必要があります。下の画像は欠陥のある結果を示しています。修復は機能しますが、川の外からのデータも考慮しています。

修復結果

あなたが親切に助けてくれるなら、これが私のコードです:

import scipy.io as sio
import numpy as np
from matplotlib import pyplot as plt
import cv2

matfile = sio.loadmat('box.mat') ## box.mat original raster file linked below
ztopo = matfile['box']

#Crop smaller section for analysis
ztopo2 = ztopo[200:500, 1400:1700]


## Step 1) Isolate river
river = ztopo2.copy()
river[ztopo2<217.5] = 0
#This will become problematic for entire watershed w/o proper slicing


## Step 2) Detect Corners
dst = cv2.cornerHarris(river,3,7,0.04)
# cornerHarris arguments adjust qualities of corner markers

# Dilate Image (unnecessary)
#dst = cv2.dilate(dst,None)  

# Threshold for an optimal value, it may vary depending on the image.
# This adjusts what defines a corner
river2 = river.copy()
river2[dst>0.01*dst.max()]=[150]


## Step 3) Remove river and keep corners

#Initiate loop to isolate detected corners
i=0
j=0
rows,columns = river2.shape
for i in np.arange(rows):
    for j in np.arange(columns):
        if river2[i,j] != 150:
            river2[i,j] = 0
        j = j + 1
    i = i + 1

# Save corners as new image for import during next step.
# Import must be via cv2 as thresholding and contour detection can only work on BGR files. Sio import in line 6 (matfile = sio.loadmat('box.mat')) imports 1 dimensional image rather than BGR.
cv2.imwrite('corners.png', river2)


## Step 4) Create mask image by defining and filling a contour around the previously detected corners

#Step 4 code retrieved from http://dsp.stackexchange.com/questions/2564/opencv-c-connect-nearby-contours-based-on-distance-between-them
#Article: OpenCV/C++ connect nearby contours based on distance between them

#Initiate function to specify features of contour connections
def find_if_close(cnt1,cnt2):
    row1,row2 = cnt1.shape[0],cnt2.shape[0]
    for i in xrange(row1):
        for j in xrange(row2):
            dist = np.linalg.norm(cnt1[i]-cnt2[j])
            if abs(dist) < 50 :
                return True
            elif i==row1-1 and j==row2-1:
                return False

#import image of corners created in step 3 so thresholding can function properly
img = cv2.imread('corners.png')

#Thresholding and Finding contours only works on grayscale image
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
ret,thresh = cv2.threshold(gray,127,255,cv2.THRESH_BINARY)
contours,hier = cv2.findContours(thresh,cv2.RETR_EXTERNAL,2)

LENGTH = len(contours)
status = np.zeros((LENGTH,1))

for i,cnt1 in enumerate(contours):
    x = i    
    if i != LENGTH-1:
        for j,cnt2 in enumerate(contours[i+1:]):
            x = x+1
            dist = find_if_close(cnt1,cnt2)
            if dist == True:
                val = min(status[i],status[x])
                status[x] = status[i] = val
            else:
                if status[x]==status[i]:
                    status[x] = i+1

unified = []
maximum = int(status.max())+1
for i in xrange(maximum):
    pos = np.where(status==i)[0]
    if pos.size != 0:
        cont = np.vstack(contours[i] for i in pos)
        hull = cv2.convexHull(cont) # I don't know why/how this is used
        unified.append(hull)


cv2.drawContours(img,unified,-1,(0,255,0),1) #Last argument specifies contour width
cv2.drawContours(thresh,unified,-1,255,-1)

# Thresh is the filled contour while img is the contour itself
# The contour surrounds the corners

#cv2.imshow('pic', thresh) #Produces black and white image


## Step 5) Merge via inpaint
river = np.uint8(river)
ztopo2 = np.uint8(ztopo2)

thresh[thresh>0] = 1
#new = river.copy()
merged = cv2.inpaint(river,thresh,12,cv2.INPAINT_TELEA)

plt.imshow(merged)
plt.colorbar()
plt.show()
4

0 に答える 0