11

一連の写真を取得し、それらを分類する必要があるという問題があります。

問題は、私はこれらの画像についてまったく知識がないということです。そのため、見つけられる限り多くの記述子を使用し、それらに対して PCA を実行して、有用な記述子のみを特定する予定です。

それが役に立てば、多くのデータポイントで教師あり学習を行うことができます。ただし、写真が相互に接続されている可能性があります。つまり、画像 X から画像 X+1 への展開がある可能性がありますが、これが各画像の情報で整理されることを願っています。

私の質問は次のとおりです。

  1. Python を使用しているときにこれを最善に行うにはどうすればよいですか? (速度が問題にならない場合は、最初に概念実証を行いたいと思います)。どのライブラリを使用すればよいですか?
  2. そのような種類の画像分類の例は既にありますか? 一連の記述子を使用し、PCA を介してそれらを調理する例は? 正直なところ、この部分はちょっと怖いです。私はpythonがすでに私のためにこのようなことをするべきだと思いますが。

編集: 私は現在これを試しているきちんとしたキットを見つけました: http://scikit-image.org/そこにはいくつかの記述子があるようです。自動機能抽出を行い、ターゲット分類に対する記述力に従って機能をランク付けする方法はありますか? PCA は自動的にランク付けできるはずです。

編集 2: データを保存するためのフレームワークがもう少し洗練されました。Fat システムをデータベースとして使用します。クラスの組み合わせのインスタンスごとに 1 つのフォルダーを作成します。したがって、画像がクラス 1 および 2 に属する場合、それらの画像を含むフォルダー img12 が存在します。このようにして、各クラスのデータ量をより適切に制御できます。

編集 3: python のライブラリ (sklearn) の例を見つけました。これは、私がやりたいことのいくつかの並べ替えを行います。手書きの数字を認識することです。データセットをこれで使用できるものに変換しようとしています。

sklearn を使用して見つけた例を次に示します。

import pylab as pl

# Import datasets, classifiers and performance metrics
from sklearn import datasets, svm, metrics

# The digits dataset
digits = datasets.load_digits()

# The data that we are interested in is made of 8x8 images of digits,
# let's have a look at the first 3 images, stored in the `images`
# attribute of the dataset. If we were working from image files, we
# could load them using pylab.imread. For these images know which
# digit they represent: it is given in the 'target' of the dataset.
for index, (image, label) in enumerate(zip(digits.images, digits.target)[:4]):
    pl.subplot(2, 4, index + 1)
    pl.axis('off')
    pl.imshow(image, cmap=pl.cm.gray_r, interpolation='nearest')
    pl.title('Training: %i' % label)

# To apply an classifier on this data, we need to flatten the image, to
# turn the data in a (samples, feature) matrix:
n_samples = len(digits.images)
data = digits.images.reshape((n_samples, -1))

# Create a classifier: a support vector classifier
classifier = svm.SVC(gamma=0.001)

# We learn the digits on the first half of the digits
classifier.fit(data[:n_samples / 2], digits.target[:n_samples / 2])

# Now predict the value of the digit on the second half:
expected = digits.target[n_samples / 2:]
predicted = classifier.predict(data[n_samples / 2:])

print("Classification report for classifier %s:\n%s\n"
      % (classifier, metrics.classification_report(expected, predicted)))
print("Confusion matrix:\n%s" % metrics.confusion_matrix(expected, predicted))

for index, (image, prediction) in enumerate(
        zip(digits.images[n_samples / 2:], predicted)[:4]):
    pl.subplot(2, 4, index + 5)
    pl.axis('off')
    pl.imshow(image, cmap=pl.cm.gray_r, interpolation='nearest')
    pl.title('Prediction: %i' % prediction)

pl.show()
4

4 に答える 4

8

画像をピクセルのベクトルに変換し、そのベクトルに対して PCA を実行できます。これは、手動で記述子を見つけようとするよりも簡単かもしれません。Python では numPy と sciPy を使用できます。例えば:

import scipy.io
from numpy import *
#every row in the *.mat file is 256*256 numbers representing gray scale values
#for each pixel in an image. i.e. if XTrain.mat has 1000 lines than each line
#will be made up of 256*256 numbers and there would be 1000 images in the file.
#The following loads the image into a sciPy matrix where each row is a vector
#of length 256*256, representing an image. This code will need to be switched
#out if you have a different method of storing images.
Xtrain = scipy.io.loadmat('Xtrain.mat')["Xtrain"]
Ytrain = scipy.io.loadmat('Ytrain.mat')["Ytrain"]
Xtest = scipy.io.loadmat('Xtest.mat')["Xtest"]
Ytest = scipy.io.loadmat('Ytest.mat')["Ytest"]
learn(Xtest,Xtrain,Ytest,Ytrain,5) #this lowers the dimension from 256*256 to 5

def learn(testX,trainX,testY,trainY,n):
    pcmat = PCA(trainX,n)
    lowdimtrain=mat(trainX)*pcmat #lower the dimension of trainX
    lowdimtest=mat(testX)*pcmat #lower the dimension of testX
    #run some learning algorithm here using the low dimension matrices for example
    trainset = []    

    knnres = KNN(lowdimtrain, trainY, lowdimtest ,k)
    numloss=0
    for i in range(len(knnres)):
        if knnres[i]!=testY[i]:
            numloss+=1
    return numloss

def PCA(Xparam, n):
    X = mat(Xparam)
    Xtranspose = X.transpose()
    A=Xtranspose*X
    return eigs(A,n)

def eigs(M,k):
    [vals,vecs]=LA.eig(M)
    return LM2ML(vecs[:k])

def LM2ML(lm):
    U=[[]]
    temp = []
    for i in lm: 
       for j in range(size(i)):
           temp.append(i[0,j])
       U.append(temp)
       temp = []
    U=U[1:]
    return U

画像を分類するために、k 最近傍を使用できます。つまり、k 個の最も近い画像を見つけて、k 個の最も近い画像に対する多数決によって画像にラベルを付けます。例えば:

def KNN(trainset, Ytrainvec, testset, k):
    eucdist = scidist.cdist(testset,trainset,'sqeuclidean')
    res=[]
    for dists in eucdist:
        distup = zip(dists, Ytrainvec)
        minVals = []
    sumLabel=0;
    for it in range(k):
        minIndex = index_min(dists)
        (minVal,minLabel) = distup[minIndex]
        del distup[minIndex]
        dists=numpy.delete(dists,minIndex,0)
        if minLabel == 1:
            sumLabel+=1
        else:
            sumLabel-=1
        if(sumLabel>0):
            res.append(1)
        else:
            res.append(0)
    return res
于 2013-05-09T08:12:55.247 に答える
3

私はあなたの質問に直接答えていないことを知っています。しかし、画像は大きく異なります。リモート センシング、オブジェクト、シーン、fMRI、バイオメディア、顔など...カテゴリを少し絞り込んでお知らせいただければ助かります。

どの記述子を計算していますか? 私が使用するコード (およびコンピューター ビジョン コミュニティ) のほとんどは、Python ではなく MATLAB にありますが、同様のコードが利用可能であると確信しています (pycv モジュール & http://www.pythonware.com/products/pil / )。MIT の人々による最先端のコードをプリコンパイルしたこの記述子ベンチマークを試してみてください: http://people.csail.mit.edu/jxiao/SUN/ GIST、HOG、SIFT を見てみてください。分析したいものに応じて標準: それぞれシーン、オブジェクト、またはポイント。

于 2013-05-08T17:19:36.273 に答える
0

まず、ライブラリをインポートして画像を抽出します

from sklearn import datasets    
%matplotlib inline
import sklearn as sk
import numpy as np
import matplotlib.pyplot as plt
digits = datasets.load_digits()
X_digits = digits.data
y_digits = digits.target
ind4 = np.where(y_digits==4)
ind5=  np.where(y_digits==5)
plt.imshow(X_digits[1778].reshape((8,8)),cmap=plt.cm.gray_r)
于 2016-12-21T10:26:58.543 に答える