一連の写真を取得し、それらを分類する必要があるという問題があります。
問題は、私はこれらの画像についてまったく知識がないということです。そのため、見つけられる限り多くの記述子を使用し、それらに対して PCA を実行して、有用な記述子のみを特定する予定です。
それが役に立てば、多くのデータポイントで教師あり学習を行うことができます。ただし、写真が相互に接続されている可能性があります。つまり、画像 X から画像 X+1 への展開がある可能性がありますが、これが各画像の情報で整理されることを願っています。
私の質問は次のとおりです。
- Python を使用しているときにこれを最善に行うにはどうすればよいですか? (速度が問題にならない場合は、最初に概念実証を行いたいと思います)。どのライブラリを使用すればよいですか?
- そのような種類の画像分類の例は既にありますか? 一連の記述子を使用し、PCA を介してそれらを調理する例は? 正直なところ、この部分はちょっと怖いです。私はpythonがすでに私のためにこのようなことをするべきだと思いますが。
編集: 私は現在これを試しているきちんとしたキットを見つけました: http://scikit-image.org/そこにはいくつかの記述子があるようです。自動機能抽出を行い、ターゲット分類に対する記述力に従って機能をランク付けする方法はありますか? PCA は自動的にランク付けできるはずです。
編集 2: データを保存するためのフレームワークがもう少し洗練されました。Fat システムをデータベースとして使用します。クラスの組み合わせのインスタンスごとに 1 つのフォルダーを作成します。したがって、画像がクラス 1 および 2 に属する場合、それらの画像を含むフォルダー img12 が存在します。このようにして、各クラスのデータ量をより適切に制御できます。
編集 3: python のライブラリ (sklearn) の例を見つけました。これは、私がやりたいことのいくつかの並べ替えを行います。手書きの数字を認識することです。データセットをこれで使用できるものに変換しようとしています。
sklearn を使用して見つけた例を次に示します。
import pylab as pl
# Import datasets, classifiers and performance metrics
from sklearn import datasets, svm, metrics
# The digits dataset
digits = datasets.load_digits()
# The data that we are interested in is made of 8x8 images of digits,
# let's have a look at the first 3 images, stored in the `images`
# attribute of the dataset. If we were working from image files, we
# could load them using pylab.imread. For these images know which
# digit they represent: it is given in the 'target' of the dataset.
for index, (image, label) in enumerate(zip(digits.images, digits.target)[:4]):
pl.subplot(2, 4, index + 1)
pl.axis('off')
pl.imshow(image, cmap=pl.cm.gray_r, interpolation='nearest')
pl.title('Training: %i' % label)
# To apply an classifier on this data, we need to flatten the image, to
# turn the data in a (samples, feature) matrix:
n_samples = len(digits.images)
data = digits.images.reshape((n_samples, -1))
# Create a classifier: a support vector classifier
classifier = svm.SVC(gamma=0.001)
# We learn the digits on the first half of the digits
classifier.fit(data[:n_samples / 2], digits.target[:n_samples / 2])
# Now predict the value of the digit on the second half:
expected = digits.target[n_samples / 2:]
predicted = classifier.predict(data[n_samples / 2:])
print("Classification report for classifier %s:\n%s\n"
% (classifier, metrics.classification_report(expected, predicted)))
print("Confusion matrix:\n%s" % metrics.confusion_matrix(expected, predicted))
for index, (image, prediction) in enumerate(
zip(digits.images[n_samples / 2:], predicted)[:4]):
pl.subplot(2, 4, index + 5)
pl.axis('off')
pl.imshow(image, cmap=pl.cm.gray_r, interpolation='nearest')
pl.title('Prediction: %i' % prediction)
pl.show()