0

Caffe とCohn-Kanade データベースを使って表情認識装置を作ろうとしています。

これは私のtrain prototxt構成です:

def configureTrainProtoTxt(lmdb, batch_size):

n = caffe.NetSpec()
n.data, n.label = L.Data(batch_size=batch_size, backend=P.Data.LMDB, source=lmdb,
                         transform_param=dict(scale= 1 / 126.0), ntop=2)

n.conv1 = L.Convolution(n.data, kernel_size=2, pad=1, param=dict(lr_mult=1), num_output=10, weight_filler=dict(type='xavier'))
n.conv1 = L.Convolution(n.data, kernel_size=2, pad=1, param=dict(lr_mult=1), num_output=10, weight_filler=dict(type='xavier'))
n.conv1 = L.Convolution(n.data, kernel_size=5, pad=0, num_output=20, weight_filler=dict(type='xavier'))
n.pool1 = L.Pooling(n.conv1, kernel_size=5, stride=2, pool=P.Pooling.MAX)
n.conv2 = L.Convolution(n.pool1, kernel_size=3, num_output=10, weight_filler=dict(type='xavier')) 
n.pool2 = L.Pooling(n.conv2, kernel_size=2, stride=2, pool=P.Pooling.MAX)
n.ip1 = L.InnerProduct(n.pool2, num_output=100, weight_filler=dict(type='xavier'))
n.relu1 = L.ReLU(n.ip1, in_place=True)
n.ip2 = L.InnerProduct(n.relu1, num_output=2, weight_filler=dict(type='xavier'))
n.loss = L.SoftmaxWithLoss(n.ip2, n.label)

return n.to_proto()

これは、lenet の例から得た私のトレーニング関数です。

def train(solver):

niter = 200
test_interval = 10 

train_loss = zeros(niter)
test_acc = zeros(int(np.ceil(niter / test_interval)))
output = zeros((niter, 32, 2))

for it in range(niter):
    solver.step(1)  

    train_loss[it] = solver.net.blobs['loss'].data

    solver.test_nets[0].forward(start='conv1')
    output[it] = solver.test_nets[0].blobs['ip2'].data[:32]

    if it % test_interval == 0:
        print 'Iteration', it, 'testing...'

        correct = 0

        for test_it in range(100):
            solver.test_nets[0].forward()
            correct += sum(solver.test_nets[0].blobs['ip2'].data.argmax(1) == solver.test_nets[0].blobs['label'].data)

        test_acc[it // test_interval] = correct / 1e4


_, ax1 = subplots()
ax2 = ax1.twinx()
ax1.plot(arange(niter), train_loss)
ax2.plot(test_interval * arange(len(test_acc)), test_acc, 'r')
ax1.set_xlabel('iteration')
ax1.set_ylabel('train loss')
ax2.set_ylabel('test accuracy')
show()

私は中立顔と驚き顔のみを使用しています (問題を解決する場合は、より多くの感情を使用します)。しかし、私のネットの精度は 28% しかありません。精度が低いのは、ネットワーク構成の問題、トレイン関数内のロジック、またはトレーニング データベースが小さすぎる場合に関係していることを知りたいです。これは私のデータセットの説明です:

データセットのトレーニング: ニュートラルな顔の 56 枚の画像。驚きの顔画像60枚。テスト データセット: ニュートラルな顔の 15 枚の画像。驚きの顔画像15枚。

すべての画像は 32x32 でグレースケールです。私のbatch_sizeは32です。

誰かが私の問題を知るのを手伝ってくれませんか?

4

0 に答える 0