0

私は現在、caffe が提供する lenet モデルをプレイしています。

例 (path/to/caffe/examples/mnist/convert_mnist_data.cpp にあります) は、mnist データを lmdb に変換するための C++ プログラムを提供します。

私は同じことをするためにpythonプログラムを書いていますが、lmdbのサイズ(480MB)はc ++で変換されたもの(60MB)よりもはるかに大きいです。

テスト精度はほぼ同じ (98%) です。

サイズが大きく異なる理由を知りたいです。

これがプログラムです。mnist モジュール ( https://pypi.python.org/pypi/python-mnist/ ) を利用して、バイナリ mnist データの読み込みを支援します。

from mnist import MNIST
import numpy as np
import cv2
import lmdb
import caffe
mndata = MNIST('./data')
images, labels = mndata.load_training()
labels = np.array(labels)
images = np.array(images).reshape(len(labels), 28, 28).astype(np.uint8)

print type(images[0][0][0])

count = 0
env = lmdb.open('mnist_lmdb', map_size=1000*1000*1000)

txn = env.begin(write=True)
for i in xrange(len(labels)):
    print i
    datum = caffe.proto.caffe_pb2.Datum()
    datum.channels = 1
    datum.height = 28
    datum.width = 28
    datum.data = images[i].tobytes()
    datum.label = labels[i]
    str_id = '{:08}'.format(i)
    txn.put(str_id, datum.SerializeToString())

    count = count + 1

    if count % 1000 == 0:
        txn.commit()
        txn = env.begin(write=True)

if count % 1000 != 0:
    txn.commit()
env.close()

ありがとうございました。

4

1 に答える 1

0
env = lmdb.open('mnist_lmdb', map_size=1000*1000*1000)

データベースのサイズは主にに依存するmap_sizeため、削減できますmap_size

于 2016-08-12T03:26:35.920 に答える