1

サイズ 400x156300 のデータセットで oja のルールを使用しています。RAMがクラッシュするようです。何が原因なのかわかりません。助けてください。私は12GBのRAMを持っています。memmap を使用しようとしましたが、それでもクラッシュします!!

#convert memmap and reduce precision
[num_sample,num_feat]=train_data.shape
filename = path.join(mkdtemp(), 'train_data.dat')
memmap_train = np.memmap(filename, dtype='float32', mode='w+', shape=(num_sample,num_feat))
memmap_train[:] = train_data[:]
del train_data,test_data

#apply oja's rule
ojanet = algorithms.Oja(minimized_data_size=1250,step=1e-10,verbose=True,show_epoch=1)
ojanet.train(memmap_train, epsilon=1e-3,epochs=10000)
red_train_data = ojanet.predict(memmap_train)
ojanet.plot_errors(logx=False)
pdb.set_trace()

また、提起された問題: https://github.com/itdxer/neupy/issues/27。パッケージ開発が活発かどうかわかりません。

RAM のクラッシュとは、RAM の使用率が 100% を超え、コンピューターが応答しなくなることを意味します。

4

1 に答える 1

0

この問題は、Oja アルゴリズムの非効率的なメモリ使用に関連していました。NeuPy バージョン 0.1.4 で修正されました。ここで見つけることができるクローズドチケット: https://github.com/itdxer/neupy/issues/27

于 2017-01-12T17:41:34.943 に答える