繁体   English   中英

使用Oja规则中的memmap崩溃RAM

[英]Crashing RAM using memmap in Oja rule

我在大小为400x156300的数据集上使用oja规则。 它似乎使我的RAM崩溃了。 我不确定是什么原因造成的。 请帮忙。 我有12 GB的RAM。 尝试使用memmap但仍然崩溃!

#convert memmap and reduce precision
[num_sample,num_feat]=train_data.shape
filename = path.join(mkdtemp(), 'train_data.dat')
memmap_train = np.memmap(filename, dtype='float32', mode='w+', shape=(num_sample,num_feat))
memmap_train[:] = train_data[:]
del train_data,test_data

#apply oja's rule
ojanet = algorithms.Oja(minimized_data_size=1250,step=1e-10,verbose=True,show_epoch=1)
ojanet.train(memmap_train, epsilon=1e-3,epochs=10000)
red_train_data = ojanet.predict(memmap_train)
ojanet.plot_errors(logx=False)
pdb.set_trace()

同样,提出了一个问题: https : //github.com/itdxer/neupy/issues/27 不知道软件包开发是否处于活动状态。

通过破坏RAM,我的意思是RAM%利用率超过100%,并且我的计算机停止响应。

此问题与Oja算法的内存使用效率低下有关。 它在NeuPy版本0.1.4中已修复。 封闭票可以在这里找到: https : //github.com/itdxer/neupy/issues/27

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM