[英]how to clean ram memory in python running a series of YOLO predictions?
我正在尝试一个接一个地对数百个 jpeg 进行 YOLO 预测。 在以下代码中,predict.py 为参数中的文件名创建一个带有预测的 jpeg。 此代码扫描整个文件夹并逐个文件。 长话短说,在 30 个 jpeg 之后它会变慢,并且任务管理器显示正在使用 10GB 内存。
将不胜感激任何帮助
创建每个文件后,我想从“新鲜”干净的 memory 开始进行下一次迭代 - 以下列方式使用 gc.collect 并没有改变任何东西。
import os
import predict
import gc
for root, dirs, files in os.walk("images\edited images"):
i=1
for name in files:
predict.main(os.path.join(root, name))
print(os.path.join(root, name))
i=i+1
print(i)
gc.collect()
这个解决了它:使用
K.clear_session()
gc.collect()
在 predicr 每次迭代之后
当从 keras 导入后端为 K
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.