繁体   English   中英

如何在运行一系列 YOLO 预测的 python 中清理 ram memory?

[英]how to clean ram memory in python running a series of YOLO predictions?

我正在尝试一个接一个地对数百个 jpeg 进行 YOLO 预测。 在以下代码中,predict.py 为参数中的文件名创建一个带有预测的 jpeg。 此代码扫描整个文件夹并逐个文件。 长话短说,在 30 个 jpeg 之后它会变慢,并且任务管理器显示正在使用 10GB 内存。

将不胜感激任何帮助

创建每个文件后,我想从“新鲜”干净的 memory 开始进行下一次迭代 - 以下列方式使用 gc.collect 并没有改变任何东西。

    import os
    import predict
    import gc

    for root, dirs, files in os.walk("images\edited images"): 
       i=1
       for name in files:
           predict.main(os.path.join(root, name))
           print(os.path.join(root, name))
           i=i+1
           print(i)
           gc.collect()

这个解决了它:使用

                K.clear_session()
                gc.collect()

在 predicr 每次迭代之后

当从 keras 导入后端为 K

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM