繁体   English   中英

由于过度使用 RAM,Google Colab 崩溃

[英]Google Colab is crashing due to excessive usage of RAM

我正在构建一个具有 230 MB 大小的图像数据集的 CNN model,即使使用 16 和 8 个小批量,Google Colab 也会崩溃。总共有 40k 图像。 请提出相同的补救措施或建议另一个具有更好 memory 容量的免费平台。

在此处输入图像描述

崩溃前的警告消息:“tensorflow/core/framework/cpu_allocator_impl.cc:82] 834978816 的分配超过了可用系统 memory 的 10%。”

我想我是通过显着减小输入图像的大小并通过使用更少的卷积层来减少参数数量来解决这个问题的。 RAM 过度使用问题目前已解决,尽管它会影响 model 的整体性能。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM