繁体   English   中英

在 google colab 中,当我读取 1.5 GB csv 文件时,它占用 6 GB RAM。 我已经使用 psutil.virtual_memory().available 检查过。 是什么原因?

[英]In google colab when i read 1.5 gb csv file it occupy 6 gb RAM. I have checked using psutil.virtual_memory().available. What is the reason?

psutil.virtual_memory().available

24.50384521484375

test =pd.read_csv("test_csv.csv")
psutil.virtual_memory().available

18.723899841308594

因为数据的内部 python 表示比裸文件大小占用更多的内存。

例如,在我的特定版本的 python 上,一个非空字符串对象最少占用 38 个字节:

>>> x = '1'
>>> sys.getsizeof(x)
38

因此,如果您有一个只包含数字 1 的文件,则该文件本身只有一个字节。 但是当你将文件内容读入 python 变量时,它占用的内存比这多得多。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM