[英]Making a large json file quickly available in python
我有一個大約 5 GB 的多 json 文件,我在其中進行了一些探索性數據分析。 問題是每次我加載文件時,使用此代碼時加載它大約需要 1 分鍾:
with open(json_fn, 'r') as f: # multiple jsons in one file! (one per line)
for line in f:
data = json.loads(line)
有沒有更有效的方法來存儲這些數據以在 python 中加載它? 我在考慮泡菜(因為它是一種二進制格式,通常速度更快)但它似乎更慢。 有什么建議可以用來避免每次等待 1 分鍾嗎?
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.