簡體   English   中英

限制下載的頁面大小

[英]limit downloaded page size

有沒有辦法限制python的urllib2模塊下載的數據量? 有時候我遇到了破壞的網站,其中包含/ dev / random作為一個頁面,結果發現它們耗盡了服務器上的所有內存。

urllib2.urlopen返回一個類似文件的對象,你可以(至少在理論上.read(N)從這樣的對象中.read(N)來限制最多返回N個字節的數據量。

這種做法並不完全是萬無一失的,因為一個積極敵對的網站可能會花費相當多的時間來欺騙一個相當可信的收件人,比如urllib2的默認開啟者; 在這種情況下,您需要實現並安裝自己的開啟工具,知道如何防范此類攻擊(例如,從開放套接字一次獲得不超過MB的數據等)。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM