[英]Python: Download multiple .gz files from single URL
我無法從在線目錄下載多個網絡文件。 我在VMware上使用虛擬Linux環境(Lubuntu)。 我的目的是訪問一個子文件夾並將其包含的所有.gz文件下載到與主目錄不同的新本地目錄中。 我嘗試了多種解決方案,這是我得到的最接近的解決方案。
import os
from urllib2 import urlopen, URLError, HTTPError
def dlfile(url):
# Open the url
try:
f = urlopen(url)
print "downloading " + url
# Open our local file for writing
with open(os.path.basename(url), "wb") as local_file:
local_file.write(f.read())
#handle errors
except HTTPError, e:
print "HTTP Error:", e.code, url
except URLError, e:
print "URL Error:", e.reason, url
def main():
# Iterate over image ranges
for index in range(100, 250,5):
url = ("http://data.ris.ripe.net/rrc00/2016.01/updates20160128.0%d.gz"
%(index))
dlfile(url)
if __name__ == '__main__':
main()
在線目錄無需身份驗證,可以在此處找到鏈接。
我嘗試了字符串操作並在文件名上使用了循環,但這給了我以下錯誤:
HTTP Error: 404 http://data.ris.ripe.net/rrc00/2016.01/updates20160128.0245.gz
看網址
正確的網址: http://data.ris.ripe.net/rrc00/2016.01/updates.20160128.0245.gz
: http://data.ris.ripe.net/rrc00/2016.01/updates.20160128.0245.gz
網址錯誤(您的代碼): http://data.ris.ripe.net/rrc00/2016.01/updates20160128.0245.gz
: http://data.ris.ripe.net/rrc00/2016.01/updates20160128.0245.gz
更新和2016年之間缺少一個點
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.