[英]Download all images from a site
下午好,有没有办法使用 python 从站点下载所有图像? 我搜索了很多并没有找到任何方法,我找到了下载单个图像但没有几个或全部的方法
第一个问题:到目前为止,您尝试了什么?
存在大量下载图像的方法:例如使用 selenium 废弃站点,保存所有链接,然后发送所有链接的发送请求以下载图像。
你需要做的事情:
1 - 使用 selenium 或 axios/request 或任何可以获取页面内部链接的 python 库来废弃网站 (html)
2 - 将所有图像链接保存在数组/列表/文件中
3 - 发送每个链接的请求(您可以使用 curl/wget/request)并保存在目录中
这样做的影响:
1 - 根据您下载图像的服务器,它可能会阻止您的 IP 因为它会将您的请求视为垃圾邮件/机器人
2 - 根据图像大小,您的磁盘将很快满
如果您决定这样做,如何解决第 1 项:
1.a - 在脚本中更改您的 IP(这将需要网络知识)
1.b - 在脚本中放置一些计时器/等待以不同时发送所有请求
我会考虑将 web 抓取工具 BeautifulSoup 与 request 和 urllib 等其他库一起使用。 取决于您想以多快的速度抓取和下载图像,其他 web 抓取工具可用,例如 Selenium 和 Scrapy。 您需要在代码中设置一个循环来查找源代码中的所有图像文件(如果是 png 或 jpg 或其他)。 我希望这对您有所帮助并为您提供一个开始。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.