[英]How to scrape an infinite load page with R
我一直在抓一些新闻媒体页面进行我的小型研究。 而且我遇到过该页面 ,滚动时会加载文章。 我尝试在F12
检查器中监视响应,并发现(带有XHR
文件)页面确实确实在一定数量的文章之后单独加载。
我什至可以在检查器中看到指向它们的URL,该屏幕快照显示了我的意思,
但是,我不知道如何将该信息加载到R
。 我一直在使用Rvest
,但不确定HTTR在这里是否有帮助?
谢谢!
您可以在此端点上翻阅原始json:
http://kolumbus-api.lrytas.lt/query/?count=&tag_slugs=politika&type=Video,Articolo&order=pubfromdate-&ret_fields=props.type__AS__type,props.media[indexof(x.type=%27media%27%20for%20x%20in%20props.media)][%27hd-alternate-href%27]__AS__thumb,props.categories[0].name__AS__category,props.href__AS__href,props.title__AS__title,props.commentCount__AS__commentCount,props.media[indexof(x.type=%27media%27%20for%20x%20in%20props.media)].otheralternate.1280x720.href__AS__imgxl,props.media[indexof(x.type=%27media%27%20for%20x%20in%20props.media)].otheralternate.300x200.href__AS__imgm,props.media__AS__media_json&page=1
只需在页面的最末端更改page参数即可进行页面切换: page=1
直到到达结尾。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.