繁体   English   中英

如何使用R刮取无限加载页面

[英]How to scrape an infinite load page with R

我一直在抓一些新闻媒体页面进行我的小型研究。 而且我遇到过该页面 ,滚动时会加载文章。 我尝试在F12检查器中监视响应,并发现(带有XHR文件)页面确实确实在一定数量的文章之后单独加载。

我什至可以在检查器中看到指向它们的URL,该屏幕快照显示了我的意思,

截图

但是,我不知道如何将该信息加载到R 我一直在使用Rvest ,但不确定HTTR在这里是否有帮助?

谢谢!

您可以在此端点上翻阅原始json:

http://kolumbus-api.lrytas.lt/query/?count=&tag_slugs=politika&type=Video,Articolo&order=pubfromdate-&ret_fields=props.type__AS__type,props.media[indexof(x.type=%27media%27%20for%20x%20in%20props.media)][%27hd-alternate-href%27]__AS__thumb,props.categories[0].name__AS__category,props.href__AS__href,props.title__AS__title,props.commentCount__AS__commentCount,props.media[indexof(x.type=%27media%27%20for%20x%20in%20props.media)].otheralternate.1280x720.href__AS__imgxl,props.media[indexof(x.type=%27media%27%20for%20x%20in%20props.media)].otheralternate.300x200.href__AS__imgm,props.media__AS__media_json&page=1

只需在页面的最末端更改page参数即可进行页面切换: page=1直到到达结尾。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM