我的列表 = [[1,2,3],[4,5,6][7,8,9],[10,11,12]].... 我需要每个索引中的 1 个元素并将其转换为列表。 我确实有一千多个索引。 应该: 新列表 = [2,5,8,11] ...
提示:本站收集StackOverFlow近2千万问答,支持中英文搜索,鼠标放在语句上弹窗显示对应的参考中文或英文, 本站还提供 中文繁体 英文版本 中英对照 版本,有任何建议请联系yoyou2525@163.com。
我正在尝试提取一些包含其他链接的链接,并努力将 output 从 for 循环中获取到单个列表中,如下所述。
我的代码:
pages = ['https://pagetoscrape.com/?page=1',
'https://pagetoscrape.com/?page=2',
'https://pagetoscrape.com/?page=3'
]
for u in pages:
response = requests.get(u)
data = response.content
soup = BeautifulSoup(data, 'lxml')
for links in soup.find_all('div', class_='item-to-scrape'):
link = links.a['href']
print(link)
Output:
pagetoscrape.com/url1
pagetoscrape.com/url2
pagetoscrape.com/url3
pagetoscrape.com/url4
pagetoscrape.com/url5
pagetoscrape.com/url6
pagetoscrape.com/url7
...
如何获得这样的列表以便稍后将其用于类似于“pages”数组变量的其他操作(另一个循环选择链接)?:
['pagetoscrape.com/url1', 'pagetoscrape.com/url2', 'pagetoscrape.com/url3', 'pagetoscrape.com/url4', ...]
使用列表理解构建您的列表:
link_list = [links.a['href']
for links in soup.find_all('div', class_='item-to-scrape') ]
如果我理解正确,你想要这样的东西。
pages = ['https://pagetoscrape.com/?page=1',
'https://pagetoscrape.com/?page=2',
'https://pagetoscrape.com/?page=3'
]
urls = []
for u in pages:
response = requests.get(u)
data = response.content
soup = BeautifulSoup(data, 'lxml')
for links in soup.find_all('div', class_='item-to-scrape'):
link = links.a['href']
urls.append(link)
print(link)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.