簡體   English   中英

如何使用漂亮的湯和 python 刮卡細節

[英]How to scrape card details using beautiful soup and python

我正在嘗試抓取此鏈接: https://www.axisbank.com/retail/cards/credit-card

使用以下代碼

from urllib.request import urlopen
from bs4 import BeautifulSoup
import json, requests, re

axis_url = ["https://www.axisbank.com/retail/cards/credit-card"]

html = requests.get(axis_url[0])
soup = BeautifulSoup(html.content, 'lxml')

for d in soup.find_all('span'):
    print(d.get_text())

Output:

close
5.15%
%
4.00%
%
5.40%

基本上我想獲取該頁面中存在的每張卡片的詳細信息

在此處輸入圖像描述

我嘗試了不同的標簽,但似乎都沒有奏效。

我很高興看到滿足我要求的代碼。

非常感謝任何幫助。

怎么了?

您的主要問題是,該網站動態地提供其內容,並且您不會按照您的要求實現目標。 打印你的湯並看看,它不會包含你在瀏覽器中檢查的元素。

怎么修?

使用 selenium 可以處理動態生成的內容並提供您檢查過的信息:

例子

from bs4 import BeautifulSoup
from selenium import webdriver

driver = webdriver.Chrome(executable_path=r'C:\Program Files\ChromeDriver\chromedriver.exe')
url = 'https://www.axisbank.com/retail/cards/credit-card'
driver.get(url)

soup = BeautifulSoup(driver.page_source, 'lxml')
    
driver.close()

textList = []
for d in soup.select('#ulCreditCard li li > span'):
        textList.append(d.get_text('^^', strip=True))
    
textList

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM