繁体   English   中英

使用 Python 从网站中提取表格数据

[英]Extract table data from website using Python

我正在尝试获取与用户尝试访问的任何网站相关的信息。 要阻止任何恶意网站访问,我需要详细信息,例如黑名单状态、IP 地址、服务器位置等。我是从 URLVOID 网站获得的。 < https://www.urlvoid.com/scan/ >

我正在以表格格式获得以下结果,并尝试在 spyder 中获取相同的结果。 见表

我正在使用正则表达式方法从表格中获取详细信息。

######

import httplib2 
import re
def urlvoid(urlInput):                
    h2 = httplib2.Http(".cache")
    resp, content2 = h2.request(("https://www.urlvoid.com/scan/" + urlInput), "GET")
    content2String = (str(content2))
    rpderr = re.compile('\<div\sclass\=\"error\"\>', re.IGNORECASE)
    rpdFinderr = re.findall(rpderr,content2String)
    if "error" in str(rpdFinderr):
        ipvoidErr = True
    else:
        ipvoidErr = False
    if ipvoidErr == False:

        rpd2 = re.compile('(?<=Server Location</span></td><td>)[a-zA-Z0-9.]+(?=</td></tr>)')
        rpdFind2 = re.findall(rpd2,content2String)
        rpdSorted2=sorted(rpdFind2)

    return rpdSorted2

urlvoid("google.com")
######

但是,它的效率并不高,并且此正则表达式不适用于所有网站。 有没有更简单的方法来获取所有这些信息?

我不建议您使用正则表达式抓取数据,因为它可以通过bs4完成,如果您建立一个正则表达式来完成,则需要很长时间和复杂的条件。

import requests
from bs4 import BeautifulSoup,NavigableString
import re

def urlvoid(urlInput):
    url = "https://www.urlvoid.com/scan/" + urlInput
    res = requests.get(url)
    text = res.text
    soup = BeautifulSoup(text,"lxml").find("table",class_="table table-custom table-striped")
    all_tr = soup.find_all("tr")
    value = { tr.find_all("td")[0].text : 
                tr.find_all("td")[1].text.replace("\xa0","")
                for tr in all_tr}
    print(value)

urlvoid("google.com")

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM