簡體   English   中英

使用 Python 從字符串中提取 URL 的最簡潔方法是什么?

[英]What's the cleanest way to extract URLs from a string using Python?

盡管我知道我可以使用一些巨大的正則表達式,例如此處發布的那個,但我想知道是否有一些調整方法可以使用標准模塊或第三方附加組件來做到這一點?

簡單的問題,但在 Google(或 Stackoverflow)上沒有跳出任何內容。

期待看到你們如何做到這一點!

我知道這正是你不想要的,但這里有一個巨大的正則表達式的文件:

#!/usr/bin/python
# -*- coding: utf-8 -*-
"""
the web url matching regex used by markdown
http://daringfireball.net/2010/07/improved_regex_for_matching_urls
https://gist.github.com/gruber/8891611
"""
URL_REGEX = r"""(?i)\b((?:https?:(?:/{1,3}|[a-z0-9%])|[a-z0-9.\-]+[.](?:com|net|org|edu|gov|mil|aero|asia|biz|cat|coop|info|int|jobs|mobi|museum|name|post|pro|tel|travel|xxx|ac|ad|ae|af|ag|ai|al|am|an|ao|aq|ar|as|at|au|aw|ax|az|ba|bb|bd|be|bf|bg|bh|bi|bj|bm|bn|bo|br|bs|bt|bv|bw|by|bz|ca|cc|cd|cf|cg|ch|ci|ck|cl|cm|cn|co|cr|cs|cu|cv|cx|cy|cz|dd|de|dj|dk|dm|do|dz|ec|ee|eg|eh|er|es|et|eu|fi|fj|fk|fm|fo|fr|ga|gb|gd|ge|gf|gg|gh|gi|gl|gm|gn|gp|gq|gr|gs|gt|gu|gw|gy|hk|hm|hn|hr|ht|hu|id|ie|il|im|in|io|iq|ir|is|it|je|jm|jo|jp|ke|kg|kh|ki|km|kn|kp|kr|kw|ky|kz|la|lb|lc|li|lk|lr|ls|lt|lu|lv|ly|ma|mc|md|me|mg|mh|mk|ml|mm|mn|mo|mp|mq|mr|ms|mt|mu|mv|mw|mx|my|mz|na|nc|ne|nf|ng|ni|nl|no|np|nr|nu|nz|om|pa|pe|pf|pg|ph|pk|pl|pm|pn|pr|ps|pt|pw|py|qa|re|ro|rs|ru|rw|sa|sb|sc|sd|se|sg|sh|si|sj|Ja|sk|sl|sm|sn|so|sr|ss|st|su|sv|sx|sy|sz|tc|td|tf|tg|th|tj|tk|tl|tm|tn|to|tp|tr|tt|tv|tw|tz|ua|ug|uk|us|uy|uz|va|vc|ve|vg|vi|vn|vu|wf|ws|ye|yt|yu|za|zm|zw)/)(?:[^\s()<>{}\[\]]+|\([^\s()]*?\([^\s()]+\)[^\s()]*?\)|\([^\s]+?\))+(?:\([^\s()]*?\([^\s()]+\)[^\s()]*?\)|\([^\s]+?\)|[^\s`!()\[\]{};:\'\".,<>?«»“”‘’])|(?:(?<!@)[a-z0-9]+(?:[.\-][a-z0-9]+)*[.](?:com|net|org|edu|gov|mil|aero|asia|biz|cat|coop|info|int|jobs|mobi|museum|name|post|pro|tel|travel|xxx|ac|ad|ae|af|ag|ai|al|am|an|ao|aq|ar|as|at|au|aw|ax|az|ba|bb|bd|be|bf|bg|bh|bi|bj|bm|bn|bo|br|bs|bt|bv|bw|by|bz|ca|cc|cd|cf|cg|ch|ci|ck|cl|cm|cn|co|cr|cs|cu|cv|cx|cy|cz|dd|de|dj|dk|dm|do|dz|ec|ee|eg|eh|er|es|et|eu|fi|fj|fk|fm|fo|fr|ga|gb|gd|ge|gf|gg|gh|gi|gl|gm|gn|gp|gq|gr|gs|gt|gu|gw|gy|hk|hm|hn|hr|ht|hu|id|ie|il|im|in|io|iq|ir|is|it|je|jm|jo|jp|ke|kg|kh|ki|km|kn|kp|kr|kw|ky|kz|la|lb|lc|li|lk|lr|ls|lt|lu|lv|ly|ma|mc|md|me|mg|mh|mk|ml|mm|mn|mo|mp|mq|mr|ms|mt|mu|mv|mw|mx|my|mz|na|nc|ne|nf|ng|ni|nl|no|np|nr|nu|nz|om|pa|pe|pf|pg|ph|pk|pl|pm|pn|pr|ps|pt|pw|py|qa|re|ro|rs|ru|rw|sa|sb|sc|sd|se|sg|sh|si|sj|Ja|sk|sl|sm|sn|so|sr|ss|st|su|sv|sx|sy|sz|tc|td|tf|tg|th|tj|tk|tl|tm|tn|to|tp|tr|tt|tv|tw|tz|ua|ug|uk|us|uy|uz|va|vc|ve|vg|vi|vn|vu|wf|ws|ye|yt|yu|za|zm|zw)\b/?(?!@)))"""

我將該文件urlmarker.py ,當我需要它時,我只需導入它,例如。

import urlmarker
import re
re.findall(urlmarker.URL_REGEX,'some text news.yahoo.com more text')

比照 http://daringfireball.net/2010/07/improved_regex_for_matching_urls

此外,這是Django(1.6)用於驗證URLField的內容:

regex = re.compile(
    r'^(?:http|ftp)s?://'  # http:// or https://
    r'(?:(?:[A-Z0-9](?:[A-Z0-9-]{0,61}[A-Z0-9])?\.)+(?:[A-Z]{2,6}\.?|[A-Z0-9-]{2,}\.?)|'  # domain...
    r'localhost|'  # localhost...
    r'\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}|'  # ...or ipv4
    r'\[?[A-F0-9]*:[A-F0-9:]+\]?)'  # ...or ipv6
    r'(?::\d+)?'  # optional port
    r'(?:/?|[/?]\S+)$', re.IGNORECASE)

比照 https://github.com/django/django/blob/1.6/django/core/validators.py#L43-50

Django 1.9將邏輯拆分為幾個類

看看Django的方法: django.utils.urlize() Regexs對於工作而言太有限了,您必須使用啟發式方法來獲得大多數正確的結果。

對13種不同的正則表達式方法進行了很好的比較

...可以在這個頁面找到: 尋找完美的URL驗證正則表達式

通過所有測試的Diego Perini正則表達式長,但可以在他的要點上找到
請注意,您必須將其PHP版本轉換為python正則表達式(存在細微差別)。

我最終使用了Imme Emosol版本,該版本通過絕大多數測試,只是Diego Perini的一小部分。

這是Imme Emosol正則表達式的python兼容版本:

r'^(?:(?:https?|ftp)://)(?:\S+(?::\S*)?@)?(?:(?:[1-9]\d?|1\d\d|2[01]\d|22[0-3])(?:\.(?:1?\d{1,2}|2[0-4]\d|25[0-5])){2}(?:\.(?:[1-9]\d?|1\d\d|2[0-4]\d|25[0-4]))|(?:(?:[a-z\u00a1-\uffff0-9]+-?)*[a-z\u00a1-\uffff0-9]+)(?:\.(?:[a-z\u00a1-\uffff0-9]+-?)*[a-z\u00a1-\uffff0-9]+)*(?:\.(?:[a-z\u00a1-\uffff]{2,})))(?::\d{2,5})?(?:/[^\s]*)?$'

使用正則表達式。

回復OP的評論:我知道這沒有用。 我告訴你解決問題的正確方法,因為你聲明它是使用正則表達式。

您可以使用我寫的這個庫:

https://github.com/imranghory/urlextractor

它非常hacky,但它不像許多其他技術那樣依賴“http://”,而是使用Mozilla TLD列表(通過tldextract庫)來搜索TLD(即“.co.uk”,“。 com“等,然后在文本中嘗試構建TLD周圍的URL。

它的目標不是符合RFC,而是准確了解在現實世界中如何使用URL。 因此,例如,它將拒絕技術上有效的域“com”(您實際上可以使用TLD作為域;雖然它在實踐中很少見)並且將從URL中刪除跟蹤句點或逗號。

如果您知道字符串中的空格后面有一個URL,您可以執行以下操作:

s是包含url的字符串

>>> t = s[s.find("http://"):]
>>> t = t[:t.find(" ")]

否則你需要檢查find是否返回-1。

你可以使用BeautifulSoup

def extractlinks(html):
    soup = BeautifulSoup(html)
    anchors = soup.findAll('a')
    links = []
    for a in anchors:
        links.append(a['href'])
    return links

請注意,使用正則表達式的解決方案更快,但不會那么准確。

我遲到了,但這里有一個解決方案,來自freenode的#python的人向我建議。 它避免了正則表達式的麻煩。

from urlparse import urlparse

def extract_urls(text):
    """Return a list of urls from a text string."""
    out = []
    for word in text.split(' '):
        thing = urlparse(word.strip())
        if thing.scheme:
            out.append(word)
    return out
import re
text = '<p>Please click <a href="http://www.dr-chuck.com">here</a></p>'
aa=re.findall('href="(.+)"',text)
print(aa)

還有另一種方法可以輕松地從文本中提取URL。 您可以使用urlextract為您完成,只需通過pip安裝:

pip install urlextract

然后你可以像這樣使用它:

from urlextract import URLExtract

extractor = URLExtract()
urls = extractor.find_urls("Let's have URL stackoverflow.com as an example.")
print(urls) # prints: ['stackoverflow.com']

您可以在我的github頁面上找到更多信息: https//github.com/lipoja/URLExtract

注意:它從iana.org下載TLD列表以使您保持最新狀態。 但如果該程序沒有互聯網訪問,那么它不適合你。

這種方法與urlextractor(如上所述)類似,但我的代碼是最新的,維護的,我對任何建議(新功能)都是開放的。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM