繁体   English   中英

使用spark-submit和BeautifulSoup时出现UnicodeEncodeError

[英]UnicodeEncodeError while using spark-submit and BeautifulSoup

当我提交作业到spark 1.6,hadoop 2.7时,我在Python 2.7中不断收到UnicodeEncodeError,但是当我在pyspark shell上逐行执行相同的代码时,我没有得到相同的错误

我正在使用BeautifulSoup获取所有标签,并使用以下代码行从它们中获取文本:

[r.text for r in BeautifulSoup(line).findAll('ref') if r.text]

我尝试了以下操作:

  1. 设置export PYTHONIOENCODING="utf8"
  2. 使用r.text.encode('ascii', 'ignore')
  3. 还尝试应用sysdefaultencoding('utf-8')

能否请人告诉我如何解决? 下面是错误堆栈:

"/hdata/dev/sdf1/hadoop/yarn/local/usercache/harshdee/appcache/application_1551632819863_0039/container_e36_1551632819863_0039_01_000004/pyspark.zip/pyspark/serializers.py", line 263, in dump_stream
    vs = list(itertools.islice(iterator, batch))
  File "/home/harshdee/get_data.py", line 63, in get_as_row
    return Row(citations=get_citations(line.content), id=line.id, title=line.title)
  File "/home/harshdee/get_data.py", line 47, in get_citations
    refs_in_line = [r.text for r in BeautifulSoup(line).findAll('ref') if r.text]
  File "/usr/lib/python2.7/site-packages/bs4/__init__.py", line 274, in __init__
    self._check_markup_is_url(markup)
  File "/usr/lib/python2.7/site-packages/bs4/__init__.py", line 336, in _check_markup_is_url
    ' that document to Beautiful Soup.' % decoded_markup
  File "/usr/lib64/python2.7/warnings.py", line 29, in _show_warning
    file.write(formatwarning(message, category, filename, lineno, line))
  File "/usr/lib64/python2.7/warnings.py", line 38, in formatwarning
    s =  "%s:%s: %s: %s\n" % (filename, lineno, category.__name__, message)
UnicodeEncodeError: 'ascii' codec can't encode characters in position 21-28: ordinal not in range(128)```

我自己解决了这个问题。 我认为问题出在字符串的表示形式中。

为此,我使用了repr函数,该函数返回对象表示形式。 换句话说,它基本上返回一个统一编码的string

我将其应用于line变量。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM