[英]spark-submit with python entry points
我有一个脚本wordcount.py
我使用 setuptools 创建了一个名为wordcount
的入口点,因此现在我可以从系统中的任何位置调用该命令。
我试图通过 spark-submit(命令: spark-submit wordcount
)执行它,但它失败并出现以下错误:
Error: Cannot load main class from JAR file:/usr/local/bin/wordcount Run with --help for usage help or --verbose for debug output
但是,当我提供 python 脚本的路径时,完全相同的命令可以正常工作(命令: spark-submit /home/ubuntu/wordcount.py
)
wordcount.py 的内容
import sys
from operator import add
from pyspark.sql import SparkSession
def main(args=None):
if len(sys.argv) != 2:
print("Usage: wordcount <file>", file=sys.stderr)
exit(-1)
spark = SparkSession\
.builder\
.appName("PythonWordCount")\
.getOrCreate()
lines = spark.read.text(sys.argv[1]).rdd.map(lambda r: r[0])
counts = lines.flatMap(lambda x: x.split(' ')) \
.map(lambda x: (x, 1)) \
.reduceByKey(add)
output = counts.collect()
for (word, count) in output:
print("%s: %i" % (word, count))
spark.stop()
if __name__ == "__main__":
main()
你知道有没有办法绕过这个?
非常感谢。
当您运行spark-submit wordcount
,它将 wordcount 视为将要执行类的 jar 文件。
此外,它会尝试在路径/usr/local/bin
查找 jar,因为您尚未指定类路径。
请提供wordcount
文件的内容。 如果可能,请尝试在使用spark-submit
执行时提供wordcount
的路径。
查看此链接以获取更多信息。 关于 spark-submit 命令: https : //spark.apache.org/docs/latest/submitting-applications.html
我发现如果你将入口点重命名为.py
后缀, spark-submit
会接受它作为一个 python 应用程序:
entry_points={
'console_scripts': [
'wordcount.py = mymodule.wordcount:main',
],
}
然后提交按预期被接受:
spark-submit ./bin/wordcount.py
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.