[英]python subprocess module hangs for spark-submit command when writing STDOUT
我有一个python脚本,用于使用spark-submit工具提交spark作业。 我想执行命令并将输出实时写入STDOUT和日志文件。 我在ubuntu服务器上使用python 2.7。
这就是我到目前为止的SubmitJob.py脚本
#!/usr/bin/python
# Submit the command
def submitJob(cmd, log_file):
with open(log_file, 'w') as fh:
process = subprocess.Popen(cmd, stdout=subprocess.PIPE, stderr=subprocess.STDOUT)
while True:
output = process.stdout.readline()
if output == '' and process.poll() is not None:
break
if output:
print output.strip()
fh.write(output)
rc = process.poll()
return rc
if __name__ == "__main__":
cmdList = ["dse", "spark-submit", "--spark-master", "spark://127.0.0.1:7077", "--class", "com.spark.myapp", "./myapp.jar"]
log_file = "/tmp/out.log"
exist_status = submitJob(cmdList, log_file)
print "job finished with status ",exist_status
奇怪的是,当我在shell中直接执行同一命令时,它运行良好,并随着程序的进行在屏幕上产生输出。
因此,看来我在使用subprocess.PIPE进行stdout和写入文件时出现了问题。
当前推荐的使用子流程模块逐行实时写入stdout和日志文件的方法是什么? 我在互联网上看到了很多选项,但不确定哪个正确或最新。
谢谢
找出问题所在。 我试图将两个stdout n stderr重定向到管道以在屏幕上显示。 存在stderr时,这似乎会阻止stdout。 如果我从Popen中删除stderr = stdout参数,则可以正常工作。 因此,对于spark-submit,看起来您不需要显式重定向stderr,因为它已经隐式执行了此操作
要打印Spark日志,可以调用user330612给定的commandList
cmdList = ["spark-submit", "--spark-master", "spark://127.0.0.1:7077", "--class", "com.spark.myapp", "./myapp.jar"]
然后可以使用子进程进行打印,请记住使用通讯()防止死锁https://docs.python.org/2/library/subprocess.html警告当使用stdout = PIPE和/或stderr = PIPE和子进程会向管道生成足够的输出,从而阻止进程等待OS管道缓冲区接受更多数据。 使用communication()可以避免这种情况。 下面是打印日志的代码。
import subprocess
p = subprocess.Popen(cmdList,stdout=subprocess.PIPE,stdout=subprocess.PIPE,stderr=subprocess.PIPE)
stdout, stderr = p.communicate()
stderr=stderr.splitlines()
stdout=stdout.splitlines()
for line in stderr:
print line #now it can be printed line by line to a file or something else, for the log
for line in stdout:
print line #for the output
有关子流程和打印行的更多信息,请参见: https : //pymotw.com/2/subprocess/
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.