[英]Change PYSPARK_PYTHON on Spark workers
我们分发使用 Spark 的 Python 应用程序以及 Python 3.7 解释器(带有所有必要库的python.exe
位于MyApp.exe
附近)。
要设置PYSPARK_PYTHON
我们有确定python.exe
路径的函数:
os.environ['PYSPARK_PYTHON'] = get_python()
在 Windows 上PYSPARK_PYTHON
将变成C:/MyApp/python.exe
在 Ubuntu 上PYSPARK_PYTHON
将变成/opt/MyApp/python.exe
我们启动主/驱动节点并在 Windows 上创建SparkSession
。 然后我们在 Ubuntu 上启动工作节点,但工作节点失败:
Job aborted due to stage failure: Task 1 in stage 11.0 failed 4 times, most recent failure: Lost task 1.3 in stage 11.0 (TID 1614, 10.0.2.15, executor 1): java.io.IOException: Cannot run program "C:/MyApp/python.exe": error=2, No such file or directory
当然,ubuntu 上没有C:/MyApp/python.exe
。
如果我正确理解此错误, PYSPARK_PYTHON
驱动程序中的PYSPARK_PYTHON
将发送给所有工作人员。
还尝试在spark-env.sh
和spark-defaults.conf
设置PYSPARK_PYTHON
。 我怎样才能改变PYSPARK_PYTHON
在Ubuntu劳动者成为/opt/MyApp/python.exe
?
浏览源代码,在spark/rdd.py
创建用于运行 Python 函数的工作项时,Python 驱动程序代码看起来像是从其 Spark 上下文中放置 Python 可执行路径的值:
def _wrap_function(sc, func, deserializer, serializer, profiler=None):
assert deserializer, "deserializer should not be empty"
assert serializer, "serializer should not be empty"
command = (func, profiler, deserializer, serializer)
pickled_command, broadcast_vars, env, includes = _prepare_for_python_RDD(sc, command)
return sc._jvm.PythonFunction(bytearray(pickled_command), env, includes, sc.pythonExec,
^^^^^^^^^^^^^
sc.pythonVer, broadcast_vars, sc._javaAccumulator)
Python 运行器PythonRunner.scala
然后使用存储在它接收到的第一个工作项中的路径来启动新的解释器实例:
private[spark] abstract class BasePythonRunner[IN, OUT](
funcs: Seq[ChainedPythonFunctions],
evalType: Int,
argOffsets: Array[Array[Int]])
extends Logging {
...
protected val pythonExec: String = funcs.head.funcs.head.pythonExec
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
...
def compute(
inputIterator: Iterator[IN],
partitionIndex: Int,
context: TaskContext): Iterator[OUT] = {
...
val worker: Socket = env.createPythonWorker(pythonExec, envVars.asScala.toMap)
...
}
...
}
基于此,恐怕目前似乎不可能在 master 和 worker 中对 Python 可执行文件进行单独的配置。 另请参阅发布SPARK-26404的第三条评论。 也许您应该向 Apache Spark 项目提交 RFE。
不过,我不是 Spark 大师,可能仍然有办法做到这一点,也许是通过将PYSPARK_PYTHON
设置为"python"
,然后确保相应地配置系统PATH
以便您的 Python 可执行文件首先出现。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.