繁体   English   中英

在 Spark 工作线程上更改 PYSPARK_PYTHON

[英]Change PYSPARK_PYTHON on Spark workers

我们分发使用 Spark 的 Python 应用程序以及 Python 3.7 解释器(带有所有必要库的python.exe位于MyApp.exe附近)。

要设置PYSPARK_PYTHON我们有确定python.exe路径的函数:

os.environ['PYSPARK_PYTHON'] = get_python()  

在 Windows 上PYSPARK_PYTHON将变成C:/MyApp/python.exe
在 Ubuntu 上PYSPARK_PYTHON将变成/opt/MyApp/python.exe

我们启动主/驱动节点并在 Windows 上创建SparkSession 然后我们在 Ubuntu 上启动工作节点,但工作节点失败:

Job aborted due to stage failure: Task 1 in stage 11.0 failed 4 times, most recent failure: Lost task 1.3 in stage 11.0 (TID 1614, 10.0.2.15, executor 1): java.io.IOException: Cannot run program "C:/MyApp/python.exe": error=2, No such file or directory

当然,ubuntu 上没有C:/MyApp/python.exe

如果我正确理解此错误, PYSPARK_PYTHON驱动程序中的PYSPARK_PYTHON将发送给所有工作人员。

还尝试在spark-env.shspark-defaults.conf设置PYSPARK_PYTHON 我怎样才能改变PYSPARK_PYTHON在Ubuntu劳动者成为/opt/MyApp/python.exe

浏览源代码,在spark/rdd.py创建用于运行 Python 函数的工作项时,Python 驱动程序代码看起来像是从其 Spark 上下文中放置 Python 可执行路径的值:

def _wrap_function(sc, func, deserializer, serializer, profiler=None):
    assert deserializer, "deserializer should not be empty"
    assert serializer, "serializer should not be empty"
    command = (func, profiler, deserializer, serializer)
    pickled_command, broadcast_vars, env, includes = _prepare_for_python_RDD(sc, command)
    return sc._jvm.PythonFunction(bytearray(pickled_command), env, includes, sc.pythonExec,
                                                                             ^^^^^^^^^^^^^
                                  sc.pythonVer, broadcast_vars, sc._javaAccumulator)

Python 运行器PythonRunner.scala然后使用存储在它接收到的第一个工作项中的路径来启动新的解释器实例:

private[spark] abstract class BasePythonRunner[IN, OUT](
    funcs: Seq[ChainedPythonFunctions],
    evalType: Int,
    argOffsets: Array[Array[Int]])
  extends Logging {
  ...
  protected val pythonExec: String = funcs.head.funcs.head.pythonExec
                                     ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  ...
  def compute(
      inputIterator: Iterator[IN],
      partitionIndex: Int,
      context: TaskContext): Iterator[OUT] = {
    ...
    val worker: Socket = env.createPythonWorker(pythonExec, envVars.asScala.toMap)
    ...
  }
  ...
}

基于此,恐怕目前似乎不可能在 master 和 worker 中对 Python 可执行文件进行单独的配置。 另请参阅发布SPARK-26404的第三条评论。 也许您应该向 Apache Spark 项目提交 RFE。

不过,我不是 Spark 大师,可能仍然有办法做到这一点,也许是通过将PYSPARK_PYTHON设置为"python" ,然后确保相应地配置系统PATH以便您的 Python 可执行文件首先出现。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM