繁体   English   中英

用于 Pandas UDF 的 PySpark 加载包

[英]PySpark Load Packages for Pandas UDF's

我曾尝试在此处关注 Databricks 博客文章但不幸的是不断收到错误消息。 我正在尝试安装 pandas、pyarrow、numpy 和 h3 库,然后能够在我的 PySpark 集群上访问这些库,但是按照这些说明操作不起作用。

  1. conda init --all(然后关闭并重新打开终端)
  2. conda create -y -n pyspark_conda_env -c conda-forge pyarrow pandas h3 numpy python=3.7.10 conda-pack
  3. conda 激活 pyspark_conda_env
  4. conda pack -f -o pyspark_conda_env.tar.gz
import os
from pyspark.sql import SparkSession

os.environ['PYSPARK_PYTHON'] = "./environment/bin/python"
spark = SparkSession.builder.config(
    "spark.yarn.archive",  # 'spark.yarn.dist.archives' in YARN.
    "~/gzk/pyspark_conda_env.tar.gz#environment").getOrCreate()

我能够做到这一点,但是当我实际尝试运行ModuleNotFoundError: No module named 'numpy' ,出现错误: ModuleNotFoundError: No module named 'numpy'

我该如何解决这个问题并使用 pandas udf 的?

我最终通过为我的 AWS EMR 集群编写引导脚本来解决这个问题,该脚本将在所有节点上安装我需要的所有包。 我永远无法按照上述说明正常工作。

可以在此处找到有关引导程序脚本的文档: https : //docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-bootstrap.html

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM