繁体   English   中英

如何在 Pycharm 中将 jar 添加到 Spark

[英]How to add jar to Spark in Pycharm

我想在 PyCharm 中调试 Spark 代码,因为它更容易调试。 但是我需要添加一个spark-redis.jar否则Failed to find data source: redis

连接redis的代码是

spark = SparkSession \
            .builder \
            .appName("Streaming Image Consumer") \
            .config("spark.redis.host", self.redis_host) \
            .config("spark.redis.port", self.redis_port) \
            .getOrCreate()

如果使用 PyCharm 如何修复它?

我曾尝试在$SPARK_HOME/conf/spark-defaults.conf添加spark.driver.extraClassPath但它不起作用。

我还尝试在运行配置中添加环境变量PYSPARK_SUBMIT_ARGS --jars ...但它引发了其他错误

spark.driver.extraClassPath添加到spark-defaults.conf对我来说适用于 Spark 2.3.1

cat /Users/oleksiidiagiliev/Soft/spark-2.3.1-bin-hadoop2.7/conf/spark-defaults.conf

spark.driver.extraClassPath /Users/oleksiidiagiliev/.m2/repository/com/redislabs/spark-redis/2.3.1-SNAPSHOT/spark-redis-2.3.1-SNAPSHOT-jar-with-dependencies.jar

请注意,这是一个带有依赖项的 jar(您可以使用mvn clean install -DskipTests从源构建一个)。

Aslo我将pyspark库和SPARK_HOME环境变量添加到PyCharm项目中,如下所述https://medium.com/parrot-prediction/integrating-apache-spark-2-0-with-pycharm-ce-522a6784886f

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM