繁体   English   中英

将 Spark 数据帧写入 delta 湖

[英]Write Spark dataframe into delta lake

我正在尝试使用文档提供的示例代码将 Spark 数据帧转换为 delta 格式,但总是遇到这个奇怪的错误。 你能帮忙或指导吗?

df_sdf.write.format("delta").save("/mnt/.../delta/")

错误看起来像:

org.apache.spark.SparkException: Job aborted.

--------------------------------------------------------------------------- Py4JJavaError Traceback (most recent call last) <command-3011941952225495> in <module> ----> 1 df_sdf.write.format("delta").save("/mnt/.../delta/") /databricks/spark/python/pyspark/sql/readwriter.py in save(self, path, format, mode, partitionBy, **options) 737 self._jwrite.save() 738 else: --> 739 self._jwrite.save(path) 740 741 @since(1.4)
/databricks/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py in call(self, *args) 1255 answer = self.gateway_client.send_command(command) 1256 return_value = get_return_value( -> 1257 answer, self.gateway_client, self.target_id, self.name) 1258 1259 for temp_arg in temp_args:

/databricks/spark/python/pyspark/sql/utils.py in deco(a, *kw)

/mnt/.../delta/

不是有效路径。

我有同样的错误,问题是我使用的是 Spark 3.0 Preview。 我不得不将 spark 版本更改为 2.4 并解决了问题。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM