繁体   English   中英

Spark 2.4.0将空数据帧写入镶木地板AWS s3

[英]Spark 2.4.0 writing empty dataframe to parquet AWS s3

在Spark 2.4.0 EMR作业之后,将空DF写入AWS S3:

df
  .repartition(1)
  .write
  .mode(SaveMode.Append)
  .partitionBy(/* some_partitions */ )
  .parquet(target)

目标S3位置没有输出。 但是,根据解决的问题 ,这不是我期望的。 没有例外,但目标文件夹中也没有元数据,也没有_success文件。

提前致谢!

写入核心节点的hdfs如何? 您看到那里写的文件了吗?

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM