繁体   English   中英

使用pyspark将多个csv文件合并到Azure Blob存储中的一个csv文件

[英]Merge multiple csv files to one csv file in Azure Blob Storage using pyspark

我正在使用以下代码将csv文件保存回blob存储,尽管它在循环运行时会创建多个文件。 现在,我想将它们合并到一个单独的csv文件中。 尽管我使用了dbutils.fs.cp / mv,但它没有帮助

while start_date <= end_date:
df = spark.read.format("com.databricks.spark.csv").options(header="true", inferschema="true").load(inputFilePath)
df.coalesce(1).write.mode("append").option("header","true").format("com.databricks.s`park.csv").save(TargetPath)`

下面发布了类似的请求,但已使用pandas数据框完成了,而我正在寻找spark数据框。 将数据从多个csv文件复制到一个csv文件中

我的建议是,使用while循环创建要读取的csv文件列表,然后使用spark csv读取器一次读取所有文件。 例如:

files = []
while start_date <= end_date:
    files.append(inputFilePath)


df = spark.read.format("com.databricks.spark.csv").options(header="true", inferschema="true").csv(files)

df.coalesce(1).write.mode("append").option("header","true").format("com.databricks.spark.csv").save(TargetPath)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM