繁体   English   中英

在Spark / PySpark中使用文件名联接数据

[英]Join data with filename in Spark / PySpark

我正在从PySpark中的许多S3文件中读取数据。 S3键包含创建文件的日历日期,我想在数据和该日期之间进行联接。 有没有办法在文件和文件名中的数据行之间进行联接?

您可以将一列添加到包含文件名的数据框中,稍后将它们合并后,我将用它来标识每一行的源:

from pyspark.sql.functions import lit

filename = 'myawesomefile.csv'

df_new = df.withColumn('file_name', lit(filename))

我最终要做的是:

我改写了LineRecordReader Hadoop类,以便它在每行中都包含文件名,然后改写了TextInputFormat以使用我的新LineRecordReader。

然后,我使用newAPIHadoopFile函数加载了文件。

链接:
LineRecordReader: http ://tinyurl.com/linerecordreader
TextInputFormat: http//tinyurl.com/textinputformat
newAPIHadoopFile: http ://tinyurl.com/newapihadoopfile

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM