[英]Join data with filename in Spark / PySpark
我正在从PySpark中的许多S3文件中读取数据。 S3键包含创建文件的日历日期,我想在数据和该日期之间进行联接。 有没有办法在文件和文件名中的数据行之间进行联接?
您可以将一列添加到包含文件名的数据框中,稍后将它们合并后,我将用它来标识每一行的源:
from pyspark.sql.functions import lit
filename = 'myawesomefile.csv'
df_new = df.withColumn('file_name', lit(filename))
我最终要做的是:
我改写了LineRecordReader Hadoop类,以便它在每行中都包含文件名,然后改写了TextInputFormat以使用我的新LineRecordReader。
然后,我使用newAPIHadoopFile函数加载了文件。
链接:
LineRecordReader: http ://tinyurl.com/linerecordreader
TextInputFormat: http : //tinyurl.com/textinputformat
newAPIHadoopFile: http ://tinyurl.com/newapihadoopfile
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.