[英]How can I read an Azure Blob Storage file direclty from an Azure Databricks Notebook
[英]How to read a file from blob storage to azure databricks with daily date in the file name
我想从包含其他文件的 blob 存储容器中读取 Employee_detail_info 文件到 azure databrikcs 笔记本。 这些文件将每天从源加载到 blobstorage。
Employee_detail_Info_20220705000037
客户detais_info_20220625000038
allinvocie_details_20220620155736
您可以使用Glob 模式来实现要求。 下面是同样的演示。
Customersdetais_info_20220625000038.csv
Employee_detail_Info_20220705000037.csv
Employee_detail_Info_20220822000037.csv
Employee_detail_Info_20220822000054.csv
allinvocie_details_20220620155736.csv
#all employee files have same schema and 1 row each for demo
employee_details_info
类型文件创建一个模式。 我已经使用datetime
库来实现这一点。 由于每个员工文件的今天日期为yyyyMMdd
,因此我创建了一个指示相同的模式。from datetime import datetime
todays_date = datetime.utcnow().strftime("%Y%m%d")
print(todays_date) #20220822
file_name_pattern = "Employee_detail_Info_"+todays_date
print(file_name_pattern) #Employee_detail_Info_20220822
Asterisk (*)
glob 模式来读取与我们的file_name_pattern
匹配的所有文件。df = spark.read.option("header",True).format("csv").load(f"/mnt/repro/{file_name_pattern}*.csv")
#you can specify,required file format and change the above accordingly.
df.show()
以下是我的output的图片供参考。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.