[英]Reading multiple CSV files from Azure blob storage using Databricks PySpark
[英]Read multiple json files from blob storage to dataframe using pyspark in databricks
我正在尝试将所有 json 文件存储在 blob 存储的子文件夹中的单个容器中。 我已经在 databricks 中设置了环境并链接了连接。 目前我正在使用此代码
df = spark.read.json("wasbs://container_name@blob_storage_account.blob.core.windows.net/sub_folder/*.json")
但即使在包含通配符/*.json
之后,我也只得到第一个文件,而不是子文件夹中存在的所有 json 文件。
我正在尝试从单个数据框中的子文件夹中获取所有文件,并将其作为表存储在 sql 数据库中。
有人可以协助我所缺少的。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.