繁体   English   中英

将数据从 Azure Synapse Serverless SQL 池批量加载到 Azure 存储或 Databricks Spark 的最佳方法

[英]Best way to bulk load data from Azure Synapse Serverless SQL pools into Azure storage or Databricks Spark

I am trying to bulk load data from Azure Synapse serverless SQL pools into Azure Storage or directly into Databricks Spark (using JDBC driver). 假设我们只知道外部表名并且不知道下面文件的位置,那么进行这种批量加载的最佳方法是什么? 是否有任何元数据查询也可以知道文件的位置?

这些文件已经在 Azure 存储中,因为 Synapse Serverless SQL 没有“数据库内”存储。

假设它是一个外部表(不是带有 OPENROWSET 的视图),那么sys.external_tables有一个 location 列,其中包含文件或文件夹的路径。

如果您还不知道它所在的存储帐户和容器,您可能需要加入sys.external_data_sources以获取该信息。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM