简体   繁体   English

使用 Azure 数据块从 FileServer 上传到 Azure 存储容器

[英]Upload to Azure Storage container from FileServer using Azure databricks

I want to upload binary files from Windows FileSystem to Azure blob.我想将二进制文件从 Windows 文件系统上传到 Azure blob。 I achieved it with Azure data factory with the below steps我通过以下步骤使用 Azure 数据工厂实现了它

  1. Installed integration run time on the FileSystem在文件系统上安装集成运行时
  2. Created a linked service in ADF as FileSystem在 ADF 中创建了一个链接服务作为文件系统
  3. Created a binary dataset with the above linked service使用上述链接服务创建了一个二进制数据集
  4. Use CopyData activity in a ADF Pipeline, set the binary dataset as source and Azure Blob as Sink在 ADF 管道中使用 CopyData 活动,将二进制数据集设置为源,将 Azure Blob 设置为接收器

Post upload, I am performing some ETL activities.上传后,我正在执行一些 ETL 活动。 So my ADF pipeline has two components,所以我的 ADF 管道有两个组件,

  1. Copy Data复制数据
  2. Databricks Notebook Databricks 笔记本

I am wondering if I could move the Copy Data fragment to Databricks?我想知道是否可以将复制数据片段移动到 Databricks? Can we upload binary files from Windows FileSystem to Azure blob using Azure Databricks?我们可以使用 Azure Databricks 将二进制文件从 Windows 文件系统上传到 Azure blob 吗?

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

相关问题 使用 Azure CLI 将文件夹从 PC 上传到存储帐户容器 - Upload folder from PC to a storage account container using Azure CLI 无法从 Databricks 笔记本的 Azure 存储容器中删除目录 - Not able to delete directory from Azure Storage container by Databricks notebook 使用/ mnt /将数据从Azure Blob存储读取到Azure Databricks - Reading data from Azure Blob Storage into Azure Databricks using /mnt/ 使用 Databricks 将文件从 Azure Blob 存储上传到 SFTP 位置? - Uploading files from Azure Blob Storage to SFTP location using Databricks? 从存储帐户创建 Azure databricks 笔记本 - Create Azure databricks notebook from storage account 无法从 azure 数据块中的存储帐户读取容器内的增量镶木地板文件 - Not able to read delta parquet files inside a container from storage account in azure databricks 通过databricks列出azure的存储帐户内的所有容器 - List down all container within a storage account of azure through databricks 从 Azure Databricks 将数据写入 Azure Blob 存储 - Writing Data to Azure Blob Storage from Azure Databricks 如何从Blob存储容器中导入和处理所有文件以使数据砖蔚蓝 - How to import and process all files from a blob storage container to azure databricks Azure - 为存储容器中的每个新 blob 触发 Databricks 笔记本 - Azure - Trigger Databricks notebook for each new blob in Storage container
 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM