繁体   English   中英

将最后添加的文件复制到 GCS 存储桶到 Azure Blob 存储

[英]Copy last added file to a GCS bucket into Azure Blob storage

我对 Azure 数据工厂非常陌生,所以请原谅我的愚蠢或明显的问题。

我想每天安排一次存储在 Azure Blob Storage 中的 GCS 存储桶中的复制文件。 到目前为止,我设法从 GCS 中的存储桶中复制(手动和通过调度管道的活动)文件,我在其中手动上传文件。

在不久的将来,上传将在每天的给定时间自动进行一次,大概是在晚上。 我的目标是仅安排最后添加的文件的副本,并避免每次都复制所有文件,覆盖现有文件。

这需要编写一些 python 脚本吗? 有什么参数可以设置吗?

提前感谢大家的回复。

不需要任何显式编码。 Adf 支持简单的复制活动,将数据从 gcs 移动到 blob 存储,其中 gcs 将充当源,而 blob 存储将充当复制活动中的接收器。

https://docs.microsoft.com/en-us/azure/data-factory/connector-google-cloud-storage?tabs=data-factory

要获取最新文件,您可以使用获取元数据活动来获取文件列表并过滤最新文件

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM