![](/img/trans.png)
[英]How to remove duplicates in a file using Azure Data Factory without using Dataflow or Databricks or Azure datalake analytics
[英]How to run a python script in databricks on Azure datalake delta data
我有一个用 azure 数据块编写的 python 脚本,用于对“.txt”格式的原始文本文件进行 ETL,并且没有存储在 Azure datalake V2 中的模式我使用数据工厂从本地虚拟机迁移了这些文本文件。 我的要求是仅在迁移到 Azure 数据湖的新数据(增量数据)上运行 python 脚本。 我怎样才能实现它?
您可以尝试使用 azure function blob 触发器或使用事件网格触发器并将“blob created”设置为条件。 然后把ETL逻辑放到function的body里面。
这是官方文档:
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.