从文件夹开始的 Azure 数据工厂复制

Azure Data Factory copy from folder onwards

我正在尝试在两个 Azure Data Lakes GEN1 之间创建副本 activity。我不需要从源数据湖复制所有文件夹,例如,如果我有以下目录结构:

rootFolder/subfolder/2015
rootFolder/subfolder/2016
rootFolder/subfolder/2017
rootFolder/subfolder/2018
rootFolder/subfolder/2019
rootFolder/subfolder/2020

我只想从 2017 年以后的文件夹中复制数据。

有没有办法在管道运行时不将字段指定为参数并设置它而自动实现?

使用Get MetaData Activity,For Each Activity,If Condition Activity可以实现你的requirement.Please参考我的想法:

首先,我的测试文件位于 ADLS 中,如下所示:

test1.json 2016 年,test2.json 2017 年,test3.json 2018 年

在 ADF 中,第 1 层:

获取元数据的数据集Activity:

每个Activity的配置:

那么,第二层:

最后,第三层:

副本中的源数据集activity:

测试结果,只有test1test2被拉出

所以,它确实对 me.Any 问题有效,请告诉我。