从文件夹开始的 Azure 数据工厂复制
Azure Data Factory copy from folder onwards
我正在尝试在两个 Azure Data Lakes GEN1 之间创建副本 activity。我不需要从源数据湖复制所有文件夹,例如,如果我有以下目录结构:
rootFolder/subfolder/2015
rootFolder/subfolder/2016
rootFolder/subfolder/2017
rootFolder/subfolder/2018
rootFolder/subfolder/2019
rootFolder/subfolder/2020
我只想从 2017 年以后的文件夹中复制数据。
有没有办法在管道运行时不将字段指定为参数并设置它而自动实现?
使用Get MetaData Activity,For Each Activity,If Condition Activity可以实现你的requirement.Please参考我的想法:
首先,我的测试文件位于 ADLS 中,如下所示:
test1.json
2016 年,test2.json
2017 年,test3.json
2018 年
在 ADF 中,第 1 层:
获取元数据的数据集Activity:
每个Activity的配置:
那么,第二层:
最后,第三层:
副本中的源数据集activity:
测试结果,只有test1
和test2
被拉出
所以,它确实对 me.Any 问题有效,请告诉我。
我正在尝试在两个 Azure Data Lakes GEN1 之间创建副本 activity。我不需要从源数据湖复制所有文件夹,例如,如果我有以下目录结构:
rootFolder/subfolder/2015
rootFolder/subfolder/2016
rootFolder/subfolder/2017
rootFolder/subfolder/2018
rootFolder/subfolder/2019
rootFolder/subfolder/2020
我只想从 2017 年以后的文件夹中复制数据。
有没有办法在管道运行时不将字段指定为参数并设置它而自动实现?
使用Get MetaData Activity,For Each Activity,If Condition Activity可以实现你的requirement.Please参考我的想法:
首先,我的测试文件位于 ADLS 中,如下所示:
test1.json
2016 年,test2.json
2017 年,test3.json
2018 年
在 ADF 中,第 1 层:
获取元数据的数据集Activity:
每个Activity的配置:
那么,第二层:
最后,第三层:
副本中的源数据集activity:
测试结果,只有test1
和test2
被拉出
所以,它确实对 me.Any 问题有效,请告诉我。