如何在 Python 中合并 Apache-Beam DataFlow 中的解析文本文件?

How To Combine Parsed TextFiles In Apache-Beam DataFlow in Python?

这在 DirectRunner 中似乎工作正常,但当我切换到 DataflowRunner 时出错。我基本上需要以某种方式组合读入的文件,但是一旦我使用 beam.combiners.ToList() 连接我的数据,它就会引入一大堆问题。

代码示例:

def convert_to_dataframe(readable_file):
    yield pd.read_csv(io.TextIOWrapper(readable_file.open()))

class merge_dataframes(beam.DoFn):
    def process(self, element):
        yield pd.concat(element).reset_index(drop=True)

    with beam.Pipeline(options=pipeline_options) as p:

        (p
            | 'Match Files From GCS' >> beam.io.fileio.MatchFiles(raw_data_path)
            | 'Read Files' >> beam.io.fileio.ReadMatches()
            | 'Shuffle' >> beam.Reshuffle()
            | 'Create DataFrames' >> beam.FlatMap(convert_to_dataframe)
            | 'Combine To List' >> beam.combiners.ToList()
            | 'Merge DataFrames' >> beam.ParDo(merge_dataframes())
            | 'Apply Transformations' >> beam.ParDo(ApplyPipeline(creds_path=args.creds_path,
                                                                  project_name=args.project_name,
                                                                  feature_group_name=args.feature_group_name
                                                                  ))
            | 'Write To GCS' >> beam.io.WriteToText(feature_data_path,
                                                    file_name_suffix='.csv',
                                                    shard_name_template='')
         )

错误:

"No objects to concatenate [while running 'Merge DataFrames']" 

我不明白这个错误,因为执行 'Combine To List' 的部分应该生成一个数据帧列表,然后将其传递到步骤 'Merge DataFrames',这确实是我的情况使用 DirectRunner。

鉴于此错误,我怀疑 MatchFiles 实际上没有匹配任何内容(例如,由于错误的文件模式),因此 beam.combiners.ToList 的输出是一个空列表。