Cloud Dataflow 的 25 个作业限制可以延长吗?

Can the 25 jobs limit on Cloud Dataflow be extended?

我目前正在评估 Google Cloud Dataflow。根据 documentation, you may run up to 25 concurrent Dataflow jobs per Cloud Platform project..

这似乎很低。我可以在 运行 100 多个中小型作业中看到很多价值,能够支持并行部署、测试和模块化管道(许多小型作业似乎更容易 update/upgrade,尽管 Dataflow 对就地管道升级有一些支持)。

能否以某种方式增加此限制,例如 GCP 上可以有很多配额?解决此限制的常见做法是什么?

是的,您可以要求增加项目的限制。能否请您写信给 dataflow-feedback@google.com 并提供您的项目 ID?