Cloud Dataflow 的 25 个作业限制可以延长吗?
Can the 25 jobs limit on Cloud Dataflow be extended?
我目前正在评估 Google Cloud Dataflow。根据 documentation, you may run up to 25 concurrent Dataflow jobs per Cloud Platform project.
.
这似乎很低。我可以在 运行 100 多个中小型作业中看到很多价值,能够支持并行部署、测试和模块化管道(许多小型作业似乎更容易 update/upgrade,尽管 Dataflow 对就地管道升级有一些支持)。
能否以某种方式增加此限制,例如 GCP 上可以有很多配额?解决此限制的常见做法是什么?
是的,您可以要求增加项目的限制。能否请您写信给 dataflow-feedback@google.com 并提供您的项目 ID?
我目前正在评估 Google Cloud Dataflow。根据 documentation, you may run up to 25 concurrent Dataflow jobs per Cloud Platform project.
.
这似乎很低。我可以在 运行 100 多个中小型作业中看到很多价值,能够支持并行部署、测试和模块化管道(许多小型作业似乎更容易 update/upgrade,尽管 Dataflow 对就地管道升级有一些支持)。
能否以某种方式增加此限制,例如 GCP 上可以有很多配额?解决此限制的常见做法是什么?
是的,您可以要求增加项目的限制。能否请您写信给 dataflow-feedback@google.com 并提供您的项目 ID?