通过 python SDK 更新 Cosmos 吞吐量
Update Cosmos throughput via python SDK
我们的用例是我们有一个包含大量文档的 Cosmos DB。这些通过函数 API 公开。 API 的使用率很低,但每天晚上,我们都需要使用数据工厂插入一大批文档。当此进程运行时,它会消耗所有配置的请求单元 (400-4000 RU/s)。
因此,我们正在寻找一种解决方案,我们可以通过编程方式更新吞吐量、执行文档上传,然后再次降低吞吐量。
我们希望通过函数执行使用 python SDK 来实现这一点。我在网上找到了示例代码 Update throughput using python,但这似乎只有在手动配置吞吐量时才有效。当我尝试使用自动缩放的相同代码时,没有错误,但也没有更新。
谁能给我指点一些示例代码,我可以在其中更新设置为自动缩放的吞吐量?
Can someone point me to some sample code where I can update the
throughput when it is set to auto scale?
我查看了 SDK 代码 here
,我认为当前版本的 SDK(4.2.0 版)不支持更改自动缩放吞吐量的功能。
Github 上还有一个关于相同问题的未解决问题:https://github.com/Azure/azure-sdk-for-python/issues/17518。我建议您跟踪该问题,了解此功能何时在 SDK 中可用。
此漏洞现已列在 SDK 限制部分中,短期内没有解决它的计划。解决方法是 CLI 和 PowerShell。
有关更多信息,请查看此处:
https://github.com/Azure/azure-sdk-for-python/tree/master/sdk/cosmos/azure-cosmos#limitations
感谢
我们的用例是我们有一个包含大量文档的 Cosmos DB。这些通过函数 API 公开。 API 的使用率很低,但每天晚上,我们都需要使用数据工厂插入一大批文档。当此进程运行时,它会消耗所有配置的请求单元 (400-4000 RU/s)。 因此,我们正在寻找一种解决方案,我们可以通过编程方式更新吞吐量、执行文档上传,然后再次降低吞吐量。
我们希望通过函数执行使用 python SDK 来实现这一点。我在网上找到了示例代码 Update throughput using python,但这似乎只有在手动配置吞吐量时才有效。当我尝试使用自动缩放的相同代码时,没有错误,但也没有更新。
谁能给我指点一些示例代码,我可以在其中更新设置为自动缩放的吞吐量?
Can someone point me to some sample code where I can update the throughput when it is set to auto scale?
我查看了 SDK 代码 here
,我认为当前版本的 SDK(4.2.0 版)不支持更改自动缩放吞吐量的功能。
Github 上还有一个关于相同问题的未解决问题:https://github.com/Azure/azure-sdk-for-python/issues/17518。我建议您跟踪该问题,了解此功能何时在 SDK 中可用。
此漏洞现已列在 SDK 限制部分中,短期内没有解决它的计划。解决方法是 CLI 和 PowerShell。
有关更多信息,请查看此处:
https://github.com/Azure/azure-sdk-for-python/tree/master/sdk/cosmos/azure-cosmos#limitations
感谢