是否可以加快本地 AzureML 模型部署?

Is it possible to speed up local AzureML model deployment?

我们希望能够快速测试对 entry_script.py 的更改。我们可以通过单元测试来测试微小的变化,但我们希望 运行 在我们其他后端部分的上下文中,在本地建立一个模型。

所以我们 运行 az ml model deploy 的部署配置 computeTypeLOCAL。非本地部署很慢,但我们希望本地部署会更快。不幸的是它不是。在某些情况下,将模型部署到本地端点最多可能需要 20 分钟。

有没有办法加快这个速度以加快编辑-调试循环或处理这种情况的更好方法?

我想到的几件事:

请按照下面的笔记本进行操作,如果您想测试快速部署模型,您应该查看 https://github.com/Azure/MachineLearningNotebooks/tree/master/how-to-use-azureml/deployment/deploy-to-local

SDK 支持在本地构建和 运行 docker 并在您迭代脚本时就地更新以节省时间。