模块 'torch.optim' 没有属性 'NAdam'

module 'torch.optim' has no attribute 'NAdam'

nadam = torch.optim.NAdam(model.parameters())

这给出了错误 AttributeError: module 'torch.optim' has no attribute 'NAdam'。我的 PyTorch 版本是 '1.9.1+cu102',python 版本是 3.7.11。 VS 代码甚至没有建议优化器,但文档清楚地提到了优化器。我可以导入其他优化器,例如 Adam

https://pytorch.org/docs/1.9.1/optim.html

从官方网站来看,NAdam 不在 pytorch v 1.9.1 的优化器之列。 尝试升级到 v 1.10.0,您的代码应该可以正常工作。

根据文档,NAdam 是 1.10 中的新增功能。 https://pytorch.org/docs/1.9.1/optim.html?highlight=optim#module-torch.optim

中不显示

https://pytorch.org/docs/1.10.0/optim.html?highlight=optim#module-torch.optim