模块 'torch.optim' 没有属性 'NAdam'
module 'torch.optim' has no attribute 'NAdam'
nadam = torch.optim.NAdam(model.parameters())
这给出了错误 AttributeError: module 'torch.optim' has no attribute 'NAdam'
。我的 PyTorch 版本是 '1.9.1+cu102'
,python 版本是 3.7.11
。 VS 代码甚至没有建议优化器,但文档清楚地提到了优化器。我可以导入其他优化器,例如 Adam
https://pytorch.org/docs/1.9.1/optim.html
从官方网站来看,NAdam 不在 pytorch v 1.9.1 的优化器之列。
尝试升级到 v 1.10.0,您的代码应该可以正常工作。
根据文档,NAdam 是 1.10 中的新增功能。 https://pytorch.org/docs/1.9.1/optim.html?highlight=optim#module-torch.optim
中不显示
在https://pytorch.org/docs/1.10.0/optim.html?highlight=optim#module-torch.optim
nadam = torch.optim.NAdam(model.parameters())
这给出了错误 AttributeError: module 'torch.optim' has no attribute 'NAdam'
。我的 PyTorch 版本是 '1.9.1+cu102'
,python 版本是 3.7.11
。 VS 代码甚至没有建议优化器,但文档清楚地提到了优化器。我可以导入其他优化器,例如 Adam
https://pytorch.org/docs/1.9.1/optim.html
从官方网站来看,NAdam 不在 pytorch v 1.9.1 的优化器之列。 尝试升级到 v 1.10.0,您的代码应该可以正常工作。
根据文档,NAdam 是 1.10 中的新增功能。 https://pytorch.org/docs/1.9.1/optim.html?highlight=optim#module-torch.optim
中不显示在https://pytorch.org/docs/1.10.0/optim.html?highlight=optim#module-torch.optim