一个 GPU 上的多个深度学习框架 运行 导致 CUDNN_STATUS_BAD_PARAM
Multi deep learning frameworks running on one GPU causes CUDNN_STATUS_BAD_PARAM
我想 运行 在一个 c++ 项目中使用 Caffe 和 TensorFlow(仅评估),但会导致如标题所述的错误。由于某些原因,我无法将 Caffe 模型重新训练为 TensorFlow 或其他方式。据我所知,这个错误意味着 GPU 很忙,只为一个框架提供服务。有什么我可以做的吗?
我有两个初始化函数来加载 Caffe 和 TF 模型,还有两个预测函数。
好的,我已经解决了。我的 Caffe 和 TF 都使用 cuDNN,这似乎只允许在一个 GPU 上使用一个框架(或实例?)运行。我只是关闭了 Caffe 的 cuDNN,它就可以工作了。
我想 运行 在一个 c++ 项目中使用 Caffe 和 TensorFlow(仅评估),但会导致如标题所述的错误。由于某些原因,我无法将 Caffe 模型重新训练为 TensorFlow 或其他方式。据我所知,这个错误意味着 GPU 很忙,只为一个框架提供服务。有什么我可以做的吗?
我有两个初始化函数来加载 Caffe 和 TF 模型,还有两个预测函数。
好的,我已经解决了。我的 Caffe 和 TF 都使用 cuDNN,这似乎只允许在一个 GPU 上使用一个框架(或实例?)运行。我只是关闭了 Caffe 的 cuDNN,它就可以工作了。