在 Torch 机器学习框架中设置 GPU 使用率

Set GPU usage in Torch Machine Learning Framework

目前我正在使用 Theano 进行机器学习,现在我想尝试一下 Torch。

在 Theano 中,有一个选项可以为 GPU 内存使用设置标志:

os.environ["THEANO_FLAGS"] = "mode=FAST_RUN, device=gpu,floatX=float32,lib.cnmem=0.9"

所以Theano使用GPU的设定容量,这里是90%。然而,在 Torch 中,类似的网络使用了大约 30% 的 GPU 负载。

有什么方法可以像 Theano 一样在 Torch 中设置更高的 GPU 负载?

Torch 将根据其标准分配器使用所需的 GPU 内存。

不需要像 Theano 中的示例那样预先指定 torch 使用的内存量。