是否可以为混合精度 NN 设置 GPU 亲和力,FP32 和 FP16 转到不同的 GPU?
Is it possible to set GPU affinity for a mixed precision NN, with FP32 and FP16 going to different GPUs?
我有一个 GTX 1080 和一个 RTX 2080。我想同时使用两者进行训练,但由于 RTX 处理 FP16 的速度是原来的两倍,所以我想对其进行设置,以便进行多 GPU 训练,并且RTX 处理 FP16 层,GTX 处理 FP32 层。
这在tensorflow、pytorch或keras下可行吗?
张量流
在 TF 中,可以为每个层指定要在哪个设备上执行(GPU,CPU,或者如果您有多个 GPU,则指定特定的 GPU ...)。这是使用 with tf.device('device_name')
语句完成的(您需要提供有意义的 device_name
)。请参阅 Using multiple GPUs 部分。
凯拉斯
因为这在 TF 中是可能的,这意味着您也可以在 Keras 中使用它,如果您使用 TF 作为 Keras 后端(Keras 只是一个高级神经网络 API)。
请注意,在 Keras 中有一个 multi_gpu_model()
函数,但它只会在多个 GPU 上复制整个模型,您无法指定将哪个层放在特定的 GPU 上。
我有一个 GTX 1080 和一个 RTX 2080。我想同时使用两者进行训练,但由于 RTX 处理 FP16 的速度是原来的两倍,所以我想对其进行设置,以便进行多 GPU 训练,并且RTX 处理 FP16 层,GTX 处理 FP32 层。
这在tensorflow、pytorch或keras下可行吗?
张量流
在 TF 中,可以为每个层指定要在哪个设备上执行(GPU,CPU,或者如果您有多个 GPU,则指定特定的 GPU ...)。这是使用 with tf.device('device_name')
语句完成的(您需要提供有意义的 device_name
)。请参阅 Using multiple GPUs 部分。
凯拉斯
因为这在 TF 中是可能的,这意味着您也可以在 Keras 中使用它,如果您使用 TF 作为 Keras 后端(Keras 只是一个高级神经网络 API)。
请注意,在 Keras 中有一个 multi_gpu_model()
函数,但它只会在多个 GPU 上复制整个模型,您无法指定将哪个层放在特定的 GPU 上。