发布于 2年前

Tensorflow 设置CUDA_VISIBLE_DEVICES来控制GPU的使用

如果服务器有多个GPU,tensorflow默认会全部使用。如果只想使用部分GPU,可以通过参数CUDA_VISIBLE_DEVICES来设置GPU的可见性。

示例:

Environment Variable Syntax      Results
CUDA_VISIBLE_DEVICES=1           Only device 1 will be seen
CUDA_VISIBLE_DEVICES=0,1         Devices 0 and 1 will be visible
CUDA_VISIBLE_DEVICES="0,1"       Same as above, quotation marks are optional
CUDA_VISIBLE_DEVICES=0,2,3       Devices 0, 2, 3 will be visible; device 1 is masked
CUDA_VISIBLE_DEVICES=""          No GPU will be visible

在终端设置

在终端调用Python脚本前,可以设置CUDA_VISIBLE_DEVICES变量,如下:

$ CUDA_VISIBLE_DEVICES=1 python my_script.py

这样my_script.py脚本就只能使用GPU 1。

在Python脚本内设置

如果想在Python的脚本内设置使用的GPU,可以使用os.environ,如下:

import os
os.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID"   # see issue #152
os.environ["CUDA_VISIBLE_DEVICES"]="1"

检查TensorFlow对GPU的可见性:

from tensorflow.python.client import device_lib
print device_lib.list_local_devices()
©2020 edoou.com   京ICP备16001874号-3