TensorFlow訓練模型,指定GPU訓練,設定視訊記憶體,檢視gpu佔用
阿新 • • 發佈:2019-01-03
1 linux檢視當前伺服器GPU佔用情況:
nvidia-smi
週期性輸出GPU使用情況: (如設定每3s顯示一次GPU使用情況)
watch -n 3 nvidia-smi
效果如下:
2 指定GPU訓練,使用CUDA_VISIBLE_DEVICES來指定
如果要指定第2塊GPU訓練,可以在python程式碼中如下指定:
import os
os.environ['CUDA_VISIBLE_DEVICES']='2'
如果要指定多塊GPU,可以如下:
os.environ['CUDA_VISIBLE_DEVICES']='2,3'
當然也可以在執行python程式的時候進行指定:
CUDA_VISIBLE_DEVICES=2 python train_textcnn.py
3 設定定量的GPU使用量 和 設定最小的GPU使用量.
設定定量的GPU視訊記憶體使用量:
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 佔用GPU90%的視訊記憶體
session = tf.Session(config=config)
設定最小的GPU視訊記憶體使用量:
config = tf.ConfigProto() config.gpu_options.allow_growth = True session = tf.Session(config=config)