1. 程式人生 > 程式設計 >tensorflow使用指定gpu的方法

tensorflow使用指定gpu的方法

TensorFlow是一個基於資料流程式設計(dataflow programming)的符號數學系統,被廣泛應用於各類機器學習(machine learning)演算法的程式設計實現,其前身是谷歌的神經網路演算法庫DistBelief [1] 。
Tensorflow擁有多層級結構,可部署於各類伺服器、PC終端和網頁並支援GPU和TPU高效能數值計算,被廣泛應用於谷歌內部的產品開發和各領域的科學研究 。

TensorFlow由谷歌人工智慧團隊谷歌大腦(Google Brain)開發和維護,擁有包括TensorFlow Hub、TensorFlow Lite、TensorFlow Research Cloud在內的多個專案以及各類應用程式介面(Application Programming Interface,API) 。自2015年11月9日起,TensorFlow依據阿帕奇授權協議(Apache 2.0 open source license)開放原始碼 。

持續監控GPU使用情況命令:

$ watch -n 10 nvidia-smi

一、指定使用某個顯示卡

如果機器中有多塊GPU,tensorflow會預設吃掉所有能用的視訊記憶體, 如果實驗室多人公用一臺伺服器,希望指定使用特定某塊GPU。
可以在檔案開頭加入如下程式碼:

import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "1"  # 使用第二塊GPU(從0開始)

也可以制定使用某幾塊GPU

import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "0,2" # 使用第一,三塊GPU

禁用GPU

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "-1"

支援的裝置

在一套標準系統中通常有多臺計算裝置。TensorFlow 支援 CPU 和 GPU 這兩種裝置。它們均用 strings 表示。例如:

"/cpu:0":機器的 CPU。
"/device:GPU:0":機器的 GPU(如果有一個)。
"/device:GPU:1":機器的第二個 GPU(以此類推)。

如果 TensorFlow 指令中兼有 CPU 和 GPU 實現,當該指令分配到裝置時,GPU 裝置有優先權。例如,如果 matmul 同時存在 CPU 和 GPU 核函式,在同時有 cpu:0 和 gpu:0 裝置的系統中,gpu:0 會被選來執行 matmul。

記錄裝置分配方式

要找出您的指令和張量被分配到哪個裝置,請建立會話並將 log_device_placement 配置選項設為 True。

#Creates a graph.
a = tf.constant([1.0,2.0,3.0,4.0,5.0,6.0],shape=[2,3],name='a')
b = tf.constant([1.0,shape=[3,2],name='b')
c = tf.matmul(a,b)
#Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
#Runs the op.
print(sess.run(c))

應該會看到以下輸出內容:

Device mapping:
/job:localhost/replica:0/task:0/device:GPU:0 -> device: 0,name: Tesla K40c,pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/device:GPU:0
a: /job:localhost/replica:0/task:0/device:GPU:0
MatMul: /job:localhost/replica:0/task:0/device:GPU:0
[[ 22. 28.]
 [ 49. 64.]]

手動分配裝置

如果您希望特定指令在您選擇的裝置(而非系統自動為您選擇的裝置)上執行,您可以使用 with tf.device 建立裝置上下文,這個上下文中的所有指令都將被分配在同一個裝置上執行。

# Creates a graph.
with tf.device('/cpu:0'):
 a = tf.constant([1.0,name='a')
 b = tf.constant([1.0,b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(c))

您會看到現在 a 和 b 被分配到 cpu:0。由於未明確指定執行 MatMul 指令的裝置,因此 TensorFlow 執行時將根據指令和可用裝置(此示例中的 gpu:0)選擇一個裝置,並會根據要求自動複製裝置間的張量。

Device mapping:
/job:localhost/replica:0/task:0/device:GPU:0 -> device: 0,pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/cpu:0
a: /job:localhost/replica:0/task:0/cpu:0
MatMul: /job:localhost/replica:0/task:0/device:GPU:0
[[ 22. 28.]
 [ 49. 64.]]

允許增加 GPU 記憶體

預設情況下,TensorFlow 會對映程序可見的所有 GPU 的幾乎所有 GPU 記憶體(取決於 CUDA_VISIBLE_DEVICES)。通過減少記憶體碎片,可以更有效地使用裝置上相對寶貴的 GPU 記憶體資源。

在某些情況下,最理想的是程序只分配可用記憶體的一個子集,或者僅根據程序需要增加記憶體使用量。 TensorFlow 在 Session 上提供兩個 Config 選項來進行控制。

第一個是 allow_growth 選項,它試圖根據執行時的需要來分配 GPU 記憶體:它剛開始分配很少的記憶體,隨著 Session 開始執行並需要更多 GPU 記憶體,我們會擴充套件 TensorFlow 程序所需的 GPU 記憶體區域。請注意,我們不會釋放記憶體,因為這可能導致出現更嚴重的記憶體碎片情況。要開啟此選項,請通過以下方式在 ConfigProto 中設定選項:

config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config,...)

第二個是 per_process_gpu_memory_fraction 選項,它可以決定每個可見 GPU 應分配到的記憶體佔總記憶體量的比例。例如,您可以通過以下方式指定 TensorFlow 僅分配每個 GPU 總記憶體的 40%:

config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.4
session = tf.Session(config=config,...)

如要真正限制 TensorFlow 程序可使用的 GPU 記憶體量,這非常實用。

在多 GPU 系統中使用單一 GPU
如果您的系統中有多個 GPU,則預設情況下將選擇 ID 最小的 GPU。如果您希望在其他 GPU 上執行,則需要顯式指定偏好設定:

# Creates a graph.
with tf.device('/device:GPU:2'):
 a = tf.constant([1.0,name='b')
 c = tf.matmul(a,b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(c))

如果您指定的裝置不存在,您會看到 InvalidArgumentError:

InvalidArgumentError: Invalid argument: Cannot assign a device to node 'b':
Could not satisfy explicit device specification '/device:GPU:2'
 [[Node: b = Const[dtype=DT_FLOAT,value=Tensor<type: float shape: [3,2]
 values: 1 2 3...>,_device="/device:GPU:2"]()]]

當指定裝置不存在時,如果您希望 TensorFlow 自動選擇現有的受支援裝置來執行指令,則可以在建立會話時將配置選項中的 allow_soft_placement 設為 True。

# Creates a graph.
with tf.device('/device:GPU:2'):
 a = tf.constant([1.0,b)
# Creates a session with allow_soft_placement and log_device_placement set
# to True.
sess = tf.Session(config=tf.ConfigProto(
  allow_soft_placement=True,log_device_placement=True))
# Runs the op.
print(sess.run(c))

使用多個 GPU

如果您想要在多個 GPU 上執行 TensorFlow,則可以採用多塔式方式構建模型,其中每個塔都會分配給不同 GPU。例如:

# Creates a graph.
c = []
for d in ['/device:GPU:2','/device:GPU:3']:
 with tf.device(d):
 a = tf.constant([1.0,3])
 b = tf.constant([1.0,2])
 c.append(tf.matmul(a,b))
with tf.device('/cpu:0'):
 sum = tf.add_n(c)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(sum))

您會看到以下輸出內容:

Device mapping:
/job:localhost/replica:0/task:0/device:GPU:0 -> device: 0,name: Tesla K20m,pci bus
id: 0000:02:00.0
/job:localhost/replica:0/task:0/device:GPU:1 -> device: 1,pci bus
id: 0000:03:00.0
/job:localhost/replica:0/task:0/device:GPU:2 -> device: 2,pci bus
id: 0000:83:00.0
/job:localhost/replica:0/task:0/device:GPU:3 -> device: 3,pci bus
id: 0000:84:00.0
Const_3: /job:localhost/replica:0/task:0/device:GPU:3
Const_2: /job:localhost/replica:0/task:0/device:GPU:3
MatMul_1: /job:localhost/replica:0/task:0/device:GPU:3
Const_1: /job:localhost/replica:0/task:0/device:GPU:2
Const: /job:localhost/replica:0/task:0/device:GPU:2
MatMul: /job:localhost/replica:0/task:0/device:GPU:2
AddN: /job:localhost/replica:0/task:0/cpu:0
[[ 44. 56.]
 [ 98. 128.]]

cifar10 教程就是個很好的例子,演示瞭如何使用多個 GPU 進行訓練。

見官方教程:https://www.tensorflow.org/programmers_guide/using_gpu?hl=zh-cn

總結

以上所述是小編給大家介紹的tensorflow使用指定gpu的方法,希望對大家有所幫助!