1. 程式人生 > >深度學習框架TensorFlow 官方文件中文版

深度學習框架TensorFlow 官方文件中文版

TensofFlow文件已經被翻譯為中文,歡迎大家學習參考使用,下面節選基本使用方法一節,完整內容可以下載或訪問官方網站。

基本使用

使用 TensorFlow, 你必須明白 TensorFlow:

  • 使用圖 (graph) 來表示計算任務.

  • 在被稱之為 會話 (Session) 的上下文 (context) 中執行圖.

  • 使用 tensor 表示資料.

  • 通過 變數 (Variable) 維護狀態.

  • 使用 feed 和 fetch 可以為任意的操作(arbitrary operation) 賦值或者從其中獲取資料.

綜述

TensorFlow 是一個程式設計系統, 使用圖來表示計算任務. 圖中的節點被稱之為 op

 (operation 的縮寫). 一個 op 獲得 0 個或多個 Tensor, 執行計算, 產生 0 個或多個 Tensor. 每個 Tensor 是一個型別化的多維陣列. 例如, 你可以將一小組影象集表示為一個四維浮點數陣列, 這四個維度分別是 [batch, height, width, channels].

一個 TensorFlow 圖描述了計算的過程. 為了進行計算, 圖必須在 會話 裡被啟動. 會話 將圖的 op 分發到諸如 CPU 或 GPU 之類的 裝置 上, 同時提供執行 op 的方法. 這些方法執行後, 將產生的 tensor 返回. 在 Python 語言中, 返回的 tensor 是 <a rel="nofollow" href="http://www.numpy.org/" "="" style="box-sizing: border-box; background-color: transparent; color: rgb(45, 133, 202);">numpy ndarray

 物件; 在 C 和 C++ 語言中, 返回的 tensor 是 tensorflow::Tensor 例項.

計算圖

TensorFlow 程式通常被組織成一個構建階段和一個執行階段. 在構建階段, op 的執行步驟 被描述成一個圖. 在執行階段, 使用會話執行執行圖中的 op.

例如, 通常在構建階段建立一個圖來表示和訓練神經網路, 然後在執行階段反覆執行圖中的訓練 op.

TensorFlow 支援 C, C++, Python 程式語言. 目前, TensorFlow 的 Python 庫更加易用, 它提供了大量的輔助函式來簡化構建圖的工作, 這些函式尚未被 C 和 C++ 庫支援.

三種語言的會話庫 (session libraries) 是一致的.

構建圖

構建圖的第一步, 是建立源 op (source op). 源 op 不需要任何輸入, 例如 常量 (Constant). 源 op 的輸出被傳遞給其它 op 做運算.

Python 庫中, op 構造器的返回值代表被構造出的 op 的輸出, 這些返回值可以傳遞給其它 op 構造器作為輸入.

TensorFlow Python 庫有一個預設圖 (default graph), op 構造器可以為其增加節點. 這個預設圖對 許多程式來說已經足夠用了. 閱讀 Graph 類 文件 來了解如何管理多個圖.


預設圖現在有三個節點, 兩個 constant() op, 和一個matmul() op. 為了真正進行矩陣相乘運算, 並得到矩陣乘法的 結果, 你必須在會話裡啟動這個圖.

在一個會話中啟動圖

構造階段完成後, 才能啟動圖. 啟動圖的第一步是建立一個 Session 物件, 如果無任何建立引數, 會話構造器將啟動預設圖.

欲瞭解完整的會話 API, 請閱讀Session 類.


Session 物件在使用完後需要關閉以釋放資源. 除了顯式呼叫 close 外, 也可以使用 "with" 程式碼塊 來自動完成關閉動作.

在實現上, TensorFlow 將圖形定義轉換成分散式執行的操作, 以充分利用可用的計算資源(如 CPU 或 GPU). 一般你不需要顯式指定使用 CPU 還是 GPU, TensorFlow 能自動檢測. 如果檢測到 GPU, TensorFlow 會盡可能地利用找到的第一個 GPU 來執行操作.

如果機器上有超過一個可用的 GPU, 除第一個外的其它 GPU 預設是不參與計算的. 為了讓 TensorFlow 使用這些 GPU, 你必須將 op 明確指派給它們執行. with...Device 語句用來指派特定的 CPU 或 GPU 執行操作:

裝置用字串進行標識. 目前支援的裝置包括:

  • "/cpu:0": 機器的 CPU.

  • "/gpu:0": 機器的第一個 GPU, 如果有的話.

  • "/gpu:1": 機器的第二個 GPU, 以此類推.

閱讀使用GPU章節, 瞭解 TensorFlow GPU 使用的更多資訊.

互動式使用

文件中的 Python 示例使用一個會話 Session 來 啟動圖, 並呼叫 Session.run() 方法執行操作.

為了便於使用諸如 <a rel="nofollow" href="http://ipython.org/" "="" style="box-sizing: border-box; background-color: transparent; color: rgb(45, 133, 202);">IPython 之類的 Python 互動環境, 可以使用 InteractiveSession 代替 Session 類, 使用Tensor.eval() 和 Operation.run() 方法代替 Session.run(). 這樣可以避免使用一個變數來持有會話.

Tensor

TensorFlow 程式使用 tensor 資料結構來代表所有的資料, 計算圖中, 操作間傳遞的資料都是 tensor. 你可以把 TensorFlow tensor 看作是一個 n 維的陣列或列表. 一個 tensor 包含一個靜態型別 rank, 和 一個 shape. 想了解 TensorFlow 是如何處理這些概念的, 參見 Rank, Shape, 和 Type.

變數

Variables for more details. 變數維護圖執行過程中的狀態資訊. 下面的例子演示瞭如何使用變數實現一個簡單的計數器. 參見 變數 章節瞭解更多細節.

程式碼中 assign() 操作是圖所描繪的表示式的一部分, 正如 add() 操作一樣. 所以在呼叫 run() 執行表示式之前, 它並不會真正執行賦值操作.

通常會將一個統計模型中的引數表示為一組變數. 例如, 你可以將一個神經網路的權重作為某個變數儲存在一個 tensor 中. 在訓練過程中, 通過重複執行訓練圖, 更新這個 tensor.

Fetch

為了取回操作的輸出內容, 可以在使用 Session 物件的 run() 呼叫 執行圖時, 傳入一些 tensor, 這些 tensor 會幫助你取回結果. 在之前的例子裡, 我們只取回了單個節點 state, 但是你也可以取回多個 tensor:

需要獲取的多個 tensor 值,在 op 的一次執行中一起獲得(而不是逐個去獲取 tensor)。

Feed

上述示例在計算圖中引入了 tensor, 以常量或變數的形式儲存. TensorFlow 還提供了 feed 機制, 該機制 可以臨時替代圖中的任意操作中的 tensor 可以對圖中任何操作提交補丁, 直接插入一個 tensor.

feed 使用一個 tensor 值臨時替換一個操作的輸出結果. 你可以提供 feed 資料作為 run() 呼叫的引數. feed 只在呼叫它的方法內有效, 方法結束, feed 就會消失. 最常見的用例是將某些特殊的操作指定為 "feed" 操作, 標記的方法是使用 tf.placeholder() 為這些操作建立佔位符.

for a larger-scale example of feeds. 如果沒有正確提供 feed, placeholder() 操作將會產生錯誤. MNIST 全連通feed 教程 (Basic Usage 翻譯:@yangtze

完整文件請閱讀原文看全部內容,pdf版本下載地址:https://pan.baidu.com/s/1mik51QK

一起學習討論:qq群號 325921031;微信群請後臺留言加群;

線下活動報名請後臺留言所在地區;

其他入門乾貨訪問公眾號createamind即可。