AI 從業者該如何選擇深度學習開源框架丨硬創公開課
編者按:本文內容來自微軟美國總部機器學習科學家彭河森博士在雷鋒網(公眾號:雷鋒網)硬創公開課的分享,並由彭河森博士親自整理成文。
正如程式語言一樣,深度學習開源框架同樣各有優劣和適用的場景,那麼 AI 從業者該如何有針對性地選擇這些平臺來玩轉深度學習?
本期公開課特邀了先後在谷歌、亞馬遜、微軟供職的機器學習科學家彭河森博士為大家講述《MXNet火了,AI從業者該如何選擇深度學習開源框架》。彭河森博士親眼見證並深入參與了這三家巨頭佈局深度學習的過程。
嘉賓介紹
彭河森,埃默裡大學統計學博士。現擔任微軟美國總部的機器學習科學家、微軟必應廣告部應用資深研究員,當前主要研究方向是自然語言處理和機器學習在廣告和推薦系統中的應用。此外,彭河森博士曾是亞馬遜最年輕的機器學習研究員,之前還供職於谷歌計量經濟學部和中科院。
深度學習是一個非常熱門的領域,現在市面上也有很多非常優秀的平臺,相信大家在入行之初都在想,這麼多平臺應該怎麼選擇?
我先提兩點,可能是一般測評沒有考慮到的東西:
-
一個是影象計算和符號求導,這是深度學習一個非常有意思且非常重要的副產物。
-
另一個是深度學習框架的可觸碰深度,這點直接關係到深度學習系統的發展未來和使用者的自由度。
這兩點對於初學者和從業人員都非常重要,我在後面詳細講述。
首先要恭喜 MXNet 近日獲得了亞馬遜的背書,MXNet 平臺本身非常優秀,具有很多優良的性質:例如多節點模型訓練,目前是我知道最全面的多語言支援。此外,也有評測說 MXNet 效能方面可以高出同行平臺很多,我們將會在後面的討論中提到。現在進入正題,我們該如何選擇深度學習開源平臺,參考標準應該是什麼樣的?
一、深度學習開源平臺的 5 大參考標準
今天主要探討的平臺(或者軟體)包括:Caffe, Torch, MXNet, CNTK, Theano, TensorFlow, Keras。
如何選擇一個深度學習平臺?我總結出了下面的這些考量標準。因人而異,因專案而異。可能你是做影象處理,也可能是自然語言處理,或是數量金融,根據你不同的需求,對平臺做出的選擇可能會不同。
標準1:與現有程式設計平臺、技能整合的難易程度
無論是學術研究還是工程開發,在上馬深度學習課題之前一般都已積累不少開發經驗和資源。可能你最喜歡的程式語言已經確立,或者你的資料已經以一定的形式儲存完畢,或者對模型的要求(如延遲等)也不一樣。標準1 考量的是深度學習平臺與現有資源整合的難易程度。這裡我們將回答下面的問題:
-
是否需要專門為此學習一種新語言?
-
是否能與當前已有的程式語言結合?
標準 2: 和相關機器學習、資料處理生態整合的緊密程度
我們做深度學習研究最後總離不開各種資料處理、視覺化、統計推斷等軟體包。這裡我們要回答問題:
-
建模之前,是否具有方便的資料預處理工具?當然大多平臺都自身帶了影象、文字等預處理工具。
-
建模之後,是否具有方便的工具進行結果分析,例如視覺化、統計推斷、資料分析?
標準 3:通過此平臺做深度學習之外,還能做什麼?
上面我們提到的不少平臺是專門為深度學習研究和應用進行開發的,不少平臺對分散式計算、GPU 等構架都有強大的優化,能否用這些平臺/軟體做其他事情?
比如有些深度學習軟體是可以用來求解二次型優化;有些深度學習平臺很容易被擴充套件,被運用在強化學習的應用中。哪些平臺具備這樣的特點?
這個問題可以涉及到現今深度學習平臺的一個方面,就是影象計算和自動化求導。
標準 4:對資料量、硬體的要求和支援
當然,深度學習在不同應用場景的資料量是不一樣的,這也就導致我們可能需要考慮分散式計算、多 GPU 計算的問題。例如,對計算機影象處理研究的人員往往需要將影象檔案和計算任務分部到多臺計算機節點上進行執行。
當下每個深度學習平臺都在快速發展,每個平臺對分散式計算等場景的支援也在不斷演進。今天提到的部分內容可能在幾個月後就不再適用。
標準 5:深度學習平臺的成熟程度
成熟程度的考量是一個比較主觀的考量因素,我個人考量的因素包括:社群的活躍程度;是否容易和開發人員進行交流;當前應用的勢頭。
講了 5 個參考標準後,接下來我們用上面的這些標準對各個深度學習平臺進行評價:
二、深度學習平臺評價
評判1:與現有程式設計平臺、技能整合的難易程度
標準1 考量的是深度學習平臺與現有資源整合的難易程度。這裡我們將回答下面的問題:是否需要專門為此學習一種新語言?是否能與當前已有的程式語言結合?
這一個問題的乾貨在下面這個表格。這裡我們按照每個深度學習平臺的底層語言和使用者語言進行總結,可以得到下表。
其中 Keras 通過 Theano, TensorFlow 作為底層進行建模。
我們可以看到這樣的趨勢:
-
深度學習底層語言多是 C++ / C 這樣可以達到高執行效率的語言。
-
操作語言往往會切近實際,我們大致可以斷定 Python 是未來深度學習的操作平臺語言,微軟在 CNTK 2.0 加入了對 python 的支援。
-
當然,還有不少平臺可以通過指令碼的方式配置網路並且訓練模型。
從格局上來說,Python 作為深度學習建模的基本語言是可以確定的。如果你最喜歡程式語言是 Python,恭喜您,大多數平臺都可以和你的技術無縫銜接。如果是 Java 也不用擔心,不少平臺也具有 Java 支援,Deeplearning4J 還是一個原生的 Java 深度學習平臺。
標準 2: 和相關機器學習、資料處理生態整合的緊密程度
這裡我們要提一下現在主要的資料處理工具,比較全面的資料分析工具包括 R 及其相關生態,Python 及其相關生態,小眾一點的還包括 Julia 及其相關生態。
完成深度學習建模等任務之後,和生態的整合也尤為重要。
我們可以發現,上面和 Python, R, 整合較為緊密,這裡 Keras 生態(TensorFlow, Theano), CNTK, MXNet, Caffe 等佔有大量優勢。
同時 Caffe 具有大量影象處理包,對資料觀察也具有非常大的優勢。
標準 3:通過此平臺做深度學習之外,還能做什麼?
下圖是本次公開課的核心:
其實深度學習平臺在創造和設計時的側重點有所不同,我們按照功能可以將深度學習平臺分為上面六個方面:
CPU+GPU控制,通訊:這一個最低的層次是深度學習計算的基本層面。
-
記憶體、變數管理層:這一層包含對於具體單箇中間變數的定義,如定義向量、矩陣,進行記憶體空間分配。
-
基本運算層:這一層主要包含加減乘除、正弦、餘弦函式,最大最小值等基本算數運算操作。
-
基本簡單函式:
○ 包含各種激發函式(activation function),例如 sigmoid, ReLU 等。
○ 同時也包含求導模組
-
神經網路基本模組,包括 Dense Layer, Convolution Layer (卷積層), LSTM 等常用模組。
-
最後一層是對所有神經網路模組的整合以及優化求解。
眾多機器學習平臺在功能側重上是不一樣的,我將他們分成了四大類:
1. 第一類是以 Caffe, Torch, MXNet, CNTK 為主的深度學習功能性平臺。這類平臺提供了非常完備的基本模組,可以讓開發人員快速建立深度神經網路模型並且開始訓練,可以解決現今深度學習中的大多數問題。但是這些模組很少將底層運算功能直接暴露給使用者。
2. 第二類是以 Keras 為主的深度學習抽象化平臺。Keras 本身並不具有底層運算協調的能力,Keras 依託於 TensorFlow 或者 Theano 進行底層運算,而 Keras 自身提供神經網路模組抽象化和訓練中的流程優化。可以讓使用者享受快速建模的同時,具有很方便的二次開發能力,加入自身喜歡的模組。
3. 第三類是 TensorFlow。TensorFlow 吸取了已有平臺的長處,既能讓使用者觸碰底層資料,又具有現成的神經網路模組,可以讓使用者非常快速的實現建模。TensorFlow 是非常優秀的跨界平臺。
4. 第四類是 Theano, Theano 是深度學習界最早的平臺軟體,專注底層基本的運算。
所以對平臺選擇可以對照上圖按照自己的需求選用:
-
如果任務目標非常確定,只需要短平快出結果,那麼第 1 類平臺會適合你。
-
如果您需要進行一些底層開發,又不想失去現有模組的方便,那麼第 2、3 類平臺會適合你。
-
如果你有統計、計算數學等背景,想利用已有工具進行一些計算性開發,那麼第 3, 4 類會適合你。
這裡我介紹下深度學習的一些副產品,其中一個比較重要的功能就是符號求導。
圖計算和符號求導:深度學習對開源社群的巨大貢獻
大家可能會有疑問:我能訓練出來深度學習模型就蠻好的了,為什麼需要接觸底層呢?
這裡我先介紹下深度學習的一些副產品,其中一個比較重要的功能就是符號求導。符號求導英文是 Symbolic Differentiation,現在有很多有關的文獻和教程可以使用。
符號求導是什麼意思?
以前我們做機器學習等研究,如果要求導往往需要手動把目標函式的導數求出來。最近一些深度學習工具,如 Theano, 推出了自動化符號求導功能,這大大減少了開發人員的工作量。
當然,商業軟體如 MatLab, Mathematica 在多年前就已具有符號計算的功能,但鑑於其商業軟體的限制,符號計算並沒有在機器學習應用中被大量採用。
深度學習由於其網路的複雜性,必須採用符號求導的方法才能解決目標函式過於複雜的問題。另外一些非深度學習問題,例如:二次型優化等問題,也都可以用這些深度學習工具來求解了。
更為優秀的是,Theano 符號求導結果可以直接通過 C程式編譯,成為底層語言,高效執行。
這裡我們給一個 Theano 的例子:
>>> import numpy
>>> import theano
>>> import theano.tensor as T
>>> from theano import pp
>>> x = T.dscalar(‘x’)
>>> y = x ** 2
>>> gy = T.grad(y, x)
>>> f = theano.function([x], gy)
>>> f(4)
8
上面我們通過符號求導的方法,很容易的求出 y 關於 x 的導數在 4 這個點的數值。
標準 4:對資料量、硬體的要求和支援
對於多 GPU 支援和多伺服器支援,我們上面提到的所有平臺都聲稱自己能夠完成任務。同時也有大量文獻說某個平臺的效果更為優秀。我們這裡把具體平臺的選擇留給在座各位,提供下面這些資訊:
首先想想你想要幹什麼。現在深度學習應用中,需要運用到多伺服器訓練模型的場景往往只有影象處理一個,如果是自然語言處理,其工作往往可以在一臺配置優秀的伺服器上面完成。如果資料量大,往往可以通過 Hadoop 等工具進行資料預處理,將其縮小到單機可以處理的範圍內。
本人是比較傳統的人,從小就開始自己折騰各種科學計算軟體的編譯。現在主流的文獻看到的結果是,單機使用 GPU 能比 CPU 效率提高數十倍左右。
但是其實有些問題,在 Linux 環境下,編譯 Numpy 的時候將線性函式包換為 Intel MLK 往往也可以得到類似的提高。
當然現在很多評測,往往在不同硬體環境、網路配置情況下,都會得到不一樣的結果。
就算在亞馬遜雲平臺上面進行測試,也可能因為網路環境、配置等原因,造成完全不同的結果。所以對於各種測評,基於我的經驗,給的建議是:take it with a grain of salt,自己要留個心眼。前面我們提到的主要工具平臺,現在都對多 GPU、多節點模型訓練有不同程度的支援,而且現在也都在快速的發展中,我們建議聽眾自己按照需求進行鑑別。
標準 5:深度學習平臺的成熟程度
對於成熟程度的評判往往會比較主觀,結論大多具有爭議。我在這裡也只列出資料,具體如何選擇,大家自己判斷。
這裡我們通過 Github 上面幾個比較受歡迎的數量來判斷平臺的活躍程度。這些資料獲取於今天下午(2016-11-25)。我們用黑體標出了每個因子排名前三的平臺:
-
第一個因子是貢獻者數量,貢獻者這裡定義非常寬泛,在 Github issues 裡面提過問題的都被算作是 Contributor,但是還是能作為一個平臺受歡迎程度的度量。我們可以看到 Keras, Theano, TensorFlow 三個以 Python 為原生平臺的深度學習平臺是貢獻者最多的平臺。
-
第二個因子是 Pull Request 的數量,Pull Request 衡量的是一個平臺的開發活躍程度。我們可以看到 Caffe 的 Pull Request 最高,這可能得益於它在影象領域得天獨厚的優勢,另外 Keras 和 Theano 也再次登榜。
另外,這些平臺在應用場景上有側重:
-
自然語言處理,當然要首推 CNTK,微軟MSR(A) 多年對自然語言處理的貢獻非常巨大,CNTK 的不少開發者也是分散式計算牛人,其中所運用的方法非常獨到。
-
當然,對於非常廣義的應用、學習,Keras/TensorFlow/Theano 生態可能是您最好的選擇。
-
對於計算機影象處理,Caffe 可能是你的不二選擇。
關於深度學習平臺的未來:
-
微軟在對 CNTK 很有決心,Python API 加的好,大家可以多多關注。
-
有觀點認為深度學習模型是戰略資產,應該用國產軟體,防止壟斷。我認為這樣的問題不用擔心,首先 TensorFlow 等軟體是開源的,可以通過程式碼審查的方法進行質量把關。另外訓練的模型可以儲存成為 HDF5 格式,跨平臺分享,所以成為谷歌壟斷的概率非常小。
-
很有可能在未來的某一天,大家訓練出來一些非常厲害的卷積層(convolution layer),基本上能非常優秀地解決所有計算機影象相關問題,這個時候我們只需要呼叫這些卷積層即可,不需要大規模卷積層訓練。另外這些卷積層可能會硬體化,成為我們手機晶片的一個小模組,這樣我們的照片拍好的時候,就已經完成了卷積操作。