如何免費使用GPU跑深度學習程式碼
從事深度學習的研究者都知道,深度學習程式碼需要設計海量的資料,需要很大很大很大(重要的事情說三遍)的計算量,以至於CPU算不過來,需要通過GPU幫忙,但這必不意味著CPU的效能沒GPU強,CPU是那種綜合性的,GPU是專門用來做影象渲染的,這我們大家都知道,做影象矩陣的計算GPU更加在行,應該我們一般把深度學習程式讓GPU來計算,事實也證明GPU的計算速度比CPU塊,但是(但是前面的話都是廢話)我們窮,買不起呀,一塊1080Ti現在也要3500左右,2080Ti要9000左右,具體價格還要看視訊記憶體大小,因此本文給大家帶來了福利——Google免費的GPU Colaboratory。
Google Colab簡介
Google Colaboratory是谷歌開放的一款研究工具,主要用於機器學習的開發研究,這款工具現在可以免費使用,但是不是永久免費暫時還不確定,Google Colab最大的好處是給廣大開發AI者提供免費的GPU使用!GPU型號是Tesla K80,你可以在上面輕鬆地跑例如:Keras、Tensorflow、Pytorch等框架。
Colabortory是一個jupyter notebook環境,它支援python2和python3,還包括TPU和GPU加速,該軟體與Google雲盤硬碟整合,使用者可以輕鬆共享專案或將其他共享專案複製到自己的帳戶中。
Colaboratory使用步驟
1、登入谷歌雲盤
https://drive.google.com/drive/my-drive(沒有賬號的可以註冊一個)
(1)、右鍵新建資料夾,作為我們的專案資料夾。
2、建立Colab檔案
右鍵在更多裡面選擇google Colaboratry(如果沒有Colaboratory需要在關聯更多應用裡面關聯Colaboratory)
3、開始使用
這時候會直接跳轉到Colaboratory介面,這個介面很像Jupyter Notebook,Jupyter的命令在Colaboratory一樣適用,值得一提的是,Colab不僅可以執行Python程式碼,只要在命令前面加一個" !",這條命令就變成了linux命令,比如我們可以" ! ls"檢視資料夾檔案,還可以!pip安裝庫。以及執行py程式!python2 temp.py
可以寫一段程式碼進行測試
更改工作目錄,在Colab中cd命令是無效的,切換工作目錄使用chdir函式
!pwd # 用 pwd 命令顯示工作路徑 # /content !ls # 檢視的是 content 資料夾下有哪些檔案 # sample_data !ls "drive/My Drive" # TensorFlow (這就是我們之前建立的那個資料夾) # 更改工作目錄 import os os.chdir("/content/drive/My Drive/TensorFlow") os.getcwd() # '/content/drive/My Drive/TensorFlow'
重新啟動Colab命令:!kill -9 -1
(3)、選擇配置環境
我們大家肯定會疑慮,上述方法跑的那段程式是不是用GPU跑的呢?不是,想要用GPU跑程式我們還需要配置環境,
點選工具欄“修改”,選擇筆記本設定
在執行時型別我們可以選擇Python 2或Python 3,硬體加速器我們可以選擇GPU或者TPU(後面會講到),或者None什麼都不用。
載入資料
從本地載入資料
從本地上傳資料
files.upload
會返回已上傳檔案的字典。 此字典的鍵為檔名,值為已上傳的資料。
from google.colab import files uploaded = files.upload() for fn in uploaded.keys(): print('使用者上傳的檔案 "{name}" 有 {length} bytes'.format( name=fn, length=len(uploaded[fn])))
我們執行該段程式之後,就會讓我們選擇本地檔案,點選上傳後,該檔案就能被讀取了
將檔案下載到本地
from google.colab import files files.download('./example.txt') # 下載檔案
從谷歌雲盤載入資料
使用授權程式碼在執行時裝載 Google 雲端硬碟
from google.colab import drive drive.mount('/content/gdrive')
在Colab中執行上述程式碼,會出現一段連結,點選連結,複製連結中的金鑰,輸入到Colab中就可以成功把Colab與谷歌雲盤相連線,連線後進行路徑切換,就可以直接讀取谷歌雲盤資料了。
向Google Colab新增表單
為了不每次都在程式碼中更改超引數,您可以簡單地將表單新增到Google Colab。
點選之後就會出現左右兩個框,我們在左框中輸入
# @title 字串 text = 'value' #@param {type:"string"} dropdown = '1st option' #@param ["1st option", "2nd option", "3rd option"] text_and_dropdown = 'value' #@param ["選項1", "選項2", "選項3"] {allow-input: true} print(text) print(dropdown) print(text_and_dropdown)
雙擊右邊欄可以隱藏程式碼
Colab中的GPU
首先我們要讓Colab連上GPU,導航欄-->編輯-->筆記本設定-->選擇GPU
接下來我們來確認可以使用Tensorflow連線到GPU
import tensorflow as tf device_name = tf.test.gpu_device_name() if device_name != '/device:GPU:0': raise SystemError('沒有發現GPU device') print('Found GPU at: {}'.format(device_name)) # Found GPU at: /device:GPU:0
我們可以在Colab上執行以下程式碼測試GPU和CPU的速度
import tensorflow as tf import timeit config = tf.ConfigProto() config.gpu_options.allow_growth = True with tf.device('/cpu:0'): random_image_cpu = tf.random_normal((100, 100, 100, 3)) net_cpu = tf.layers.conv2d(random_image_cpu, 32, 7) net_cpu = tf.reduce_sum(net_cpu) with tf.device('/device:GPU:0'): random_image_gpu = tf.random_normal((100, 100, 100, 3)) net_gpu = tf.layers.conv2d(random_image_gpu, 32, 7) net_gpu = tf.reduce_sum(net_gpu) sess = tf.Session(config=config) # 確保TF可以檢測到GPU try: sess.run(tf.global_variables_initializer()) except tf.errors.InvalidArgumentError: print( '\n\n此錯誤很可能表示此筆記本未配置為使用GPU。 ' '通過命令面板(CMD/CTRL-SHIFT-P)或編輯選單在筆記本設定中更改此設定.\n\n') raise def cpu(): sess.run(net_cpu) def gpu(): sess.run(net_gpu) # 執行一次進行測試 cpu() gpu() # 多次執行op print('將100*100*100*3通過濾波器卷積到32*7*7*3(批處理x高度x寬度x通道)大小的影象' '計算10次運訓時間的總和') print('CPU (s):') cpu_time = timeit.timeit('cpu()', number=10, setup="from __main__ import cpu") print(cpu_time) print('GPU (s):') gpu_time = timeit.timeit('gpu()', number=10, setup="from __main__ import gpu") print(gpu_time) print('GPU加速超過CPU: {}倍'.format(int(cpu_time/gpu_time))) sess.close() # CPU (s): # 3.593296914000007 # GPU (s): # 0.1831514239999592 # GPU加速超過CPU: 19倍View Code
Colab中的TPU
首先我們要讓Colab連上GPU,導航欄-->編輯-->筆記本設定-->選擇TPU
接下來我們來確認可以使用Tensorflow連線到TPU
import os import pprint import tensorflow as tf if 'COLAB_TPU_ADDR' not in os.environ: print('您沒有連線到TPU,請完成上述操作') else: tpu_address = 'grpc://' + os.environ['COLAB_TPU_ADDR'] print ('TPU address is', tpu_address) # TPU address is grpc://10.97.206.146:8470 with tf.Session(tpu_address) as session: devices = session.list_devices() print('TPU devices:') pprint.pprint(devices)
使用TPU進行簡單運算
import numpy as np def add_op(x, y): return x + y x = tf.placeholder(tf.float32, [10,]) y = tf.placeholder(tf.float32, [10,]) tpu_ops = tf.contrib.tpu.rewrite(add_op, [x, y]) session = tf.Session(tpu_address) try: print('Initializing...') session.run(tf.contrib.tpu.initialize_system()) print('Running ops') print(session.run(tpu_ops, {x: np.arange(10), y: np.arange(10)})) # [array([ 0., 2., 4., 6., 8., 10., 12., 14., 16., 18.], dtype=float32)] finally: # 目前,tpu會話必須與關閉會話分開關閉。 session.run(tf.contrib.tpu.shutdown_system()) session.close()
在Colab中執行Tensorboard
想要在Google Colab中執行Tensorboard,請執行以下程式碼
!wget https://bin.equinox.io/c/4VmDzA7iaHb/ngrok-stable-linux-amd64.zip !unzip ngrok-stable-linux-amd64.zip # 新增TensorBoard的路徑 import os log_dir = 'tb_logs' if not os.path.exists(log_dir): os.makedirs(log_dir) # 開啟ngrok service,繫結port 6006(tensorboard) get_ipython().system_raw('tensorboard --logdir {} --host 0.0.0.0 --port 6006 &'.format(log_dir)) get_ipython().system_raw('./ngrok http 6006 &') # 產生網站,點選網站訪問tensorboard !curl -s http://localhost:4040/api/tunnels | python3 -c \ "import sys, json; print(json.load(sys.stdin)['tunnels'][0]['public_url'])"
您可以使用建立的ngrok.io URL 跟蹤Tensorboard日誌。您將在輸出末尾找到URL。請注意,您的Tensorboard日誌將儲存到tb_logs目錄。當然,您可以更改目錄名稱。
之後,我們可以看到Tensorboard發揮作用!執行以下程式碼後,您可以通過ngrok URL跟蹤Tensorboard日誌。
from __future__ import print_function import keras from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Flatten from keras.layers import Conv2D, MaxPooling2D from keras import backend as K from keras.callbacks import TensorBoard batch_size = 128 num_classes = 10 epochs = 12 # input image dimensions img_rows, img_cols = 28, 28 # the data, shuffled and split between train and test sets (x_train, y_train), (x_test, y_test) = mnist.load_data() if K.image_data_format() == 'channels_first': x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols) x_test = x_test.reshape(x_test.shape[0], 1, img_rows, img_cols) input_shape = (1, img_rows, img_cols) else: x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1) x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1) input_shape = (img_rows, img_cols, 1) x_train = x_train.astype('float32') x_test = x_test.astype('float32') x_train /= 255 x_test /= 255 print('x_train shape:', x_train.shape) print(x_train.shape[0], 'train samples') print(x_test.shape[0], 'test samples') # convert class vectors to binary class matrices y_train = keras.utils.to_categorical(y_train, num_classes) y_test = keras.utils.to_categorical(y_test, num_classes) model = Sequential() model.add(Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=input_shape)) model.add(Conv2D(64, (3, 3), activation='relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Dropout(0.25)) model.add(Flatten()) model.add(Dense(128, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(num_classes, activation='softmax')) model.compile(loss=keras.losses.categorical_crossentropy, optimizer=keras.optimizers.Adadelta(), metrics=['accuracy']) tbCallBack = TensorBoard(log_dir=LOG_DIR, histogram_freq=1, write_graph=True, write_grads=True, batch_size=batch_size, write_images=True) model.fit(x_train, y_train, batch_size=batch_size, epochs=epochs, verbose=1, validation_data=(x_test, y_test), callbacks=[tbCallBack]) score = model.evaluate(x_test, y_test, verbose=0) print('Test loss:', score[0]) print('Test accuracy:', score[1])View Code
參考
Colaboratory官方文件
一位外國小哥寫的部落格,總結的