1. 程式人生 > >Keras下GPU/CPU模式切換

Keras下GPU/CPU模式切換

1 確保環境

確保已經正確安裝了keras, tensorflow/theano, cuda

在MacOS下面安裝CUDA請參考:

Ubuntu下面安裝CUDA請參考:

2 切換gpu

If you are running on the TensorFlow backend, your code will automatically run on GPU if any available GPU is detected. If you are running on the Theano backend, you can use one of the following methods:

Method 1: use Theano flags.

THEANO_FLAGS=device=gpu,floatX=float32 python my_keras_script.py
The name ‘gpu’ might have to be changed depending on your device’s identifier (e.g. gpu0, gpu1, etc).

Method 2: set up your .theanorc: Instructions

sudo vim ~/.theanorc

add these content
[global]
device=gpu
floatX=float32

Method 3: manually set theano.config.device, theano.config.floatX at the beginning of your code:

import theano
theano.config.device = ‘gpu’
theano.config.floatX = ‘float32’

使用下面這個指令碼來驗證是否啟動GPU:

from theano import function, config, shared, sandbox  
import theano.tensor as T  
import
numpy import time vlen = 10 * 30 * 768 # 10 x #cores x # threads per core iters = 1000 rng = numpy.random.RandomState(22) x = shared(numpy.asarray(rng.rand(vlen), config.floatX)) f = function([], T.exp(x)) print(f.maker.fgraph.toposort()) t0 = time.time() for i in xrange(iters): r = f() t1 = time.time() print("Looping %d times took %f seconds" % (iters, t1 - t0)) print("Result is %s" % (r,)) if numpy.any([isinstance(x.op, T.Elemwise) for x in f.maker.fgraph.toposort()]): print('Used the cpu') else: print('Used the gpu')

相關推薦

KerasGPU/CPU模式切換

1 確保環境 確保已經正確安裝了keras, tensorflow/theano, cuda 在MacOS下面安裝CUDA請參考: Ubuntu下面安裝CUDA請參考: 2 切換

在loader程序中涉及到的CPU模式切換

物理內存 地址尋址 索引數據 代碼段 位置 是否 匯編 ast 需要 在實模式下開啟4GB的物理內存地址尋址(稱之為Big Real Mode) 通過A20快速門(Fast Gate)修改0x90端口的數據, 對其進行置位(類似於打開一個開關), 開啟 使用CLI匯編指令

nu-lb-nuc140 RTX 流程 分析(四) CPU模式切換總結

nu-lb-nuc140 RTX 流程 分析(四) 系統啟動的時候: os_set_env 之後: 進入 __asm void SVC_Handler (void) { 之後 進入:任務 #define os_evt_set(evt_flags,task_id

KerasGPU模型和引數儲存Modelcheckpoint callback報錯問題以及在單GPU/CPU載入

儲存 多GPU下無法直接儲存多GPU模型結構和引數,而應該使用template model進行儲存 keras文件:To save the multi-gpu model, use .save(fname) or .save_weights(fna

LinuxGPUCPU版本的caffe切換

前些日子在HPC cluster(高效能運算機群)上安裝好了GPU版本的caffe,最近N卡驅動出了問題,導致無法使用GPU版本的caffe進行資料的訓練,我只是個普通使用者,無法去解決這個問題,所以無奈將GPU版本修改為CPU版本勉強進行一些實驗,其實主要是對Makefi

win7編譯Microsoft版的caffe包的MATLAB接口(CPU模式

第三方庫 blank res tps setting 後綴名 www .exe 系統路徑 本博客是基於http://www.cnblogs.com/njust-ycc/p/5776286.html這篇博客修改的,做出了更正與補充。 本人機器的環境:Win7+MATLAB2

2018最新win10 安裝tensorflow1.4(GPU/CPU)+cuda8.0+cudnn8.0-v6 + keras 安裝CUDA莫名失敗 導入tensorflow失敗報錯問題解決

下載地址 find msd microsoft blank craft program 發現 占用 原文作者:aircraft 原文鏈接:https://www.cnblogs.com/DOMLX/p/9747019.html 基本開發環境搭建 1. M

Linux檢視CPUGPU使用情況

Linux下檢視CPU和GPU使用情況 本文記錄瞭如何在Linux系統(以Ubuntu 16.04為例)檢視電腦的GPU和CPU使用情況,包括命令和查詢得到的介面。更新於2018.10.18。 CPU使用情況檢視 動態檢視 開啟終端,輸入: top 即可看到實時

linux檢視CPU、記憶體、磁碟資訊,資料夾資訊,GPU資訊

1、檢視CPU資訊 # 總核數 = 物理CPU個數 X 每顆物理CPU的核數  # 總邏輯CPU數 = 物理CPU個數 X 每顆物理CPU的核數 X 超執行緒數 # 檢視物理CPU個數 cat /proc/cpuinfo| grep "physical id"| sort| uniq| w

win10 anaconda 安裝 tensorflow / keras / pytorch(CPU

1. tensorflow 開啟anaconda prompt ,我的是python3.6,pip install tensorflow 驗證:import tensorflow 2. keras 開啟anaconda prompt,  pip install ker

cpu上下文切換

--怎麼檢視系統的上下文切換情況 過多的上下文切換,會把cpu時間消耗在暫存器、核心棧以及虛擬記憶體等資料的儲存和恢復上,縮短程序真正執行的時間,成了系統性能大幅下降的一個元凶。 檢視,使用vmstat,來檢視系統的上下文切換 -vmstat是一個常用的系統性能分析工具,主要用來分析系統的記憶體使用情況

2018最新win10 安裝tensorflow1.4(GPU/CPU)+cuda8.0+cudnn8.0-v6 + keras 安裝CUDA莫名失敗 匯入tensorflow失敗報錯問題解決

基本開發環境搭建 1. Microsoft Windows 版本 關於Windows的版本選擇,本人強烈建議對於部分高效能的新機器採用Windows 10作為基礎環境,部分老舊筆記本或低效能機器採用Windows 7即可,本文環境將以Windows 10作為開發環境進行描述。對於Windows 10

Tensorflow配置CPU+GPU

博主最近剛入坑Tensorflow,配置環境時走了很多坑 找了很多文章,都認為CPU和GPU不能共存 切換到Tensorflow-gpu下  conda list 發現存在 tensorflow 所以呼叫時會先使用 CPU 因此需要uninstall tensorfl

Keras/Tensorflow選擇GPU/CPU運行

gpu cuda import rdquo 一個 導入 font env ice 首先,導入os,再按照PCI_BUS_ID順序,從0開始排列GPU, import os os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

Caffe:CPU模式使用openblas-openmp(多執行緒版本)

從所周知,所有的深度學習框架使用GPU執行是最快的,但是在不具備Nvidia顯示卡的環境下只使用CPU來執行,慢就慢點吧,對於學習階段還是夠用的。 Caffe用到的Blas可以選擇Altas,OpenBlas,Intel MKL,Blas承擔了大量了數學工作,

caffe CPU模式訓練速度很慢

前面提到了利用caffe訓練模型時,只用單個CPU核的問題,通過openblas的方式解決了,但即使多個核用上了,但速度還是超級慢。就目前使用的網路而言,1min只能跑30 iter(1個iter 128個樣本),即30*128 = 3840 樣本/min, 為什麼如此之慢呢

Ubuntu 14.04 + Caffe配置記錄(CPU模式,無GPU,無Cuda)

對於使用深度學習進行影象處理,Caffe是一個不錯的框架選擇。但是安裝起來,並不是如想象中容易,稍不注意就會出錯。 網上關於Ubuntu14.04下配置Caffe的資料很多,但是總是要自己親自配置才能

linux將無線網絡卡工作模式切換為監聽模式

網上的辦法有些遺漏,根據它的方法會報錯如下: 即裝置忙,因此需要先關閉無線網絡卡,在無線網絡卡關閉狀態下改變工作模式: 關閉後執行如下命令 將工作模式切換到監聽模式之後再開啟無線網絡卡 成功: 輸入iwconfig即可看見mode變成了Monitor 完畢。 注意:

Ubuntu14.04(32位)Caffe(僅CPU模式)編譯

下載介面如下,我選擇了下載32位的Python2.7版本下載完成後的Anaconda儲存在/home/zqf/Downloads路徑下1.2安裝Anaconda在終端中執行以下命令cd /home/zqf/Downloads  sudo bash Anaconda2-4.4.

在Linux系統Vi命令模式和編輯模式進行切換

VI編輯器是Linux下用的最多也是功能最強大的文字編輯器,VI具有三種模式:命令模式、編輯模式以及末行模式,在最初使用VI開啟一個檔案的時候,處在命令模式下,這時使用命令i、I、a、A、o、O都可以進入編輯模式,而想放回到命令模式只需要在編輯模式下敲擊ESC鍵