深度學習【18】ncnn與NNPACK-darknet速度比較
ncnn與NNPACK-darknet速度比較
在三星s7edge上,使用4執行緒,對ncnn和nnpack-darknet進行速度的比較。
模型大小:12M
執行次數:20次
輸入圖片大小:416*416
平均使用時間:ncnn:300ms,nnpack:700ms。
ncnn使用的是網上別人編譯好的靜態庫。nnpack-darknet中nnpack使用的是caffe2的camke檔案,從原始碼編譯。
編譯nnpack-darknet時使用的編譯選項如下:
set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -std=c++11 -O3 -mfloat-abi=hard -mfpu=neon -ftree-vectorize -ffast-math" )
add_definitions(-Wall -Wextra)
add_definitions(-fPIC)
add_definitions(-Ofast)
不知道是不是我編譯nnpack-darknet時,編譯選項沒弄對,還是怎麼的。兩個庫的速度相差非常大。(應該是nnpack沒有bn層的原因)
相關推薦
深度學習【18】ncnn與NNPACK-darknet速度比較
ncnn與NNPACK-darknet速度比較 在三星s7edge上,使用4執行緒,對ncnn和nnpack-darknet進行速度的比較。 模型大小:12M 執行次數:20次 輸入圖片大小:416*416 平均使用時間:ncnn:300ms,nnpa
深度學習【19】ncnn安卓搭建並使用自己的模型
ncnn安卓搭建並使用自己的模型 github上面已經給了一個ncnn的安卓例子,地址:https://github.com/dangbo/ncnn-mobile clone 這個專案後用Android studio就可以開啟(12.19更新:這個專案已經更
深度學習【6】二值網路(Binarized Neural Networks)學習與理解
http://blog.csdn.net/linmingan/article/details/51008830 Binarized Neural Networks: Training Neural Networks with Weights and Ac
Java 基礎【18】 反射與內省
1.反射和內省的概念定義 Java 反射機制容許程式在執行時載入、探知、使用編譯期間完全未知的 class,核心類 java.lang.Class。 通過把指定的類中各種元素成分都對映成 java.lang.reflect 反射包中的
caffe深度學習【九】目標檢測 yolo v1的caffe實現 基於VOC2007資料集
YOLO v1演算法原文的作者是在darknet框架下實現的, 原文作者的實現 ,這裡主要講的是caffe版本的YOLO實現,主要採用yeahkun寫的:點選開啟連結 其實只是步驟相對來說有點繁瑣,但是要跑通並不困難: 大致步驟包括: 1、編譯ca
深度學習【50】物體檢測:SSD: Single Shot MultiBox Detector論文翻譯
SSD在眾多的物體檢測方法中算是比較重要的。之前學習過,但是沒過多久就忘了,因此決定將該論文翻譯一下,以加深印象。 Abstract 我們提出了用單個深度神經網路進行物體檢測的方法,稱為SSD。在每個特徵圖中的每個位置,SSD將bbox(bounding
深度學習【13】tensorflow儲存graph和引數為pb檔案
from tensorflow.python.framework.graph_util import convert_variables_to_constants graph = convert_v
深度學習【17】物體檢測:Focal Loss 反向求導及darknet上的實現
Focal Loss 反向求導及darknet上的實現 Focal Loss 可以解決不平衡分類問題,是在交叉熵損失函式上的擴充套件。詳見,論文:Focal Loss for Dense Object Detection。 該文,主要推導FL在softmax
深度學習【1】ubuntu中利用h5py儲存訓練好的keras 神經網路模型
利用h5py儲存的模型所佔的空間非常小。在利用h5py儲存keras訓練好的模型之前需要先安裝h5py,具體的安裝過程可參考我關於h5py安裝的博文:http://blog.csdn.net/linmingan/article/details/50736300 利用h5py
深度學習【27】pytorch Variable變數方法的使用
這邊記錄一些Variable變數相關的一些方法。 將一個numpy的張量轉成Variable: Vtensor = torch.autograd.Variable(torch.LongTen
caffe深度學習【十】編譯錯誤:In file included from ./include/caffe/util/device_alternate.hpp:40:0,
早上想跑一下目標檢測RON演算法 git下來之後,要編譯他的caffe時,出現如下問題: PROTOC src/caffe/proto/caffe.proto CXX .build_release/src/caffe/proto/caffe.pb.cc CXX s
深度學習【8】基於迴圈神經網路(RNN)的端到端(end-to-end)對話系統
注:本篇部落格主要內容來自:A Neural Conversational Model,這篇論文。 http://blog.csdn.net/linmingan/article/details/51077837 與傳統的基於資料庫匹配的對話\翻譯系統不一樣
深度學習【3】keras:儲存keras學習好的深度神經網路模型引數為二進位制和txt檔案
http://blog.csdn.net/linmingan/article/details/50906141 由於工程需要,儲存為hdf5的keras權值在c/c++中的讀取比較不方便。因此將keras中的權值剝離出來,並儲存為二進位制檔案或者txt檔案。在進行程式碼的編
【轉載】CMMI與敏捷開發模式比較
我曾經參與了一個新產品專案兩個版本的開發,分別採用了CMMI與專案級敏捷方式,總結一下兩種模式。 CMMI採用的是傳統的瀑布模式開發,開發流程是立項 ->需求分析->概要設計->詳細設計->編碼->單元測試->整合測試->系統測試->對外測試/開局測試。在
【JavaEE】EJB與Spring的全面比較與JavaBean的不同
一:EJB與spring的全面比較 Rod Johnson將Indeed.com(一個求職網站)職位列表中對EJB和Spring兩種技能的需求數量進行了對比,並通過分析這一統計資料得出了一些關於EJB的發展過程及其未來的結論。他圍繞著會話Bean和訊息Be
【redis】redis與關係型資料庫的比較
現在有2張表,一張放書的資訊create table book (bookid int,title char(20))engine myisam charset utf8;insert into boo
【讀書1】【2017】MATLAB與深度學習——多元分類(3)
假設神經網路在給定輸入資料時產生如圖4-11所示的輸出。 Assume that the neural network produced theoutput shown in Figure 4-11 when given the input data. 圖4-11 當使用sigmo
【讀書1】【2017】MATLAB與深度學習——多元分類(2)
這種轉換意味著每個輸出節點都對映到向量中的一個元素,只有該元素對應的節點產生1。 This transformation implies that eachoutput node is mapped to an element of the class vector, which onl
【讀書1】【2017】MATLAB與深度學習——多元分類(1)
多元分類(Multiclass Classification) 本節介紹如何利用神經網路來處理三種或三種以上的分類。 This section introduces how to utilize theneural network to deal with the classific
【讀書1】【2017】MATLAB與深度學習——二元分類(2)
圖4-4 改變分類符號的表示方法Change the class symbolsand the data is classified differently 圖4-4所示的訓練資料是我們用來訓練神經網路的。 The training data shown in Figure 4-4