1. 程式人生 > >最新模型壓縮技術導向

最新模型壓縮技術導向

paper-list

1.Distilling the Knowledge in a Neural Network

hiton的經典之作,大體上就是用softmax/t 代替softmax去用大網路學小網路,在mnist等小資料集取得了積極的結果。但是缺乏在imagenet之類的大叔據集的結果,用來訓練的模型也是比較小的。

2.Mimicking Very Efficient Network for Object Detection

該文中提出了一個新的卷積網路mimic方法,即將學習整個feature map變為學習proposal取樣之後的feature來簡化任務。在由小網路生成的proposal中,使用spatial pyramid pooling方法在大小網路上進行區域性特徵取樣(後經作者指正為直接使用pixel-wise的學習),然後通過L2 loss減小二者之間的差別。總的loss主要由兩部分組成,分別為mimic loss 以及ground-truth loss,作者在實驗中發現,對於mimic loss進行normalization可以取得更為穩定的mimic結果。同時,作者還提到了對於小網路與大網路feature map大小不同的情況(譬如小網路中輸入影象減半),可以增加一個轉換層(deconvolution)使得大小網路最終mimic的層保持一致。

3.Face Model Compression by Distilling Knowledge from Neurons

HKCU-湯曉鷗學生的文章,在識別上取得了比較好的結果,缺點是模型設計的不好,說服力削弱了一點。主要的key在於學習hidden比學習softmax好,再就是給出瞭如何篩選一批比較好的hidden-node。

4.Apprentice: Using Knowledge Distillation Techniques To Improve Low-Precision Network Accuracy

intel的文章,簡單將就是int8時損失了一些精度,用distilling可以提升一部分

5.NISP: Pruning Networks using Neuron Importance Score Propagation

IBM的文章,用特徵選擇的方法壓縮模型,即第k層第j個neuron的重要性得分可由下一層相連線neurons重要性得分的加權平均獲得,該原則適用於BN、Pooling層等。則通過一次性反向傳播便可獲得網路中所有neurons的重要性得分,然後指導每一層的pruning。對於全連線層,裁剪個別neurons;對於卷積層,裁剪個別輸出通道(channels),每個通道的重要性得分表示為該通道內所有neurons重要性得分之和。被剪除的neurons或channels不參與前一層的反向傳播。效果比隨機裁剪權重和feature ranking要好,可以結合文章3

6.Model Distillation with Knowledge Transfer in Face Classification, Alignment and Verification

國內的一篇文章,把softmax和distilling想結合,做了很多實驗,搞工程的可以參考下

7.Channel Pruning for Accelerating Very Deep Neural Networks

文章的核心內容是對訓練好的模型進行通道剪枝(channel pruning),而通道減枝是通過迭代兩步操作進行的:第一步是channel selection,這一步是採用LASSO regression來做的,其實就是添加了一個L1範數來約束權重,因為L1範數可以使得權重中大部分值為0,所以能使權重更加稀疏,這樣就可以把那些稀疏的channel剪掉;第二步是reconstruction,這一步是基於linear least squares(也就是最小二乘,或者叫最小平方)來約束剪枝後輸出的feature map要儘可能和減枝前的輸出feature map相等,也就是最小二乘值越小越好。可以看出本文的通道剪枝是對訓練好的模型進行的,也就是文章說的inference time,當然作者在最後的conclusion中也提到以後會在train time中也引進通道剪枝,希望能減少訓練的時間。

相關推薦

最新模型壓縮技術導向

paper-list 1.Distilling the Knowledge in a Neural Network hiton的經典之作,大體上就是用softmax/t 代替softmax去用大網路學小網路,在mnist等小資料集取得了積極的結果。但

深度學習——淺談CNN模型壓縮技術

模型壓縮的動機   最近幾年,CNN已經成為了計算機視覺任務的主要技術手段,在影象分類、目標檢測、深度估計、語義分割等方向都大放異彩。越來越大的資料集和越來越強的計算裝置允許研究者不斷探索更深更復雜的網路模型,例如從AlexNet、VGGNet到GOOGleN

數據庫壓縮技術探索

實踐 占用 開始 trac 簡單介紹 找到 不必要 哲學 詳細 作為數據庫,在系統資源(CPU、內存、SSD、磁盤等)一定的前提下,我們希望: 存儲的數據更多:采用壓縮,這個世界上有各種各樣的壓縮算法; 訪問的速度更快:更快的壓縮(寫)/解壓(讀)算法、更大的緩存。 幾

P1319 壓縮技術

amp break for sin can algorithm clu %d 一行 題目描述 設某漢字由N X N的0和1的點陣圖案組成,如下圖。我們依照以下規則生成壓縮碼。連續一組數值:從漢字點陣圖案的第一行第一個符號開始計算,按書寫順序從上到下,由左到右。第一個數表示連

技術導向

bold hit -h col lin 我們 div size 理念 “我們一定要有一個堅定不移的深刻的理念,相信整個世界終究是為技術所驅動的。”-陸奇技術導向

淺談存儲重刪壓縮技術(一)

emc 將他 壓力測試 處理方式 比對 公眾號 center str 今天 淺談重刪壓縮技術(一) <喜歡更多內容可以關註微信公眾號“圍爐煮酒論IT”>作為一個做企業存儲市場的存儲人,最近兩年我不斷被重刪壓縮撩撥著。對於重刪壓縮這個技術的好壞,真實需求還是偽需求

《矽谷》裏神乎其神的壓縮技術,AI正在一點點做出來

效果 通過 imp 清晰度 文檔 另一個 alt 進步 改版 好劇總是追的特別快,比如說我們熟悉的黃暴神劇《矽谷》,今年該迎來第五季了。這部劇裏讓人印象深刻的東西很多,而劇裏幾個主角發明的創業神器、號稱能改變世界命運的“魔笛手”絕對是其中之一。給沒看過這部劇的朋友介紹一下,

張詩明: Linux內核內存壓縮技術

lan linu log bcd post div lcd dsl jdwp nh南腔竿dv河懈障t1獵趴惺http://hy8gykdyyzm.wikidot.com/zp來唐霸5d婦稼帳dt鬃瓶壞http://wxzzyzjdhydz.wikidot.com/bn讜毀烏

最新Zip壓縮文件漏洞,黑客可以觸發目錄遍歷攻擊

AS 文件覆蓋 使用 用戶添加 owas 代碼 項目 一個 人員   近日,國內某安全公司研究人員透露了一個關鍵漏洞的詳細信息,該漏洞影響了許多生態系統中的數千個項目,黑客可以利用這些漏洞在目標系統上實現代碼執行。   黑客是如何通過Zip壓縮文件入侵攻擊?被稱為“Zip

System.Web.Optimization 合並壓縮技術的使用

準備 img 改進 fma 路徑 appdata 難度 目錄名 文件的  捆綁和壓縮原理是:將多個css文件動態合並和壓縮為一個css文件、多個js文件動態合並和壓縮為一個js文件,如此達到減少瀏覽器對服務器資源文件的請求數量、縮小資源文件的尺寸來提高頁面反應速度的目的。A

模型壓縮相關工作

image 理論 博客 article 數據 == 例如 iss 裁剪 總結的很好的一篇博客:https://blog.csdn.net/App_12062011/article/details/81665140 定點化:     百度搜“模型壓縮定點化”     http

2018最新區塊鏈技術,從入門到精通視頻教程(比特幣基礎技術

css css js 視頻教程 tran 準備 window 運行 廣泛 入門到 2017最新區塊鏈技術,從入門到精通視頻教程(視頻+源碼+工具) 最新整理區塊鏈技術視頻包含開發工具,源碼,視頻教程,從小白到大神,分享給大家學習。 區塊鏈最早是比特幣的基礎技術,目前世界

騰訊技術分享:GIF動圖技術詳解及手機QQ動態表情壓縮技術實踐

表示 pack iii 技巧總結 fff 設備 思路 表情包 作用 本文來自騰訊前端開發工程師“ wendygogogo”的技術分享,作者自評:“在Web前端摸爬滾打的碼農一枚,對技術充滿熱情的菜鳥,致力為手Q的建設添磚加瓦。” 1、GIF格式的歷史 GIF ( Graph

2018最新視訊加密技術詳解一機一碼怎麼用?

視訊加密技術應用範圍很廣,可以說大部分的視訊所有者都希望自己的視訊是有條件才能給使用者看的。尤其是線上教育、行業培訓、特殊單位(比如醫院、大學、出版社等)等等。不同的行業和加密的目的不同,使用的視訊加密技術也有所差距,不過在長期的基礎累積中,點量軟體發現有些對視訊加密的需求是通用的,這裡小編就做個詳細的解釋。

最新MT2503平臺技術資料集錦

MT2503平臺技術資料介紹: 包括原理圖、參考設計、規格書、原始碼、FAQ等一系列技術資料,有需要的可到一牛網論壇中下載或者到小編的CSDN資源裡下載。此外,還有MT2503平臺方案開發,MT2503模組等需要合作的,到一牛網論壇或在下方留言都可以。 MT2503_all_feature_

關於資料庫壓縮技術

壓縮功能幾乎是當前主流資料庫的標配功能,除了能夠節省儲存空間外,在IO密集型的系統中, 可能也會帶來效能的提升。由於我們的儲存引擎也需要做記錄級壓縮的功能,所以很長的一段時間都在研究資料庫壓縮的技術,包括演算法的選型及優化,當然這之前要對現有主流資料庫的壓縮功能做一些調研。 資料的來源比較分散,有手

TensorFlow 首個優化工具來了:模型壓縮4倍,速度提升3倍!

今天,TensorFlow釋出了一個新的優化工具包:一套可以讓開發者,無論是新手還是高階開發人員,都可以使用來優化機器學習模型以進行部署和執行的技術。   這些技術對於優化任何用於部署的TensorFlow模型都非常有用。特別是對於在記憶體緊張、功耗限制和儲存有限的裝置

基於caffe的模型壓縮

DeepCompression-caffe 精簡後的日誌: stage1 I1102 17:28:31.986773 29076 cmp_conv_layer.cpp:47] CONV THR: 0.115747 0.33 I1102 17:28:31.986806 29076 cmp_co

最新RocketMQ核心技術精講與高併發抗壓實戰

第1章 課程介紹(瓜分1000元紅包) 為什麼掌握RocketMQ訊息中介軟體技術對於跳槽,晉級如此重要?學習RocketMQ技術,為什麼首選這門課程?電商平臺雙11高併發場景下是如何抗壓的?MQ部分的落地是如何做的?這章講重點為你解答這些疑惑 1-1 課前必讀(不看會錯過

Atitit 文件資料的摘要與壓縮技術總結abstract tech v4 目錄 1. 概念包含了原文字中的重要資訊,其長度不超過或遠少於原文字的一半” 1 2. 1. 摘要的作用 應用場景 1 2

Atitit 文件資料的摘要與壓縮技術總結abstract tech v4   目錄 1. 概念包含了原文字中的重要資訊,其長度不超過或遠少於原文字的一半” 1 2. 1. 摘要的作用 應用場景 1 2.1. 如自動報告生成、新聞標題生成、搜尋結果預覽等。此外