1. 程式人生 > >模型壓縮中的低秩分解

模型壓縮中的低秩分解

因為傳統訓練好的卷積核存在著低秩特性,因此常用的壓縮方法裡就會採用低秩分解(SVD)的方法進行壓縮,但時這種壓縮存在一些不足:

  • 若卷積核不低秩,那壓不了唄

  • 即使是低秩的,壓縮之後精度受損,需要re-training

Low Rank Filters

[SqueezeNext]

目的:去除冗餘,並且減少權值引數

方法:採用兩個K*1的卷積核替換掉一個K*K的卷積核(decompose the K convolutions into two separable convolutions of size 1 × K and K × 1)