奇異值分解壓縮影象SVD
介紹一下奇異值分解來壓縮影象。今年的上半年中的一篇部落格貼了一篇用奇異值分解處理pca問題的程式,當時用的是影象序列,是把影象序列中的不同部分分離開來。這裡是用的不是影象序列了,只是單單的一幅影象,所以直接就對影象矩陣進行svd了。
吳軍的《數學之美》裡其實已經介紹過用svd進行大資料的壓縮了,不過我這裡還是針對影象進行介紹一下吧。比如一幅1000*1000的影象A,儲存就需要1000000個畫素了。我們對A進行svd分解,則A=USV’,如果rank(A)=r,那麼U就為1000*r的矩陣,S為r*r的矩陣,V為1000*r的矩陣。所以儲存的資料就是1000*r+r*r+1000*r個數了,如果這個r比較小,那麼儲存的空間就會小很多了,當然了,如果r=1000,這時這樣來算svd就是既浪費了空間又浪費了時間。所以用這個svd時,還是先看看它的秩為好。
下面給出程式和執行結果,這裡使用不同的特徵分量對原影象進行重構,可以看一下效果。(這裡悲劇的秩就是原圖的寬)
clear all; close all; clc; a=imread('lena.jpg'); imshow(mat2gray(a)) [m n]=size(a); a=double(a); r=rank(a); [s v d]=svd(a); %re=s*v*d'; re=s(:,:)*v(:,1:1)*d(:,1:1)'; figure; imshow(mat2gray(re)); imwrite(mat2gray(re),'1.jpg') re=s(:,:)*v(:,1:20)*d(:,1:20)'; figure; imshow(mat2gray(re)); imwrite(mat2gray(re),'2.jpg') re=s(:,:)*v(:,1:80)*d(:,1:80)'; figure; imshow(mat2gray(re)); imwrite(mat2gray(re),'3.jpg') re=s(:,:)*v(:,1:150)*d(:,1:150)'; figure; imshow(mat2gray(re)); imwrite(mat2gray(re),'4.jpg')
下面是效果圖:
lena原圖
只用第1個特徵值進行重構
用前10個特徵值進行重構
用前80個特徵值進行重構
用前150個特徵值進行重構
最後說一些奇異值分解的應用:
1.影象壓縮,正如上面的。
2.噪聲濾波。
3.模式識別。因為svd就是提取主要的成分嘛。
4.生物,物理,經濟方面的一些統計模型的處理。
轉自:http://www.cnblogs.com/tiandsp/archive/2012/10/24/2737769.html
相關推薦
奇異值分解壓縮影象SVD
介紹一下奇異值分解來壓縮影象。今年的上半年中的一篇部落格貼了一篇用奇異值分解處理pca問題的程式,當時用的是影象序列,是把影象序列中的不同部分分離開來。這裡是用的不是影象序列了,只是單單的一幅影象,所以直接就對影象矩陣進行svd了。 吳軍的《數學之美》裡其實已經介紹
奇異值分解在影象壓縮中的應用(有MATLAB模擬程式)
這篇文章其實也是矩陣分析課程的一個作業,當時也是覺得矩陣奇異值分解挺有意思的,所以就在網上查詢奇異值分解的相關應用。另外自己對影象處理也很感興趣,因此就選擇了影象壓縮這個應用。寫部落格是個很好的學習方法,堅持寫部落格也是一個好習慣。下面就直接把論文貼上來。附錄1:奇異值分
利用矩陣奇異值分解對影象進行壓縮
最近學習線性代數的有關東西,在看到奇異值分解(svd)時,發現了一個在影象壓縮上的應用。 奇異值分解:線上性代數中,我們知道對任意一個矩陣都存在奇異值分解,,其中U和V是標準正交矩陣,而是一個對角矩陣,每一個對角元是該矩陣的奇異值,奇異值指的是矩陣的特徵值開根號。其具體分解形式如下: 其中 將A展開
基於奇異值分解的影象壓縮與除噪
一、本報告所用的一些基本原理 第一,慮噪過程。 巴特沃斯濾波器的特點是通頻帶內的頻率響應曲線最大限度平坦,沒有起伏,而在阻頻帶則逐漸下降為零。在振幅的對數對角頻率的波得圖上,從某一邊界角頻率開始,振幅隨著角頻率的增加而逐步減少,趨向負無窮大。 本程式通過不斷調整通帶截止頻率
【PCA與LDA】特徵值分解與奇異值分解以及影象壓縮處理原理
上一次寫了關於PCA與LDA的文章,PCA的實現一般有兩種,一種是用特徵值分解去實現的,一種是用奇異值分解去實現的。在上篇文章中便是基於特徵值分解的一種解釋。特徵值和奇異值在大部分人的印象中,往往是停留在純粹的數學計算中。而且線性代數或者矩陣論裡面,也很少講任何跟特徵值與奇異值有關的應用背景。奇異值分
奇異值分解和影象壓縮
=====================代表正義的分割線===================== 今天我們來講講奇異值分解和它的一些有意思的應用。奇異值分解是一個非常,非常,非常大的話題,它的英文是 Singular Value Decomposition,一般簡稱為 SVD。下面先給出它大概的意思
機器學習筆記——基於奇異值分解(SVD)的影象壓縮(PIL)
此指令碼的作用是圖片壓縮(清晰度尚可的情況下,可達到8倍以上的壓縮比),是SVD的一個應用實踐,涉及PIL、numpy庫。 (python中處理圖片的庫比較多,比如PIL、OpenCV、matplot
《學習OpenCV3》第7章第4題-SVD奇異值分解的驗算
lac size ast 編寫代碼 ref www adding 第7章 mar 原文題目: 中文翻譯: 解題過程 d.使用OpenCV編寫代碼 /******************************************************
SVD 奇異值分解
依賴 nat 矩陣相乘 適用於 mac 分類 topic 沒有 一個 強大的矩陣奇異值分解(SVD)及其應用 版權聲明: 本文由LeftNotEasy發布於http://leftnoteasy.cnblogs.com, 本文可以被全部的轉載或者部分使用
機器學習實戰精讀--------奇異值分解(SVD)
svd 奇異值分解奇異值分解(SVD):是一種強大的降維工具,通過利用SVD來逼近矩陣並從中提取重要特征,通過保留矩陣80%~ 90%的能量,就能得到重要的特征並去掉噪聲SVD分解會降低程序的速度,大型系統中SVD每天運行一次或者頻率更低,並且還要離線進行。隱性語義索引(LST):試圖繞過自然語言理解,用統計
[數學] 奇異值分解SVD的理解與應用
資料 blank art use 過濾 ble 對角線 cos .net 看一個預測的代碼,在預處理數據的時候使用了svd。了解了一下svd相關資料,比較喜歡第一篇文章的解釋,不過第二篇也很簡單。 https://blog.csdn.net/ab_use/article/d
奇異值分解(SVD)原理及應用
4.4 存在 post 定性 tro ant 二維 5.1 spl 一、奇異值與特征值基礎知識: 特征值分解和奇異值分解在機器學習領域都是屬於滿地可見的方法。兩者有著很緊密的關系,我在接下來會談到,特征值分解和奇異值分解的目的都是一樣,就是提取出一個矩陣最重要的特征
機器學習中的數學-強大的矩陣奇異值分解(SVD)及其應用
版權宣告: 本文由LeftNotEasy釋出於http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html 前言: &nb
主成分分析PCA & 奇異值分解SVD
一 特徵值和特徵向量 想了解PCA和SVD,首先要了解的一個概念就是特徵值和特徵向量。 A是矩陣,x是向量、是數。如果滿足公式,則說是矩陣A的一個特徵值,非零向量x為矩陣A的屬於特徵值的特徵向量。矩陣A的特徵值和特徵向量可以寫成以下格式,請注
奇異值分解(SVD)原理詳解
一、奇異值與特徵值基礎知識: 特徵值分解和奇異值分解在機器學習領域都是屬於滿地可見的方法。兩者有著很緊密的關係,我在接下來會談到,特徵值分解和奇異值分解的目的都是一樣,就是提取出一個矩陣最重要的特徵。先談談特徵值分解吧: 1)特
【簡化資料】奇異值分解 SVD
分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!  
機器學習:奇異值分解SVD簡介及其在推薦系統中的簡單應用
轉載自:https://www.cnblogs.com/lzllovesyl/p/5243370.html 本文先從幾何意義上對奇異值分解SVD進行簡單介紹,然後分析了特徵值分解與奇異值分解的區別與聯絡,最後用python實現將SVD應用於推薦系統。 1.SVD詳解 SVD(singul
SVD奇異值分解
等於 假設 dns owa 單位 http ket ext 現在 SVD奇異值分解 1 正交矩陣 正交矩陣對應的行(列)向量都是相互正交的單位向量,且滿足逆矩陣等於轉置矩陣。 正交矩陣對應的變換為正交變換,正交變換映射表現為旋轉和反射: 正交變換不改變向量的尺寸和夾角,如
SVD(奇異值分解)小結
注:奇異值分解在資料降維中有較多的應用,這是把它的原理簡單總結一下,並個圖片壓縮的例子,最後做一個簡單的分析,希望能夠給大家帶來幫助。 1、特徵值分解(EVD) 實對稱矩陣 在理角奇異值分解之前,需要先回顧一下特徵值分解,如果矩陣\(A\)是一個\(m\times m\)的實對稱矩陣(即\(A
python3-特征值,特征分解,SVD奇異值分解
特征值 正交向量 正交 pos 註意 water gen sha posit 1.設A為n階矩陣,若存在常數λ及n維非零向量x,使得Ax=λx,則稱λ是矩陣A的特征值,x是A屬於特征值λ的特征向量。 A的所有特征值的全體,叫做A的譜,記為λ(A)2.特征分解(Eigende