1. 程式人生 > >奇異值分解(SVD)詳解及其應用

奇異值分解(SVD)詳解及其應用

這個假設是一個攝像機採集一個物體運動得到的圖片,上面的點表示物體運動的位置,假如我們想要用一條直線去擬合這些點,那我們會選擇什麼方向的線呢?當然是圖上標有signal的那條線。如果我們把這些點單純的投影到x軸或者y軸上,最後在x軸與y軸上得到的方差是相似的(因為這些點的趨勢是在45度左右的方向,所以投影到x軸或者y軸上都是類似的),如果我們使用原來的xy座標系去看這些點,容易看不出來這些點真正的方向是什麼。但是如果我們進行座標系的變化,橫軸變成了signal的方向,縱軸變成了noise的方向,則就很容易發現什麼方向的方差大,什麼方向的方差小了。
 一般來說,方差大的方向是訊號的方向,方差小的方向是噪聲的方向,我們在資料探勘中或者數字訊號處理中,往往要提高訊號與噪聲的比例,也就是信噪比。對上圖來說,如果我們只保留signal方向的資料,也可以對原資料進行不錯的近似了。
PCA的全部工作簡單點說,就是對原始的空間中順序地找一組相互正交的座標軸,第一個軸是使得方差最大的,第二個軸是在與第一個軸正交的平面中使得方差最大的,第三個軸是在與第1、2個軸正交的平面中方差最大的,這樣假設在N維空間中,我們可以找到N個這樣的座標軸,我們取前r個去近似這個空間,這樣就從一個N維的空間壓縮到r維的空間了,但是我們選擇的r個座標軸能夠使得空間的壓縮使得資料的損失最小。
 還是假設我們矩陣每一行表示一個樣本,每一列表示一個feature,用矩陣的語言來表示,將一個m * n的矩陣A的進行座標軸的變化,P就是一個變換的矩陣從一個N維的空間變換到另一個N維的空間,在空間中就會進行一些類似於旋轉、拉伸的變化。

相關推薦

奇異分解(SVD)及其應用

這個假設是一個攝像機採集一個物體運動得到的圖片,上面的點表示物體運動的位置,假如我們想要用一條直線去擬合這些點,那我們會選擇什麼方向的線呢?當然是圖上標有signal的那條線。如果我們把這些點單純的投影到x軸或者y軸上,最後在x軸與y軸上得到的方差是相似的(因為這些點的趨勢是在45度左右的方向,所以投影到x軸

[數學] 奇異分解SVD的理解與應用

資料 blank art use 過濾 ble 對角線 cos .net 看一個預測的代碼,在預處理數據的時候使用了svd。了解了一下svd相關資料,比較喜歡第一篇文章的解釋,不過第二篇也很簡單。 https://blog.csdn.net/ab_use/article/d

機器學習中的數學-強大的矩陣奇異分解(SVD)及其應用

版權宣告:     本文由LeftNotEasy釋出於http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html 前言: &nb

奇異分解(SVD)原理

一、奇異值與特徵值基礎知識:     特徵值分解和奇異值分解在機器學習領域都是屬於滿地可見的方法。兩者有著很緊密的關係,我在接下來會談到,特徵值分解和奇異值分解的目的都是一樣,就是提取出一個矩陣最重要的特徵。先談談特徵值分解吧:    1)特

機器學習:奇異分解SVD簡介及其在推薦系統中的簡單應用

轉載自:https://www.cnblogs.com/lzllovesyl/p/5243370.html 本文先從幾何意義上對奇異值分解SVD進行簡單介紹,然後分析了特徵值分解與奇異值分解的區別與聯絡,最後用python實現將SVD應用於推薦系統。 1.SVD詳解 SVD(singul

奇異分解SVD簡介及其在推薦系統中的簡單應用

本文先從幾何意義上對奇異值分解SVD進行簡單介紹,然後分析了特徵值分解與奇異值分解的區別與聯絡,最後用python實現將SVD應用於推薦系統。 1.SVD詳解 SVD(singular value decomposition),翻譯成中文就是奇異值分解。SVD的用處有

奇異分解(SVD)原理及推導

 轉載請宣告出處http://blog.csdn.net/zhongkejingwang/article/details/43053513     在網上看到有很多文章介紹SVD的,講的也都不錯,但是感覺還是有需要補充的,特別是關於矩陣和對映之間的對應關係。前段時間看了國外

奇異的物理意義是什麼?強大的矩陣奇異分解(SVD)及其應用

強大的矩陣奇異值分解(SVD)及其應用 一、奇異值與特徵值基礎知識: 特徵值分解和奇異值分解在機器學習領域都是屬於滿地可見的方法。兩者有著很緊密的關係,我在接下來會談到,特徵值分解和奇異值分解的目的都是一樣,就是提取出一個矩陣最重要的特徵。先談談特徵值分解吧: 1)特徵值: 如果說一個向量v是方陣

奇異分解(SVD)原理及推導 (轉)

很不錯的文章,適合入門。     在網上看到有很多文章介紹SVD的,講的也都不錯,但是感覺還是有需要補充的,特別是關於矩陣和對映之間的對應關係。前段時間看了國外的一篇文章,叫A Singularly Valuable Decomposition The SVD of

強大的矩陣奇異分解(SVD)及其應用

前言:     上一次寫了關於PCA與LDA的文章,PCA的實現一般有兩種,一種是用特徵值分解去實現的,一種是用奇異值分解去實現的。在上篇文章中便是基於特徵值分解的一種解釋。特徵值和奇異值在大部分人的印象中,往往是停留在純粹的數學計算中。而且線性代數或者矩陣論裡面,也

奇異分解(SVD)原理及應用

4.4 存在 post 定性 tro ant 二維 5.1 spl 一、奇異值與特征值基礎知識: 特征值分解和奇異值分解在機器學習領域都是屬於滿地可見的方法。兩者有著很緊密的關系,我在接下來會談到,特征值分解和奇異值分解的目的都是一樣,就是提取出一個矩陣最重要的特征

奇異分解(SVD)原理與在降維中的應用

奇異值分解(Singular Value Decomposition,以下簡稱SVD)是在機器學習領域廣泛應用的演算法,它不光可以用於降維演算法中的特徵分解,還可以用於推薦系統,以及自然語言處理等領域。是很多機器學習演算法的基石。本文就對SVD的原理做一個總結,

奇異分解(SVD)應用簡介

一:前言        千里之行,始於足下,新的一年開始了,努力提升自己,從點滴做起。總結一下過去半年的工作。 二:SVD在短文字相似度的應用        文字相似度計算中比較有名的演算法Latent Semantic Analysis(LSI/LSA),就是用的SVD技

矩陣分解 (特徵值/奇異分解+SVD+齊次/非齊次線性方程組)

,#1. 用途# 1.1 應用領域 最優化問題:最小二乘問題 (求取最小二乘解的方法一般使用SVD) 統計分析:訊號與影象處理 求解線性方程組:Ax=0或Ax=b 奇異值分解:可以降維,同時可以降低資料儲存需求 1.2 矩陣是什麼 矩陣是什

奇異分解SVD在簡單推薦系統中的應用

說到奇異值分解SVD,對機器學習有所瞭解的朋友都或多或少了解一些,無非就是將原始資料按照一定規則分解為三個矩陣,其中中間的矩陣的對角元素就是“奇異值”,是按照從大到小的順序排列的。我們可以按照一定的方

Storm概念、原理及其應用(一)BaseStorm

when 結構 tails 並發數 vm 虛擬機 cif 異步 優勢 name 本文借鑒官文,添加了一些解釋和看法,其中有些理解,寫的比較粗糙,有問題的地方希望大家指出。寫這篇文章,是想把一些官文和資料中基礎、重點拿出來,能總結出便於大家理解的話語。與大多數“wordc

主成分分析PCA & 奇異分解SVD

一 特徵值和特徵向量 想了解PCA和SVD,首先要了解的一個概念就是特徵值和特徵向量。        A是矩陣,x是向量、是數。如果滿足公式,則說是矩陣A的一個特徵值,非零向量x為矩陣A的屬於特徵值的特徵向量。矩陣A的特徵值和特徵向量可以寫成以下格式,請注

LSTM網路層及其應用例項

上一節我們介紹了RNN網路層的記憶性原理,同時使用了keras框架聽過的SimpleRNN網路層到實際運用中。然而使用的效果並不理想,主要是因為simpleRNN無法應對過長單詞串的輸入,在理論上,當它接收第t個輸入時,它應該能把前面好幾個單詞的處理資訊記錄下來,但實際上它無法把前面已經

【簡化資料】奇異分解 SVD

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

【機器學習筆記14】奇異分解(SVD)

奇異值分解 定義: 假設A是一個m×nm \times nm×n的矩陣,則存在如下一種分解: Am×n=Um×m∑m×nVn×nTA_{m \times n}=U_{m \times m} \sum_{m \times n} V_{n \times n}^T