1. 程式人生 > >特徵向量和特徵值的幾何意義

特徵向量和特徵值的幾何意義

什麼是特徵矩陣和特徵值?我們用整體論來考慮,假設P(A)=(1,2,3)是A的3個特徵向量。那麼P(A^2)就是(1^2,2^2,3^2),P可以看作是一種運算元。當然,運算元的特性是需要用部分/細節詳細證明的。一旦證明,就可以作為整體的特徵。特徵值有什麼特性?說明矩陣可以分解成N維特徵向量的投影上面,這N個特徵值就是各個投影方向上的長度。由於n*n矩陣A可以投影在一個正交向量空間裡面,那麼任何N維特徵向量組成的矩陣都可以是線性投影變換矩陣,那麼I就是一個同用的線性變換投影矩陣。所以對於特徵值m,一定有是夠成了一個沒有線性無關向量的矩陣Aa=ma兩邊同乘以I得到 Aa=maI,所以(A-mI)a=0有非0解,那麼|A-mI|=0(可以用反正法,如果這個行列式不是0,那麼N個向量線性無關,在N維空間中只能相交於原點,不可能有非0解)。所以可以推出一些很有用的性質,例如A=[1/2,1,1;0,1/3,1;0,0,1/5],那麼只要滿足|A- mI|=0的值就是特徵值,顯然特徵值陣列立即可以得到(1/2,1/3,1/5)。一個n*n的矩陣A,秩=1,那麼最大線性無關組=1組,特徵向量=1個,任意n維非零向量都是A的特徵向量。特徵向量本身不是定死的,這就好比座標系可以旋轉一樣。一旦特徵向量的各個方向確定了,那麼特徵值向量也就確定了。求特徵值的過程就是用特徵方程:|A-mE|=0,P(1/A)=1/P(A),可以證明。有什麼物理含義呢?一個N維線性無關的向量,去掉其中的一維,那麼就有至少兩個向量是線性相關的了,所以行列式=0。特徵矩陣有什麼作用?把矩陣變化為正定矩陣,也就是A=P^-1BP,這樣的變換,A是對角陣。

相關推薦

特徵向量特徵值幾何意義

什麼是特徵矩陣和特徵值?我們用整體論來考慮,假設P(A)=(1,2,3)是A的3個特徵向量。那麼P(A^2)就是(1^2,2^2,3^2),P可以看作是一種運算元。當然,運算元的特性是需要用部分/細節詳細證明的。一旦證明,就可以作為整體的特徵。特徵值有什麼特性?說明矩陣可以分解成N維特徵向量的投影上面,這N個

花了10分鐘,終於弄懂了特徵值特徵向量到底有什麼意義

轉自 http://k.sina.com.cn/article_6367168142_17b83468e001005yrv.html 有振動 就有特徵值 今天,超模君看到了一句神翻譯: 嚇得超模君馬上放下手中的蘋果手機,來碼字了!之前有模友說想知道矩陣的特徵值和

AI理論隨筆-對稱矩陣與特徵向量特徵值

一、對稱矩陣(Symmetric Matrices)是指元素以主對角線為對稱軸對應相等的矩陣。 對稱矩陣是一個方形矩陣,其轉置矩陣和自身相等。 如果有n階矩陣A,其矩陣的元素都為實數,且矩陣A的轉置等於

特徵向量特徵值(做影象處理專案時所查)

轉自http://www.cnblogs.com/isabelincoln/archive/2009/06/18/1504623.html 特徵向量與特徵值 在看線性代數這一部分的時候,真是一頭霧水。雖然明白了特徵

特徵值特徵向量幾何物理意義

我們知道,矩陣乘法對應了一個變換,是把任意一個向量變成另一個方向或長度都大多不同的新向量。在這個變換的過程中,原向量主要發生旋轉、伸縮的變化。如果矩陣對某一個向量或某些向量只發生伸縮變換,不對這些向量產生旋轉的效果,那麼這些向量就稱為這個矩陣的特徵向量,伸縮的比例就是特徵

特徵值特徵向量幾何意義、計算及其性質

http://www.cnblogs.com/chaosimple/p/3179695.html 一、特徵值和特徵向量的幾何意義 特徵值和特徵向量確實有很明確的幾何意義,矩陣(既然討論特徵向量的問題,當然是方陣,這裡不討論廣義特徵向量的概念,就是一般的特徵向量)乘以一

深度學習中的數學與技巧(7):特徵值特徵向量幾何意義、計算及其性質

一、特徵值和特徵向量的幾何意義 特徵值和特徵向量確實有很明確的幾何意義,矩陣(既然討論特徵向量的問題,當然是方陣,這裡不討論廣義特徵向量的概念,就是一般的特徵向量)乘以一個向量的結果仍是同維數的一個向量。因此,矩陣乘法對應了一個變換,把一個向量變成同維數的另一個向量。

關於特徵值特徵向量意義

看K-L變換的時候對特徵值和特徵向量的作用有點搞不清,複習了一下計算過程後,整理思路如下: 求特徵值和特徵向量的過程: 1.計算行列式|λE-A|=0, 求出λ; 2.將λ帶入矩陣方程(λE-A)x=0,解出列向量x(特徵向量) 由於Ax = λx,故可以用λ和x表示A,從而達到壓縮資訊的目

講道理 | 特徵值特徵向量意義

在剛開始學的特徵值和特徵向量的時候只是知道了定義和式子,並沒有理解其內在的含義和應用,這段時間整理了相關的內容,跟大家分享一下; 首先我們先把特徵值和特徵向量的定義複習一下: 定義: 設A是n階矩陣,如果數λ和n維非零向量x使關係式 ……(1) 成立,那麼,這樣的

主成分分析PCA以及特徵值特徵向量意義

定義: 主成分分析(Principal Component Analysis,PCA), 是一種統計方法。通過正交變換將一組可能存在相關性的變數轉換為一組線性不相關的變數,轉換後的這組變數叫主成分。PCA的思想是將n維特徵對映到k維上(k<n),這k維是全新的正交特徵

影象處理之特徵值特徵向量意義

注:以下為個人學習筆記、知識整理 1.特徵值 從線性變換入手,把一個矩陣當作一個線性變換在某一組基下的矩陣,而最簡單的線性變換就是數乘變換。 特徵值的意義就是:目的就是看看一個線性變換對一些非零向量的作用是否能夠相當於一個數乘變換,特徵值就是這個數乘變換的變換比。 特徵值

機器學習之線性代數基礎一 矩陣乘法、秩、特徵值特徵向量幾何意義

  寫篇文章把自己對矩陣的理解記錄一下,有不對的地方歡迎指正。為簡單、直觀、視覺化起見,我們只以簡單的二維和三維空間為例。高維空間也是同樣的道理,只是不能視覺化,只能通過數學公式來證明。 1. 矩陣乘法   矩陣乘法來源於線性方程組的求解,為了方便起見,

線性代數之——特徵值特徵向量

線性方程 \(Ax=b\) 是穩定狀態的問題,特徵值在動態問題中有著巨大的重要性。\(du/dt=Au\) 的解隨著時間增長、衰減或者震盪,是不能通過消元來求解的。接下來,我們進入線性代數一個新的部分,基於 \(Ax=\lambda x\),我們要討論的所有矩陣都是方陣。 1. 特徵值和特徵向量 幾乎所有

線性代數---矩陣---特徵值特徵向量

轉自:https://jingyan.baidu.com/article/27fa7326afb4c146f8271ff3.html 一、特徵值和特徵向量的定義 首先讓我們來了解一下特徵值和特徵向量的定義,如下: 特徵子空間基本定義,如下:

【深度學習數學基礎】向量點乘(內積)叉乘(外積、向量積)概念及幾何意義解讀

1. 點乘 向量的點乘,也叫向量的內積、數量積,對兩個向量執行點乘運算,就是對這兩個向量對應位一一相乘之後求和的操作,點乘的結果是一個標量。 對於向量a和向量b:                                                 

機器學習之特徵值/特徵向量的解析應用

機器學習中,矩陣的特徵值/特徵向量理論有著非常廣泛的應用,比如資料降維 [1],人臉識別 [2]等。本文主要介紹特徵值/特徵向量。 1. 特徵值 定義: 給定n×nn\times nn×n階方陣AAA,如果存在數值λ\lambdaλ和nnn維非零向量x⃗\ve

向量點乘(內積)叉乘(外積、向量積)概念及幾何意義解讀

向量是由n個實陣列成的一個n行1列(n*1)或一個1行n列(1*n)的有序陣列; 向量的點乘,也叫向量的內積、數量積,對兩個向量執行點乘運算,就是對這兩個向量對應位一一相乘之後求和的操作,點乘的結果是一個標量。 點乘公式 對於向量a和向量b:            

基於eigen計算矩陣的特徵值特徵向量

有點小瑕疵,就是讀取檔案和生成檔案的位置!備註下本文是在Ubuntu系統下構建的,一些地方可能存在著差異。 1 首先是在如下的檔案下建立data.txt  這個檔案與源程式的檔案在同一個目錄下,其中data.txt的資料及其格式如下:  2 程式 #i

向量內積(點乘)外積(叉乘)概念及幾何意義

向量的內積(點乘) 定義 概括地說,向量的內積(點乘/數量積)。對兩個向量執行點乘運算,就是對這兩個向量對應位一一相乘之後求和的操作,如下所示,對於向量a和向量b:   a和b的點積公式為: 這裡要求一維向量a和向量b的行列數相同。注意:點乘的結果是一個標量(數量

線性代數筆記22——特徵值特徵向量

特徵向量   函式通常作用在數字上,比如函式f作用在x上,結果得到了f(x)。線上性代數中,我們將x擴充套件到多維,對於Ax來說,矩陣A的作用就像一個函式,輸入一個向量x,通過A的作用,得到向量Ax。對多數向量x而言,經過Ax的轉換後將得到不同方向的向量,但總有一些特殊的向量,它的方向和Ax方向相同,即Ax