如何理解特徵值和特徵向量
學完線性代數的同學,可能會對線性代數的很多概念有所疑惑.
這個東西有什麼用?那個玩意定義出來有什麼意義?
本文將探討線性代數中及其重要的兩個概念:特徵值與特徵向量.
(PS:下文中的矩陣
矩陣不單單是二維的陣列,它更重要的角色是對映:
從一般的角度看,這個對映無非就是矩陣乘向量,說得具體一點,就是n次的向量點積計算.
(矩陣的一行乘上向量,並對結果向量的所有元素求和,就是一次點積)
錯!實際上,這個對映本質是一個縮放操作.
舉一個簡單的例子,矩陣
它的特徵值分別是2和1,特徵向量是
設向量
我們使用另一種方法計算,首先我們將
然後,我們將特徵值和對應的係數相乘,得到:
顯然,如果你繼續計算下去,你也會得到
特徵值和特徵向量的意義就在於此!
矩陣所充當的對映,實際上就是對特徵向量的縮放,每個特徵向量的縮放程度就是特徵值.
因此,我們需要將向量
然後,每個權重與特徵值相乘,就是這個對映最本質的縮放操作.
基於這樣的理解,我們可以很簡單地解釋很多結論.
1.對角化分解
對角化分解實際上就是我們解釋特徵值含義的過程.
在解釋對角化分解之前,我們還要先解釋矩陣的另一個含義.
對於
y⃗ 是特徵向量為基所表示的向量,上文y⃗ =−2∗(11)+1∗(23 ,那麼y⃗ 在特徵向量為基的表示是y⃗ =(−21) z⃗ 則是座標軸為基所表示的向量,假如z⃗ 的表示為z⃗ =(<