1. 程式人生 > >如何理解特徵值和特徵向量

如何理解特徵值和特徵向量

學完線性代數的同學,可能會對線性代數的很多概念有所疑惑.

這個東西有什麼用?那個玩意定義出來有什麼意義?

本文將探討線性代數中及其重要的兩個概念:特徵值特徵向量.

(PS:下文中的矩陣A均認為是方陣)

矩陣不單單是二維的陣列,它更重要的角色是對映:y⃗ =Ax⃗ 

y⃗ =Ax⃗ 就相當於y⃗ =f(x⃗ ),矩陣A是把向量x⃗ 對映到向量y⃗ 的一個函式,或者說,對映,運算元.

從一般的角度看,這個對映無非就是矩陣乘向量,說得具體一點,就是n次的向量點積計算.

(矩陣的一行乘上向量,並對結果向量的所有元素求和,就是一次點積)

錯!實際上,這個對映本質是一個縮放操作.

舉一個簡單的例子,矩陣A=(4321)

它的特徵值分別是2和1,特徵向量是(11)(23).

設向量x⃗ =(12),那麼顯然結果y⃗ =Ax⃗ =(01).

我們使用另一種方法計算,首先我們將x⃗ 表示成特徵向量(11)(23)的線性組合,即:

x⃗ =(12)=1(11)+1(23)

然後,我們將特徵值和對應的係數相乘,得到:
y⃗ =12(11)+11(23)=2(11)+1(23)

顯然,如果你繼續計算下去,你也會得到y⃗ =(01)

特徵值和特徵向量的意義就在於此!

矩陣所充當的對映,實際上就是對特徵向量的縮放,每個特徵向量的縮放程度就是特徵值.

因此,我們需要將向量x⃗ 表示成特徵向量的線性組合(相當於以特徵向量為基),得到相應的特徵向量的權重.

然後,每個權重與特徵值相乘,就是這個對映最本質的縮放操作.

基於這樣的理解,我們可以很簡單地解釋很多結論.

1.對角化分解

對角化分解實際上就是我們解釋特徵值含義的過程.

A=PΛP1,其中P是由特徵向量組成的矩陣,Λ是由特徵值組成的對角矩陣.

在解釋對角化分解之前,我們還要先解釋矩陣的另一個含義.

對於z⃗ =Py⃗ ,事實上矩陣P還有其他含義,比如在這裡有轉換基向量的含義:

  • y⃗ 是特徵向量為基所表示的向量,上文y⃗ =2(11)+1(23

    ),那麼y⃗ 在特徵向量為基的表示是y⃗ =(21)

  • z⃗ 則是座標軸為基所表示的向量,假如z⃗ 的表示為z⃗ =(<