機器學習之線性代數基礎一 矩陣乘法、秩、特徵值、特徵向量的幾何意義
阿新 • • 發佈:2019-01-26
寫篇文章把自己對矩陣的理解記錄一下,有不對的地方歡迎指正。為簡單、直觀、視覺化起見,我們只以簡單的二維和三維空間為例。高維空間也是同樣的道理,只是不能視覺化,只能通過數學公式來證明。
1. 矩陣乘法
矩陣乘法來源於線性方程組的求解,為了方便起見,從二維說起。
通常,我們在提到座標第一反應就是直角座標系中的橫縱座標軸所對應的單位向量,向量表示成如下形式會更明顯,
對式(1)進行簡單的變換,可以寫成另外一種形式,
式(2)所表達的幾何含義,就是矩陣乘法對座標系進行了變換,變換之後的空間(不一定仍然是二維空間)由矩陣的列向量張成。
矩陣和向量相乘的意義我們理解了之後,那麼矩陣乘矩陣的意義就一目瞭然了,因為做乘數的矩陣本身只是由多個向量組成而已。
2. 矩陣的秩
在上一部分中,有提到變換之後的空間不一定仍然是二維空間,是因為矩陣的列向量有可能是線性相關的。矩陣的列向量只有在線性無關的情況下,也就是列滿秩的情況下,才能作為新座標系的基底向量。
2.1 方陣的秩
當矩陣的列向量線性無關的時候,其列向量就仍可以張成一個二維空間。我們可以認為是矩陣對向量進行裡旋轉和拉伸操作。
下面來看一下列向量線性相關的情況,我們假設
顯然,無論向量的座標是多少,經過不滿秩矩陣(奇異矩陣)變換之後的結果將被限制到的列向量所在的一維空間。對於方陣來說,矩陣的秩小於向量的維度時,相乘之後,向量將會被降維
2.2 非方陣的秩
對於矩陣的秩有一個定理:一個的矩陣,它的秩小於等於。既然是定理,肯定是對的咯(這不廢話嚒),其中緣由,讓我們細細道來。
- 。此時矩陣可以看做是由兩個三維向量張成。對這句話化簡一下,就是兩個向量張成。也就是說,甭管是幾維的列向量,它仍然是一個二維空間。所以其秩最大也就是2,較小的那個維度。由於列滿秩,這時候矩陣乘法對向量的操作仍然是旋轉和拉伸,只不過是在三維空間的旋轉和拉伸