矩陣求導公式總結
基本公式:
Y = A * X --> DY/DX = A'
Y = X * A --> DY/DX = A
Y = A' * X * B --> DY/DX = A * B'
Y = A' * X' * B --> DY/DX = B * A'
1. 矩陣Y對標量x求導:
相當於每個元素求導數後轉置一下,注意M×N矩陣求導後變成N×M了
Y = [y(ij)] --> dY/dx = [dy(ji)/dx]
2. 標量y對列向量X求導:
注意與上面不同,這次括號內是求偏導,不轉置,對N×1向量求導後還是N×1向量
y = f(x1,x2,..,xn) --> dy/dX =(Dy/Dx1,Dy/Dx2,..,Dy/Dxn)'
3. 行向量Y'對列向量X求導:
注意1×M向量對N×1向量求導後是N×M矩陣。
將Y的每一列對X求偏導,將各列構成一個矩陣。
重要結論:
dX'/dX = I
d(AX)'/dX = A'
4. 列向量Y對行向量X’求導:
轉化為行向量Y’對列向量X的導數,然後轉置。
注意M×1向量對1×N向量求導結果為M×N矩陣。
dY/dX' = (dY'/dX)'
5. 向量積對列向量X求導運演算法則:
注意與標量求導有點不同。
d(UV')/dX = (dU/dX)V' + U(dV'/dX)
d(U'V)/dX = (dU'/dX)V + (dV'/dX)U'
重要結論:
d(X'A)/dX = (dX'/dX)A + (dA/dX)X' = IA + 0X' = A
d(AX)/dX' = (d(X'A')/dX)' = (A')' = A
d(X'AX)/dX = (dX'/dX)AX + (d(AX)'/dX)X = AX + A'X
6. 矩陣Y對列向量X求導:
將Y對X的每一個分量求偏導,構成一個超向量。
注意該向量的每一個元素都是一個矩陣。
7. 矩陣積對列向量求導法則:
d(uV)/dX = (du/dX)V + u(dV/dX)
d(UV)/dX = (dU/dX)V + U(dV/dX)
重要結論:
d(X'A)/dX = (dX'/dX)A + X'(dA/dX) = IA + X'0 = A
8. 標量y對矩陣X的導數:
類似標量y對列向量X的導數,
把y對每個X的元素求偏導,不用轉置。
dy/dX = [ Dy/Dx(ij) ]
重要結論:
y = U'XV = ΣΣu(i)x(ij)v(j) 於是 dy/dX = [u(i)v(j)] = UV'
y = U'X'XU 則 dy/dX = 2XUU'
y = (XU-V)'(XU-V) 則 dy/dX = d(U'X'XU - 2V'XU + V'V)/dX = 2XUU' -2VU' + 0 = 2(XU-V)U'
9. 矩陣Y對矩陣X的導數:
將Y的每個元素對X求導,然後排在一起形成超級矩陣。
10.乘積的導數
d(f*g)/dx=(df'/dx)g+(dg/dx)f'
結論
d(x'Ax)=(d(x'')/dx)Ax+(d(Ax)/dx)(x'')=Ax+A'x (注意:''是表示兩次轉置)
比較詳細點的如下:
http://lzh21cen.blog.163.com/blog/static/145880136201051113615571/
http://hi.baidu.com/wangwen926/blog/item/eb189bf6b0fb702b720eec94.html
其他參考:
Contents
- Notation
- Derivatives of Linear Products
- Derivatives of Quadratic Products
Notation
- d/dx (y)isa vector whose (i) elementis dy(i)/dx
- d/dx (y) is a vectorwhose (i) elementis dy/dx(i)
- d/dx (yT)is a matrixwhose (i,j) elementis dy(j)/dx(i)
- d/dx (Y) is a matrixwhose (i,j) elementis dy(i,j)/dx
- d/dX (y) is a matrixwhose (i,j) elementis dy/dx(i,j)
Note that the Hermitian transpose is not used because complexconjugates are not analytic.
In the expressions below matrices andvectors A, B, C donot depend on X.
Derivatives of Linear Products
- d/dx (AYB) =A * d/dx (Y)* B
-
- d/dx (Ay) =A * d/dx (y)
- d/dx(xTA) =A
-
- d/dx(xT) =I
- d/dx(xTa) =d/dx(aTx)= a
- d/dX(aTXb)= abT
-
- d/dX(aTXa)= d/dX(aTXTa)= aaT
- d/dX(aTXTb)= baT
- d/dx (YZ) =Y * d/dx (Z)+ d/dx (Y) *Z
Derivatives of Quadratic Products
- d/dx (Ax+b)TC(Dx+e)= ATC(Dx+e) + DTCT(Ax+b)
-
- d/dx (xTCx)= (C+CT)x
-
- [C:symmetric]: d/dx (xTCx)= 2Cx
- d/dx (xTx)= 2x
- d/dx (Ax+b)T (Dx+e)= AT (Dx+e) + DT (Ax+b)
-
- d/dx (Ax+b)T (Ax+b)= 2AT (Ax+b)
- [C:symmetric]: d/dx (Ax+b)TC(Ax+b)= 2ATC(Ax+b)
- d/dX(aTXTXb)= X(abT +baT)
-
- d/dX(aTXTXa)= 2XaaT
- d/dX(aTXTCXb)= CTXabT +CXbaT
-
- d/dX(aTXTCXa)= (C +CT)XaaT
- [C:Symmetric] d/dX(aTXTCXa)= 2CXaaT
- d/dX((Xa+b)TC(Xa+b))=(C+CT)(Xa+b)aT
Derivatives of Cubic Products
- d/dx(xTAxxT)=(A+AT)xxT+xTAxI
Derivatives of Inverses
- d/dx (Y-1)= -Y-1d/dx (Y)Y-1
Derivative of Trace
Note: matrix dimensions must result inan n*n argument fortr().
- d/dX(tr(X))= I
- d/dX(tr(Xk))=k(Xk-1)T
- d/dX(tr(AXk))=SUMr=0:k-1(XrAXk-r-1)T
- d/dX(tr(AX-1B))= -(X-1BAX-1)T
- d/dX(tr(AX-1))=d/dX(tr(X-1A))= -X-TATX-T
- d/dX(tr(ATXBT))= d/dX(tr(BXTA))= AB
- d/dX(tr(XAT))= d/dX(tr(ATX))=d/dX(tr(XTA))= d/dX(tr(AXT)) =A
- d/dX(tr(AXBXT))= ATXBT + AXB
- d/dX(tr(XAXT))= X(A+AT)
- d/dX(tr(XTAX))= XT(A+AT)
- d/dX(tr(AXTX))= (A+AT)X
- d/dX(tr(AXBX))= ATXTBT + BTXTAT
- [C:symmetric] d/dX(tr((XTCX)-1A)= d/dX(tr(A(XTCX)-1)= -(CX(XTCX)-1)(A+AT)(XTCX)-1
- [B,C:symmetric] d/dX(tr((XTCX)-1(XTBX))= d/dX(tr((XTBX)(XTCX)-1)= -2(CX(XTCX)-1)XTBX(XTCX)-1 +2BX(XTCX)-1
Derivative of Determinant
Note: matrix dimensions must result inan n*n argument fordet().
- d/dX(det(X))= d/dX(det(XT))= det(X)*X-T
-
- d/dX(det(AXB)) =det(AXB)*X-T
- d/dX(ln(det(AXB)))= X-T
- d/dX(det(Xk))= k*det(Xk)*X-T
- d/dX(ln(det(Xk)))= kX-T
- [Real] d/dX(det(XTCX))=det(XTCX)*(C+CT)X(XTCX)-1
-
- [C: Real,Symmetric] d/dX(det(XTCX))= 2det(XTCX)*CX(XTCX)-1
- [C: Real,Symmetricc] d/dX(ln(det(XTCX)))= 2CX(XTCX)-1
If y is a functionof x,then dyT/dx isthe Jacobian matrixof y with respectto x.
Its determinant,|dyT/dx|, isthe Jacobian of y withrespect to x andrepresents the ratio of thehyper-volumes dy and dx.The Jacobian occurs when changing variables in an integration:Integral(f(y)dy)=Integral(f(y(x))|dyT/dx|dx).
Hessian matrix
If f is a functionof x then the symmetricmatrixd2f/dx2 = d/dxT(df/dx)is the Hessian matrix off(x). A valueof x for whichdf/dx = 0 correspondsto a minimum, maximum or saddle point according to whether theHessian is positive definite, negative definite or indefinite.
- d2/dx2 (aTx)= 0
- d2/dx2 (Ax+b)TC(Dx+e)= ATCD + DTCTA
-
- d2/dx2 (xTCx)= C+CT
-
- d2/dx2 (xTx)= 2I
- d2/dx2 (Ax+b)T (Dx+e)= ATD + DTA
-
- d2/dx2 (Ax+b)T (Ax+b)= 2ATA
- [C:symmetric]: d2/dx2 (Ax+b)TC(Ax+b)= 2ATCA
相關推薦
矩陣求導公式總結
今天推導公式,發現居然有對矩陣的求導,狂汗--完全不會。不過還好網上有人總結了。吼吼,趕緊搬過來收藏備份。 基本公式: Y = A * X --> DY/DX = A' Y = X * A --> DY/DX = A Y = A' * X * B -->
矩陣求導、幾種重要的矩陣及常用的矩陣求導公式
一、矩陣求導 一般來講,我們約定x=(x1,x2,...xN)Tx=(x1,x2,...xN)T,這是分母佈局。常見的矩陣求導方式有:向量對向量求導,標量對向量求導,向量對標量求導。 1、向量對
機器學習中常用的矩陣向量求導公式
學習機器學習的時候有很的線性代數的知識,其中有一些矩陣向量求導的東西不是很熟悉,今天查了很久覺得做一個總結。 定義1.梯度(Gradient) [標量對列向量微分] 設是一個變數為的標量函式,其中。那麼定義對的梯度為: 定義2. 海森矩
常用矩陣向量求導公式
在推導機器學習的迭代更新公式過程中進場需要用到矩陣或者向量的求導操作,很多求導公式經常會忘,因此這裡Mark一下,方便後面自己查閱方便。 直接包含求導向量的公式 dxTdx=IdxdxT=I
神經網路的反向傳播演算法中矩陣的求導方法(矩陣求導總結)
前言 神經網路的精髓就是反向傳播演算法,其中涉及到一些矩陣的求導運算,只有掌握了與矩陣相關的求導法則才能真正理解神經網路. 與矩陣有關的求導主要分為兩類: 標量 f 對 矩陣 W的導數 (其結果是和W同緯度的矩陣,也就是f對W逐元素求導排成與W尺寸相同的矩陣
機器學習常見的矩陣求導總結
常見求導公式 1.∂(xTAx)∂x=(AT+A)x,x為向量 2.∂tr(XTX)∂X=2X,X為矩陣 3. ∂tr(XTAX)∂X=(A+AT)X,X為向量 4. ∂tr(ATB)∂A=B,X為向量 5. ∂tr(X)X=I,X為向量 6. ∂
常用矩陣對向量求導公式
https://blog.csdn.net/hongqiang200/article/details/40679725複雜矩陣問題求導方法:可以從小到大,從scalar到vector再到matrix。 x is a column vector, A is a matrix$d
矩陣求導
logs log nbsp 圖片 分享圖片 https 矩陣 ima bsp 矩陣求導
矩陣求導法則
body com mage 9.png img oat right http 技術 矩陣求導法則
線性迴歸 矩陣求導
一種方便區別是概率還是似然的方法是,根據定義,"誰誰誰的概率"中誰誰誰只能是概率空間中的事件,換句話說,我們只能說,事件(發生)的概率是多少多少(因為事件具有概率結構從而刻畫隨機性,所以才能談概率);而"誰誰誰的似然"中的誰誰誰只能是引數,比如說,引數等於 時的似然是多少  
矩陣求導(下)——矩陣對矩陣的求導
參考:https://zhuanlan.zhihu.com/p/24863977 本篇使用小寫字母x表示標量,粗體小寫字母 x \boldsym
矩陣求導(上)——標量對矩陣的求導
參考:https://zhuanlan.zhihu.com/p/24709748 這部分內容分兩篇整理,上篇講標量對矩陣的求導,下篇講矩陣對矩陣的求導。 本文使用小寫字母x表示標量,粗體小寫字母
【Maths】導數和求導公式
Backto Maths Index 基本初等函式公式 C ′
矩陣求導例項
前提及說明 第一次遇見矩陣求導,大多數人都是一頭霧水,而搜了維基百科看也還是雲裡霧裡,一堆的名詞和一堆的表格到底都是什麼呢?這裡總結了我個人的學習經驗,並且通過一個例子可以讓你感受如何進行矩陣求導,下次再遇到需要進行矩陣求導的地方就不
機器學習儲備(4):最常用的求導公式
求導公式在機器學習的梯度下降中經常使用,因為梯度就意味著要求導,所以將使用頻率最高的幾個公式羅列在下面,方便查閱。 其中第三個是第二個的特列 求導比較重要的一條性質便是鏈式求導法則,它其實並不難理解,因為求導數意味著由外及內的,一層一層地將變化傳遞到最裡頭。 例如,要求解 
矩陣求導與轉置運算
線性代數補充 矩陣轉置 矩陣求導 前言:在推導演算法過程中遇到一些數學運算,遇到了就記錄下,方便回憶 矩陣轉置 (
矩陣求導與投影梯度相關問題
參考\url{https://www.zhihu.com/question/39523290} 豬豬專業戶 77IX7-UPIUE-7PR75-UTBLT 如果題主學過泛函分析,可能會更容易理解矩陣對矩陣的求導。 定義:假設$X$和$Y$為賦範向量空間, $F: X\rightarrow Y$是
神經網路中矩陣求導術的應用
序 本文假設讀者熟悉一元微積分,線性代數,並已經學習過矩陣求導術:知乎專欄. 在神經網路中,矩陣求導術發揮的最重要的作用便是求losslossloss對某個引數的梯度. 比如在多層神經網路(MLP)中,某一層的推導公式為al+1=g(Wal+b)a^{l+1}
線性迴歸 矩陣求導
一種方便區別是概率還是似然的方法是,根據定義,"誰誰誰的概率"中誰誰誰只能是概率空間中的事件,換句話說,我們只能說,事件(發生)的概率是多少多少(因為事件具有概率結構從而刻畫隨機性,所以才能談概率);而"誰誰誰的似然"中的誰誰誰只能是引數,比如說,引數等於 時的似然是多少
機器學習---迴歸預測---向量、矩陣求導
梯度 對於 ,可以通過下面的向量方程來表示梯度: 佈局約定 向量關於向量的導數:即 ,如果分子y 是m維的,而分母x 是n維的: 分子佈局(Jacobian 形式),即按照y列向量和x橫向量. (得到m×n矩陣:橫向y1/x1 y1/x2 y1/x3