1. 程式人生 > >三種線性問題的優化

三種線性問題的優化

三種線性方法優化方法

有限記憶BFGS(L-BFGS)

       L-BFGS是擬牛頓方法家族裡的一個優化演算法,解決 形式的優化問題。L-BFGS方法以二次方程來逼近目標函式來構造黑塞矩陣,不考慮目標函式的二階偏導數。黑塞矩陣由先前的迭代評估逼近,所以不像直接使用牛頓方法一樣可垂直擴充套件(訓練特徵的數目)。所以L-BFGS通常比其他一階優化方法能更快收斂。

      象限有限記憶擬牛頓(OWL-QN)演算法是L-BFGS的擴充套件,它可以有效處理L1和彈性網格正則化。L-BFGSSpark MLlib中用於線性迴歸、邏輯迴歸、AFT生存迴歸和多層感知器的求解。

加權最小二乘法的正規方程求解器

      給定n個加權觀察值( 

       是第i個觀察值的權重;

       是第i個觀察值的特徵向量; 

       是第i個觀察值的標籤。

      每個觀察值有m個特徵。我們使用下面的最小二乘法公式:

 

       其中 是正則化引數, 是標籤的總體標準偏差, 是第j列特徵的總體標準偏差。這個目標函式有一個解析解,它只需要一個收集資料的必要統計量。與原始資料需要唄儲存在分散式系統中不同,如果特徵數量相對較小,統計資訊可以儲存在單機中,然後我們可以通過Cholesky分解來解決目標函式。

      加權最小二乘僅支援L2正則化,提供選項啟用或禁用正則化和標準化。為了使正則方程逼近是有效的,加權最小二乘要求特徵的數量不超過

4096個。對於規模更大的問題,是有L-BFGS

迭代加權最小二乘法(IRLS)

       迭代加權最小二乘法可以用來找到廣義線性模型的極大似然估計,找到魯棒迴歸和其他優化問題中的M估計。

      它通過下面的步驟迭代地解決具體的優化問題。

      1.線性化目標並更新相應的權重

      2.解決加權最小二乘問題

      3.重複上述步驟直至收斂

      因為在第二步中使用了加權最小二乘方法在每次迭代中,所以它同樣要求特徵數量不超過4096個。現在IRLS是廣義線性迴歸的預設方法。