關於邏輯回歸是否線性?sigmoid
阿新 • • 發佈:2019-01-04
算法 映射 回歸 http 我們 svm 區別 自己 ...
作者:辛俊波
鏈接:https://www.zhihu.com/question/29385169/answer/44177582
來源:知乎
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請註明出處。
from :https://www.zhihu.com/question/29385169/answer/44177582
邏輯回歸的模型引入了sigmoid函數映射,是非線性模型,但本質上又是一個線性回歸模型,因為除去sigmoid映射函數關系,其他的步驟,算法都是線性回歸的。可以說,邏輯回歸,都是以線性回歸為理論支持的。
這裏講到的線性,是說模型關於系數一定是線性形式的
加入sigmoid映射後,變成:
如果分類平面本身就是線性的,那麽邏輯回歸關於特征變量x,以及關於系數都是線性的
如果分類平面是非線性的,例如題主提到的,那麽邏輯斯蒂回歸關於變量x是非線性的,但是關於參數仍然是線性的
這裏,我們做了一個關於變量x的變換:
其他非線性超平面一樣的道理,我們可以通過變量的變化,最終一定可以化成形如
的東西,我們把z看做的變量,就是個線性模型。剩下的工作,無非是去構造映射關系
題主提到了SVM,區別是,SVM如果不用核函數,也得像邏輯回歸一樣,在映射後的高維空間顯示的定義非線性映射函數,而引入了核函數之後,可以在低維空間做完點積計算後,映射到高維
綜上,邏輯回歸本質上是線性回歸模型,關於系數是線性函數,分離平面無論是線性還是非線性的,邏輯回歸其實都可以進行分類。對於非線性的,需要自己去定義一個非線性映射。作者:辛俊波
鏈接:https://www.zhihu.com/question/29385169/answer/44177582
來源:知乎
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請註明出處。
關於邏輯回歸是否線性?sigmoid