1. 程式人生 > >Logistic迴歸和Softmax迴歸理解

Logistic迴歸和Softmax迴歸理解

1. Logistic與Softmax簡述

談到Logistic迴歸首先談到便是邏輯思諦分佈,其概率分佈如下圖所示:
這裡寫圖片描述
可以看出該分佈函式是一條S形曲線,曲線以點(0,12)(0,12)作為對稱中心,且其值的範圍是從[0,1]的。而二項Logistic迴歸便是引數化的邏輯思諦分佈。則對於有m個已經標記好的樣本構成:(x1,y1),(x2,y2),(x3,y3),(xm,ym)(其中特徵向量x是進行了增廣操作,將偏置b新增進去了的),對應的分類y{0,1},則可以將概率描述為:

hθ(x)=11+exp(θx)
需要通過訓練確定引數θ,使得下面的最小化損失函式最小化:
J(θ)=1m[i=1myilog(hθ(xi))+(1yi)log(1hθ(xi)]
而對於Softmax迴歸,其解決的是多分類問題。則對應的標記y{1,2,...k},其中k是分類的型別數目。對於給定的測試輸入x,我們想用假設函式針對每一個類別jj估算出概率值p(y=j|x)。也就是說,我們想估計x的每一種分類結果出現的概率。因此,我們的假設函式將要輸出一個
k
維的向量(向量元素的和為1)來表示這k個估計的概率值。具體地說,我們的假設函式hθ(x)形式如下: