【資料極客】Week2_邏輯迴歸_Tensorflow基礎介紹 阿新 • • 發佈:2019-01-30 本文目錄 1. 推薦內容學習 【資料極客】任務總結_Week2 ## **1.0 線性迴歸Linear Regression** fw,b(x)=∑iwixi+b 各個feature的 `Xi` 對應的權重 `Wi` 相乘並求和, 再最後加上b, 不通過Sigmod函式計算, 輸出值是任意範圍的值。 - **誤差估計** ŷ n: 代表資料真實值 , f(xn) 代表預測值, 12∑ni=1(預測結果i−實際結果i)2 使用均方誤差用來衡量, 有著很好地幾何特性,和二範數一樣。 前面乘上的1/2是為了在求導的時候,這個係數就不見了。 ## **1.1 邏輯迴歸 Logistic Regression** - 線性 z =∑iwixi+b 通過 Sigmod 函式 σ(z) 轉為非線性 logistic迴歸本質上是線性迴歸,只是在特徵到結果的對映中加入了一層函式對映,即先把特徵線性求和,然後使用函式 σ(z) 將最為假設函式來預測。σ(z) 可以將連續值對映到0和1上。 fw,b(x)=σ(∑iwixi+b) 上面公式線上性迴歸的基礎上, 將線性迴歸的結果帶入Sigmod函式中, 得到的結果介於 0 到 1 之間。 Pw,b(C1|x)=σ(z),σ(z)=11+exp(−z),z=w∗x+b=∑iwixi+b 將z帶入Sigmod函式——> σ(z) 得到概率大小。 fw,b( x)=Pw,b(C1|x) 表示在Sigmod函式的對映下 , C1的概率大小。 從該式可以看出, 最後fw,b(x)的結果受到 w、b 兩個引數的控制, 可以選擇不同的 w 和 b 得到不同的Function,計算出C1的概率。 - **損失函式** 誤差公式: L(w,b)=fw,b(x1)fw,b(x2)∗∗∗fw,b(xn) 每個xi 對應的概率 fw,b=(xi) 連續相乘, 其中 W∗,b∗ 就是能夠是的 L(w,b)最大化的一組值。 w⋆,b⋆=argmaxw,bL(w,b)=w⋆,b⋆=argmin−lnL(w,b) 等式右邊的 −log 以 e 為底的對數形式的好處就是相乘變成現在相加 即: − lnL(w,b)=−lnfw,b(x1)