1. 程式人生 > >演算法模型---邏輯迴歸學習

演算法模型---邏輯迴歸學習

邏輯迴歸的特點

邏輯迴歸的用途

第一用來預測,第二尋找因變數的影響因素。

邏輯迴歸的適用範圍

資料型別

邏輯迴歸的優點

原理的相對簡單,可解釋性強等優點,它還可以作為眾多整合演算法以及深度學習的基本組成單位 Logistic迴歸分析報告結果解讀分析

邏輯迴歸的侷限性

邏輯迴歸模型的引入(從線性迴歸到Logistic迴歸)

廣義線性模型 這一家族中模型的形式基本一致,不同的是因變數不同

  • 如果是連續的,就是線性迴歸
  • 如果是二項分佈,就是logistic迴歸
  • 如果是poisson分佈,就是poisson迴歸
  • 如果負二項分佈,就是負二項迴歸

線性迴歸和Logistic迴歸都是廣義線性模型的特例。 假設有一個因變數y

y和一組自變數x1,x2,x3,...,xnx_1, x_2, x_3, ... , x_n,其中yy為連續變數,我們可以擬合一個線性方程: y=w0+w1x1+w2x2+w3x3++wnxn(1) y =w_0 +w_1*x_1 +w_2*x_2 +w_3*x_3 +\cdots+w_n*x_n-----(1) 並通過最小二乘法估計各個ww係數的值。 如果yy為二分類變數,只能取值0或1,那麼線性迴歸方程就會遇到困難: 方程右側是一個連續的值,取值為負無窮到正無窮,而左側只能取值[0,1],無法對應。為了繼續使用線性迴歸的思想,統計學家想到了一個變換方法,就是將方程右邊的取值變換為[0,1]。最後選中了sigmoid函式:s
(x)=11+exs(x)=\frac{1}{1+e^{-x}}
,sigmoid函式曲線如下: 這裡寫圖片描述 Sigmoid函式在兩側能很快收斂至0和1,此特性很適合邏輯迴歸的需要,將方程(1)右側代入sigmoid函式有

y=11+e(w0+w1x1+w2x2+w3x3+...+wnxn)(2) y=\frac{1}{1+e^{-(w_0 +w_1*x_1 +w_2*x_2 +w_3*x_3 +...+w_n*x_n)}}----(2) 按照(2)式,對於任意取值的x,因變數y的取值範圍都為(0~1);但是在分類模型中,y的取值只能是1或0;如果令y

=py=p,我們還需要做一些規定,比如當p0.5p\geq 0.5時,y的取值為1;當p<0.5p< 0.5時,y的取值為0;當我們通過一定的方法,得到一組合適的引數w0w1w2w3...wnw_0 、w_1、w_2、w_3、...、w_n,那麼只要樣本代入(2)式,根據計算出來p值的大小就可以對的樣本的類別進行判定;此時結果p就相當於y取1的概率,與此對應的,y取0的概率為1p1-p。sigmoid函式好處在於在x=0的兩側能很快收斂至0和1,保證能夠匹配大部分樣本的類別。 那麼如何來求解這樣一組引數呢? 引數的最優解應該要滿足這樣的要求:最優引數應該讓儘可能多的樣本在給定的屬性值下其類別儘可能呈現其本來的樣子;也就是對於全體樣本,在給定的屬性值和類別取值下,通過(2)式計算得到的類別取值的聯合概率應該最大。 這裡我們就引出了邏輯迴歸模型引數求解的目標函式。

補充知識:

優勢Ω\Omega 優勢,是事件發生與不發生概率之比,用符號Ω\Omega來表示。 Ω=p1p=e(w0+w1x1+w2x2+w3x3+...+wnxn) \Omega=\frac{p}{1-p}=e^{(w_0 +w_1*x_1 +w_2*x_2 +w_3*x_3 +...+w_n*x_n)} Ω\Omegapp的單調函式,保證了Ω\Omega和p增長的一致性,ΩΩ的取捨範圍是(0,+)(0,+\infty); 如果再對Ω\Omega取對數,則有 lnΩ=lnp1p=w0+w1x1+w2x2+w3x3+...+wnxn ln\Omega=ln\frac{p}{1-p}=w_0 +w_1*x_1 +w_2*x_2 +w_3*x_3 +...+w_n*x_n logitlogit變換 上述兩步變換稱為logitlogit變換,lnΩln\Omega稱為logitPlogitPlogitPlogitP的取捨範圍(,+)(-\infty,+\infty),與一般線性迴歸模型吻合,同時與p之間保值單調一致性。這樣我們完成了從一般線性迴歸到邏輯迴歸的轉換。 logitlogit變換在後面的引數求解中還會用到,可以簡化推導過程。

邏輯迴歸模型的引數估計

yy是0-1型變數,(x1,x2,,xp)(x_1,x_2,\dots,x_p)是與yy相關的確定性變數即特徵變數;n組觀測資料,記為(xi1,xi2,,xip;yi)(i=1,2,,n)(x_{i1},x_{i2},\dots,x_{ip};y_i)(i=1,2,\dots,n),其中yiy_i是取值為0或1的隨機變數。 yiy_i是均值為pip_i的0-1分佈,概率函式為P(yi=1)=piP(y_i=1)=p_iP(yi=0)=1piP(y_i=0)=1-p_i,我們可以將概率函式合寫為P(yi)=piyi(1pi)1yi;i=1,2,,n;yi=0,1P(y_i)=p_i^{y_i}(1-p_i)^{1-y_i};i=1,2,\dots,n;y_i=0,1;於是(y1,y2,,yn)(y_1,y_2,\dots,y_n)

相關推薦

演算法模型---邏輯迴歸學習

邏輯迴歸的特點 邏輯迴歸的用途 第一用來預測,第二尋找因變數的影響因素。 邏輯迴歸的適用範圍 資料型別 邏輯迴歸的優點 原理的相對簡單,可解釋性強等優點,它還可以作為眾多整合演算法以及深度學習的基本組成單位 Logistic迴歸分析報告結果解讀分析 邏輯迴歸的

數學推導+純Python實現機器學習演算法邏輯迴歸

自本系列第一講推出以來,得到了不少同學的反響和贊成,也有同學留言說最好能把數學推導部分寫的詳細點,筆者只能說盡力,因為打公式實在是太浪費時間了。。本節要和大家一起學習的是邏輯(logistic)迴歸模型,繼續按照手推公式+純 Python 的寫作套路。 邏輯迴歸本質上跟邏輯這個詞不是很搭邊,叫這個名字完

機器學習演算法2_邏輯迴歸

文章目錄 1 邏輯迴歸 1.1 概念 1.2 推導方法 1.2.1 模型 - Sigmoid 分佈函式 1.2.2 目標函式 - 對數損失函式 1.2.3 求解方法 1.2.3.1

機器學習演算法邏輯迴歸以及python實現

下面分為兩個部分: 1. 邏輯迴歸的相關原理說明 2. 通過python程式碼來實現一個梯度下降求解邏輯迴歸過程 邏輯迴歸(Logistic Regression) 首先需要說明,邏輯迴歸屬於分類演算法。分類問題和迴歸問題的區別在於,分類問題的輸出是離散

各種機器學習方法(線性迴歸、支援向量機、決策樹、樸素貝葉斯、KNN演算法邏輯迴歸)實現手寫數字識別並用準確率、召回率、F1進行評估

本文轉自:http://blog.csdn.net/net_wolf_007/article/details/51794254 前面兩章對資料進行了簡單的特徵提取及線性迴歸分析。識別率已經達到了85%, 完成了數字識別的第一步:資料探測。 這一章要做的就各

二,機器學習演算法邏輯迴歸(python實現)

邏輯迴歸(Logistic Regression)是目前流行最廣泛的演算法之一。 1. 何為邏輯迴歸:        邏輯迴歸主要思想是根據現有的訓練集(資料)進行分類,判斷這些資料屬於哪一個類別,通

機器學習十大演算法---2 .邏輯迴歸

邏輯迴歸  邏輯迴歸其實是一個分類演算法而不是迴歸演算法。通常是利用已知的自變數來預測一個離散型因變數的值(像二進位制值0/1,是/否,真/假)。簡單來說,它就是通過擬合一個邏輯函式(logit fuction)來預測一個事件發生的概率。所以它預測的是一個概率值,自然,它的輸

邏輯迴歸 學習筆記

邏輯迴歸 據統計,在kaggle上使用邏輯迴歸解決問題的比例是非常大的,並且超出第二名決策樹20%多,說明邏輯迴歸普適性較強,而神經網路相關演算法對資料的要求比較高。 什麼是邏輯迴歸 聽起來邏輯迴歸是一個迴歸演算法,但是事實上它解決的卻是分類問題。它的原理是將樣本的特徵與樣本發

機器學習演算法:Logistic迴歸學習筆記

一、Logistic Regression的理解角度一:輸入變數X服從logistic分佈的模型

分類演算法邏輯迴歸詳解

1、邏輯迴歸(Logistic Regression, LR) 又稱為邏輯迴歸分析,是分類和預測演算法中的一種。通過歷史資料的表現對未來結果發生的概率進行預測。例如,我們可以將購買的概率設定為因變數,將使用者的特徵屬性,例如性別,年齡,註冊時間等設定為自變數。

Spark-MLlib分類演算法邏輯迴歸)實戰演算法

一、資料來源及開發環境 開發環境:為了方便程式碼管理這裡使用了IDEA整合開發環境,單機進行程式碼除錯感覺很方便嘛,主要環境與我前兩篇部落格中部署的環境一致。 資料來源:機器學習實在中資料的獲取很重要,網際網路上要找到類似資料非常容易。本例項使用的是Kaggle競賽資料(

Softmax演算法邏輯迴歸的擴充套件

簡介 在本節中,我們介紹Softmax迴歸模型,該模型是logistic迴歸模型在多分類問題上的推廣,在多分類問題中,類標籤  可以取兩個以上的值。 Softmax迴歸模型對於諸如MNIST手寫數字分類等問題是很有用的,該問題的目的是辨識10個不同的單個數字。Softmax迴歸是有監督的

sklearn分類器演算法邏輯迴歸及案例分析

分類演算法之邏輯迴歸邏輯迴歸(Logistic Regression),簡稱LR。它的特點是能夠是我們的特徵輸入集合轉化為0和1這兩類的概率。一般來說,迴歸不用在分類問題上,因為迴歸是連續型模型,而且受噪聲

機器學習演算法(一):邏輯迴歸模型(Logistic Regression, LR)

轉自:https://blog.csdn.net/weixin_39910711/article/details/81607386 線性分類器:模型是引數的線性函式,分類平面是(超)平面;非線性分類器:模型分介面可以是曲面或者超平面的組合。 典型的線性分類器有感知機,LDA,邏輯斯特迴歸,SVM

演算法學習——邏輯迴歸(Logistic Regression)

1.Logistic Regression 1.1什麼是迴歸? 英文單詞Regression翻譯成中文“迴歸”,那什麼是迴歸呢?事實上,在Logistic迴歸出現以前,人們最先引入的是線性迴歸。瞭解二者之間的來龍去脈將幫助你更深刻地認識Logistic迴歸。 迴歸一詞最早由英國科學家

線性迴歸_邏輯迴歸_廣義線性模型_斯坦福CS229_學習筆記

前言 之前學習過視訊版本的吳恩達老師CS229的機器學習課程,但是覺得並不能理解很好。現在結合講義,對於之前的內容再次進行梳理,仍然記錄下自己的思考。圖片來源於網路或者講義。話不多說,進入正題吧。 Part I Regression and Linear Regression

先驗概率、後驗概率、似然函式與機器學習中概率模型(如邏輯迴歸)的關係理解

看了好多書籍和部落格,講先驗後驗、貝葉斯公式、兩大學派、概率模型、或是邏輯迴歸,講的一個比一個清楚 ,但是聯絡起來卻理解不能   基本概念如下   先驗概率:一個事件發生的概率 \[P(y)\] 後驗概率:一個事件在另一個事件發生條件下的條件概率 \[P(y|x

機器學習 scikit-learn2 模型實踐 - 邏輯迴歸

邏輯迴歸 - 目錄 1 簡介 1.1 程式碼下載 1.2 程式碼使用方法 3 核心程式碼說明 3.1 模型配置 3.2 模型訓練 3.3 輸出結果 1 簡介 1.1 程式

【機器學習模型詳細推導2】- 邏輯迴歸

邏輯迴歸 1. 模型引入 2. 模型描述 3. 模型求解策略(代價函式) 4. 模型求解演算法 - 梯度下降 1. 模型引入 線性模型可以進行迴歸學習(參見【機器學習模型1】- 線性迴歸),但如何用於分類任務?需要找一個單調可

邏輯迴歸模型總結-機器學習

邏輯迴歸被廣泛的用來解決分類問題。由於分類是非線性問題,所以建模的主要難點是如何把非線性問題轉換為線性問題。 在模型評估層面,討論了兩類相互有關聯的評估指標。對於分類問題的預測結果,可以定義為相應的查準查全率。對於基於概率的分類模型,還可以繪製它的ROC曲線,以及計算曲線線面的面積AUC。