1.2.11 【Deep Learning翻譯系列】Explanation of Logistic Regression Cost Function 對數機率迴歸代價函式的說明
本視訊給出在對數機率迴歸使用這個成本函式的理由。
在之前的對數機率迴歸中,預測
y^=σ(ωTx+b),
其中,
σ(z)=1+e−z1 。
作者對此的解釋是:
y^=P(y=1∣x) 。 即對於給定的一組輸入的特徵量
x ,其對應的
y=1 的機會。
另一種說法是,如果
y=1 ,那麼
P(y∣x)=y^ 。
反之,如果如果
y=1 ,那麼
P(y∣x)=1−y^ 。
所以綜合考慮這兩種情況,
P(y∣x)=y^y(1−y^)1−y 。
因為
log 函式是單調遞增的,對
P(y∣x) 取對數,得到
logP(y∣x)=ylogy^+(1−y)log(1−y^)=−L(y,y^),這是單個樣本的成本函式。
至於在
M 個樣本上的整體的損失函式,如果假設訓練例項獨立抽取或獨立同分布(IID),那麼,
P(training)=Πi=1nP(y(i)∣x(i)).
所以,如果你想進行最大似然估計,那麼最大化
P(training) 與最大化它的對數是等同的。即最大化以下式子:
logP(training)=i=1∑nlogP(y(i)∣x(i))=−i=1∑n−L(y(i),y^(i)).
統計學中有一個被稱為“極大似然估計”的原理,它選擇能夠最大化
logP(training) 的引數。
對數機率迴歸要最小化的的代價函式
J(ω,b)=N1∑i=1n−L(y(i),y^(i)) 就相當於在各個樣本被獨立同分布(IID)抽取情況下概率的極大似然估計。
相關推薦
1.2.11 【Deep Learning翻譯系列】Explanation of Logistic Regression Cost Function 對數機率迴歸代價函式的說明
視訊地址 本視訊給出在對數機率迴歸使用這個成本函式的理由。 在之前的對數機率迴歸中,預測 y ^
1.2.9&1.2.10 【Deep Learning翻譯系列】Logistic Regression Gradient Descent 對數機率迴歸的梯度下降
我們按如下方式設定了對數機率迴歸, z=wTx+b, z = w T
1.2.7&1.2.8 【Deep Learning翻譯系列】Derivatives with a Computation Graph 採用計算圖計算微分
我說神經網路的計算是按正向傳遞或前向傳播步驟組織的,我們計算神經網路的輸出,然後是反向傳遞或反向傳播步驟,我們用於計算梯度或計算導數。計算圖解釋了為什麼它以這種方式組織。我們將通過一個例子說明計算圖(比對數概率迴歸或完整的神經網路更簡單的例子)。 假設我們正在嘗試計算一個函式
1.3.2【Deep Learning翻譯系列】Activation Functions 啟用函式
1、Sigmoid與雙曲正切 當建立神經網路,要做出的選擇之一是在隱藏層、輸出單元使用什麼啟用函式。 常見如的Sigmoid函式: σ
1.3.1 【Deep Learning翻譯系列】Neural Network Overview神經網路概覽
上圖是一個神經網路。神經網路中每個的節點對應於的兩個步驟: 首先計算 z = w
【GAN ZOO翻譯系列】InfoGAN: Interpretable Representation Learning by Information Maximizing GAN
本文是InfoGAN的翻譯,原文地址:https://arxiv.org/abs/1606.03657 相當一部分部分翻譯參照於:https://blog.csdn.net/pingguolou/article/details/72920970 infoGAN:通過最大化生成對抗網路中資
【GAN ZOO翻譯系列】Cat GAN:UNSUPERVISED AND SEMI-SUPERVISED LEARNING WITH CATEGORICAL GAN 用於監督和半監督學習的GAN
Jost Tobias Springenberg 弗萊堡大學 79110 Freiburg, Germany [email protected] 原文連結https://arxiv.org/abs
【GAN ZOO翻譯系列】基於能量的生成對抗網路 Energy-Based Generative Adversarial Networks
趙俊博, Michael Mathieu, Yann LeCun 紐約大學計算機科學系 Facebook人工智慧研究院 {jakezhao, mathieu, yann}@cs.nyu.edu 原文連結https://arxiv.org/abs/1609.031
【GAN ZOO翻譯系列】s2GAN:使用樣式和結構對抗式網路的生成影象建模
王小龍,Abhinav Gupta 卡耐基梅隆大學機器人研究所 摘要 當前的生成框架使用的端至端的學習,並從均勻噪聲分佈取樣產生影象。然而,這些方法忽略影象形成的最基本的原理。影象是按照以下方式產生的:(a)結構:3D模型;(B)樣式:紋理到結構的對
【Deep Learning讀書筆記】深度學習中的概率論
本文首發自公眾號:RAIS,期待你的關注。 前言 本系列文章為 《Deep Learning》 讀書筆記,可以參看原書一起閱讀,效果更佳。 概率論 機器學習中,往往需要大量處理不確定量,或者是隨機量,這與我們傳統所需要解決掉問題是大不一樣的,因此我們在機器學習中往往很難給出一個百分百的預測或者判斷,基於此
mingw zlib-1.2.11 win32-static.patch
makefile fig win32 -shared configure please lease libs win diff --git a/Makefile.in b/Makefile.in index 1852192..c88f5b5 100644 --- a/Mak
6.1.2.11 背景
9.png 圖標 大於 -c 十六 padding 請求 方向 str 1. 背景顏色 backgroud-color: 單詞 或 rgb(255,0,0) 或 十六進制 #ff0000 #ff(red)00(green)00(blue) 如果六位的紅黃藍各自
Algs4-1.2.11根據Date的API實現一個SmartDate類型
exc leg 閏年 整數 row -c nth -s lar 1.2.11根據Date的API實現一個SmartDate類型,在日期非法時拋出一個異常。答:參考資料:月份中的二月是28天還是29天,需看年份是否為閏年,閏年定義為:年份能被400整除的是閏年,或者年份能
易學筆記-計算機底層-第1章:計算機系統漫遊/1.2 程式被其他程式翻譯成不同的格式
程式被其他程式翻譯成不同的格式 原始碼:hello.c 可執行目標程式: 由低階機器語言按照一定規則組成,存在在磁碟上,它對應的源頭就是原始碼檔案 原始碼到可執行目標程式檔案的過程是有編譯器 編譯系統: 示意圖:
【GAN ZOO閱讀系列】NONSUPERVISED REPRESENTATION LEARNING WITH DCGAN 使用深度卷積生成對抗網路的無監督的表示學習
Alec Radford & Luke Metz indico Research Boston, MA {alec,luke}@indico.io Soumith Chintala Facebook AI Research New York, NY [e
Google Releases Pixel 2 Portrait Mode Deep Learning Model
Many of Google’s machine learning efforts are open-sourced so that developers can take advantage of the latest advancements. The latest release is for sema
【GAN ZOO閱讀系列】UNSUPERVISED REPRESENTATION LEARNING WITH DCGAN 使用深度卷積生成對抗網路的無監督的表示學習
Alec Radford & Luke Metz indico Research Boston, MA {alec,luke}@indico.io Soumith Chintala
JAVA記憶體管理【1.2什麼叫java的記憶體洩露】
1.2什麼叫java的記憶體洩露 在Java中,記憶體洩漏就是存在一些被分配的物件,這些物件有下面兩個特點,首先,這些物件是可達的,即在有向圖中,存在通路可以與其相連(也就是說仍存在該記憶體物件的引用);其次,這些物件是無用的,即程式以後不會再使用這些物件。如果物
【Deep Learning】tensorflow實現卷積神經網路(AlexNet)
一、實驗要求 1.使用卷積神經網路實現圖片分類,資料集為OxFlowers17; 二、實驗環境 Anaconda2-4.3.1(Python2.7),tensorflow-cpu。 三、實驗原理 3.1 資料讀取 已知資料集
【Deep learning】卷積神經網路CNN演算法原理
寫在前面在上一篇【Deep learning】卷積神經網路CNN結構中我們簡單地介紹了CNN的結構。接下來我們看看這種結構的CNN模型是怎麼執行的,包括CNN的前向傳播和反向傳播演算法。1.CNN前向傳播演算法(1)輸入層前向傳播到卷積層輸入層的前向傳播是CNN前向傳播演算法