吳恩達深度學習總結(1)
DeaplearningAI01.weak2
本週主要介紹了神經網路中forward和backward的一般實現和向量實現。一般實現較為簡單,向量實現中存在一些疑點
X 是一個由訓練集組成的矩陣,每一列代表一個數據,列數為資料的大小
ω 是訓練引數,大小與
X一列的大小一致
b 為偏差(bias),為一個標量
forward
Z=np.dot(ω.T,X)+b
A=σ(Z),其中
σ(x)=1−e−x1
通過程式設計實現為
1/(1−np.exp(−X))
Cost Function(Loss Function)通過矩陣實現時應該注意Cost Function是將所有的預測誤差相加取平均得到的,不可以直接用矩陣乘法使其變為標量
L=1/m∗np.sum((−Y∗np.log(A)+(1−Y)∗np.log(1−A))),其中m為樣本的個數
backward
backward實際上是一個鏈式求導的過程,backward最根本的式子是通過梯度下降法來更新w和b
∂A∂L=−(AY−1−A1−Y)∂Z∂A=A(1−A)∂ω∂Z=X
所以,我們可以表示
dω 為
dω=np.dot(X,(A−Y).T),這個求解出來為m個樣本訓練出w的變化總和,因此應該除以m,所以為
dω=1/m∗np.dot(X,(A−Y).T)。
同理可求
db,但是由於b為標量,因此需要對求出的m次訓練的b求和,即
db=1/m∗np.sum(A−Y)。根據這兩個值即可以更新
ω 和
b
相關推薦
吳恩達深度學習總結(1)
DeaplearningAI01.weak2 forward backward 本週主要介紹了神經網路中forward和backward的一般實現和向量實現。一般實現較為簡單,向量實現中存在一些疑點
吳恩達深度學習總結(2)
DeaplearningAI01.weak3 回顧 Logistic Regression 淺層神經網路(只有一層隱藏單元) 網路中每個符號的含義 啟用函式的選擇 可選函式 啟用函式的選擇 使用非線性啟
吳恩達深度學習總結(15)
自然語言處理與詞嵌入 詞彙表徵 基於遷移學習訓練word embedding 步驟 類比推理演算法 Embedding matrix skip gram CBOW 負取樣 GloVe
吳恩達深度學習4.1練習_Convolutional Neural Networks_Convolution_model_Application_2
版權宣告:本文為博主原創文章,未經博主允許不得轉載。 https://blog.csdn.net/weixin_42432468 學習心得: 1、每週的視訊課程看一到兩遍 2、做筆記 3、做每週的作業練習,這個裡面的含金量非常高。先根據notebook過一遍,掌握後一定要自己敲一遍,
吳恩達深度學習4.1練習_Convolutional Neural Networks_Convolution_model_StepByStep_1
轉載自吳恩達老師深度學習練習notebook Convolutional Neural Networks: Step by Step Welcome to Course 4’s first assignment! In this assignment, you will implem
吳恩達深度學習2.1練習_Improving Deep Neural Networks(Initialization_Regularization_Gradientchecking)
版權宣告:本文為博主原創文章,未經博主允許不得轉載。 https://blog.csdn.net/weixin_42432468 學習心得: 1、每週的視訊課程看一到兩遍 2、做筆記 3、做每週的作業練習,這個裡面的含金量非常高。先根據notebook過一遍,掌握後一定要自己敲一遍,
吳恩達深度學習2.1練習_Improving Deep Neural Networks_initialization
轉載自吳恩達老師深度學習練習notebook Initialization Welcome to the first assignment of “Improving Deep Neural Networks”. Training your neural network requ
吳恩達深度學習2.1筆記_Improving Deep Neural Networks_深度學習的實踐層面
版權宣告:本文為博主原創文章,未經博主允許不得轉載。 https://blog.csdn.net/weixin_42432468 學習心得: 1、每週的視訊課程看一到兩遍 2、做筆記 3、做每週的作業練習,這個裡面的含金量非常高。先根據notebook過一遍,掌握後一定要自己敲一遍,
吳恩達深度學習總結(11)
經典網路的學習 LeNet-5 上圖是LeNet-5的結構(來自吳恩達的課件,下面所有圖片均來自於吳恩達課件),該網路只有卷積層,pooling層和全連線層,pooling層使用的是均值池化,非線性啟用使用的是sigmoid/tanh,而不是現在最常用的Re
吳恩達深度學習總結(13)
人臉識別 分類 Verification:一對一識別,給一張照片,看是否是給定的照片 Recognition:一對n識別,給一張照片看是否是資料庫中的人 顯然 Recognition可以通過n次Verification完成 One-shot learnin
吳恩達深度學習:1.3樣例用一個隱含層神經網路對資料進行分類
coding: utf-8 # Planar data classification with one hidden layer 用一個隱含層神經網路對資料進行分類 Welcome to your week 3 programming assi
吳恩達深度學習筆記1-神經網絡的編程基礎(Basics of Neural Network programming)
算法 只有一個 ear 最小化 維度 編程基礎 clas 什麽 分類問題 一:二分類(Binary Classification) 邏輯回歸是一個用於二分類(binary classification)的算法。在二分類問題中,我們的目標就是習得一個分類器,它以對象的特
吳恩達-深度學習-課程筆記-6: 深度學習的實用層面( Week 1 )
data 絕對值 initial 均值化 http 梯度下降法 ati lod 表示 1 訓練/驗證/測試集( Train/Dev/test sets ) 構建神經網絡的時候有些參數需要選擇,比如層數,單元數,學習率,激活函數。這些參數可以通過在驗證集上的表現好壞來進行選擇
吳恩達深度學習4-Week2課後作業1-Keras-Happy House
一、Deeplearning-assignment 在本週的任務中,將開始學習使用Keras: 學習使用Keras,這是一個用Python編寫的高階神經網路API(程式設計框架),能夠在包括TensorFlow和CNTK在內的幾個底層框架上執行。 看看如何在幾個小時內建立一個
吳恩達深度學習筆記(15-21)總結-淺層神經網路總結
恩達老師的這一週的淺層神經網路總結,還是簡單的架構說明,但是還是要仔細讀哦! 架構分為四部分: 神經網路表示 計算神經網路輸出 啟用函式 神經網路的梯度下降 第一和第二部分: 神經網路表示和計算神經網路輸出部分,由於本部分講的是淺層的網路輸出,所以就是隻有一個隱藏層的神經網路,你也
吳恩達深度學習課程學習總結
本文章主要總結吳恩達DeepLearning課程中所提到的一些機器學習策略 1、啟用函式 Sigmoid函式 tanh函式 ReLU函式 2、權重初始化 全零初始化的弊端:若權重初始化為0,則在訓練過程中,每個隱含層之間存在對稱性,即在訓練過程中,每個隱含層的求導等
吳恩達深度學習4-Week1課後作業1-卷積模型Step by Step
一、deeplearning-assignment 在本次任務中,我們將學習用numpy實現卷積(CONV)層和池化(POOL)層,由於大多數深度學習工程師不需要關注反向傳遞的細節,而且卷積網路的反向傳遞很複雜,所以在本次作業中只討論關於前向傳播的處理細節。 用 pyth
吳恩達 深度學習 程式設計作業(5-1)Part 2
吳恩達 Coursera 課程 DeepLearning.ai 程式設計作業系列,本文為《序列模型》部分的第一週“迴圈神經網路”的課程作業——第二部分:字母級的語言模型:恐龍獸島。 Character level language model -
吳恩達深度學習課程deeplearning.ai課程作業:Class 1 Week 4 assignment4_2
吳恩達deeplearning.ai課程作業,自己寫的答案。 補充說明: 1. 評論中總有人問為什麼直接複製這些notebook執行不了?請不要直接複製貼上,不可能執行通過的,這個只是notebook中我們要自己寫的那部分,要正確執行還需要其他py檔案,請
吳恩達 深度學習 程式設計作業(4-1)- Convolutional Neural Networks & CNN Application
吳恩達Coursera課程 DeepLearning.ai 程式設計作業系列,本文為《卷積神經網路 》部分的第一週“卷積神經網路基礎”的課程作業。 Part 1:Convolutional Neural Networks: Step by St