deeplearning.ai學習筆記:第一課第三週
1 神經網路的表示
在計算神經網路的層數時,一般不把輸入層計算在內。如一個由輸入層、單隱藏層、輸出層組成的神經網路,一般叫做是兩層的神經網路。
上述單隱藏神經元的神經網路,神經元要做兩件事情,一是計算
z=wTx+b,即計算輸入和權重的內積;二是應用非線性啟用函式,計算
a=σ(z),增強神經網路的表達能力。
1 神經網路的表示
在計算神經網路的層數時,一般不把輸入層計算在內。如一個由輸入層、單隱藏層、輸出層組成的神經網路,一般叫做是兩層的神經網路。 上述單隱藏神經元的神經網路,神經元要做兩件事情,一是計算
z
1 深層神經網路
引數:
W
[
1 二分類
m樣本數目,n樣本特徵數目 建議使用的符號表示
X
=
1 什麼是神經網路 ?
上圖是傳統意義上的神經網路。
輸入層、隱藏層、輸出層;
我們沒有指定神經網路各隱藏單元的含義,只是給定了輸入,也明確了輸入的含義,由神經網路自己來確定各隱藏單元的含義;
全連線的神經網路,連線數很多。
2 用神經網路做監督學
原文:Deep Learning 2: Part 1 Lesson 3
作者:Hiromi Suenaga
課程論壇
學生建立的有用材料:
AWS 操作方法
TMUX
第 2 課總結
學習率查詢器
PyTorch
原文:Deep Learning 2: Part 1 Lesson 5
作者:Hiromi Suenaga
課程論壇
一,引言
沒有足夠的關於結構化深度學習的出版物,但它肯定出現在行業中:
結構化深度學習,作者:Kerem Turgutlu @datascience.com
原文:Deep Learning 2: Part 1 Lesson 4
作者:Hiromi Suenaga
課程論壇
學生的文章:
改善學習率的方式
迴圈學習率技術
探索帶有重啟動的隨機梯度下降(SGDR)
使用差異學習率的遷移學習
讓計算機看得比人類更好
宣告
此周的作業放在下面的連結那裡,裡面包含了所有資料。
作業連結
在一些程式碼上我寫上了註釋,再次明確了建立一個模型的步驟,此作業由於並不是很複雜,所以一些步驟合併了,但是總體的建模步驟還是跟部
具有一個隱藏層的平面資料分類
第三週的程式設計任務:
構建一個含有一層隱藏層的神經網路,你將會發現這和使用邏輯迴歸有很大的不同。
首先先匯入在這個任務中你需要的所有的包。
-numpy是Python中與科學計算相關的基礎包
-sklearn提供簡單高效
Planar data classification with one hidden layer
Welcome to your week 3 programming assignment. It’s time to build your first
第二週的課程作業是利用邏輯迴歸來訓練一個分類器來辨別一張圖片是否為貓,這周老師講了單隱層的神經網路,所以先看看利用這個模型能否在上次作業的基礎上對訓練準確度作出改善
訓練一個神經網路
神經網路分為幾層,隱藏層中包含幾個神經元,使用的啟用函式
初始化引數 W(i)和
error 1: # plt.scatter(X[0,:],X[1,:],c=np.squeeze(Y),s=40,cmap=plt.cm.Spectral)
plt.scatter(X[0,
原文:Deep Learning 2: Part 1 Lesson 1
作者:Hiromi Suenaga
課程論壇
入門 [0:00]:
為了訓練神經網路,你肯定需要圖形處理單元(GPU) - 特別是 NVIDIA GPU,因為它是唯一支援 CUDA(幾乎所有深度學習庫和
原文:Deep Learning 2: Part 1 Lesson 2
作者:Hiromi Suenaga
論壇
筆記本
回顧上一課 [01:02]
我們使用 3 行程式碼來構建影象分類器。
為了訓練模型,需要在PATH下以某種方式組織資料(在本例中為data/do
1 超引數除錯
不同的超引數有不同的重要程度。比如,學習率一般最重要,momentum中的
β
\beta
除了 lock 還需要 情況 好處 計算公式 max 位置 網絡基礎 一、計算機視覺
如圖示,之前課程中介紹的都是64* 64 3的圖像,而一旦圖像質量增加,例如變成1000 1000 * 3的時候那麽此時的神經網絡的計算量會巨大,顯然這不現實。所以需要引入其他的方法來 過濾 common 經典 上一個 問題 inline 最壞情況 ali method 一、為什麽要進行實例探究?
通過他人的實例可以更好的理解如何構建卷積神經網絡,本周課程主要會介紹如下網絡
LeNet-5
AlexNet
VGG
ResNet (有152層)
Incep HR tps size nac www cond -c 自己 c-c 代碼和數據集已上傳到文件中
應該可以直接下載吧(第一次上傳文件,感覺是),解壓後把文件夾拷貝到jupyter工作空間即可
註:我對下載的代碼的格式稍作了修改,原來定義函數與調用函數在兩個單元格裏,我直 內建函式lis = list(range(5))print(lis)#map函式。處理序列中的每個元素,得到一個“列表”,該“列表”元素個數與位置與原來一樣print(list(map(lambda x:x+1,list(range(19)))))r ='adasdafgafaf'print(list(map
第一章 神經網路與深度學習(Neural Network & Deeplearning)
第二章 改善深層神經網路
DeepLearning.ai學習筆記(二)改善深層神經網路:超引數除錯、正則化以及優化–Week1深度學習的實用層面
DeepLe
對第一個隱藏層神經元,用矩陣進行計算表示:
z[1]=
⎣⎢⎢⎢⎢⎢⎡−−−−−−−−w1[1]Tw2[1]Tw3[1]Tw4[1]T−−−−−−−−⎦⎥⎥⎥⎥⎥⎤
⎣⎡x1x2x3⎦⎤ +
⎣⎢⎢⎡b1b2b3b4⎦⎥⎥⎤ =
⎣⎢⎢⎢⎢⎢⎡w1[1]Tx+b1w2[1]Tx+b2w3[1]Tx+b3w4[1]Tx+b4⎦⎥⎥⎥⎥⎥⎤ =
⎣⎢⎢⎢⎢⎢⎡z1[1]Tz2[1]Tz3[1]Tz4[1]T⎦⎥⎥⎥⎥⎥⎤
w[1],(4
相關推薦
deeplearning.ai學習筆記:第一課第三週
deeplearning.ai學習筆記:第一課第四周
deeplearning.ai學習筆記:第一課第二週
deeplearning.ai學習筆記:第一課第一週
fast.ai 深度學習筆記:第一部分第三課
fast.ai 深度學習筆記:第一部分第五課
fast.ai 深度學習筆記:第一部分第四課
吳恩達 DeepLearning 神經網路基礎 第一課第三週程式設計題目及作業
網易雲深度學習第一課第三週程式設計作業
吳恩達深度學習第一課第三週課後作業
深度學習-吳恩達第一課第三週課程作業
吳恩達深度學習 第一課第三週 bug plt.scatter
fast.ai 深度學習筆記:第一部分第一課
fast.ai 深度學習筆記:第一部分第二課
deeplearning.ai第二課第三週:超引數除錯、BN層
DeepLearning.ai學習筆記(四)卷積神經網絡 -- week1 卷積神經網絡基礎知識介紹
DeepLearning.ai學習筆記(四)卷積神經網絡 -- week2深度卷積神經網絡 實例探究
吳恩達實驗(神經網絡和深度學習)第一課第三周,代碼和數據集,親測可運行
學習筆記:第一天
DeepLearning.ai 學習筆記以及作業