李巨集毅機器學習課程6~~~深度學習入門
深度學習歷史
深度學習經典步驟
神經網路的符合標記含義
Wij 代表的是從神經元j到神經元i,這樣寫的目的是便於表達,否則最後的表示式子就是Wij的轉置,細節見下面。
每個神經元的偏執值組成一個向量b
單個神經元的輸出結果
所有神經元輸出的結果
深度學習示例數字識別
將圖片reshape到一列(按行reshape或者按列reshape均可),類別可用0ne-hot來標記。
深度學習損失函式
批量算損失,梯度下降法去更新引數,以便找到最優的目標函式。
深度學習梯度下降法
參考文獻
相關推薦
李巨集毅機器學習課程6~~~深度學習入門
深度學習歷史 深度學習經典步驟 神經網路的符合標記含義 Wij 代表的是從神經元j到神經元i,這樣寫的目的是便於表達,否則最後的表示式子就是Wij的
臺大李巨集毅教授最新課程,深度強化學習國語版
李巨集毅的youtube主頁:https://www.youtube.com/channel/UC2ggjtuuWvxrHHHiaDH1dlQ/videos此外,李老師在youtube還有《機器學習》和《深度學習》兩門課程的視訊講解,這兩門課程也獲得了不錯的口碑,課程連結如下
李巨集毅機器學習筆記-6 深度學習簡介(Brief Introduction of Deep Learning)
Brief Introduction of Deep Learning - 深度學習簡介 1. 前言 deep learning 在近些年非常熱門,從2012年開始,深度學習的應用數目幾乎是呈指數增長的。 深度學習的發展史如下圖:
李巨集毅機器學習課程--迴歸(Regression)
李老師用的是精靈寶可夢做的比喻,假設進化後的寶可夢的cp值(Combat Power)與未進化之前的寶可夢的cp值相關,我們想找出這兩者之間的函式關係,可以設進化後的cp值為y,進化之前的cp值為x:y = b + w*x (不只可以設一次項,還可以設定二次項,三次項
李巨集毅機器學習PTT的理解(1)深度學習的介紹
深度學習的介紹 機器學習就像是尋找一個合適的函式,我們輸入資料就可以得到想要的結果,比如: 在語音識別中,我們輸入一段語音,函式的輸出值就是識別的結果;在影象識別中,輸入一張照片,函式可以告訴我們分類
李巨集毅機器學習2016 第八講 深度學習網路優化小訣竅
Tips for Deep Learning 本章節主要講解了深度學習中的一些優化策略,針對不同的情況適用於不同的優化方法。 主要內容是:新的啟用函式(new activation function),自適應的學習率(adaptive learning
[機器學習入門] 李巨集毅機器學習筆記-1(Learning Map 課程導覽圖)
在此就不介紹機器學習的概念了。 Learning Map(學習導圖) PDF VIDEO 先來看一張李大大的總圖↓ 鑑於看起來不是很直觀,我“照虎
李巨集毅機器學習課程筆記10:Ensemble、Deep Reinforcement Learning
臺灣大學李巨集毅老師的機器學習課程是一份非常好的ML/DL入門資料,李巨集毅老師將課程錄影上傳到了YouTube,地址:NTUEE ML 2016 。 這篇文章是學習本課程第27-28課所做的筆記和自己的理解。 Lecture 27: Ensembl
[機器學習入門] 李巨集毅機器學習筆記-6 (Classification: Logistic Regression;邏輯迴歸)
[機器學習] 李巨集毅機器學習筆記-6 (Classification: Logistic Regression;Logistic迴歸) PDF VIDEO Three steps Step 1: Function Set
李巨集毅機器學習課程筆記9:Recurrent Neural Network
臺灣大學李巨集毅老師的機器學習課程是一份非常好的ML/DL入門資料,李巨集毅老師將課程錄影上傳到了YouTube,地址:NTUEE ML 2016 。 這篇文章是學習本課程第25-26課所做的筆記和自己的理解。 Lecture 25,26: Recu
16、【李巨集毅機器學習(2017)】Unsupervised Learning: Deep Auto-encoder(無監督學習:深度自動編碼器)
本篇部落格將介紹無監督學習演算法中的 Deep Auto-encoder。 目錄 Deep Auto-encoder 輸入28*28維度的影象畫素,由NN encoder輸出code,code的維度往往小於784,但我們並不知道code的
李巨集毅機器學習課程筆記-1.機器學習概論
# 機器學習是什麼 **機器學習就是讓機器能自動找到一個函式(function)** - 語音識別(Speech Recognition) 輸入是音訊,輸出是音訊對應的文字。 - 影象分類 輸入是圖片,輸出是類別(比如貓、狗)。 - AlphaGo下圍棋 輸入是當前棋盤的狀態,輸出是下一步
李巨集毅機器學習課程筆記-4.1分類簡介及其與迴歸的區別
[TOC] # 分類模型應用案例(Classification Cases) - 信用評分(Credit Scoring) - 輸入:收入、儲蓄、職業、年齡、信用歷史等等 - 輸出:是否貸款 - 醫療診斷(Medical Diagnosis) - 輸入:現在症狀、年齡、性別、病史 - 輸出:哪種疾病
【ML】 李巨集毅機器學習筆記
我的github連結 - 課程相關程式碼: https://github.com/YidaoXianren/Machine-Learning-course-note 0. Introduction Machine Learning: define a set of function
李巨集毅機器學習 P14 Backpropagation 筆記
chain rule:求導的鏈式法則。 接著上一節,我們想要minimize這個loss的值,我們需要計算梯度來更新w和b。 以一個neuron舉例: 這個偏微分的結果就是輸入x。 比如下面這個神經網路: 下面我們要計算這個偏微分:。這裡的以si
李巨集毅機器學習 P13 Brief Introduction of Deep Learning 筆記
deep learning的熱度增長非常快。 下面看看deep learning的歷史。 最開始出現的是1958年的單層感知機,1969年發現單層感知機有限制,到了1980年代出現多層感知機(這和今天的深度學習已經沒有太大的區別),1986年又出現了反向傳播演算法(通常超過3
李巨集毅機器學習 P12 HW2 Winner or Loser 筆記(不使用框架實現使用MBGD優化方法和z_score標準化的logistic regression模型)
建立logistic迴歸模型: 根據ADULT資料集中一個人的age,workclass,fnlwgt,education,education_num,marital_status,occupation等資訊預測其income大於50K或者相反(收入)。 資料集: ADULT資料集。
李巨集毅機器學習P11 Logistic Regression 筆記
我們要找的是一個概率。 f即x屬於C1的機率。 上面的過程就是logistic regression。 下面將logistic regression與linear regression作比較。 接下來訓練模型,看看模型的好壞。 假設有N組trainin
李巨集毅機器學習 P15 “Hello world” of deep learning 筆記
我們今天使用Keras來寫一個deep learning model。 tensorflow實際上是一個微分器,它的功能比較強大,但同時也不太好學。因此我們學Keras,相對容易,也有足夠的靈活性。 李教授開了一個玩笑: 下面我們來寫一個最簡單的deep learning mo
線性迴歸 李巨集毅機器學習HW1
本文是李巨集毅老師機器學習的第一次大作業,參考網上程式碼,寫了一下自己的思路。 李巨集毅 HM1: 要求:本次作業使用豐原站的觀測記錄,分成train set跟test set,train set是豐原站每個月的 前20天所有資料。test set則是從豐原站剩下的資料中取樣出來。 trai