cs231n 學習筆記 by qscqesze
不學完直播吃屎。
官網鏈接:CS231n: Convolutional Neural Networks for Visual Recognition http://cs231n.stanford.edu/
Notes:鏈接:http://cs231n.github.io/
英語版視頻:https://www.bilibili.com/video/av13260183/?from=search&seid=13021715619896075995
中文字幕視頻 by 大數據文摘 鏈接:http://study.163.com/course/courseMain.htm?courseId=1003223001
課件中文翻譯 by 杜克 鏈接:https://www.52ml.net/tags/cs231
課件英文視頻及字幕等 by 愛可可-愛生活 鏈接:https://pan.baidu.com/s/1pKsTivp#list
cs231n 學習筆記 by qscqesze
相關推薦
cs231n 學習筆記 by qscqesze
not pan search 大數 for lis eid 英文 main 不學完直播吃屎。 官網鏈接:CS231n: Convolutional Neural Networks for Visual Recognition http://cs231n.stanford.e
CS231n 學習筆記(1) Image CLassification
eight function 分享 便是 數據驅動 rain 分類問題 很難 特征 圖像分類是計算機視覺中的一項核心任務,那麽什麽是圖像分類? 例如,給你一個標簽集,其中包括(貓、狗、鳥、卡車、飛機...等) 然後給你一張圖片,那麽這張圖片屬於哪個類別呢?這就是一個分類
cs231n學習筆記(二)圖像分類
根據 stanford nbsp 學習筆記 cif 線性分類 這一 差異 測距 圖像分類可說是計算機視覺中的基礎任務同時也是核心任務,做好分類可為檢測,分割等高階任務打好基礎。 本節課主要講了兩個內容,K近鄰和線性分類器,都是以貓的分類為例。 一. K近鄰 以貓的分
cs231n學習筆記 CNN 目標檢測 定位 分割
分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!  
cs231n學習筆記-CNN-目標檢測 定位 分割
分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!  
CS231n學習筆記-前言
從小學老師第一次說每一課都要預習,上完還要複習到現在,我一直也不是一個會複習的人。但是記憶本身就是一個需要不斷重複強化的過程。為了把機器學習的第一個系統入門課程學好(之前是零散入門,需要用到什麼就趕緊上網看兩眼學一學這樣),我決定本課程聽課時記錄英文筆記,然後在部落格記錄中文筆記,也是一種英
cs231n-學習筆記-05卷積神經網路
卷積神經網路 1 簡介 全連線網路層 32x32x3的影象->伸展成3072x1 輸入x (3072,1) 計算Wx (10,3072) x (3072,1) = (10,1) 輸出y (10,1) 卷積網路層
cs231n-學習筆記-06訓練神經網路
訓練神經網路 小批隨機梯度下降 ① 取一批樣本資料 ② 通過網路進行前向傳播,得到損失函式 ③ 方向傳播計算梯度 ④ 使用梯度更新引數 概覽本章內容: ① 初始化設定 啟用函式、資料預處理、權重初始哈、正則化、梯度檢查 ②
CS231n學習筆記--2.NN1
1.啟用函式對於神經網路來說是必要的,因為沒有它,無論有多少層最終都可以化簡為線性函式; 2.常用啟用函式:每個啟用函式都是對一個數做操作。 啟用函式 影象 公式 優缺點 sigmoid 1.當輸出接近0或1時對應的導數
cs231n學習筆記第一天--------影象分類上下、Python基礎、線性分類------Python列表切片和numpy切片的區別
前言: 老規矩,前言的碎碎念還是得有的,cs231n的課之前就想刷來著,室友也一直盯著我,讓我刷,說我基礎太差,不刷不行,好好好,我來重拾一下,看看究竟用什麼方法,才能讓我堅持下去。 雖然自己也曾經呼叫過一些API,整天就是配環境,刷系統,改bug。 但是感覺這
cs231n學習筆記 第四課
1.反向傳播:核心為鏈式法則,通過對一系列中間變數進行簡單的求導計算來得到整個複雜函式的梯度 local gradient * upstream gradient:對當前節點求導並將其與上游節點導數相乘,逐漸回傳 sigmoid function: 計算圖中:加法門的
斯坦福cs231n學習筆記(11)------神經網路訓練細節(梯度下降演算法大總結/SGD/Momentum/AdaGrad/RMSProp/Adam/牛頓法)
神經網路訓練細節系列筆記: 通過學習,我們知道,因為訓練神經網路有個過程: <1>Sample 獲得一批資料; <2>Forward 通過計算圖前向傳播,獲得loss; <3>Backprop 反向傳播計算梯度,這
斯坦福大學深度學習公開課cs231n學習筆記(10)卷積神經網路
前記:20世紀60年代,Hubel和Wiesel在研究貓腦皮層中用於區域性敏感和方向選擇的神經元時,發現其獨特的網路結構可以有效地降低反饋神經網路的複雜性,繼而提出了卷積神經網路(Convolutio
cs231n學習筆記-CNN-目標檢測、定位、分割
1. 基本概念 1)CNN:Convolutional Neural Networks 2)FC:Fully Connected 3)IoU:Intersection over Union (IoU的值定義:Region Proposal與Grou
Stanford cs231n 學習筆記(2)SVM、Loss Function、Optimization
##Loss Function ###什麼是損失函式,損失函式的意義 應用於Supervised Learning Algorithms 中,用於衡量所學習的模型對待預測的輸入樣本的預測能力。 ###損失函式的構成 -只考慮資料上的損失: L = 1/N * sigma_i L_
Stanford cs231n 學習筆記(1)Linear Model
##非引數化學習(資料驅動型學習)和引數化學習 ###資料驅動型學習 整個學習演算法依賴的是訓練集中的資料樣本。典型代表:KNN。即通過對比帶預測樣本與訓練集中的樣本的“距離”或者某種度量,來實現分類的功能。在這種演算法中,每次的樣本預測是依賴和訓練集中樣本的比對得到的,可以理解為並沒有一個
【cs231n學習筆記(2017)】——— KNN
好久沒寫部落格了,最近有點忙,然後自己也有點懶。。。。。。 最近確定自己要搞計算機視覺方向,然後就開始看斯坦福的cs231n課程,準備寫系列部落格記錄自己的學習過程及心得。 ———————————–
斯坦福cs231n學習筆記(8)------神經網路訓練細節(資料預處理、權重初始化)
神經網路訓練細節系列筆記: 這一篇,我們將繼續介紹神經網路訓練細節。 一、Data Preprocessing(資料預處理) 如圖是原始資料,資料矩陣X有三種常見的資料預處理形式,其中我們假定X的大小為[N×D](N是資料的數量,D是它們的維數
斯坦福大學深度學習公開課cs231n學習筆記(1)softmax函式理解與應用
<div id="article_content" class="article_content clearfix csdn-tracking-statistics" data-pid="blog" data-mod="popu_307" data-dsm="post"
深度學習與計算機視覺[CS231N] 學習筆記(4.1):反向傳播(Backpropagation)
在學習深度學習的過程中,我們常用的一種優化引數的方法就是梯度下降法,而一般情況下,我們搭建的神經網路的結構是:輸入→權重矩陣→損失函式。如下圖所示。 而在給定輸入的情況下,為了使我們的損失函式值達到最小,我們就需要調節權重矩陣,使之滿足條件,於是,就有了本