機器學習基石筆記-Lecture 3 Types of learning
介紹了機器學習中的幾類問題劃分。
半監督學習能夠避免標記成本昂貴的問題。
強化學習,可以看做是從反饋機制中來學習。
在線學習,數據一個接一個地產生並交給算法模型線上叠代。
主動學習,機器能針對自己沒有信心的數據提問,得到答案後再學習。
針對特征空間也有分類,比如具體的特征、原始的(個人理解是人為可提取的)特征和抽象的(個人理解是難以提煉的)特征。
機器學習基石筆記-Lecture 3 Types of learning
相關推薦
機器學習基石筆記-Lecture 3 Types of learning
mage 針對 也有 tac nts 反饋 機器學習 ear odi 介紹了機器學習中的幾類問題劃分。 半監督學習能夠避免標記成本昂貴的問題。 強化學習,可以看做是從反饋機制中來學習。 在線學習,數據一個接一個地產生並交給算法模型線上叠代。 主動學習,機器能
機器學習基石筆記:04 Feasibility of Learning
機器學習是設計演算法\(A\),在假設集合\(H\)裡,根據給定資料集\(D\),選出與實際模式\(f\)最為相近的假設\(g\)(\(g\)可能與\(f\)相同,也可能不同)。 那什麼情況下學習是可行的?即保證\(g\)和\(f\)是相似的。 資料集內的表現\(g\)約等於\(f\);
機器學習基石筆記-Lecture 10 Logistic regression
pan wiki app 方向 resource 註意 實現 comment sce soft binary classification的概念:軟二分類,不直接化為-1、1,而是給出一個概率值。 目標函數是一個概率值,但是拿到的data中y只有0、1(或者-1、1),可以
機器學習基石筆記-Lecture 9 Linear regression
空間 -i 結果 thumb src 9.png http regress containe 線性回歸的任務是對於一個輸入,給出輸出的實數,保證和真實輸出相差越小越好。因為假設空間是線性的,所以最後的g會是直線或者平面。 通常的誤差衡量方法是使用平方誤差 接下來的問題是
機器學習基石筆記-Lecture 4 Learning is possible
odi ima ffd containe 概率 count lin comm learning hoeffding 不等式 說明了在樣本量足夠大時,抽樣估計能夠接近真實值。 類比到ml中,對給定的一個假設空間中的h, 它在整個樣本空間中的表現可以由在部分樣本點上的表現來
機器學習基石筆記-Lecture 5-7 VC dimension
func contain containe attach 一個數 實的 man 分享 alt 為了引出VC維做了很長的鋪墊。。VC維:用來描述假設空間的表達能力。 第四節講到對有限的假設空間,只要N足夠大,不管A如何選g,訓練數據如何選取,g的訓練錯誤率和真實的錯誤率都
Lecture 3: Types of Learning
畫像 mage 聚類 人臉識別 summary ive 回歸 標註 knowledge 1.不同輸出空間上的學習 二分類問題 多分類問題 回歸問題 結構化的問題(有趣且復雜,可從多分類的問題衍生而來) ... 2.不同數據標簽上的學習 有監督的學習 無監督的學習 無監督
機器學習基石筆記11——機器可以怎樣學習(3)
1.2 div esc 怎樣 學習 clas regress 1.3 1.4 Lecture 11: Linear Models for Classification 11.1 Linear Models for Binary Classification 11.2 S
機器學習技法筆記-Lecture 13 Deep learning
需要 clas 操作 -1 變換 png image cati fun 一些挑戰: 網絡結構的選擇。CNN的想法是對鄰近的輸入,有著相同的weight。 模型復雜度。 最優化的初始點選擇。pre-training 計算復雜度。 包含pre-training的DL框架
【機器學習基石筆記】一、綜述
model 但是 目標 學習 imp 選擇 處理 定義 條件 課程定位: 註重基礎、故事性 機器學習定義: data - Algo - improve 機器學習使用條件 1、有優化的目標,可量化的。 2、規則不容易寫下來,需要學習。 3、要有數據 一個可能的推薦
【機器學習基石筆記】二、感知機
證明 機器學習 sign 線性可分 缺點 學習 犯錯 nbsp 錯誤 感知機算法: 1、首先找到點,使得sign(wt * xt) != yt, 那麽如果yt = 1,說明wt和xt呈負角度,wt+1 = wt + xt能令wt偏向正角度。 如果yt = -1, 說
【機器學習基石筆記】三、不同類型的機器學習
質數 一個 非監督 輸入 編號 不同 象棋 按順序 pla 一、不同的output 1、二分類 2、多分類 3、回歸問題 4、structured learn: 從一個句子 -> 句子每個 詞的詞性。 輸出是一個結構化的東西。 例子:蛋白質數據 ->
【機器學習基石筆記】四、無法學習?
機器學習 估計 事情 永遠 pro app out 天下 oba 天下沒有白吃的午餐,從樣本內到樣本外永遠無法估計。 抽樣的話,樣本內頻率和樣本外概率相等PAC (probably approximately correct) 一個重要的事情是樣本要在總體分布中取。 E
機器學習基石筆記1
網絡日誌 所有 手動 cli 次數 poc 基於 mat 概率問題 機器學習基石筆記1 lecture 1: The Learning Problem 1. 機器學習是什麽 通過對數據的經驗計算(experience computed),提升性能度量 3個關鍵性質 a)
機器學習基石筆記6——為什麽機器可以學習(2)
bsp jin cas htm tor 分享 ase psi ant 網友杜少的筆記 Lecture 6: Theory of Generalization 6.1 Restriction of Break Point
Coursera機器學習基石筆記week4
Feasibility of Learning Learning is Impossible? 我們想要在D以外的資料中更接近目標函式似乎是做不到的,只能保證對D有很好的分類結果。機器學習的這種特性被稱為沒有免費午餐(No Free Lunch)定理。NFL定理表明沒有一個學習演
Coursera機器學習基石筆記week3
Types of Learning Learning with Different Output Space Y 機器學習按照輸出空間劃分的話,包括二元分類、多元分類、迴歸、結構化學習等不同的型別。其中二元分類和迴歸是最基礎、最核心的兩個型別。 Learning with D
Coursera機器學習基石筆記Week2
Learning to Answer Yes/No Perceptron Hypothesis Set(感知機) 銀行是否給使用者發信用卡的例子,我們把使用者的個人資訊作為特徵向量x,令總共有d個特徵,每個特徵賦予不同的權重w,表示該特徵對輸出(是否發信用卡)的影響有多大。那所有
Coursera機器學習基石筆記Week1
The Learning Problem What is Machine learning? machine learning: improving some performance measure with experience computed from data。
Coursera機器學習基石筆記week7
The VC Dimension Definition of VC Dimension VC dimension就是滿足成長函式 2