機器學習 (南京大學周志華的《機器學習》和李航的《統計學習方法》)
機器學習的三種不同方法:
一、監督學習(supervised learning)——對未來事件進行預測。使用有類標的資料構建資料模型。然後使用經訓練得到的模型對未來的資料進行預測。
主要分為兩類:
1.利用分類對類標進行預測
2.使用迴歸預測連續輸出值
二、無監督學習(unsupervised learning)——發現數據本身潛在的結構。分為兩類:
1.通過聚類發現數據的子群
2.資料壓縮中的降維
三、強化學習(reinforecement learning)——解決互動式問題。構建一個系統,在與環境互動的過程中提高系統的效能。
四、基本術語
相關推薦
機器學習 (南京大學周志華的《機器學習》和李航的《統計學習方法》)
機器學習的三種不同方法: 一、監督學習(supervised learning)——對未來事件進行預測。使用有類標的資料構建資料模型。然後使用經訓練得到的模型對未來的資料進行預測。 主要分為兩類: 1.利用分類對類標進行預測 2.使用迴歸預測連續輸出值 二、無監
《機器學習-西瓜書》-周志華-學習筆記系列(1)--序言、前言和主要符號表
寫在前面的話: 自己於今天(2018年9月4日)看完了機器學習-西瓜書-周志華-清華大學出版社書籍,對於這本書的評價就是:好書,自己可以在每一個字裡行間感受到作者的用心,每當看到一個不懂的名詞的時候,作者都會用通俗的例子來講解,遇到公式的時候,也會進行推導,側邊欄的一些說明資訊往往能帶給自己
周志華-機器學習-筆記(五)- 強化學習
#### 任務與獎賞 #### “強化學習”(reinforcement learning)可以講述為在任務過程中不斷摸索,然後總結出較好的完成任務策略。 強化學習任務通常用馬爾可夫決策過程(Markov Decision Process,簡稱M
周志華機器學習筆記(一)
新人一枚,既是機器學習的初學者,也是首次發部落格。謹以此記錄我的學習體會,做一些總結。望與大家共同學習、共同進步。文中若有內容錯誤或有措詞不嚴謹之處,望大家不吝指出。謝謝! 機器學習中的基本概念 基本術語 根據上圖我們可以用一個三維空間來了解以
周志華機器學習總結
Lecture3 線性模型 基本形式 一般向量形式: 優點: 線性迴歸 廣義線性模型 對數機率迴歸 由對數機率函式確定 $\boldsymbol{\omega}$ 和 $b$
周志華 機器學習 筆記
第1章 1.4歸納偏好 學習演算法自身的歸納偏好與問題是否相配,往往會起到決定作用。 對於上面這句話:你的輸入資料被怎麼處理,最終得到什麼結果,我認為偏好指的就是這個處理的過程。線性非線性?那些feature忽略掉?怎麼利用這些資料?更具體一些,你用網路處理,還是傳統方法,資料的分佈和你
周志華 機器學習 效能度量
2.5 效能度量 效能度量(performance measure)是衡量模型泛化能力的評價標準,在對比不同模型的能力時,使用不同的效能度量往往會導致不同的評判結果。本節除2.5.1外,其它主要介紹分類模型的效能度量。 2.5.1 最常見的效能度量 在迴歸任務中,即預測連續值的問題,最常
周志華 西瓜書 第16章 強化學習(習題答案)(轉)
原文轉自: https://blog.csdn.net/icefire_tyh/article/details/53691569
周志華 機器學習
盜用weka 緒論 1.2基本術語 學習任務大致分為兩類: 監督學習:分類、迴歸 無監督學習:聚類 泛化:訓練得到的模型適用於新樣本的能力 機器學習領域最重要的國際學術會議是國際機器學習會議 (ICML)、國
周志華機器學習筆記
http://blog.sina.cn/dpool/blog/s/blog_cfa68e330102ycy9.html?md=gd https://www.cnblogs.com/shiwanghualuo/p/7192678.html 首先的階段由卷積層和池化層組成,卷積的節點組織在特徵對映塊
[機器學習]ID3決策樹 詳細計算流程 周志華機器學習 筆記 原創Excel手算方法
1.用到的主要三條熵公式: 1.1 資訊熵 詳情見夏農資訊理論 概率越平衡 事件所含有的資訊量越大 1.2 條件熵 代表某一屬性下不同分類的資訊熵之和 1.3 資訊增益 等於資訊熵減去條件熵,從數值上,越大的資訊增益在資訊熵一定的情況下,代表條件熵越小,條件熵越
周志華機器學習讀後總結 第10、11章
降維與度量學習 什麼是降維學習 降維是一種分類演算法,它是一種解決維數災難的重要途徑。例如二維資料經過投影變為一維資料從而更好的表徵資料的特徵,然後再進行識別;這就利用了降維的方法。 K鄰近學習 k近鄰學習是一種監督學習演算法,它給定測試樣本,基於某種距離度量找出與訓練集
周志華機器學習讀後總結 第三章
線性模型 基本形式 線性模型試圖學得一個通過屬性的線性組合來進行預測的函式,即f(x)=w1x1+w2x2+…+wdxd+b,w和b學得之後,模型就得以確定,而w直觀表達了各屬性在預測中的重要性。線性迴歸 線性迴歸試圖學得一個線性模型以儘可能準確的預測實值輸出標記。線性迴歸
周志華機器學習讀後總結 第12、13章
計算學習理論 什麼是計算學習理論 計算學習理論是關於機器學習的理論基礎,其目的是分析學習任務的困難本質,為學習演算法提供理論保證,並根據分析結果指導演算法設計。泛化誤差和經驗誤差是計算學習理論的兩個重要概念,現實中我們常用經驗誤差作為泛化誤差的近擬。 PAC學習 PAC學
python 實現周志華 機器學習書中 k-means 演算法
hello,all 上節採用python實現了決策樹,本節使用python實現k-means演算法,後一節將會採用map-reduce實現k-means演算法 演算法程式如下: 演算法程式碼如下: # coding=utf-8 import pprint import
python 實現周志華 機器學習書中的決策樹 c3.0
hello,上篇文章實現的是svm 本文實現決策樹演算法。主要是依照周志華那本機器學習的書籍,進行實現。 其中紅色部分我未寫。因為我在選擇屬性劃分的時候,不可能導致資料集為空。所以這部分對我來說沒有必要了 這裡是用字典來儲存樹,開始還準備用list,發現字典要好些,但是我
李航—統計學習方法筆記(一)
什麼是獨立同分布? 百度: 在概率統計理論中,指隨機過程中,任何時刻的取值都為隨機變數,如果這些隨機變數服從同一分佈,並且互相獨立,那麼這些隨機變數是獨立同分布。如果隨機變數X1和X2獨立,是指X1的取值不影響X2的取值,X2的取值也不影響X1的取值且隨機變數X1和X2服從同一分佈,這意味著X1和X2具有
李航統計學習方法之樸素貝葉斯法(含python及tensorflow實現)
樸素貝葉斯法 樸素貝葉斯法數學表示式 後驗概率最大化的含義 樸素貝葉斯是一個生成模型。有一個強假設:條件獨立性。我們先看下樸素貝葉斯法的思想,然後看下條件獨立性具體數學表示式是什麼樣的。
關於Flash的學習(第二步,操作Flash時,為了延長Flash壽命的操作方法)
承蒙專案和同事的要求,因Flash擦除、寫入太過於頻繁,所以需要更換Flash地址寫資料。 背景簡介:嵌入式開發,需要關機儲存資料,C語言寫。用512K Byte Flash。 程式碼簡介:用容量512k Byte的Flash,在0x20000 Byte起始的地址,在
演算法工程師修仙之路:李航統計學習方法(一)
第1章 統計學習方法概論 統計學習 統計學習的特點 統計學習(statistical learning)是關於計算機基於資料構建概率統計模型並運用模型對資料進行預測與分析的一門學科,統計學習也稱為統計機器學習(statistical machine learnin