(周志華)讀書筆記 -- 第一章 緒論
下面我們來構造一個“假設空間”:
比如說選擇配偶時我們有以下幾個指標——
體型(肥胖,勻稱,過瘦)
財富(富有,一般,貧窮)
性別(同性,異性)//我這什麼腦洞啊
現在我們要構建一個合適的假設空間來構建一個擇偶觀:
體型來說有肥胖均勻和過瘦三種,也有可能價值觀裡認為這個無關緊要,所以有四種可能。
加上一個極端的情況,這三個評判準則選出來的都不是想要的
所以假設空間的規模大小為4X4X3+1=49.
有很多策略來對空間裡這些假設進行“篩選”,利用樣本可以把假設空間裡的假設一個個排除篩選。因為訓練樣本是有限的,所以有時會存在多個假設滿足這些條件,這些假設我們叫做“訓練集合”,或者版本空間(version space)
相關推薦
(周志華)讀書筆記 -- 第一章 緒論
“ 下面我們來構造一個“假設空間”: 比如說選擇配偶時我們有以下幾個指標—— 體型(肥胖,勻稱,過瘦) 財富(富有,一般,貧窮) 性別(同性,異性)//我這什麼腦洞啊 現在我們要構建一個合適的假設空間來構建一個擇偶觀: 體型來說有肥胖均勻和過瘦三種,也有可能價值觀裡認為這個無關緊要,所以有四種
《機器學習》 周志華學習筆記第一章 緒論(課後習題)
最近需要學習機器學習,有一點點基礎但是很少,希望能通過寫部落格的方式和大家交流以及學習達到共同進步的目的。 緒論 : 一、內容 1.基本術語 2.假設空間與版本空間 3.歸納偏好(常用的有奧卡姆剃刀) 沒有免費的午餐定理(No Free Lunch Theorem,
(周志華)讀書筆記 -- 第二章 模型評估與選擇
隨手記下所學知識,很多圖表來自原書,僅供學習使用! 2.1 經驗誤差與過擬合 通常,我們使用"錯誤率"來表示分類中錯誤的樣本佔總樣本的比例.如果m個樣本中有a個錯誤樣本則錯誤率E=a/m ,對應的,
機器學習(周志華) 參考答案 第一章 緒論
機器學習(周志華) 參考答案 第一章 緒論 機器學習(周志華西瓜書) 參考答案 總目錄 1.表1.1中若只包含編號為1,4的兩個樣例,試給出相應的版本空間。 假設空間指的是問題所有假設組成的空間,我們可以把學習過程看作是在假設空間中搜索的過程,
機器學習(周志華) 參考答案 第一章 緒論 1.2
機器學習(周志華) 參考答案 第一章 緒論 1.2 機器學習(周志華西瓜書) 參考答案 總目錄 機器學習(周志華) 參考答案 第一章 緒論 2.與使用單個合取式來進行假設表示相比,使用“析合正規化”將使得假設空間具有更強的表示能力。若使用
(周志華)讀書筆記 -- 第四章 決策樹
4.1 基本流程 決策樹是什麼?要想解決這個問題,首先要弄明白的就是計算機中的樹是什麼。樹,我們在計算機中很常見了,有二叉樹,哈夫曼樹等等,總結一下共同點的時候就是,對一個當前節點而言,下一個個節點有
《機器學習》周志華 讀書筆記2(原創)
第2章 模型評估與選擇 p24-p51 2017-2-24 Fri Model selection模型選擇:選用哪種學習演算法、使用哪種引數配置 (理想的解決方案:對候選模型的泛化誤差進行評估,再選擇泛化誤差最小的那個模型) (通過實驗來對學習器的泛化誤差進行評估並進而做
《機器學習》周志華 讀書筆記1(原創)
第1章 p1-p23 2017-2-20 Mon 模型:泛指從資料中學得的結果 Instance示例(或sample樣本):每條記錄的資料。每條記錄是關於一個事件或物件的描述。 Data set資料集:記錄資料的集合 Attribute屬性(或feature特徵):反映事
《資料結構教程(第四版)》讀書筆記-第一章 緒論
第一章 緒論 資料 資料元素是資料(集合)中的一個“個體”,是資料的基本單位。又稱為元素、結點、頂點、記錄等。 資料項是具有獨立含義的、組成資料元素的最小單位。稱為欄位、域。資料元素是資料項的集合。 程式=演算法+資料結構(邏輯結構和儲存(物理)結構)
《機器學習》 周志華學習筆記第四章 決策樹(課後習題)python 實現
一、基本內容 1.基本流程 決策樹的生成過程是一個遞迴過程,有三種情形會導致遞迴返回 (1)當前節點包含的yangben全屬於同一類別,無需劃分; (2)當前屬性集為空,或是所有yangben在所有屬性上的取值相同,無法劃分; (3)當前結點包含的yangben集合為空,不能
《機器學習》 周志華學習筆記第三章 線性模型(課後習題)python 實現
線性模型 一、內容 1.基本形式 2.線性迴歸:均方誤差是迴歸任務中最常用的效能度量 3.對數機率迴歸:對數機率函式(logistic function)對率函式是任意階可導的凸函式,這是非常重要的性質。 4.線性判別分析(LDA 是一種降維的方法) 5.多分類學習:
《機器學習》 周志華學習筆記第八章 整合學習(課後習題)python實現
1.個體與整合 1.1同質整合 1.2異質整合 2.boosting:代表AdaBoost演算法 3.Bagging與隨機森林 3.1Bagging 是並行式整合學習方法最著名的代表(基於自主取樣法bootstrap sampling) 自己學習時編寫了
《機器學習》 周志華學習筆記第六章 支援向量機(課後習題)python 實現
一、 1.間隔與支援向量 2.對偶問題 3.核函式 xi與xj在特徵空間的內積等於他們在原始yangben空間中通過函式k(.,.)計算的結果。 核矩陣K總是半正定的。 4.軟間隔與正則化 軟間隔允許某些samples不滿足約束 鬆弛變數 5.支援
《機器學習》 周志華學習筆記第五章 神經網路(課後習題) python實現
1.神經元模型 2.感知機與多層網路 3.誤差逆傳播演算法 (A)BP演算法:最小化訓練集D上的累積誤差 標準BP演算法:更新規則基於單個Ek推導而得 兩種策略防止過擬合:(1)早停(通過驗證集來判斷,訓練集誤差降低,驗證集誤差升高)(2) 正則化:在誤差目標函式中引入描述網
《機器學習》 周志華學習筆記第七章 貝葉斯分類器(課後習題)python 實現
課後習題答案 1.試用極大似然法估算西瓜集3.0中前3個屬性的類條件概率。 好瓜有8個,壞瓜有9個 屬性色澤,根蒂,敲聲,因為是離散屬性,根據公式(7.17) P(色澤=青綠|好瓜=是) = 3/8 P(色澤=烏黑|好瓜=是) = 4/8 P(色澤=淺白|好瓜=是) =
《機器學習》 周志華學習筆記第十四章 概率圖模型(課後習題)python實現
一、基本內容 1.隱馬爾可夫模型 1.1. 假定所有關心的變數集合為Y,可觀測變數集合為O,其他變數集合為R, 生成式模型考慮聯合分佈P(Y,R,O),判別式模型考慮條件分佈P(Y,R|O),給定一組觀測變數值,推斷就是要由P(Y,R,O)或者P(Y,R|O)得到條件概率分佈P(Y,
《機器學習》--周志華 (第五章學習筆記)
神經網路 神經元模型 神經網路是由具有適應性的簡單單元組成的廣泛並行互連的網路,它的組織能夠模擬生物神經系統對真實世界物體所作出的互動反應 神經網路中最基本的成分是神經元模型,即“簡單單元”,在生物神經網路中,每個神經元與其他神經元相連
《神經網絡設計》讀書筆記第一章
tails 人工 讀書筆記 進一步 結構 network 設計 消失 第一章 包括記憶在內的所有生物神經功能,都存儲在神經元及其之間的連接上。 神經網絡中關於學習的過程是 神經元之間建立新的連接或對已有連接進行修改的過程。 神經網絡的起源:M-P模型 是按照生物神經元的
《MySQL技術內幕InnoDB存儲引擎》讀書筆記 第一章
內存 ndb存儲 mvcc select mysql5.0 事務 myisam 包括 插入 Mysql體系結構和存儲引擎 1.1 定義數據庫和實例 數據庫:物理操作系統文件或其他形式文件類型的集合。 數據庫文件可以使frm,MYD,MYI,ibd結尾的文件。
隨機過程(方兆本,繆伯其)讀書筆記-第一章-引論
重要 聯合 時間差 給定 函數 完全 tro markdown 狀態 第一章 引論 1.1 引言 1.1.1 基本概念和例子 定義1.1: 隨機過程就是一族隨機變量${X(t), t \in T}$, 其中$t$ 是參數, 屬於某個指標集$T$, $T$ 稱為參數集. $t