機器學習訓練祕籍--學習筆記
第一章--第十章
1 一些定義
-
訓練集(training set)用於執行你的學習演算法。
-
開發集(development set)用於調整引數,選擇特徵,以及對學習演算法作出其它決定。有時也稱為留出交叉驗證集(hold-out cross validation set)。
-
測試集(test set)用於評估演算法的效能,但不會據此決定使用什麼學習演算法或引數。
2 單值評估指標(single-number evaluation metric)
3 查全率和召回率(Precision and recall)
4 F1-分數(F1 score
相關推薦
機器學習訓練祕籍--學習筆記
第一章--第十章 1 一些定義 訓練集(training set)用於執行你的學習演算法。 開發集(development set)用於調整引數,選擇特徵,以及對學習演算法作出其它決定。有時也稱為留出交叉驗證集(hold-out cross validati
機器學習訓練祕籍_學習筆記
本文主要參考“吳恩達deeplearning.ai——機器學習訓練祕籍”(https://accepteddoge.github.io/machine-learning-yearning-cn/)進行學習整理的筆記。 一、訓練集、開發集、測試集 訓練集(training set)用於執行
筆記:《機器學習訓練祕籍》-吳恩達deeplearningai微信公眾號推送文章
說明 該文為筆者在微信公眾號:吳恩達deeplearningai 所推送《機器學習訓練祕籍》系列文章的學習筆記,公眾號二維碼如下,1到15課課程連結點這裡 該系列文章主要是吳恩達先生在機器學習方面的經驗分享和基礎教程,每一章十分短小,旨在讓我們能在碎片化
吳恩達機器學習訓練祕籍整理五十三到五十七章(八)元件分析
第五十三章: 根據元件進行誤差分析 假設你的系統由複雜的機器學習流水線所構建,並且你希望提高該系統的效能,那應該從流水線的哪一部分開始改進呢?你可以通過將誤差歸因於流水線的特定元件,來決定工作的優先順序。 在上圖的流水線中,第一部分是貓檢測器,它能夠檢測出貓,並將它們從影象裁剪出來
吳恩達機器學習訓練祕籍整理四十四到五十二章(七)優化測試和端到端
第四十四章 優化驗證測試 假設你正在構建一個語音識別系統,該系統通過輸入一個音訊片段A,併為每一個可能的輸出句子S計算得分ScoreA(S) 。例如,你可以試著估計 ScoreA(S) = P(S|A) ,表示句子S是正確輸出的轉錄的概率,其中 A 是給定的輸入音訊。
吳恩達機器學習訓練祕籍整理三十六到四十三章(六)訓練資料
第三十六章: 何時在不同的分佈上訓練與測試。 使用者上傳的10000張圖片。網上收集的200000張圖片。使用者上傳的5000張用來做開發集和測試集。205000用來做訓練集。這樣可以讓他們的資料集的分佈儘可能的相同。 第三十七章: 現有100000張使用者上傳的圖片和200000張
吳恩達機器學習訓練祕籍整理三十三到三十五章(五)
第三十三章 為何與人類表現水平進行對比: 許多機器學習系統的設計目的是想要自動化一些人類可以處理得很好的事情,可舉的例子有影象識別、語音識別以及垃圾郵件分類等等。此外,有許多理由表明在處理人類擅長的任務時,構建機器一個學習系統會更加簡單: 1.易於從人為標籤中獲取資料 2.基於人類直
吳恩達機器學習訓練祕籍整理二十八到三十二章(四)學習曲線
第二十八章: 繪製學習曲線。隨著訓練集的增加,錯誤率逐漸的減少。 第二十九章: 繪製訓練誤差曲線。隨著訓練集大小的增加,開發集(和測試集)誤差應該會降低,但你的訓練集誤差往往會同時增加。 第三十章: 高偏差: 隨著我們新增更多的訓練
吳恩達機器學習訓練祕籍整理二十到二十七章(三)
第二十章: 偏差和方差:誤差的兩大來源 你的貓識別器在開發集上的錯誤率是16%,訓練集上的錯誤率是15%。 偏差:在訓練集上的錯誤率。15% 方差:開發集上的表現比訓練集差多少。16%-15%=1% 總誤差 = 偏差+方差 = 16% 第二十一章: 通過偏差和
吳恩達機器學習訓練祕籍整理十一到十九章(二)
第十一章: 如何修改開發集,測試集和度量指標 我們在開發一個新專案的時候,會盡快選好一個開發集和測試集。這樣可以幫助團隊制定一個明確的目標。 到後面我們會發現初始的開發集,測試集和度量指標設定與期待目標有一定的差距。這時候我們需要修改我們的開發集,測試集和度量指標。 在專案中改變開發
吳恩達機器學習訓練祕籍整理一到十章(一)
第一到四章: 1.為什麼選用機器學習策略。機器學習是無數重要應用的基礎。 2.先修知識與符號標記。有監督學習的經驗。瞭解機器學習。 3.驅動機器學習發展的原因。資料的可用性和計算規模。 傳統演算法和神經網路演算法在資料集較小的情況下區別不大,但是隨著資料集的增加和網路層數的加深,效果
吳恩達機器學習訓練祕籍整理五十三到五十五章(八)元件分析 更新中...
第五十三章: 根據元件進行誤差分析 假設你的系統由複雜的機器學習流水線所構建,並且你希望提高該系統的效能,那應該從流水線的哪一部分開始改進呢?你可以通過將誤差歸因於流水線的特定元件,來決定工作的優先順序。 在上圖的流水線中,第一部分是貓檢測器,它能夠檢測出貓,並將它
機器學習 對前人學習筆記的學習
blog 機器學習 logs ges load 學習筆記 img 技術 image 機器學習 對前人學習筆記的學習
《機器學習實戰》學習筆記——k近鄰算法
eating 元組 切片 文件 維度 mage python str eric 1.numpy中一些函數的用法學習 shape()用法: shape : tuple of ints The elements of the shape tuple give the le
《機器學習實戰》知識點筆記目錄
body cnblogs 機器學習 實戰 href post 目錄 開始 classify 從今天起,開始學習《機器學習實戰》,並記錄學習到的知識點。 -- 2017-12-31 1,第2章KNN算法筆記_函數classify0 《機器學
《機器學習實戰》學習筆記第八章 —— 線性回歸
逆矩陣 最小 png color 分享圖片 .html list 正則 pri 相關筆記: 吳恩達機器學習筆記(一) —— 線性回歸 吳恩達機器學習筆記(三) —— Regularization正則化 主要內容: 一.線性回歸之普通最小二乘法 二.局部加權線性回
coursera-斯坦福-機器學習-吳恩達-筆記week2
線性 歸一化 有變 擬合 分享 選擇 多元線性回歸 縮放 轉置 1 多元線性回歸 1.1 假設函數 多元線性回歸是指有多個特征特征變量的情況。此時我們修改假設函數hθ(x)=θ0+θ1?x為hθ(x)=θ0+θ1x1+θ2x2+?+θnxn。設x0=1,x為特征向量,θ為參
coursera-斯坦福-機器學習-吳恩達-筆記week3
發生 足夠 bfgs clas 方法 技術 影響 限制 分享 1 邏輯回歸 1. classification 分類 eg:垃圾郵件分類、交易是否是欺詐、腫瘤類別。分類的結果是離散值。 2. sigmoid函數 使用線性方法來判斷分類問題,會出現上圖中的問題,需要
在阿里雲Kubernetes上使用ENI進行分散式機器學習訓練
概述 模型訓練是機器學習最主要的實踐場景,尤其以使用機器學習框架TensorFlow進行模型訓練最為流行,但是隨著機器學習的平臺由單機變成叢集,這個問題變得複雜了。利用KubeFlow社群的自定義資源TFJob/MPIJob/MxNetJob可以在Kubernetes叢集方便的執行其不同的分散式訓練框架,解
結構化機器學習專案_課程筆記_第一、二週
第一週 機器學習策略_1 這一門課主要介紹了在具體專案實踐中會遇到的一些問題以及採取的策略。所擷取的圖片依然來源於吳恩達老師的相關視訊資源。 1. 正交化(Orthogonalization) Andrew建議機器學習的調參過程應保持正交化。上圖所示的機器學習的4個流程,每一步的除