【Machine Learning with Peppa】分享機器學習,數學,統計和程式設計乾貨
專欄達人
授予成功建立個人部落格專欄的使用者。專欄中新增五篇以上博文即可點亮!撰寫部落格專欄濃縮技術精華,專欄達人就是你!相關推薦
【Machine Learning with Peppa】分享機器學習,數學,統計和程式設計乾貨
專欄達人 授予成功建立個人部落格專欄
【Machine Learning Done Wrong】機器學習七種易犯的錯誤
作者總結了機器學習七種易犯的錯誤:1.想當然用預設Loss;2.非線性情況下用線性模型;3.忘記Outlier;4.樣本少時用High Viriance模型;5.不做標準化就用L1/L2等正則;6.不考慮線性相關直接用線性模型;7.LR模型中用引數絕對值判斷feature
Machine Learning with Peppa
把Scala List的幾種常見方法梳理彙總如下,日常開發場景基本上夠用了。建立列表scala> val days = List("Sunday", "Monday", "Tuesday", "Wednesday", "Thursday", "Friday", "Sat
【部落格之星】分享是一種美德,年輕就該努力
首先感謝CSDN給我這次機會參加2013部落格之星候選人,記得兩年前剛開始在CSDN寫部落格的時候,那時候還擔心寫的東西太爛,被別人罵。現在想想當時的想法真是多餘的。兩年來,我從一個對程式設計幾乎算不上入門的傻小子,到現在能簡單的寫一些有用的程式碼。回往這兩年,真的感謝以前那個
OReilly.Hands-On.Machine.Learning.with.Scikit-Learn.and.TensorFlow學習筆記彙總
其中用到的知識點我都記錄在部落格中了:https://blog.csdn.net/dss_dssssd 第一章知識點總結: supervised learning k-Nearest Neighbors Linear Regression
Machine Learning第六講[應用機器學習的建議] --(二)診斷偏差和方差
一、Diagnosing Bias vs. Variance(診斷偏差 vs. 方差) 如果一個演算法表現的不理想,多半是出現兩種情況,一種情況是偏差比較大(這種情況是欠擬合情況),另一種是方差比較大(這種情況是過擬合的情況)。下圖是欠擬合、剛好、過擬合三種情況的Size-price圖(仍然是預
Differential geometry for machine learning (微分幾何在機器學習中的應用)
Author: Roger Grosse In machine learning, we’re often interested in learning a function or a distribution that we can use to makin
Machine Learning第六講[應用機器學習的建議] --(三)建立一個垃圾郵件分類器
內容來自Andrew老師課程Machine Learning的第六章內容的Building a Spam Classifier部分。 一、Prioritizing What to Work on(優
【轉載】Stanford機器學習---第三講. 邏輯迴歸和過擬合問題的解決 logistic Regression & Regularization
在每次迭代中,按照gradient descent的方法更新引數θ:θ(i)-=gradient(i),其中gradient(i)是J(θ)對θi求導的函式式,在此例中就有gradient(1)=2*(theta(1)-5), gradient(2)=2*(theta(2)-5)。如下面程式碼所示:
Machine Learning —— By Andrew Ng(機器學習 聽後自己做的筆記 記錄重點內容)
MachineLearning ——byAndrew Ng , Stanford 第一講:機器學習的動機與應用 一、監督學習: 1、 迴歸問題: 房價預測 2、 分類問題:腫瘤為良性還是惡性
【Machine Learning, Coursera】機器學習Week6 偏斜資料集的處理
ML Week6: Handing Skewed Data 本節內容: 1. 查準率和召回率 2. F1F1 Score 偏斜類(skewed class)問題:資料集中每一類的資料量嚴重不均衡 如果資料集為偏斜類,分類正確率不是一個好的指標。
【Machine Learning, Coursera】機器學習Week7 核函式
Kernels 本節內容: 核函式(Kernel)是一類計算變數間相似度的函式,它可用於構造新的特徵變數,幫助SVM解決複雜的非線性分類問題。 相關機器學習概念: 相似度函式(Similarity Function) 高斯核函式(Gaussian Kernel
【機器學習入門】Andrew NG《Machine Learning》課程筆記之四:分類、邏輯迴歸和過擬合
分類和邏輯迴歸 在實際的生活中,會遇到很多二元分類問題(Binary Classification Problem),比如判斷一封郵件是否是垃圾郵件,攝像頭判斷使用者是男是女和一張圖片裡包含的是貓還是狗等等。 在有監督的分類問題中,通常使用帶標記(Label
【Machine Learning】機器學習及其基礎概念簡介
基本概念:訓練集,測試集,特徵值,監督學習,非監督學習,半監督學習,分類,迴歸 概念學習:人類學習概念:鳥,車,計算機 定義:概念學習是指從有關某個布林函式的輸入輸出訓練樣例中推斷出該布林函式 例子:學習 “享受運動" 這一概念: 小明進行水上運動,是否享受運動取決於很多因素 樣例 天
【Machine Learning, Coursera】機器學習Week6 機器學習應用建議
Advice for Applying ML 本節內容:機器學習系統設計的過程中,很可能會出現訓練的模型預測誤差較大的情況。選用最正確、有效的方法來改進演算法是機器學習成功的關鍵,它可以幫我們節省大量時間。本節就是關於如何高效訓練模型,把時間用在刀刃上。
【Machine Learning, Coursera】機器學習Week7 支援向量機的應用
SVMs in Practice 本節內容: SVM的引數選擇、SVM解決多分類問題、實踐中logistic迴歸和SVM的選擇 相關機器學習概念: 線性核函式(Linear kernel) 1. Using SVM Packages 有許多軟體庫可以實現S
【Machine Learning, Coursera】機器學習Week3 Logistic Regression
Logistic Regression Logistic regression is a method for classifying data into discrete outcomes. 邏輯迴歸將資料歸類為離散的結果並輸出 Exam
【Machine Learning】機器學習:簡明入門指南
在聽到人們談論機器學習的時候,你是不是對它的涵義只有幾個模糊的認識呢?你是不是已經厭倦了在和同事交談時只能一直點頭?讓我們改變一下吧! 本指南的讀者物件是所有對機器學習有求知慾但卻不知道如何開頭的朋友。我猜很多人已經讀過了“機器學習”的維基百科詞條,倍感挫
【Machine Learning·機器學習】決策樹之ID3演算法(Iterative Dichotomiser 3)
目錄 1、什麼是決策樹 2、如何構造一棵決策樹? 2.1、基本方法 2.2、評價標準是什麼/如何量化評價一個特徵的好壞? 2.3、資訊熵、資訊增益的計算 2.4、決策樹構建方法
【Machine :Learning】 樸素貝葉斯
1. 樸素貝葉斯: 條件概率在機器學習演算法的應用。理解這個演算法需要一點推導。不會編輯公式。。 核心就是 在已知訓練集的前提條件下,算出每個特徵的概率為該分類的概率, 然後套貝葉斯公式計算 預測集的所有分類概率,預測型別為概率最大的型別 from numpy import * def l