機器學習筆記 --- 數學符號以及讀法
wechat:812716131
------------------------------------------------------
技術交流群請聯絡上面wechat
------------------------------------------------------
Mail: [email protected]
------------------------------------------------------
------------------------------------------------------
部落格專注大資料 && AI && 演算法
------------------------------------------------------
混跡於北京
------------------------------------------------------
家鄉佳木斯
------------------------------------------------------
相關推薦
機器學習筆記 --- 數學符號以及讀法
wechat:812716131 ------------------------------------------------------ 技術交流群請聯絡上面wechat ----------------------------------------------
機器學習筆記之九——決策樹原理以及舉例計算
決策樹是機器學習最基本的演算法之一,它本身作為一顆樹而言,十分簡單。 就是將特徵屬性放在結點的未知,按照特徵屬性將樣本分類,放在左子樹和右子樹。 而在左子樹和右子樹,繼續使用其他的特徵屬性作為結點,向下分類。 學習決策樹複雜的部分在
機器學習筆記之八—— knn-最簡單的機器學習演算法以及KD樹原理
上一節結束了線性迴歸、邏輯迴歸,今天一節來介紹機器學習中最簡單的演算法: K近鄰(KNN,全稱K-nearst Neighbor) 概述:判斷一個樣本的label只需要判斷該樣本週圍其他樣本的label。簡言之,朋
機器學習筆記之七——邏輯迴歸簡單推導、softmax簡單理解以及sklearn中邏輯迴歸常用引數解釋
邏輯迴歸 對邏輯迴歸的理解:對線性迴歸的假設函式的 f(x) 又套上了一層sigmoid函式,即g(f(x)). 然後sigmoid函式是長這樣的: 它的影象長這樣: 對於線性迴歸得到的結果,再經過一層sigmoid函式,以x=0為界限,左邊為0,右邊為1,邏輯迴歸就是這樣一個二分類
機器學習筆記之四——線性迴歸原理以及推導
一元線性迴歸: 對於樣本[(x1,y1),(x2,y2),……(xn,yn)],xi為特徵,yi為標籤。(字幕i代表下標) 假定y與x有:  
機器學習筆記(三)——Logistic Regression 的原理以及程式碼實現
假設現在有一些資料點,我們用一條直線對這些點進行擬合(該線稱為最佳擬合直線),這個擬合過程就稱作迴歸。利用Logistic 迴歸進行分類的主要思想是:根據現有資料對分類邊界線建立迴歸公式,以此進行分類。這裡的“ 迴歸“一詞源於最佳擬合,表示要找到最佳擬合引數集
斯坦福大學機器學習筆記——多變數的線性迴歸以及梯度下降法注意事項(內有程式碼)
在前面部落格中介紹了單變數線性迴歸的實現過程,本文將介紹多變數線性迴歸演算法。 兩者的對比如下: 1.資料方面的差異: 單變數線性迴歸資料: 多變數線性迴歸資料: 對於單變數線性迴歸來說,只有一個特徵(房子的大小),而對於多變數線性特徵迴歸特徵
斯坦福大學機器學習筆記——單變數的線性迴歸以及損失函式和梯度下降法(包含程式碼)
迴歸問題: 所謂的迴歸問題就是給定的資料集,且每個資料集中的每個樣例都有其正確的答案,通過給定的資料集進行擬合,找到一條能夠最好代表該資料集的曲線,然後對於給定的一個樣本,能夠預測出該樣本的答案(對於迴歸問題來說,最終的輸出結果是一個連續的數值)。比如
斯坦福大學機器學習筆記——特徵和多項式迴歸以及正規方程
我們可以舉一個例子來引入多項式迴歸: 比如我們之前遇到的房價問題,對於房價的影響我們假設有兩個特徵,一個是房子的寬度x1,另外一個是房子的長度x2,這針對房價的估測我們可以建立下面形式的假設: hθ
斯坦福大學機器學習筆記——邏輯迴歸、高階優化以及多分類問題
shi先簡單說一下邏輯迴歸,其實會有很多人誤解,會將邏輯迴歸當成迴歸演算法,其實邏輯迴歸就是我們所說的分類問題,所謂的邏輯,一般我們說的邏輯就是邏輯0或者邏輯1,所以可以藉此理解。但是邏輯迴歸不僅僅只包括兩分類問題,它還包括多分類問題。 那麼能否使用線性迴歸的
機器學習筆記(Washington University)- Regression Specialization-week five
ril ... des stl it is idg evaluate date lec 1. Feature selection Sometimes, we need to decrease the number of features Efficiency: With f
機器學習筆記(Washington University)- Regression Specialization-week six
lar fec space cti different only similar ant var 1. Fit locally If the true model changes much, we want to fit our function locally to di
機器學習筆記(四)機器學習可行性分析
資料 表示 image 隨機 訓練樣本 -s mage 例如 lin 從大量數據中抽取出一些樣本,例如,從大量彈珠中隨機抽取出一些樣本,總的樣本中橘色彈珠的比例為,抽取出的樣本中橘色彈珠的比例為,這兩個比例的值相差很大的幾率很小,數學公式表示為: 用抽取到的樣本作為訓練
機器學習筆記(六)邏輯回歸
邏輯回歸 alt 表示 結果 不變 改變 最小值 nbsp 可能性 一、邏輯回歸問題 二分類的問題為是否的問題,由算出的分數值,經過sign函數輸出的是(+1,-1),想要輸出的結果為一個幾率值,則需要改變函數模型 ,其中,, 則邏輯回歸的函數為 二、邏輯回歸錯誤評價 線性
機器學習筆記(八)非線性變換
nbsp 線性 logs 等於 線性模型 images http 自己 空間 一、非線性問題 對於線性不可分的數據資料,用線性模型分類,Ein會很大,相應的Ein=Eout的情況下,Eout也會很大,導致模型表現不好,此時應用非線性模型進行分類,例如: 分類器模型是一個圓
機器學習筆記(Washington University)- Classification Specialization-week 3
read was lowest already start choose class sort pty 1. Quality metric Quality metric for the desicion tree is the classification error er
機器學習筆記(Washington University)- Classification Specialization-week six & week 7
ges only end label rod eas point for lar 1. Precisoin and recall precision is how precise i am at showing good stuff on my website recall
【機器學習筆記】第二章:模型評估與選擇
機器學習 ini ppi 第二章 err cap ner rate rac 2.1 經驗誤差與過擬合 1. error rate/accuracy 2. error: training error/empirical error, generalization error
機器學習筆記(Washington University)- Clustering Specialization-week four
++ blog isp special specified ring all png mat 1. Probabilistic clustering model (k-means) Hard assignments do not tell the full story,
機器學習筆記(Washington University)- Clustering Specialization-week six
with idea help gaussian cif big tar elong efi 1. Hierarchical clustering Avoid choosing number of clusters beforehand Dendrograms help v