機器學習演算法總結一
2. PCA
3. LDA
4. SVM
5.CNN
5.1正向傳播,反向傳播,
5.2 CNN分類演算法
5.3 CNN盒子迴歸
5.faster RCNN 目標函式,約束條件。
6.隨機梯度下降7.機器學習模型效能評估方法
8.cmake
9.linux 軟體安裝,環境路徑設定
10.閱讀ranger原始碼
11.標準檔案的輸入輸出
12C++ 語法 :.類及其虛擬函式
13.網路通訊基本知識
14.資料結構
15.資料庫
16.總結faster 程式碼 以及盒子迴歸,和softmax
17.畢業論文,華為軟體精英挑戰賽。
相關推薦
機器學習演算法總結一
1.隨機森林 2. PCA 3. LDA 4. SVM 5.CNN 5.1正向傳播,反向傳播, 5.2 CNN分類演算法5.3 CNN盒子迴歸 5.faster RCNN 目標函式,約束條件。 6.隨機梯度下降 7.機器學習模型效能評估方法 8.cmake 9.linux
【機器學習演算法總結】線性迴歸
文章目錄 1 機器學習概念 2 線性迴歸 3 代價函式 4 代價函式求解 4.1 正規方程求解 4.2 梯度下降法 4.2.1 批量梯度下降(BGD) 4.2.2 隨機梯
機器學習-----演算法總結
說明: 根據日常專案經驗整理, 有些本人不常用的資訊可能不是很全. 歡迎補充 一.監督學習演算法 K-近鄰 線性模型 樸素貝葉斯 說明 即鄰居個數,一般用較小的鄰居得
機器學習演算法總結之XGBoost(下) 實戰與調參
寫在前面 當時想學習XGBoost這個演算法就是因為研究生課題需要,現在終於可以試一試啦,希望真的像大家說的那麼強(據說是很多資料科學家的ultimate weapon)。XGBoost原理已在前一篇有過說明:機器學習演算法總結之XGBoost(上) 1.
機器學習演算法(一)SVD
前言: 特徵值分解: 其中Q是這個矩陣A的特徵向量組成的矩陣,Σ是一個對角陣,每一個對角線上的元素就是一個特徵值。 特徵值分解可以得到特徵值與特徵向量,特徵值表示的是這個特徵到底有多重要,而特徵向量表示這個特徵是什麼,可以將每一個特徵向量理解為一個線性的子空間,我們可以利用這些線性的子
機器學習 演算法總結(二) 調參技巧
偏差和方差 在統計學習框架下,Error = Bias + Variance。Error指的模型的預測錯誤率,由兩部分組成,一部分是由於模型太簡單而帶來的估計不準確的部分(Bias),另一部分是由於模型太複雜而帶來的更大的變化空間和不確定性(Variance)。 如果要降低模型的Bi
機器學習演算法總結--線性迴歸和邏輯迴歸
1. 線性迴歸 簡述 在統計學中,線性迴歸(Linear Regression)是利用稱為線性迴歸方程的最小平方函式對一個或多個自變數和因變數之間關係進行建模的一種迴歸分析。這種函式是一個或多個稱為迴歸係數的模型引數的線性組合(自變數都是一次方)。只有一
機器學習演算法總結
機器學習(Machine Learning, ML)是一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、演算法複雜度理論等多門學科。專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的效能。嚴格的定義:機器學習是一
機器學習演算法總結(三)
1、決策樹 決策樹是通過一系列規則對資料進行分類的過程。它提供一種在什麼條件下會得到什麼值的類似規則的方法。決策樹分為分類樹和迴歸樹兩種,分類樹對離散變數做決策樹,迴歸樹對連續變數做決策樹。 1.2 決策樹的學習過程 一棵決策樹的生成過程主要分為以下3個部
機器學習演算法梳理(一):線性迴歸
機器學習演算法梳理(一):線性迴歸 一、基本概念 監督學習與無監督學習 監督學習(supervised learning):從有標記的訓練資料中推匯出預測函式。有標記的訓練資料是指每個訓練例項都包括輸入和期望的輸出。即給定資料,預測標籤。分類和迴歸是監督學習的兩大重要問題。
機器學習演算法總結--提升方法
參考自: 簡介 提升方法(boosting)是一種常用的統計學習方法,在分類問題中,它通過改變訓練樣本的權重,學習多個分類器,並將這些分類器進行線性組合,提供分類的效能。 boosting和bagging boosting和bagging
機器學習演算法(一):邏輯迴歸模型(Logistic Regression, LR)
轉自:https://blog.csdn.net/weixin_39910711/article/details/81607386 線性分類器:模型是引數的線性函式,分類平面是(超)平面;非線性分類器:模型分介面可以是曲面或者超平面的組合。 典型的線性分類器有感知機,LDA,邏輯斯特迴歸,SVM
機器學習演算法——歸一化數值
#coding=utf-8 __author__ = 'whf' import numpy from kNN import file2matrix from numpy import * def a
機器學習演算法(一)——關聯規則Apriori演算法及R語言實現方法
關聯規則演算法算是一種十分常用的機器學習演算法,無論是面試還是日後工作中都會經常出現,那麼本篇小博就記錄一下自己學習關聯規則經典演算法Apriori的筆記。 1、概述 Apriori演算法是用一種稱為逐層搜尋的迭代方法,從項集長度k=1開始,選出頻繁的k=1項集,根據先驗性
機器學習演算法總結--樸素貝葉斯
這次需要總結的是樸素貝葉斯演算法,參考文章: 簡介 樸素貝葉斯是基於貝葉斯定理與特徵條件獨立假設的分類方法。 貝葉斯定理是基於條件概率來計算的,條件概率是在已知事件B發生的前提下,求解事件A發生的概率,即P(A|B)=P(AB)P(B),而貝葉
機器學習演算法總結--隨機森林
簡介 隨機森林指的是利用多棵樹對樣本進行訓練並預測的一種分類器。它是由多棵CART(Classification And Regression Tree)構成的。對於每棵樹,其使用的訓練集是從總的訓練集中有放回取樣出來的,這意味著總訓練集中有些樣本可能多
系統學習機器學習之總結(一)--常見分類演算法優缺點
主要是參考網上各種資源,做了整理。其實,這裡更多的是從基礎版本對比,真正使用的時候,看資料,看改進後的演算法。 1. 五大流派 ①符號主義:使用符號、規則和邏輯來表徵知識和進行邏輯推理,最喜歡的演算法是:規則和決策樹 ②貝葉斯派:獲取發生的可能性來進行概率推理,最喜歡的演算法是:樸素貝葉
機器學習經典演算法總結 一.線性迴歸
一.基本形式 hθ(x)=θ0+θ1x1+θ2x2+....+θnxn=θTxh_θ(x)=θ_0+θ_1x_1+θ_2x_2+....+θ_nx_n=θ^Txhθ(x)=θ0+θ1x1+θ2x2+....+θnxn=θTx 二.損失函式 最常用
斯坦福CS229機器學習課程筆記一:線性迴歸與梯度下降演算法
機器學習三要素 機器學習的三要素為:模型、策略、演算法。 模型:就是所要學習的條件概率分佈或決策函式。線性迴歸模型 策略:按照什麼樣的準則學習或選擇最優的模型。最小化均方誤差,即所謂的 least-squares(在spss裡線性迴歸對應的模組就叫OLS即Ordinary Least Squares):
系統學習機器學習之總結(二)--機器學習演算法比較
轉自:https://blog.csdn.net/bryan__/article/details/52026214 其實這篇文章真正出處來自:csuldw 本文主要回顧下幾個常用演算法的適應場景及其優缺點! 機器學習演算法太多了,分類、迴歸、聚類、推薦、影象識別領域等等,要想找到一個合適演算