sklearn11_函數匯總
Python機器學習小白零基礎入門視頻教程sklearn-11集中文+贈送6集
https://item.taobao.com/item.htm?spm=a1z38n.10677092.0.0.2b211debXUkDAr&id=564734544859
sklearn支持算法
回歸算法
線性回歸
嶺回歸
邏輯回歸
核嶺回歸
套索回歸(Lasso)
彈性網絡回歸(Elastic Net)
貝葉斯回歸(Bayesian Regression)
多項式回歸(Polynomial regression——多項式基函數回歸)
偏最小二乘回歸(PLS)
典型相關分析(CCA)
聚類分析
KNN
Kmeans
層次聚類(Hierarchical clustering)——支持多種距離
降維
主成分方法(PCA)
核函主成分(kernal pca)
因子分析(Factor Analysis)
文本挖掘算法
主題生成模型(Latent Dirichlet Allocation)
潛在語義分析(latent semantic analysis)
分類算法
線性判別分析(LDA)
聚類分析
KNN算法
Kmeans算法
層次聚類(Hierarchical clustering)——支持多種距離
二次判別分析(QDA)
支持向量機回歸(SVR)
導入支持向量算法
KNN算法
神經網絡
決策樹算法
貝葉斯算法
高斯貝葉斯
多項式貝葉斯
伯努利貝葉斯
集成算法(Ensemble methods)
Bagging
隨機森林
AdaBoost
GBDT(Gradient Tree Boosting)
# -*- coding: utf-8 -*- """ Created on Sat Mar 10 09:40:50 2018 @author: Administrator """ #繪圖 import matplotlib.pyplot as plt import numpy as np import pandas as pd #數據預處理 #標準化 #異常值處理 #非線性轉換 #二值化 #獨熱編碼(one-hot) #缺失值插補:支持均值、中位數、眾數、特定值插補、多重插補 #衍生變量生成 #模型優化 #不具體列出函數,只說明提供的功能 #特征選擇 #隨機梯度方法 #交叉驗證 #參數調優 #模型評估:支持準確率、召回率、AUC等計算,ROC,損失函數等作圖 #導入測試數據 from sklearn import datasets #數據預處理 from sklearn.preprocessing import Imputer #用於訓練數據和測試數據分類 from sklearn.cross_validation import train_test_split #導入數據預處理,包括標準化處理或正則處理 from sklearn import preprocessing #過渡擬合校驗 from sklearn.learning_curve import learning_curve #樣本平均測試,評分更加 from sklearn.cross_validation import cross_val_score #A回歸算法 #最小二乘回歸(OLS) from sklearn import linear_model reg = linear_model.LinearRegression() #嶺回歸 from sklearn import linear_model reg = linear_model.Ridge (alpha = .5) #邏輯回歸算法 from sklearn.linear_model import LogisticRegression clf_l1_LR = LogisticRegression(C=C, penalty=‘l1‘, tol=0.01) #核嶺回歸(Kernel ridge regression) from sklearn.kernel_ridge import KernelRidge KernelRidge(kernel=‘rbf‘, alpha=0.1, gamma=10) #套索回歸(Lasso) from sklearn import linear_model reg = linear_model.Lasso(alpha = 0.1) #彈性網絡回歸(Elastic Net) from sklearn.linear_model import ElasticNet regr = ElasticNet(random_state=0) #貝葉斯回歸(Bayesian Regression) from sklearn import linear_model reg = linear_model.BayesianRidge() #多項式回歸(Polynomial regression——多項式基函數回歸) from sklearn.preprocessing import PolynomialFeatures poly = PolynomialFeatures(degree=2) poly.fit_transform(X) #偏最小二乘回歸(PLS) from sklearn.cross_decomposition import PLSCanonical PLSCanonical(algorithm=‘nipals‘, copy=True, max_iter=500, n_components=2,scale=True, tol=1e-06) #典型相關分析(CCA) from sklearn.cross_decomposition import CCA cca = CCA(n_components=2) #B聚類分析 #KNN算法 from sklearn.neighbors import KNeighborsClassifier nbrs = NearestNeighbors(n_neighbors=2, algorithm=‘ball_tree‘).fit(X) #Kmeans算法 from sklearn.cluster import KMeans kmeans = KMeans(init=‘k-means++‘, n_clusters=n_digits, n_init=10) #層次聚類(Hierarchical clustering)——支持多種距離 from sklearn.cluster import AgglomerativeClustering model = AgglomerativeClustering(linkage=linkage, connectivity=connectivity, n_clusters=n_clusters) #C降維算法 #主成分方法(PCA) from sklearn.decomposition import PCA pca = PCA(n_components=2) #核函主成分(kernal pca) from sklearn.decomposition import KernelPCA kpca = KernelPCA(kernel="rbf", fit_inverse_transform=True, gamma=10) #因子分析(Factor Analysis) from sklearn.decomposition import FactorAnalysis fa = FactorAnalysis() #D文本挖掘算法 #主題生成模型(Latent Dirichlet Allocation) #潛在語義分析(latent semantic analysis) from sklearn.decomposition import NMF, LatentDirichletAllocation #E分類算法 #線性判別分析(LDA) from sklearn.discriminant_analysis import LinearDiscriminantAnalysis #二次判別分析(QDA) from sklearn.discriminant_analysis import QuadraticDiscriminantAnalysis #支持向量機回歸(SVR) from sklearn import svm clf = svm.SVR() #導入支持向量算法 from sklearn.svm import SVC #KNN算法 from sklearn.neighbors import KNeighborsClassifier nbrs = NearestNeighbors(n_neighbors=2, algorithm=‘ball_tree‘).fit(X) #神經網絡 from sklearn.neural_network import MLPClassifier #決策樹算法 from sklearn import tree #貝葉斯算法 from sklearn.naive_bayes import GaussianNB from sklearn.naive_bayes import MultinomialNB from sklearn.naive_bayes import BernoulliNB #F集成算法(Ensemble methods) #Bagging from sklearn.ensemble import BaggingClassifier from sklearn.neighbors import KNeighborsClassifier bagging = BaggingClassifier(KNeighborsClassifier(), max_samples=0.5, max_features=0.5) #隨機森林 from sklearn.ensemble import RandomForestClassifier from sklearn.ensemble import RandomForestClassifier clf = RandomForestClassifier(n_estimators=10) #AdaBoost from sklearn.ensemble import AdaBoostClassifier clf = AdaBoostClassifier(n_estimators=100) #GBDT(Gradient Tree Boosting) from sklearn.ensemble import GradientBoostingClassifier clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0, max_depth=1, random_state=0).fit(X_train, y_train)
python入門/爬蟲/人工智能/機器學習/自然語言/數據統計分析視頻教程網址
https://pythoner.taobao.com/
sklearn11_函數匯總