1. 程式人生 > >解決:win10_x64 xgboost python安裝所遇到問題

解決:win10_x64 xgboost python安裝所遇到問題

Python 2.6.7/3.6.4
Window10 X64
Git 2.10

前言

到處找啊找啊找啊找好用的分類器,抓到xgboost,聽說表現比GBDT好,那我還玩什麼GBDT。。。搞起

實測可用安裝教程

Python2 + Win10

Python3 + Win10

這個就非常簡單了,你只需要直接使用pip就行
首先,你去這個地方把xgboost下載下來,是一個.whl檔案
之後切到文在所在位置pip install xxx.whl即可,都不用編譯的說~

踩過的坑

如果你看到上面就安裝成功了,那沒必要往下看了,這裡是實習司機翻車的歷程(掩面哭)

1. 這個包我都下不下來,還tm怎麼下一步?

我相信很多小夥伴下包的時候很麻煩是不是,各種限制,雖然不算是翻牆,但是網速有時候卡的一比啊,所以我直接把所有要用的包(git+wingw64)下好上傳了,需要的可以直接下載Git-2.10.2-64-bit.exe 下載mingw64下載

2. ‘cp’,’alias’等等 不是內部或外部命令,也不是可執行的程式

錯了!!!這個,我真的折騰好久,因為一篇部落格的誤導,導致我一直在找我自己系統的問題,cp是linux的命令,複製檔案用的,在win上一直是copy啊,然後一堆亂找,坑爹!這個命令不是在cmd上輸入的!!!!這是在git bash上輸入的!!!

注意看清楚是在哪裡輸入命令,這次安裝都不用cmd!!!這哥們也同樣遇到這個問題

3. 不是git下來的包,咋的不能用呢?

以前我怕麻煩,直接下的zip,解壓,安裝setup.py完事,這次不行了,需要先編譯啥的,所以推薦你最好是用git來獲取github上最新的xgboost包,然後按照教程一步步走就可以了。所以事實上,你只需要git就可以了,當然還要個wingw64。

4. 使用Cygwin代替git bash怎麼失敗。

為了生命安全,請遠離Cygwin,你的成功機率會上身百分之百。

5. no model name ‘xgboost’

先進入xgboost路徑下的python
-package 然後cd python-package 再然後python setup.py install

測試xgboost栗子

為了檢驗是不是裝完了,可以直接看看import xgboost可不可以用,為了顯示其強大的分類能力,我以一個xgboost的多分類栗子來結束這次折騰半天的安裝之旅,至於怎麼調參就不是這篇要討論的了。注意跑下列栗子你還需要下載一個數據集dermatology.data資料集下載,然後放在你的檔案路徑下或者自己改下路徑

#! /usr/bin/python
import numpy as np
import xgboost as xgb

# label need to be 0 to num_class -1
data = np.loadtxt('./dermatology.data', delimiter=',',converters={33: lambda x:int(x == '?'), 34: lambda x:int(x)-1 } )
sz = data.shape

train = data[:int(sz[0] * 0.7), :]
test = data[int(sz[0] * 0.7):, :]

train_X = train[:,0:33]
train_Y = train[:, 34]


test_X = test[:,0:33]
test_Y = test[:, 34]

xg_train = xgb.DMatrix( train_X, label=train_Y)
xg_test = xgb.DMatrix(test_X, label=test_Y)
# setup parameters for xgboost
param = {}
# use softmax multi-class classification
param['objective'] = 'multi:softmax'
# scale weight of positive examples
param['eta'] = 0.1
param['max_depth'] = 6
param['silent'] = 1
param['nthread'] = 4
param['num_class'] = 6

watchlist = [ (xg_train,'train'), (xg_test, 'test') ]
num_round = 5
bst = xgb.train(param, xg_train, num_round, watchlist );
# get prediction
pred = bst.predict( xg_test );

print ('predicting, classification error=%f' % (sum( int(pred[i]) != test_Y[i] for i in range(len(test_Y))) / float(len(test_Y)) ))

# do the same thing again, but output probabilities
param['objective'] = 'multi:softprob'
bst = xgb.train(param, xg_train, num_round, watchlist );
# Note: this convention has been changed since xgboost-unity
# get prediction, this is in 1D array, need reshape to (ndata, nclass)
yprob = bst.predict( xg_test ).reshape( test_Y.shape[0], 6 )
ylabel = np.argmax(yprob, axis=1)

print ('predicting, classification error=%f' % (sum( int(ylabel[i]) != test_Y[i] for i in range(len(test_Y))) / float(len(test_Y)) ))

運算結果如下,說明你搞定了xgboost。。。。才怪嘞!這才安好包了而已!

[0] train-merror:0.011719   test-merror:0.127273
[1] train-merror:0.015625   test-merror:0.127273
[2] train-merror:0.011719   test-merror:0.109091
[3] train-merror:0.007812   test-merror:0.081818
[4] train-merror:0.007812   test-merror:0.090909
predicting, classification error=0.090909
[0] train-merror:0.011719   test-merror:0.127273
[1] train-merror:0.015625   test-merror:0.127273
[2] train-merror:0.011719   test-merror:0.109091
[3] train-merror:0.007812   test-merror:0.081818
[4] train-merror:0.007812   test-merror:0.090909
predicting, classification error=0.090909

BTW如果你是Ubuntu系統

恭喜你,中獎啦,直接在cmd下輸入pip install xgboost就可以啦,親測可用哦,但是在CentOS上不行,我也母雞。

致謝