keras執行例項(一):regression迴歸
阿新 • • 發佈:2019-02-01
小編在自學機器學習過程中,參考莫煩大佬的python教程進行了keras的例項執行,在此記錄一下,以免忘記。
keras在Linux的安裝很簡單,直接 pip install keras 一行命令就可以啦,結果如下:
因為呢我已經安裝過了,所以會提示already satisfied 。另外呢keras的bankend有theano和TensorFlow,可以隨意切換,其中TensorFlow只適用於Linux和mac版本,theano三個版本全部使用(包含Windows) 。
小編一直是使用TensorFlow的,如果想要切換為theano 可以去百度,網上教程很多,小編就略過了。
言歸正傳,這次是使用keras+tensorflow進行迴歸模型的例項,程式碼copy莫煩大佬的,具體如下:
#-*- coding: UTF-8 -*- """ To know more or get code samples, please visit my website: https://morvanzhou.github.io/tutorials/ Or search: 莫煩Python Thank you for supporting! """ # please note, all tutorial code are running under python3.5. # If you use the version like python2.7, please modify the code accordingly import numpy as np np.random.seed(1337) # for reproducibility from keras.models import Sequential from keras.layers import Dense import matplotlib.pyplot as plt # create some data 建立散點圖資料 X = np.linspace(-1, 1, 200) np.random.shuffle(X) # randomize the data Y = 0.5 * X + 2 + np.random.normal(0, 0.05, (200, )) # plot data plt.scatter(X, Y) plt.show() X_train, Y_train = X[:160], Y[:160] # first 160 data points X_test, Y_test = X[160:], Y[160:] # last 40 data points # build a neural network from the 1st layer to the last layer model = Sequential() model.add(Dense(units=1, input_dim=1)) # choose loss function and optimizing method model.compile(loss='mse', optimizer='sgd') # training print('Training -----------') for step in range(301): cost = model.train_on_batch(X_train, Y_train) if step % 100 == 0: print('train cost: ', cost) # test print('\nTesting ------------') cost = model.evaluate(X_test, Y_test, batch_size=40) print('test cost:', cost) W, b = model.layers[0].get_weights() print('Weights=', W, '\nbiases=', b) # plotting the prediction Y_pred = model.predict(X_test) plt.scatter(X_test, Y_test) plt.plot(X_test, Y_pred) plt.show()
實際執行效果如下:
首先彈出資料集結構,這是我們建立data的點集,然後plot顯示
這條直線就是我們用迴歸模型擬合出的,效果還不錯。
這是模型的相關資料,可以看到訓練的cost由4不斷減小為0.002,test的cost為0.003也非常小,對於模型的權重為0.49很接近0.5,bias為1.99和接近2,基本和 程式所給出的函式計算式的相關引數一致,雖然model只有一個全連線層(dense),但對於二分類效果是可以的。
參考文章: