簡單的手寫圖片識別
阿新 • • 發佈:2019-02-04
#載入資料集
#載入資料集 mnist = input_data.read_data_sets('MNIST_data',one_hot=True) #每批次放進100個 batch_size = 50 #計算一共有多少批次 n_batch = mnist.train.num_examples // batch_size #定義兩個placeholder 屬性的個數是固定的 樣本數是變化的 x = tf.placeholder(tf.float32,[None,784]) y = tf.placeholder(tf.float32,[None,10]) #兩個None對應位置是一樣的 #建立第一個隱層神經網路 W_1 = tf.Variable(tf.random_normal([784,40])*0.01) b_1 = tf.Variable(tf.zeros([40])) Wx_plus_b_1 = tf.matmul(x,W_1)+b_1 #雖然與ng講的是相反的 但是這裡維度是相對應乘起來的,多以沒啥問題 #行數是樣本數 一行裡面有784個feature 所以列是784 列 最後維度要對應上 prediction_L1 = tf.nn.tanh(Wx_plus_b_1) #建立第二隱層 W_2 = tf.Variable(tf.random_normal([40,20])*0.01) b_2 = tf.Variable(tf.zeros([20])) Wx_plus_b_2 = tf.matmul(prediction_L1,W_2)+b_2 prediction_L2 = tf.nn.tanh(Wx_plus_b_2) #建立輸出層 W_3 = tf.Variable(tf.random_normal([20,10])*0.01) b_3 = tf.Variable(tf.zeros([10])) Wx_plus_b_3 = tf.matmul(prediction_L2,W_3)+b_3 prediction = tf.nn.softmax(Wx_plus_b_3) #二次代價函式 loss = tf.reduce_mean(tf.square(y-prediction)) #使用梯度下降法 train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss) #初始化變數 init = tf.global_variables_initializer() # correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1)) #tf.equal(x,y) 看x,y是否一樣 一樣就true # argmax的0就是縱向的元素中最大的那個的索引 # 1 就是每行橫向的元素中最大的那個元素的索引 # 0軸就是豎向,1就是橫向 但是要分清元素還是層級 #arg會返回一個array #最終返回布林型別列表 #求準確率 accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) #tf.cast 是將布林型別轉化為浮點型 #建立會話 with tf.Session() as sess: sess.run(init) for epoch in range(145): for batch in range(n_batch): batch_xs,batch_ys = mnist.train.next_batch(batch_size) sess.run(train_step,feed_dict={x:batch_xs,y:batch_ys}) acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}) #利用訓練集上的資料來勁訓練,用測試級來進行 print('Iter'+ str(epoch)+',testing accuracy'+str(acc))
通過修改引數,權值的初始化方式,學習率,迭代週期,增加隱層,已經將準確率達到0.95以上