tensorflow 語法小結
建立一個一行兩列的矩陣
matrix1 = tf.constant([[3., 3.]])
建立一個兩行一列的矩陣 matrix2 = tf.constant([[2.],[2.]])
矩陣相乘 tf.matmul(matrix1, matrix2)
啟動預設圖. s
ess = tf.Session() result = sess.run(product)
### 任務完成, 關閉會話.
sess.close()
建立一個變數列表,(變數維護圖的中間狀態)
tf.Variable([1.0, 2.0])
建立一個常量列表
tf.constant([3.0, 3.0]) 1
使用初始化器
initializer op 的 run()
方法初始化
‘x’ x.initializer.run()
增加一個減法 sub op, 從 ‘x’ 減去 ‘a’. 執行減法 op, 輸出結果 sub = tf.sub(x, a)
計算state 和 one 的值
new_value = tf.add(state, one)
將 new_value 的值 賦給
state (state=new_value) update = tf.assign(state, new_value)
mul = multiply 是將input1和input2 做乘法運算,並輸出為 output ouput = tf.multiply(input1, input2)
生成隨機數,資料格式是 float 32 的形式
x_data = np.random.rand(100).astype(np.float32)
定義Wx_plus_b, 即神經網路未啟用的值(預測的值)。其中,tf.matmul()是矩陣的乘法。
Wx_plus_b = tf.matmul(inputs,Weights) 1如果定義 Variable, 就一定要 initialize 啟用變數 (此時沒有啟用只有 sess.run 才會啟用)
init = tf.global_variables_initializer()
建立一個優化器, 減少神將網路的誤差 GradientDescentOptimizer 是最基礎的優化器, 0.5 為學習效率(0-1),
optimizer = tf.train.GradientDescentOptimizer(0.5) train = optimizer.minimize(loss)