1. 程式人生 > >tensorflow 語法小結

tensorflow 語法小結

建立一個一行兩列的矩陣

matrix1 = tf.constant([[3., 3.]]) 

建立一個兩行一列的矩陣 matrix2 = tf.constant([[2.],[2.]])

矩陣相乘 tf.matmul(matrix1, matrix2)

啟動預設圖. s

ess = tf.Session() result = sess.run(product)

### 任務完成, 關閉會話.

sess.close()

建立一個變數列表,(變數維護圖的中間狀態)

tf.Variable([1.0, 2.0])

 建立一個常量列表

tf.constant([3.0, 3.0]) 1

使用初始化器

initializer op 的 run()

方法初始化

‘x’ x.initializer.run()

增加一個減法 sub op, 從 ‘x’ 減去 ‘a’. 執行減法 op, 輸出結果 sub = tf.sub(x, a)

計算state 和 one 的值

new_value = tf.add(state, one)

將 new_value 的值 賦給

state (state=new_value) update = tf.assign(state, new_value)

mul = multiply 是將input1和input2 做乘法運算,並輸出為 output ouput = tf.multiply(input1, input2)

生成隨機數,資料格式是 float 32 的形式

x_data = np.random.rand(100).astype(np.float32)

定義Wx_plus_b, 即神經網路未啟用的值(預測的值)。其中,tf.matmul()是矩陣的乘法。

Wx_plus_b = tf.matmul(inputs,Weights) 1如果定義 Variable, 就一定要 initialize 啟用變數 (此時沒有啟用只有 sess.run 才會啟用)

init = tf.global_variables_initializer()

建立一個優化器, 減少神將網路的誤差 GradientDescentOptimizer 是最基礎的優化器, 0.5 為學習效率(0-1),

optimizer = tf.train.GradientDescentOptimizer(0.5) train = optimizer.minimize(loss)