tf.abs tf.add() tf.negative()
隨心一記(沒什麼營養)
tf.abs
求絕對值的
tf.add()
相加的 支援broadacst
tf.negative()
取反的
理由有這樣的需求 求兩個tensor的相減的結果
tf.add(tensor1,tf.negtive(temsor2))
機器學習中的NN 實現出處:
import tensorflow as tf
import numpy as np
# Import MINST data
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets( "../mnist_data/", one_hot=True)
# In this example, we limit mnist data# In th
Xtr, Ytr = mnist.train.next_batch(5000) #5000 for training (nn candidates) 注意這裡返回是 arr
Xte, Yte = mnist.test.next_batch(200) #200 for testing
xtr=tf.placeholder("float",[None,784])
xte=tf.placeholder("float",[784])
distance=tf.reduce_sum( tf.abs(tf.add(xtr,tf.negative(xte))),axis=1)
nn_index=tf.argmin(distance,axis=0)
init=tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
accuracy=0.0
# loop over test data
for i in range(len(Xte)):
# Get nearest neighbor
a = sess.run(nn_index, feed_dict= {xtr: Xtr, xte: Xte[i, :]}) #注意在 feed_dict裡面 的變數上下文操作
# Get nearest neighbor class label and compare it to its true label
print("Test", i, "Prediction:", np.argmax(Ytr[a]), \
"True Class:", np.argmax(Yte[i]))
# Calculate accuracy
if np.argmax(Ytr[a]) == np.argmax(Yte[i]):
accuracy += 1./len(Xte)
print("Done!")
print("Accuracy:", accuracy)
相關推薦
tf.abs tf.add() tf.negative()
隨心一記(沒什麼營養) tf.abs 求絕對值的 tf.add() 相加的 支援broadacst tf.negative() 取反的 理由有這樣的需求 求兩個tensor的相減的結果 tf.add(tensor1,tf.negtive(temsor2))
tf.abs tf.add() tf.negative()
隨心一記(沒什麼營養) tf.abs 求絕對值的 tf.add() 相加的 支援broadacst tf.negative() 取反的 理由有這樣的需求 求兩個tensor的相減的結果 tf.add(tensor1,tf.negtive(temsor2)) 機
TensorFlow 辨異 —— tf.add(a, b) 與 a+b(tf.assign 與 =)、tf.nn.bias_add 與 tf.add(轉)
fad codes live tin csdn hat targe ops 操作 1. tf.add(a, b) 與 a+b 在神經網絡前向傳播的過程中,經常可見如下兩種形式的代碼: tf.add(tf.matmul(x, w), b) tf.matmul(x, w) +
詳解tf.nn.bias_add和tf.add、tf.add_n的區別
tf.add(x,y,name=None) x:a tensor musut be one of the following types: half, float32, float64, uint8, int8, int1
TF之RNN:TF的RNN中的常用的兩種定義scope的方式get_variable和Variable—Jason niu
重復 及其 orf with gpo val 定義 系統 brush # tensorflow中的兩種定義scope(命名變量)的方式tf.get_variable和tf.Variable。Tensorflow當中有兩種途徑生成變量 variable import te
tf.nn.conv2d 和tf.contrib.slim.conv2d的區別
有程式碼用到卷積層是tf.nn.conv2d 或者tf.contrib,slim.conv2d. 這兩個函式呼叫的卷積層是否一致,檢視原始碼如下: conv2d(input, filter, strides, padding, u
tf.train.batch 和tf.train.shuffle_batch的用法
tf.train.batch([example, label], batch_size=batch_size, capacity=capacity) [example, label] 表示樣本和樣本標籤,batch_size是返回的一個batch樣本集的樣本個數。 capacity是佇列中的
【TF】tensorflow 中 tf.app.run() 什麼意思?
tensorflow的程式中,在main函式下,都是使用tf.app.run()來啟動 檢視原始碼可知,該函式是用來處理flag解析,然後執行main函式,那麼flag解析是什麼意思呢?諸如這樣的: # tensorflow/tensorflow/python/platform/d
tf.nn.conv2d & tf.contrib.layers.conv2d & tf.contrib.slim.conv2d
本文主要介紹前兩個函式tf.nn.conv2d和tf.contrib.layers.conv2d 因為tf.contrib.layers.conv2d 和 tf.contrib.slim.conv2d用法是相似的,都是高階api,只是slim是一個更高級別的庫,用slim中的repeat函
tensorflow詳解-tf.nn.conv2d(),tf.nn.max_pool()
tf.nn.conv2d() 函式來計算卷積,weights 作為濾波器,[1, 2, 2, 1] 作為 strides。TensorFlow 對每一個 input 維度使用一個單獨的 stride 引數,[batch, input_
關於tf.train.batch和tf.train.string_input_producer的區別(輸入流程簡介)
前面其實對輸入tensorflow資料集的構造和輸入那一塊的認知比較模糊,所以抽了點時間解析了一下官方程式碼。 大概順序如下: 1.輸入所需圖片的地址,然後放到tf.train.string_input_producer中進行管理,注意tf.train.string_input_produc
tf.argmax() tf.equal() tf.nn.softmax() eval tf.random_normal tf.reduce_mean tf.reduce_sum
先講幾個 函式 然後用程式碼測試一下 tf.reduce_sum input_tensor沿著給定的尺寸縮小axis。除非keepdims是真的,否則每個條目的張量等級減少1 axis。如果keepdims為真,則縮小尺寸將保留長度為1。 如果axis為None,則減小所有尺寸,並返
tf.app.flags和tf.app.run的使用
tf.app.flags和tf.app.run的使用 tf.app.flags主要用於處理命令列引數的解析工作,其實可以理解為一個封裝好了的argparse包(argparse是一種結構化的資料儲存格式,類似於Json、XML)。 我們通過tf.app.flags來呼叫
tf.nn.max_pool 和tf.nn.conv2d 函式的引數問題
我們看一下 tf.nn.max_pool 這個函式 (還有tf.nn.conv2d 函式) 這兩個函式是CNN中兩個比較常用的函式,一個是池化層的計算,另一個則是卷積層的計算.。 我們從他們的引數開始, tf.nn.conv2d(input, filter
tensorflow學習(6):CNN必備函式tf.nn.conv2d和tf.nn.max_pool
一、卷積函式tf.nn.conv2d tf.nn.conv2d( input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 除去name引數用以指定該操作的name,與方法有關的一共五個引數: 第一個引數in
numpy.ones,numpy.zeros,tf.ones,tf.zeros,np.ones_like,tf.ones_like對比
numpy.ones_like(),numpy.zeros_like() >>> x = np.arange(6) >>> x = x.reshape((2, 3)) >>> x array([[0, 1, 2], [3, 4,
tf.get_variable()一般和tf.variable_scope()聯用
Gets an existing variable with these parameters or create a new one. 單獨用tf.get_variable()只能建立新的變數,並不能得到已定義的變數。 import numpy as np import tensorf
cnn系列文章 --tf.nn.conv2d 和 tf.nn.max_pool詳解
你懂得,分享一句歌詞哦: 《故夢》 誰踩過枯枝輕響,螢火繪著畫屏香 為誰攏一袖芬芳,紅葉的信箋情意綿長 接下來主要講解tensorflow有關cnn構建的問題了。 tf.nn.conv2d(input, filter, padding
tf.random_uniform函式和tf.zeros函式具體用法
tf.random_uniform用法: random_uniform( shape, 一維整數張量或 Python 陣列。輸出張量的形狀。 minval=0, dtype 型別的 0-D 張量或 Python 值;生成的隨機值範圍的下限;預設為0 m
【Tensorflow】tf.app.run() 與 tf.app.flags()
tf.app.flags tf.app.flags.DEFINE_XXX()用來定義引數項: import tensorflow as tf tf.app.flags.DEFINE_float(