1. 程式人生 > >tf.abs tf.add() tf.negative()

tf.abs tf.add() tf.negative()

隨心一記(沒什麼營養)

tf.abs

求絕對值的

tf.add()

相加的 支援broadacst

tf.negative()

取反的
理由有這樣的需求 求兩個tensor的相減的結果

tf.add(tensor1,tf.negtive(temsor2))

機器學習中的NN 實現出處:

資料下載

import tensorflow as tf
import numpy as np

# Import MINST data
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets(
"../mnist_data/", one_hot=True) # In this example, we limit mnist data# In th Xtr, Ytr = mnist.train.next_batch(5000) #5000 for training (nn candidates) 注意這裡返回是 arr Xte, Yte = mnist.test.next_batch(200) #200 for testing xtr=tf.placeholder("float",[None,784]) xte=tf.placeholder("float",[784]) distance=tf.reduce_sum(
tf.abs(tf.add(xtr,tf.negative(xte))),axis=1) nn_index=tf.argmin(distance,axis=0) init=tf.global_variables_initializer() with tf.Session() as sess: sess.run(init) accuracy=0.0 # loop over test data for i in range(len(Xte)): # Get nearest neighbor a = sess.run(nn_index, feed_dict=
{xtr: Xtr, xte: Xte[i, :]}) #注意在 feed_dict裡面 的變數上下文操作 # Get nearest neighbor class label and compare it to its true label print("Test", i, "Prediction:", np.argmax(Ytr[a]), \ "True Class:", np.argmax(Yte[i])) # Calculate accuracy if np.argmax(Ytr[a]) == np.argmax(Yte[i]): accuracy += 1./len(Xte) print("Done!") print("Accuracy:", accuracy)

相關推薦

tf.abs tf.add() tf.negative()

隨心一記(沒什麼營養) tf.abs 求絕對值的 tf.add() 相加的 支援broadacst tf.negative() 取反的 理由有這樣的需求 求兩個tensor的相減的結果 tf.add(tensor1,tf.negtive(temsor2))

tf.abs tf.add() tf.negative()

隨心一記(沒什麼營養) tf.abs 求絕對值的 tf.add() 相加的 支援broadacst tf.negative() 取反的 理由有這樣的需求 求兩個tensor的相減的結果 tf.add(tensor1,tf.negtive(temsor2)) 機

TensorFlow 辨異 —— tf.add(a, b) 與 a+b(tf.assign 與 =)、tf.nn.bias_add 與 tf.add(轉)

fad codes live tin csdn hat targe ops 操作 1. tf.add(a, b) 與 a+b 在神經網絡前向傳播的過程中,經常可見如下兩種形式的代碼: tf.add(tf.matmul(x, w), b) tf.matmul(x, w) +

詳解tf.nn.bias_add和tf.addtf.add_n的區別

tf.add(x,y,name=None) x:a tensor musut be one of                           the following types: half, float32, float64, uint8, int8, int1

TF之RNN:TF的RNN中的常用的兩種定義scope的方式get_variable和Variable—Jason niu

重復 及其 orf with gpo val 定義 系統 brush # tensorflow中的兩種定義scope(命名變量)的方式tf.get_variable和tf.Variable。Tensorflow當中有兩種途徑生成變量 variable import te

tf.nn.conv2d 和tf.contrib.slim.conv2d的區別

有程式碼用到卷積層是tf.nn.conv2d 或者tf.contrib,slim.conv2d. 這兩個函式呼叫的卷積層是否一致,檢視原始碼如下: conv2d(input, filter, strides, padding, u

tf.train.batch 和tf.train.shuffle_batch的用法

tf.train.batch([example, label], batch_size=batch_size, capacity=capacity) [example, label] 表示樣本和樣本標籤,batch_size是返回的一個batch樣本集的樣本個數。 capacity是佇列中的

TF】tensorflow 中 tf.app.run() 什麼意思?

tensorflow的程式中,在main函式下,都是使用tf.app.run()來啟動 檢視原始碼可知,該函式是用來處理flag解析,然後執行main函式,那麼flag解析是什麼意思呢?諸如這樣的: # tensorflow/tensorflow/python/platform/d

tf.nn.conv2d & tf.contrib.layers.conv2d & tf.contrib.slim.conv2d

本文主要介紹前兩個函式tf.nn.conv2d和tf.contrib.layers.conv2d 因為tf.contrib.layers.conv2d 和 tf.contrib.slim.conv2d用法是相似的,都是高階api,只是slim是一個更高級別的庫,用slim中的repeat函

tensorflow詳解-tf.nn.conv2d(),tf.nn.max_pool()

 tf.nn.conv2d() 函式來計算卷積,weights 作為濾波器,[1, 2, 2, 1] 作為 strides。TensorFlow 對每一個 input 維度使用一個單獨的 stride 引數,[batch, input_

關於tf.train.batch和tf.train.string_input_producer的區別(輸入流程簡介)

前面其實對輸入tensorflow資料集的構造和輸入那一塊的認知比較模糊,所以抽了點時間解析了一下官方程式碼。 大概順序如下: 1.輸入所需圖片的地址,然後放到tf.train.string_input_producer中進行管理,注意tf.train.string_input_produc

tf.argmax() tf.equal() tf.nn.softmax() eval tf.random_normal tf.reduce_mean tf.reduce_sum

先講幾個 函式 然後用程式碼測試一下 tf.reduce_sum input_tensor沿著給定的尺寸縮小axis。除非keepdims是真的,否則每個條目的張量等級減少1 axis。如果keepdims為真,則縮小尺寸將保留長度為1。 如果axis為None,則減小所有尺寸,並返

tf.app.flags和tf.app.run的使用

tf.app.flags和tf.app.run的使用 tf.app.flags主要用於處理命令列引數的解析工作,其實可以理解為一個封裝好了的argparse包(argparse是一種結構化的資料儲存格式,類似於Json、XML)。   我們通過tf.app.flags來呼叫

tf.nn.max_pool 和tf.nn.conv2d 函式的引數問題

  我們看一下 tf.nn.max_pool 這個函式 (還有tf.nn.conv2d 函式) 這兩個函式是CNN中兩個比較常用的函式,一個是池化層的計算,另一個則是卷積層的計算.。 我們從他們的引數開始, tf.nn.conv2d(input, filter

tensorflow學習(6):CNN必備函式tf.nn.conv2d和tf.nn.max_pool

一、卷積函式tf.nn.conv2d tf.nn.conv2d( input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 除去name引數用以指定該操作的name,與方法有關的一共五個引數: 第一個引數in

numpy.ones,numpy.zeros,tf.ones,tf.zeros,np.ones_like,tf.ones_like對比

numpy.ones_like(),numpy.zeros_like() >>> x = np.arange(6) >>> x = x.reshape((2, 3)) >>> x array([[0, 1, 2], [3, 4,

tf.get_variable()一般和tf.variable_scope()聯用

Gets an existing variable with these parameters or create a new one. 單獨用tf.get_variable()只能建立新的變數,並不能得到已定義的變數。 import numpy as np import tensorf

cnn系列文章 --tf.nn.conv2d 和 tf.nn.max_pool詳解

你懂得,分享一句歌詞哦: 《故夢》 誰踩過枯枝輕響,螢火繪著畫屏香 為誰攏一袖芬芳,紅葉的信箋情意綿長 接下來主要講解tensorflow有關cnn構建的問題了。 tf.nn.conv2d(input, filter, padding

tf.random_uniform函式和tf.zeros函式具體用法

tf.random_uniform用法: random_uniform(     shape,          一維整數張量或 Python 陣列。輸出張量的形狀。     minval=0,         dtype 型別的 0-D 張量或 Python 值;生成的隨機值範圍的下限;預設為0     m

【Tensorflow】tf.app.run() 與 tf.app.flags()

tf.app.flags tf.app.flags.DEFINE_XXX()用來定義引數項: import tensorflow as tf tf.app.flags.DEFINE_float(