tensorflow函式tf.scatter_sub()
tf.scatter_sub()作用是:
將ref中特定位置的數分別進行減法運算。
示例如下:
ref = tf.Variable([1, 2, 3, 4, 5, 6, 7, 8],dtype = tf.int32)
indices = tf.constant([4, 3, 1, 7],dtype = tf.int32)
updates = tf.constant([9, 10, 11, 12],dtype = tf.int32)
sub = tf.scatter_sub(ref, indices, updates)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print sess.run(sub)
輸出:
[ 1 -9 3 -6 -4 6 7 -4]
(多維用tf.scatter_nd_sub)
相關推薦
tensorflow函式tf.scatter_sub()
tf.scatter_sub()作用是: 將ref中特定位置的數分別進行減法運算。 示例如下: ref = tf.Variable([1, 2, 3, 4, 5, 6, 7, 8],dty
Tensorflow函式 tf.nn.atrous_conv2d如何實現空洞卷積?
實驗環境:tensorflow版本1.2.0,python2.7 介紹 關於空洞卷積的理論可以檢視以下連結,這裡我們不詳細講理論: 其實用一句話概括就是,在不用pooling的情況下擴大感受野(pooling層會導致資訊損失) 為了閱讀方便再貼一些相關
Tensorflow函式——tf.variable_scope()詳解
tf.variable_scope(name_or_scope,default_name=None,values=None,initializer=None,regularizer=None,caching_device=None,partitioner=None,custo
TensorFlow函式——tf.variable( )
(本文是翻譯TensorFlow官網中的tf.variable()函式) (變數):建立,初始化,儲存和載入 您可以通過構造類Variable的例項向圖中新增變數。 Variable()建構函式需要變數的初始值,它可以是任何型別和形狀的Tensor(張量)
tensorflow函式-tf.assign()
下面記錄一個很簡單的tensorflow程式碼,用來理解tensorflow執行機制 程式碼中有詳細註釋,大家可以在執行一下,為什麼會是1,2,3這個結果 #-*-coding:UTF-8-*- #這句話是指定*.py的編碼方式,如果檔案中涉及到中文漢字的
TensorFlow函式之tf.nn.relu()
tf.nn.relu()函式是將大於0的數保持不變,小於0的數置為0,函式如圖1所示。 ReLU函式是常用的神經網路啟用函式之一。 圖1 ReLU函式影象 下邊為ReLU例子: import tenso
TensorFlow函式之tf.constant()
tf.constant()可以實現生成一個常量數值。 tf.constant()格式為: tf.constant(value,dtype,shape,name) 引數說明: value:常量值 dtype:資料型別 shape:表示生成常量數的維度 nam
TensorFlow函式之tf.random_normal()
tf.trandom_normal()函式是生成正太分佈隨機值 此函式有別於tf.truncated_normal()正太函式,請參考本部落格關於tf.truncated_normal()函式的介紹 (TensorFlow函式之tf.truncated_normal()) tf.ra
TensorFlow函式之tf.truncated_normal()
tf.truncated_normal()函式是一種“截斷”方式生成正太分佈隨機值,“截斷”意思指生成的隨機數值與均值的差不能大於兩倍中誤差,否則會重新生成。 此函式有別於tf.random_normal()正太函式,請參考本部落格關於tf.random_normal()函式的介紹 (Ten
TensorFlow函式之tf.clip_by_value()
tf.clip_by_value()函式可以將一個張量中的數值限制在一個範圍之內。 下邊通過簡單的例子說明次函式的用法: import tensorflow as tf v = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]]) print(tf.
TensorFlow的tf.random_uniform()函式的用法
tf.random_uniform((6, 6), minval=low,maxval=high,dtype=tf.float32))) 返回6*6的矩陣,產生於low和high之間,產生的值是均勻分佈的。 import tensorflow as tf
tensorflow學習(6):CNN必備函式tf.nn.conv2d和tf.nn.max_pool
一、卷積函式tf.nn.conv2d tf.nn.conv2d( input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 除去name引數用以指定該操作的name,與方法有關的一共五個引數: 第一個引數in
TensorFlow函式之tf.nn.conv2d()(附程式碼詳解)
tf.nn.conv2d是TensorFlow裡面實現卷積的函式,是搭建卷積神經網路比較核心的一個方法。 函式格式: tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu = Noen, name = Non
TensorFlow函式之 tf.contrib.layers.flatten()
tf.contrib.layers.flatten(A)函式使得P保留第一個維度,把第一個維度包含的每一子張量展開成一個行向量,返回張量是一個二維的,返回的shape為[第一維度,子張量乘積)。 一般用於卷積神經網路全連線層前的預處理,因為全連線層需要將輸入資料變為一個向量,向量大小為[batc
Tensorflow正則化函式tf.contrib.layers.l1_regularizer()和tf.contrib.layers.l2_regularizer()
L1正則化公式: L2正則化公式: tf.contrib.layers.l1_regularizer()和tf.contrib.layers.l2_regularizer()是Tensoflow中L1正則化函式和L2正則化函式的API。 其基本用法如下: import
tensorflow啟用函式--tf.nn.dropout
前言:啟用函式(Activation Function)執行時啟用神經網路中某一部分神經元,將啟用資訊向後傳入下一層的神經網路。神經網路的數學基礎是處處可微的,所以選取啟用函式要保證資料輸入與輸出也是可微的。 ### 激勵函式的作用 如果不使用啟用函式,此時啟用函式本質上相
tensorflow reduce系列函式(tf.reduce_mean, tf.reduce_sum, tf.reduce_prod, tf.reduce_max, tf.reduce_min)
簡而言之,reduce系列的函式都可在張量指定的維度上操作 目錄 輸入引數 輸入引數 tf.reduce_all/reduce_any/reduce_max/reduce_min/reduce_mean/reduce_sum/r
tensorflow 9. 引數解析和經典入口函式tf.app.run
概述 本文總結兩種引數解析的介面,一種是python的引數解析包自帶的功能,使用時需要import argparse。另一類是tensorflow自帶的功能,解析時import tensorflow就行了。 python中的引數解析 parse_known_ar
Tensorflow函式用法之tf.argmax
tf.argmax(vector, 1):返回的是vector中的最大值的索引號,如果vector是一個向量,那就返回一個值,如果是一個矩陣,那就返回一個向量,這個向量的每一個維度都是相對應矩陣行的最大值元素的索引號。 import tensorflow as tf imp
TensorFlow函式之tf.train.exponential_decay()
tf.train.exponential_decay實現指數衰減率。通過這個函式,可以先使用較大的學習率來快速得到一個比較優的解,然後隨著迭代的繼續逐步減小學習率,使得模型在訓練後期更加穩定。 tf.train.exponential_decay格式: tf.train.