1. 程式人生 > 程式設計 >淺談tensorflow中張量的提取值和賦值

淺談tensorflow中張量的提取值和賦值

tf.gather和gather_nd從params中收集數值,tf.scatter_nd 和 tf.scatter_nd_update用updates更新某一張量。嚴格上說,tf.gather_nd和tf.scatter_nd_update互為逆操作。

已知數值的位置,從張量中提取數值:tf.gather,tf.gather_nd

tf.gather indices每個元素(標量)是params某個axis的索引,tf.gather_nd 中indices最後一個階對應於索引值。

tf.gather函式

函式原型

gather(
 params,indices,validate_indices=None,name=None,axis=0
)

params是要查詢的張量,indices是要查詢值的索引(int32或int64),axis是查詢軸,name是操作名。

如果indices是標量

如果indices是向量

如果indices是高階張量

返回值:

該函式返回值型別與params相同,具體值是從params中收集過來的,形狀為

tf.gather_nd函式

函式原型

gather_nd(
 params,name=None
)

indices是K階張量,包含K-1階的索引值。它最後一階是索引,最後一階維度必須小於等於params的秩。indices最後一階的維數等於params的秩時,我們得到params的某些元素;indices最後一階的維數小於params的秩時,我們得到params的切片。

輸出張量的形狀由indices的K-1階和params索引到的形狀拼接而成,如下面

indices.shape[:-1] + params.shape[indices.shape[-1]:]

引數:

params:被收集的張量。

indices:索引張量。必須是以下型別之一:int32,int64。

name:操作的名稱(可選)。

返回值:

該函式返回一個張量.與params具有相同的型別。張量值從indices所給定的索引中收集,並且具有這樣的形狀:

已知賦值的位置,向張量賦值:tf.scatter_nd,tf.scatter_nd_update

tf.scatter_nd對零張量進行賦值,tf.scatter_nd_update對已有可變的張量進行賦值。

tf.scatter_nd函式
scatter_nd(
 indices,updates,shape,name=None
)

建立一個形狀為shape的零張量,將updates賦值到indices指定的位置。

indices是整數張量,最內部維度對應於索引。

indices.shape[-1] <= shape.rank

如果indices.shape[-1] = shape.rank,那麼indices直接對應到新張量的單個元素。如果indices.shape[-1] < shape.rank,那麼indices中每個元素對新張量做切片操作。updates的形狀應該如下所示

indices.shape[:-1] + shape[indices.shape[-1]:]

如果我們要把形狀為(4,)的updates賦值給形狀為(8,)的零張量,如下圖所示。

我們需要這樣子做

indices = tf.constant([[4],[3],[1],[7]])
updates = tf.constant([9,10,11,12])
shape = tf.constant([8])
scatter = tf.scatter_nd(indices,shape)
with tf.Session() as sess:
 print(sess.run(scatter))

我們得到這樣子的張量

[0,9,12]

上面程式碼中,indices的形狀是(4,1),updates的形狀是(4,),shape的形狀是(8,)。

indices.shape[:-1]+shape[indices.shape[-1]:] = (4,)+(,)=(4,)

如果我們要在三階張量中插入兩個切片,如下圖所示,則應該像下面程式碼裡所說的那樣子做。

indices = tf.constant([[0],[2]])
updates = tf.constant([[[5,5,5],[6,6,6],[7,7,7],[8,8,8]],[[5,8]]])
shape = tf.constant([4,4,4])
scatter = tf.scatter_nd(indices,shape)
with tf.Session() as sess:
 print(sess.run(scatter))

indices的形狀是(2,1),updates的形狀是(2,4,4),shape的形狀是(4,4,4)。

indices.shape[:-1]+shape[indices.shape[-1]:]=(2,)+(4,4)=(2,4)

我們會得到這樣子的張量

[[[5,[[0,0],[0,0]],0]]]

函式引數

indices:Tensor;必須是以下型別之一:int32,int64;索引值張量。

updates:Tensor;分散到輸出的更新。

shape:Tensor;必須與indices具有相同的型別;1-d;得到的張量的形狀。

name:操作的名稱(可選)。

返回值

此函式返回一個Tensor,它與updates有相同的型別;一個有shape形狀的新張量,初始化值為0,部分值根據indices用updates進行更新。

tf.scatter_nd_update函式

函式原型

scatter_nd_update(
 ref,use_locking=True,name=None
)

scatter_nd_update也是把updates裡面的值根據indices賦值到另外一個張量中,與scatter_nd不同的是,它是賦值到ref。

ref是秩為P的張量,indices是秩為Q的張量。

indices是整數型別的張量,必須具有這樣的形狀

indices最內部的維度對應於ref的某個元素或切片。

updates的形狀是 ,是秩為Q-1+P-K的張量。

如果我們想要把(4,)的向量賦值到(8,)的ref中,我們可以像下面這樣子操作。

ref = tf.Variable([1,2,3,8])
indices = tf.constant([[4],12])
update = tf.scatter_nd_update(ref,updates)
with tf.Session() as sess:
 print sess.run(update)

我們可以得到這樣的ref

[1,12]

函式引數

ref:一個可變的Tensor。

indices:一個 int32 或 int64 Tensor;一個對ref進行索引的張量.

updates:一個Tensor.必須與ref具有相同的型別;更新值張量.

use_locking:可選的bool;如果為True,則賦值將受鎖定的保護;否則行為是不確定的,但可能表現出較少的爭用.

name:操作的名稱(可選).

返回值:

經過更新的ref。

以上這篇淺談tensorflow中張量的提取值和賦值就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。