1. 程式人生 > >tensorflow函式解析: tf.Session() 和tf.InteractiveSession()

tensorflow函式解析: tf.Session() 和tf.InteractiveSession()

連結如下:

英文

Question:

Questions says everything, for taking sess= tf.Session() and sess=tf.InteractiveSession() which cases should be considered for what purpose ? When I am using former one some function didn't work and when changed to the later it worked (for example .eval()).

Answer:

Mainly taken from

officialdocumentation:

The only difference with a regular Session is that an InteractiveSession installs itself as the default session on construction. The methods Tensor.eval() and Operation.run() will use that session to run ops.

This allows to use interactive context, like shell, as it avoids having to pass an explicit Session object to run op:

sess = tf.InteractiveSession()
a = tf.constant(5.0)
b = tf.constant(6.0)
c = a * b
# We can just use 'c.eval()' without passing 'sess'
print(c.eval())
sess.close()

It is also possible to say, thatInteractiveSessionsupports less typing, as allows to run variables without needing to constantly refer to the session object.

中文

問題: tf.Session()tf.InteractiveSession()的區別?

答案:

唯一的區別在於:tf.InteractiveSession()載入它自身作為預設構建的session,tensor.eval()和operation.run()取決於預設的session.

換句話說:InteractiveSession 輸入的程式碼少,原因就是它允許變數不需要使用session就可以產生結構。


相關推薦

tensorflow函式解析 tf.Session() tf.InteractiveSession()

連結如下: 英文 Question: Questions says everything, for taking sess= tf.Session() and sess=tf.InteractiveSession() which cases should be consi

詳解tf.Session()tf.InteractiveSession()的區別

他們之間的區別就是後者載入自身作為預設的Session。tensor.eval()和operation.run()可以直接使用 下面這三個是等價的: sess = tf.InteractiveSession() sess = tf.Session() with sess.

tensorflowtf.reduce_mean()tf.reduce_sum()

一,tensorflow中有一類在tensor的某一維度上求值的函式。如: 求最大值tf.reduce_max(input_tensor, reduction_indices=None, keep_dims=False, name=None) 求平均值tf.reduce_mean(input

TensorFlow學習(二)tf.random_normal() tf.random_unform()

1. tf.random_normal() #正態分佈 tf.random_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None ) Args:

tensorflowtf.random_normaltf.truncated_normal的區別

tensorflow中tf.random_normal和tf.truncated_normal的區別 原創  2017年06月24日 15:31:01 9322 1、tf.truncated_normal使用方法 tf

tensorflowtf.get_variable()tf.Variable()的區別

1.tf.Variable() tf.Variable(initial_value, trainable=True, collections=None, validate_shape=True, name=None) ##initial_value為變數的初始值 tf.get

tensorflow基礎知識(六) tensor變數 tf.Variable與tf.get_variabletf.variable_scope

tensorflow中的變數 1 tf.Variable與tf.get_variable建立變數 2 tf.variable_sco

tensorflow 學習】tf.get_variable()tf.Variable()的區別

1. tf.Variable() W = tf.Variable(<initial-value>, name=<optional-name>) 用於生成一個初始值為initial-value的變數。必須指定初始化值 2.tf.get_variab

TensorFlow 學習 二 tf Sessiontf Session run

                     session:with tf.Session() as sess:/ tf.InteractiveSession()初始化:tf.global_variables_initializer()with tf.Session() as sess: sess.run(tf

tensorflowtf.shape() tf.get_shape() 及 tf.concat()

1、用法:tf.shape( input, out_type, name=None ) input:可以是tensor,list,arrray。 out_type:可選,tf.int32 和 tf.int64;預設 tf.int32。 name:操作的名稱(可選) 返回

tensorflow學習(一)——有關tensorflow不同層的使用(tf.nn tf.layers以及tf.contrib.layers)的簡單區別

小trick: 對於使用tf.layers建立的神經網路,如果想要對loss函式進行正則話,可以採用如下方式[1]: 但是該方法不適用於程式設計者自己定義不同層的正則化。 l2 = tf.add_n([tf.nn.l2_loss(var) for var in tf.t

tensorflow 生成隨機數 tf.random_normal tf.random_uniform tf.truncated_normal tf.random_shuffle

____tz_zstf.random_normal從正態分佈中輸出隨機值。.random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=None,name=None).shape:一個一維整數張量或Python陣

JavaScript預解析同名變數函式、同名函式表示式同名函式宣告,執行哪個變數提升的坑

先說下預解析的含義,在寫js程式碼呼叫函式的時候,無論你是在呼叫位置的前面或者後面宣告函式,都可以正常呼叫,原因是,JavaScript碰到script標籤,會將var變數(注意是var)宣告和函式宣告(注意是宣告)提升到當前作用域最前面。 要想搞懂預解析,先記住結論:

TensorFlow裡建立變數的兩種方式有 tf.get_variable() tf.Variable()

import tensorflow as tf with tf.variable_scope('variable_scope_y') as scope: var1 = tf.get_variable(name='var1', shape=[1], dtype=tf.float32) scop

tensorflow 學習】tf.split()tf.squeeze()

split( value, num_or_size_splits, axis=0, num=None, name='split' ) 輸入: value: 輸入的tensor num_or_size_splits:

解析用 CSS3 JavaScript 制作徑向動畫菜單

select webkit on() making 它的 text tran 表示 har 原作者的解析(英文):http://creative-punch.net/2014/02/making-animated-radial-menu-css3-javascript

tf.shapetf.less

tf.shape返回張量的形狀 tf.less返回兩個張量各元素比較(x<y)得到的真假值組成的張量 import tensorflow as tf A=[[1,2,3]] t = tf.shape(A) i=[3,2] r = tf.less(i, t) with tf.Sessio

tf.stride_slicetf.slice的使用簡介

tf.stride_slice(data, begin, end) tf.slice(data, begin, end) 兩者都是用於切割矩陣,不同點在於slice的end索引是閉區間,stride_slice的end索引是開區間,所以一個截掉最後一列的小技巧是用stride_slice

引用(二)函式應用列印圖形數學計算

引用當做實參 可變型別與不可變型別的變數分別作為函式引數時,會有什麼不同嗎? Python有沒有類似C語言中的指標傳參呢? def test1(b): # 變數b一定是一個區域性變數,就看它指向的是誰?可變還是不可變 b += b # += 是直接對b指向的空間進行修改,而不是讓b指向一個新

函式應用列印圖形數學計算

目標 感受函式的巢狀呼叫 感受程式設計的思路,複雜問題分解為簡單問題 思考&實現1 寫一個函式列印一條橫線 列印自定義行數的橫線 參考程式碼1 #列印一條橫線 def printOneLine(): print("-"*30) #列印多條橫線 def printNumLine