Tensorflow-tf.nn.zero_fraction()詳解
Tensorflow-tf.nn.zero_fraction()詳解
簡介
Tensorflow-tf.nn.zero_fraction()的作用是將輸入的Tensor中0元素在所有元素中所佔的比例計算並返回,因為relu啟用函式有時會大面積的將輸入引數設為0,所以此函式可以有效衡量relu啟用函式的有效性。
函式
tf.nn.zero_fraction(
value,
name=None
)
引數
- value:數值型的Tensor,對其計算0元素在所有元素中所佔比例
- name:非必填,設定操作的名稱
返回
輸入Tensor的0元素的個數與輸入Tensor的所有元素的個數的比值。
示例
import tensorflow as tf
sess = tf.Session()
x = [[0, 0, 1, 2], [10, 0, 11, 21]]
print(sess.run(tf.nn.zero_fraction(x)))
返回結果0.375=3/8
官網連結
https://tensorflow.google.cn/api_docs/python/tf/nn/zero_fraction
相關推薦
Tensorflow-tf.nn.zero_fraction()詳解
Tensorflow-tf.nn.zero_fraction()詳解 簡介 Tensorflow-tf.nn.zero_fraction()的作用是將輸入的Tensor中0元素在所有元素中所佔的比例計算並返回,因為relu啟用函式有時會大面積的將輸入引數設為0,所以此函式可以有效衡量
TensorFlow 入門 第一課--基本函式學習(2):tf.nn.conv2d 、tf.contrib.layers.flatten、tf.nn.max_pool 詳解
Tensorflow 提供了一些內建的API實現了CNN網路結構中的卷積,池化,全連線網路等運算操作。tf.nn.conv2d(input,filter, strides, padding, data_
cnn系列文章 --tf.nn.conv2d 和 tf.nn.max_pool詳解
你懂得,分享一句歌詞哦: 《故夢》 誰踩過枯枝輕響,螢火繪著畫屏香 為誰攏一袖芬芳,紅葉的信箋情意綿長 接下來主要講解tensorflow有關cnn構建的問題了。 tf.nn.conv2d(input, filter, padding
tensorflow中的tf.train.batch詳解
官方文件連結:https://tensorflow.google.cn/versions/r1.8/api_docs/python/tf/train/batch tf.train.batch( tensors, batch_size, num_threads=1,
TensorFlow中張量轉置操作tf.transpose用法詳解
一、環境 TensorFlow API r1.12 CUDA 9.2 V9.2.148 Python 3.6.3 二、官方說明 對張量按照指定的排列維度進行轉置 tf.transpose( a, perm=None, name='transpose',
TensorFlow中張量連線操作tf.concat用法詳解
一、環境 TensorFlow API r1.12 CUDA 9.2 V9.2.148 Python 3.6.3 二、官方說明 按指定軸(axis)進行張量連線操作(Concatenates Tensors) tf.concat( values, axis,
TensorFlow中張量轉置操作tf.expand_dims用法詳解
一、環境 TensorFlow API r1.12 CUDA 9.2 V9.2.148 cudnn64_7.dll Python 3.6.3 Windows 10 二、官方說明 給輸入張量的形狀增加1個維度 https://www.tensorflow.org/api
tf.control_dependencies與tf.identity組合詳解
引言 我們在實現神經網路的時候經常會看到tf.control_dependencies的使用,但是這個函式究竟是什麼作用,我們應該在什麼情況下使用呢?今天我們就來一探究竟。 理解 其實從字面上看,control_dependencies 是控制依賴的意思,我們可以大致推測出來,這個函式應
tensorflow-tf.nn.softplus
tf.nn.softplus(features, name = None) 解釋:這個函式的作用是計算啟用函式softplus,即log( exp( features ) + 1)。 使用例子: #!/usr/bin/env python # -*- coding: utf-8 -*- import
tensorflow-tf.nn.softmax,tf.nn.sparse_softmax_cr
#!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Tue Oct 2 08:43:02 2018 @author: myhaspl @email:[email protected] tf.nn.softmax tf.nn.
Tensorflow資料輸入---TFRecords詳解\TFRecords影象預處理
目錄 1、概述 2、預處理資料 2.1、常量定義 2.2、匯入庫 2.3、從train.txt檔案中讀取圖片-標籤對 2.4、預處理圖片並儲存 2.5、呼叫main函式 3、讀取預處理後的資料
tensorflow學習之MultiRNNCell詳解
tf.contrib.rnn.MultiRNNCell Aliases: Class tf.contrib.rnn.MultiRNNCell Class tf.nn.rnn_cell.MultiR
tensorflow-tf.nn.conv2d卷積運算(1)
#!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Tue Oct 2 13:23:27 2018 @author: myhaspl @email:[email protected] tf.nn.conv2d """ im
tensorflow-tf.nn.conv2d卷積運算(2)
tf.nn.conv2d( input, filter, strides, padding, use_cudnn_on_gpu=True, data_format='NHWC', dilations=[1, 1, 1, 1], name=None
基於 TensorFlow 的邏輯迴歸詳解
Logistic ( 邏輯迴歸 ) 一、基本概念簡介以及理論講解 1.1、迴歸 迴歸一般用於解決那些連續變數的問題,如:線性迴歸,它是通過最小化誤差函式,來不斷擬合一條直線,以計算出權重 w 和 偏差 b 的過程,它的目標是基於一個連
【文字檢測】SSD+Tensorflow 300&512 配置詳解
SSD_300_vgg和SSD_512_vgg weights下載連結【需要科學上網~】: Model Training data Testing data mAP FPS VOC07+12+COCO trainval VOC07
TF-IDF演算法詳解
最近在做一些NLP的研究,由於也是第一次做這個東西,其實還是發現很多有意思的東西。 相信很多做過NLP的人都應該接觸過提取關鍵詞的這個功能。現在有很多可以使用的第三方工具包可以很容易的來實現這個功能,比如snowNLP,jieba等,但是我們還是要做到知其然,知其所以然
TensorFlow 之快速上手詳解
TensorFlow 基本使用簡述 一、概念簡述 1、學習目標 使用圖 (graph) 來表示計算任務. 在被稱之為 會話 (Session) 的上下文 (context) 中執行圖. 使用 tensor 表示資料. 通過 變數 (Va
tensorflow gfile檔案操作詳解
一、gfile模組是什麼 gfile模組定義在tensorflow/python/platform/gfile.py,但其原始碼實現主要位於tensorflow/tensorflow/python/lib/io/file_io.py,那麼gfile模組主要功能是什麼呢?
pytorch之nn.Conv1d詳解
之前學習pytorch用於文字分類的時候,用到了一維卷積,花了點時間瞭解其中的原理,看網上也沒有詳細解釋的部落格,所以就記錄一下。 Conv1d class torch.nn.Conv1d(in_channels, out_channels, kernel_size, s