pytroch如何對線性層進行池化(pooling)?Expected 3-dimensional tensor, but got 2-dimensional tensor for argument
要實現的功能如圖所示
而池化操作是要有通道的,如果直接對(batchsize,num_neuron)的張量進行一維池化(nn.MaxPool1d)操作,會有以下的錯誤:
import torch
t=torch.randn(10,64)
n=torch.nn.MaxPool1d(2,2)
n(t)
Expected 3-dimensional tensor, but got 2-dimensional tensor for argument #1 'self' (while checking arguments for max_pool1d)
正確的做法應該是先進行升維,升出來通道維度。
import torch
t=torch.randn(10,64)
t=t.unsqueeze(1)
n=torch.nn.MaxPool1d(2,2)
out=n(t)
print(out.size())
以上程式碼的輸出為:
torch.Size([10, 1, 32])
在對多層感知機進行池化的過程也是類似的。
池化之後應該就不需要通道維了,可以用squeeze降低維度。
相關推薦
pytroch如何對線性層進行池化(pooling)?Expected 3-dimensional tensor, but got 2-dimensional tensor for argument
要實現的功能如圖所示 而池化操作是要有通道的,如果直接對(batchsize,num_neuron)的張量進行一維池化(nn.MaxPool1d)操作,會有以下的錯誤: import torch t=torch.randn(10,64) n=torch.nn.MaxPool1d(2
卷積特徵提取與池化(Pooling)——處理大型影象
在之前的章節中,我們已經很好地解決了手寫體識別問題(維數為28*28)。但如果是更大的影象(維數為96*96)呢?如果你還是要學習400個特徵,那麼網路權重引數就有400*96*96即近400萬個。 卷積特徵提取 如果我們從大型彩色影象(64*64*3)中隨機抽取一些小
OpenCV---如何對影象進行銳化(11)
附程式碼如下: import cv2 as cv import numpy as np def sharpe(): src = cv.imread("D:/matplotlib/0.jpg") cv.imshow("input",src) lap_5 = np.array
【自然語言處理入門】03:利用線性迴歸對資料集進行分析預測(下)
上一篇中我們簡單的介紹了利用線性迴歸分析並預測波士頓房價資料集,那麼在這一篇中,將使用相同的模型來對紅酒資料集進行分析。 1 基本要求 利用線性迴歸,對紅酒資料集進行分析。資料集下載地址。 2 完整程式碼 #-*- codin
【自然語言處理入門】03:利用線性迴歸對資料集進行分析預測(上)
本篇筆記是《從自然語言處理到機器學習入門》課程第三次作業的上篇,主要是復現了老大課上講的利用線性迴歸對波士頓房價進行預測的實驗。在下篇中,將利用該模型對紅酒資料集進行線性迴歸分析。 1 基本要求 利用提供的波士頓房價資料,對其進行分析。資
CNN的全連線層已過時?全域性平均池化(GAP)瞭解一下
Traditional Pooling Methods 要想真正的理解Global Average Pooling,首先要了解深度網路中常見的pooling方式,以及全連線層。 眾所周知CNN網路中常見結構是:卷積、池化和啟用。卷積層是CNN網路的核心,啟用函式幫助網路
F() 表示式,這裡的F我理解是fast的意思,用它能節省讀寫資料庫的時間,在資料庫sql語言層面對欄位進行自增(+= 1)操作
1、F() 表示式,F我理解是fast的意思,用它能節省讀寫資料庫的時間,在資料庫sql語言層面對欄位進行自增(+= 1)操作,在Query Expressions章節介紹,這章沒讀過,趕緊收藏。 https://docs.djangoproject.com/en/2.1/ref/models/
如何用 Java 對 PDF 檔案進行電子簽章(一)概述及技術選型
參考: 一、 概述 印章是我國特有的歷史文化產物,古代主要用作身份憑證和行駛職權的工具。它的起源是由於社會生活的實際需要。早在商周時代,印章就已經產生。如今的印章已成為一種獨特的,融實用性和藝術性為一體的藝術瑰寶。傳統的印章容易被壞人、小人私刻;從而新聞鮮
如何用 Java 對 PDF 檔案進行電子簽章(四)如何生成PKCS12證書
參考: 1. PKCS的簡單介紹 PKCS:The Public-Key Cryptography Standards (簡稱PKCS)是由美國RSA資料安全公司及其合作伙伴制定的一組公鑰密碼學標準,其中包括證書申請、證書更新、證書作廢表釋出、擴充套件證書
自己寫UDF函式匯入hive對查詢結果進行格式化顯示(Java)
本篇UDF函式使用IntelliJ IDEA進行編寫和打包,使用的是Java語言,資料使用上一篇部落格“HDFS、Hive(Impala)讀取本地檔案到HDFS,再使用Hive(Impala)從HDFS讀取檔案進行建表”中已經放入hive中的資料進行查詢展示。 建立一個ma
memset 對每個字節進行初始化 (0,-1)
依靠 初始 結果 memset 二進制 size 字節 mem -1 memset是依靠二進制進行初始化,int是4個字節,memset把每個字節都賦值,也就是說, 比如memset(a,2,sizeof(a)) 則00000010 00000010 00000010 00
tf.nn.pool()使用例子:TensorFlow對一維資料進行池化
tf.nn.pool()使用例子: 在tensorflow中對一維訊號進行池化操作時使用,輸入資料的維度為三維[batch , in_width, in_channels]。 原文連結: https://www.dotnetperls.com/pool-tensorflow
專案初始化時可以對所有介面進行資訊記錄(比如配合註解收集介面許可權資訊存入資料庫、生成介面文件、等等)
配合自定義註解和Swagger2註解進行許可權資源初始化。 import java.util.ArrayList; import java.util.Collection; import java.util.Collections; import java.util.HashSet; impo
序列化工具類({對實體Bean進行序列化操作.},{將字節數組反序列化為實體Bean.})
fin pub 字節數 字節 工具類 ktr null pan port package com.dsj.gdbd.utils.serialize; import java.io.ByteArrayInputStream; import java.io.Byte
序列化工具類({對實體Bean進行序列化操作.},{將位元組陣列反序列化為實體Bean.})
package com.dsj.gdbd.utils.serialize; import java.io.ByteArrayInputStream; import java.io.ByteArrayOutputStream; import java.io.IOException; impor
Java知識點模塊化(1)—— 面向對象
只需要 知識 pad 產生 自動裝箱 pri 生存 new 使用 前言 這是我整理的Java筆記,分模塊會陸續上齊,具體鏈接如下: 1.面向對象:http://www.cnblogs.com/Gabby/p/6857406.html 2.集合: 3.IO:
『ORACLE』 對永久表空間進行DDL操作(11g)
進行 bsp per ble style data 用戶 order 大小 查看數據庫默認表空間SQL> select property_value from database_properties where property_name = ‘DEFAULT_PER
JQuery 對表單進行初始化操作
標簽 break 進行 表單 jquer type val bre 可能 提供一種如果前臺頁面標簽比較多,如果挨個初始化的話可能會比較繁瑣,這時候我們可以將後臺傳遞的數據組裝為json串,前臺用jquery將代碼初始化到表單中。 function loadData(jso
卷積層,池化層等,前向/反向傳播原理講解
簡單 代碼 構建 range expand 使用場景 神經網絡 右下角 body 今天閑來無事,考慮到以前都沒有好好研究過卷積層、池化層等等的前向/反向傳播的原理,所以今天就研究了一下,參考了一篇微信好文,講解如下: 參考鏈接:https://www.zybuluo.co
理解CNN卷積層與池化層計算
CNN網絡 卷積層 池化層 深度學習 OpenCV 概述 深度學習中CNN網絡是核心,對CNN網絡來說卷積層與池化層的計算至關重要,不同的步長、填充方式、卷積核大小、池化層策略等都會對最終輸出模型與參數、計算復雜度產生重要影響,本文將從卷積層與池化層計算這些相關參數出發,演示一下不同步長、