keras模塊學習之層(layer)的使用-筆記
阿新 • • 發佈:2018-03-28
高級 AC itl ati 防止 lis rec 噪聲 ons
本筆記由博客園-圓柱模板 博主整理筆記發布,轉載需註明,謝謝合作!
keras的層主要包括:
常用層(Core)、卷積層(Convolutional)、池化層(Pooling)、局部連接層、遞歸層(Recurrent)、嵌入層( Embedding)、高級激活層、規範層、噪聲層、包裝層,當然也可以編寫自己的層
對於層的操作
layer.get_weights() #返回該層的權重 layer.set_weights(weights)#將權重加載到該層 config = layer.get_config()#保存該層的配置 layer = layer_from_config(config)#加載一個配置到該層 #該層有一個節點時,獲得輸入張量、輸出張量、及各自的形狀: layer.input layer.output layer.input_shape layer.output_shape #該層有多個節點時(node_index為節點序號): layer.get_input_at(node_index) layer.get_output_at(node_index) layer.get_input_shape_at(node_index) layer.get_output_shape_at(node_index)
Dense層(全連接層)
keras.layers.core.Dense(output_dim, init=‘glorot_uniform‘, activation=‘linear‘, weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)
output_dim:輸出數據的維度
init:初始化該層權重的方法
activation:該層的激活函數
weights:numpy array的list。該list應含有一個形如(input_dim,output_dim)的權重矩陣和一個形如(output_dim,)的偏置向量
regularizer:正則項,w為權重的、b為偏執的,activity為輸出的
constraints:約束項
bias:是否包含偏執向量,是布爾值
input_dim:輸入數據的維度
dropout層
keras.layers.core.Dropout(p)
為輸入數據施加Dropout。Dropout將在訓練過程中每次更新參數時隨機斷開一定百分比(p)的輸入神經元連接,Dropout層用於防止過擬合。
keras模塊學習之層(layer)的使用-筆記