1. 程式人生 > 其它 >Java實現簡單檔案過濾器

Java實現簡單檔案過濾器

神經網路中的注意機制(attention mechanism),也被稱為神經注意(neural attention)或注意(attention),最近也得到了人們越來越多的關注。在本文中,作者將嘗試為不同機制和用例找到共同點,此外還將描述並實現兩個軟視覺注意(soft visual attention)機制範例。本文作者 Adam Kosiorek 為牛津大學在讀博士。

01 注意機制是什麼?

我們可以粗略地把神經注意機制類比成一個可以專注於輸入內容的某一子集(或特徵)的神經網路:它可以選擇特定的輸入。設 x∈R^d 為輸入,z∈R^k 為特徵向量,a∈{0,1}^k 是注意向量,g∈R^k 為 attention glimpse,fϕ(x) 為注意網路(attention network)。一般而言,注意實現為如下形式:

其中 ⊙ 是元素依次相乘。對於軟注意(soft attention),其將特徵與一個(軟)掩模(mask)相乘,該掩模的值在 0 到 1 之間;對於硬注意(hard attention),這些值被限制為確定的 0 或 1,即 a∈{0,1}k。在後面的案例中,我們可以使用硬注意掩模來直接索引其特徵向量

(用 Matlab 的表示方法),它會改變自己的維度,所以現在[圖片上傳中。。。(3)],其中 m≤k。

為了理解注意機制的重要性,我們必須考慮到神經網路實際上就是一個函式近似器。它近似不同型別的函式的能力取決於它的架構。典型的神經網路的實現形式是矩陣乘法構成的鏈式運算和元素上的非線性,其中輸入的元素或特徵向量只會通過加法彼此互動。

注意機制會計算一個用於對特徵進行乘法運算的掩模。這種看似無關痛癢的擴充套件會產生重大的影響:突然之間,可以使用神經網路近似的函式空間多了很多,讓全新的用例成為了可能。為什麼會這樣?儘管我沒有證據,但直觀的想法是:有一種理論認為神經網路是一種通用的函式近似器,可以近似任意函式並達到任意精度,唯一的限制是隱藏單元的數量有限。在任何實際的設定中,情況卻不是:我們受限於可以使用的隱藏單元的數量。考慮以下案例:我們要近似神經網路輸入的乘積。前饋神經網路只能通過使用(許多)加法(以及非線性)來模擬乘法,因此它需要大量神經網路基礎。如果我們引入乘法互動,那它就會變得簡單且緊湊。

如果我們放鬆對注意掩模的值的限制,使 a∈R^k,那麼上面將注意定義為乘法互動的做法能讓我們考慮更大範圍的模型。比如動態過濾器網路(DFN:Dynamic Filter Networks)使用了一個過濾器生成網路,它可以基於輸入而計算過濾器(即任意幅度的權重),並將它們應用於特徵,這在效果上就是一種乘法互動。使用軟注意機制的唯一區別是注意權重並不侷限於 0 到 1 之間。在這個方向上更進一步,瞭解哪些互動應該是相加的、哪些應該是相乘的是非常有意思的。

論文《A Differentiable Transition Between Additive and Multiplicative Neurons》對這一概念進行了探索,參閱:https://arxiv.org/abs/1604.03736。另外,《深度 | 深度學習能力的拓展,Google Brain 講解注意力模型和增強 RNN》這篇文章也對軟注意機制進行了很好的概述。

02 視覺注意

注意機制可應用於任意種類的輸入,不管這些輸入的形態如何。在輸入為矩陣值的案例中(比如影象),我們可以考慮使用視覺注意(visual attention)。設

為影象,

為 attention glimpse,即將注意機制應用於影象 I 所得到的結果。

03 硬注意

對影象的硬注意已經存在了很長時間,即影象裁剪。在概念上這非常簡單,因為僅需要索引。使用 Python(或 TensorFlow),硬注意可以實現為:

g = I[y:y+h, x:x+w]

上面程式碼的唯一問題是不可微分;為了學習得到模型的引數,比如藉助分數函式估計器(score-function estimator)等方法,我之前的文章也曾簡要提到過:https://goo.gl/nfPB6r

04 軟注意

軟注意最簡單的形式在影象方面和向量值特徵方面並無不同,還是和上面的(1)式一樣。論文《Show, Attend and Tell: Neural Image Caption Generation with Visual Attention》是最早使用這種型別的注意的研究之一:https://arxiv.org/abs/1502.03044

該模型可以學習注意影象的特定部分,同時生成描述這部分的詞。

但是,這種型別的軟注意非常浪費計算資源。輸入中變暗的部分對結果沒有貢獻,但仍然還是需要處理。它也過度引數化了:實現這種注意的 sigmoid 啟用函式是彼此獨立的。它可以同時選擇多個目標,但在實際中,我們往往希望進行選擇並且僅關注場景中的單個元素。下面這兩個機制解決了這個問題,它們分別是由 DRAW(https://arxiv.org/abs/1502.04623)和 Spatial Transformer Networks(https://arxiv.org/abs/1506.02025)這兩項研究引入的。它們也可以重新調整輸入的大小,從而進一步提升效能。

05 高斯注意

高斯注意是使用引數化的一維高斯過濾器來創造影象大小的注意圖(attention map)。設

是注意向量,其分別通過 y 和 x 座標指定了應該注意影象中的哪一部分。其注意掩模可以建立為

在上圖中,上面一行表示 ax,右邊一列表示 ay,中間的矩形表示得到的結果 a。這裡為了視覺化,向量中僅包含 0 和 1. 實際上,它們可以實現為一維的高斯向量。一般而言,高斯的數量就等於空間的維度,且每個向量都使用了 3 個引數進行引數化:第一個高斯的中心 μ、連續的高斯中心之間的距離 d 和這些高斯的標準差 σ。使用這種引數化,注意和 glimpse 在注意的引數方面都是可微分的,因此很容易學習。

上面形式的注意仍然很浪費,因為它只選擇了影象的一部分,同時遮擋了影象的其它部分。我們可以不直接使用這些向量,而是將它們分別投射進

中。現在,每個矩陣的每一行都有一個高斯,引數 d 指定了連續行中的高斯中心之間的距離(以列為單位)。現在可以將 glimpse 實現為:

我最近一篇關於使用帶有注意機制的 RNN 進行生物啟發式目標跟蹤的論文 HART 中就使用了這種機制,參閱:https://arxiv.org/abs/1706.09262。這裡給出一個例子,下面左圖是輸入影象,右圖是 attention glimpse;這個 glimpse 給出了主圖中綠色標記出的框。

下面的程式碼可以讓你在 TensorFlow 中為某個 minibatch 樣本建立一個上述的帶有矩陣值的掩模。如果你想創造 Ay,你可以這樣呼叫:Ay = gaussian_mask(u, s, d, h, H),其中 u、s、d 即為 μ、σ、d,以這樣的順序並在畫素中指定。

def gaussian_mask(u, s, d, R, C):

    """

    :param u: tf.Tensor, centre of the first Gaussian.

    :param s: tf.Tensor, standard deviation of Gaussians.

    :param d: tf.Tensor, shift between Gaussian centres.

    :param R: int, number of rows in the mask, there is one Gaussian per row.

    :param C: int, number of columns in the mask.

    """

    # indices to create centres

    R = tf.to_float(tf.reshape(tf.range(R), (1, 1, R)))

    C = tf.to_float(tf.reshape(tf.range(C), (1, C, 1)))

    centres = u[np.newaxis, :, np.newaxis] + R * d

    column_centres = C - centres

    mask = tf.exp(-.5 * tf.square(column_centres / s))    # we add eps for numerical stability

    normalised_mask = mask / (tf.reduce_sum(mask, 1, keep_dims=True) + 1e-8)    return normalised_mask

我們也可以寫一個函式來直接從影象中提取 glimpse:

def gaussian_glimpse(img_tensor, transform_params, crop_size):

    """

    :param img_tensor: tf.Tensor of size (batch_size, Height, Width, channels)

    :param transform_params: tf.Tensor of size (batch_size, 6), where params are  (mean_y, std_y, d_y, mean_x, std_x, d_x) specified in pixels.

    :param crop_size): tuple of 2 ints, size of the resulting crop

    """

    # parse arguments

    h, w = crop_size

    H, W = img_tensor.shape.as_list()[1:3]

    split_ax = transform_params.shape.ndims -1

    uy, sy, dy, ux, sx, dx = tf.split(transform_params, 6, split_ax)    # create Gaussian masks, one for each axis

    Ay = gaussian_mask(uy, sy, dy, h, H)

    Ax = gaussian_mask(ux, sx, dx, w, W)    # extract glimpse

    glimpse = tf.matmul(tf.matmul(Ay, img_tensor, adjoint_a=True), Ax)    return glimpse

06 空間變換器

空間變換器(STN)可以實現更加一般化的變換,而不僅僅是可微分的影象裁剪,但影象裁剪也是其可能的用例之一。它由兩個元件構成:一個網格生成器和一個取樣器。這個網格生成器會指定一個點構成的網格以用於取樣,而取樣器的工作當然就是取樣。使用 DeepMind 最近釋出的一個神經網路庫 Sonnet,可以很輕鬆地在 TensorFlow 中實現它。Sonnet 地址:https://github.com/deepmind/sonnet

def spatial_transformer(img_tensor, transform_params, crop_size):    """    :param img_tensor: tf.Tensor of size (batch_size, Height, Width, channels)    :param transform_params: tf.Tensor of size (batch_size, 4), where params are  (scale_y, shift_y, scale_x, shift_x)    :param crop_size): tuple of 2 ints, size of the resulting crop    """    constraints = snt.AffineWarpConstraints.no_shear_2d()    img_size = img_tensor.shape.as_list()[1:]    warper = snt.AffineGridWarper(img_size, crop_size, constraints)    grid_coords = warper(transform_params)    glimpse = snt.resampler(img_tensor[..., tf.newaxis], grid_coords)    

return glimpse

07 高斯注意vs.空間變換器

高斯注意和空間變換器可以實現非常相似的行為。我們該選擇使用哪一個呢?這兩者之間有一些細微的差別:

高斯注意是一種過度引數化的裁剪機制:需要 6 個引數,但卻只有 4 個自由度(y、x、高度、寬度)。STN 只需要 4 個引數。

我還沒執行過任何測試,但 STN 應該更快。它依賴於在取樣點上的線性插值法,而高斯注意則必須執行兩個巨大的矩陣乘法運算。STN 應該可以快上一個數量級(在輸入影象中的畫素方面)。

高斯注意應該更容易訓練(沒有測試執行)。這是因為結果得到的 glimpse 中的每個畫素都可以是源影象的相對大批量的畫素的凸組合,這使得我們能更容易找到任何錯誤的原因。而 STN 依賴於線性插值法,這意味著每個取樣點的梯度僅相對其最近的兩個畫素是非 0 的。

你可以在這裡檢視程式碼示例:https://github.com/akosiorek/akosiorek.github.io/tree/master/notebooks/attention_glimpse.ipynb

08

一個簡單的範例

讓我們來建立一個簡單的高斯注意和 STN 範例。首先,我們需要載入一些庫,定義尺寸,建立並裁剪輸入圖片。

import tensorflow as tfimport sonnet as sntimport numpy as npimport matplotlib.pyplot as plt

img_size = 10, 10glimpse_size = 5, 5# Create a random image with a squarex = abs(np.random.randn(1, *img_size)) * .3x[0, 3:6, 3:6] = 1crop = x[0, 2:7, 2:7] # contains the square

隨後,我們需要 TensorFlow 變數的佔位符。

tf.reset_default_graph()# placeholderstx = tf.placeholder(tf.float32, x.shape, 'image')

tu = tf.placeholder(tf.float32, [1], 'u')

ts = tf.placeholder(tf.float32, [1], 's')

td = tf.placeholder(tf.float32, [1], 'd')

stn_params = tf.placeholder(tf.float32, [1, 4], 'stn_params')

我們現在可以定義高斯注意和 STN 在 Tensorflow 上的簡單表示式。

# Gaussian Attentiongaussian_att_params = tf.concat([tu, ts, td, tu, ts, td], -1)

gaussian_glimpssess = tf.Session()# extract a Gaussian glimpseu = 2s = .5d = 1u, s, d = (np.asarray([i]) for i in (u, s, d))

gaussian_crop = sess.run(gaussian_glimpse_expr, feed_dict={tx: x, tu: u, ts: s, td: d})# extract STN glimpsetransform = [.4, -.1, .4, -.1]

transform = np.asarray(transform).reshape((1, 4))

stn_crop = sess.run(stn_glimpse_expr, {tx: x, stn_params: transform})# plotsfig, axes = plt.subplots(1, 4, figsize=(12, 3))

titles = ['Input Image', 'Crop', 'Gaussian Att', 'STN']

imgs = [x, crop, gaussian_crop, stn_crop]for ax, title, img in zip(axes, titles, imgs):

    ax.imshow(img.squeeze(), cmap='gray', vmin=0., vmax=1.)

    ax.set_title(title)

    ax.xaxis.set_visible(False)

    ax.yaxis.set_visible(False)e_expr = gaussian_glimpse(tx, gaussian_att_params, glimpse_size)# Spatial Transformerstn_glimpse_expr = spatial_transformer(tx, stn_params, glimpse_size)

執行這些表示式並繪製它們:

以上程式碼也在 Jupyter Notebook 上:https://github.com/akosiorek/akosiorek.github.io/blob/master/notebooks/attention_glimpse.ipynb

10

結語

注意機制能夠擴充套件神經網路的能力:它們允許近似更加複雜的函式,用更直觀的話說就是能關注輸入的特定部分。它們已經幫助提升了自然語言處理的基準表現,也帶來了影象描述、記憶網路定址和神經程式設計器等全新能力。

我相信注意機制最重要的用例還尚未被發現。比如,我們知道視訊中的目標是連續連貫的,它們不會在幀切換時憑空消失。注意機制可以用於表達這種連貫性的先驗知識。具體怎麼做?請拭目以待。 [圖片上傳中。。。]

原文連結:http://akosiorek.github.io/ml/2017/10/14/visual-attention.html

入門 | 請注意,我們要談談神經網路的注意機制和使用方法 https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650732434&idx=2&sn=c668f9e835a4dc48730048478ba24526&chksm=871b33ecb06cbafae7e8126b8726b273111231d841c1f980c5cc5594dc9a94aff4b676ef4fbd#rd