1. 程式人生 > >自己動手實現深度學習框架-3 自動分批訓練, 緩解過擬合

自己動手實現深度學習框架-3 自動分批訓練, 緩解過擬合

程式碼倉庫: https://github.com/brandonlyg/cute-dl

目標

  1. 為Session類增加自動分批訓練模型的功能, 使框架更好用。
  2. 新增緩解過擬合的演算法: L2正則化, 隨機丟棄。

實現自動分批訓練

設計方案

  • 增加Dataset類負責管理資料集, 自動對資料分批。
  • 在Session類中增加fit方法, 從Dataset得到資料, 使用事件機制告訴外界訓練情況, 最後返回一個訓練歷史記錄。
  • 增加FitListener類, 用於監聽fit方法訓練過程中觸發的事件。

fit方法

定義:

fit(self, data, epochs, **kargs)

data: 訓練資料集Dataset物件。
epochs: 訓練輪數, 把data中的每一批資料遍歷訓練一次稱為一輪。
kargs:
val_data: 驗證資料集。
val_epochs: 執行驗證的訓練輪數. 每val_epochs輪訓練驗證一次。
val_steps: 執行驗證的訓練步數. 每val_steps步訓練驗證一次. 只有val_steps>0才有效, 優先順序高於val_epochs。
listeners: 事件監聽器FitListener物件列表.

fit方法觸發的事件

  • epoch_start: 每輪訓練開始時觸發。
  • epoch_end: 每輪訓練結束時觸發。
  • val_start: 每次執行驗證時觸發。
  • val_end: 每次執行驗證結束時觸發。

訓練過程中, fit方法會把觸發的事件派發到所有的FitListener物件, FitListener物件自己決定處理或忽略。

訓練歷史記錄(history)

        history的格式:

{
  'loss': [],
  'val_loss': [],
  'steps': [],
  'val_pred': darray,
  'cost_time': float
}
  • loss: 記錄訓練誤差。
  • val_loss: 記錄驗證誤差。loss會和val_loss同步記錄。
  • steps: 每個誤差記錄對應的訓練步數。
  • val_pred: 最後一次執行驗證時模型使用驗證資料集預測的結果。
  • cost_time: 整個訓練過程花費的時間(s)。

程式碼

fit方法實現

        程式碼檔案: cutedl/session.py。
        fit方法比較複雜, 先看主幹程式碼:

    #初始化訓練歷史資料結構
    history = {
        'loss': [],
        'val_loss': [],
        'steps': [],
        'val_pred': None,
        'cost_time': 0
    }
    #開啟訓練開關, 當呼叫stop_fit方法後會關閉這個開關, 停止訓練。
    self.__fit_switch = True

    #得到引數
    val_data = kargs.get('val_data')
    val_epochs = kargs.get('val_epochs', 1)
    val_steps = kargs.get('val_steps', 0)
    listeners = kargs.get('listeners', [])

    if val_data is None:
        history['val_loss'] = None

    #計算將會訓練的最大步數
    if val_epochs <= 0 or val_epochs >= epochs:
        val_epochs = 1

    if val_steps <= 0:
        val_steps = val_epochs * data.batch_count

      #開始訓練
      step = 0
      history['cost_time'] = time.time()
      for epoch in range(epochs):
          if not self.__fit_switch:
              break

          #觸發並派發事件
          event_dispatch("epoch_start")
          for batch_x, batch_y in data.as_iterator():
              if not self.__fit_switch:
                  break
              #pdb.set_trace()
              loss = self.batch_train(batch_x, batch_y)
              step += 1
              if step % val_steps == 0:
                  #使用驗證資料集驗證模型
                  event_dispatch("val_start")
                  val_loss, val_pred = validation()
                  record(loss, val_loss, val_pred, step)
                  event_dispatch("val_end")
                  #顯示訓練進度
                  display_progress(epoch+1, epochs, step, val_steps, loss, val_loss)
              else:
                  display_progress(epoch+1, epochs, step, val_steps, loss)

          event_dispatch("epoch_end")

      #記錄訓練耗時
      history['cost_time'] = time.time() - history['cost_time']

      return history

        主幹程式碼中使用了一些區域性函式, 這些區域性函式每個都是實現了一個小功能。

        派發事件:

  def event_dispatch(event):
    #pdb.set_trace()
    for listener in listeners:
        listener(event, history)

        執行驗證:

  def validation():
    if val_data is None:
        return None, None

    val_pred = None #儲存所有的預測結果
    losses = [] #儲存所有的損失值
    #分批驗證
    for batch_x, batch_y in val_data.as_iterator():
        #pdb.set_trace()
        y_pred = self.__model.predict(batch_x)
        loss = self.__loss(batch_y, y_pred)
        losses.append(loss)

        if val_pred is None:
            val_pred = y_pred
        else:
            val_pred = np.vstach((val_pred, y_pred))
    #計算平均損失
    loss = np.mean(np.array(losses))
    return loss, val_pred

        記錄訓練歷史:

  def record(loss, val_loss, val_pred, step):
    history['loss'].append(loss)
    history['steps'].append(step)

    if history['val_loss'] is not None and val_loss is not None :
        history['val_loss'].append(val_loss)
        history['val_pred'] = val_pred

        顯示訓練進度:

    def display_progress(epoch, epochs, step, steps, loss, val_loss=-1):
      prog = (step % steps)/steps
      w = 20

      str_epochs = ("%0"+str(len(str(epochs)))+"d/%d")%(epoch, epochs)

      txt = (">"*(int(prog * w))) + (" "*w)
      txt = txt[:w]
      if val_loss < 0:
          txt = txt + (" loss=%f   "%loss)
          print("%s %s"%(str_epochs, txt), end='\r')
      else:
          txt = "loss=%f, val_loss=%f"%(loss, val_loss)
          print("")
          print("%s %s\n"%(str_epochs, txt))

實現L2正則化引數優化器

設計方案

  • 增強Optimizer類的功能, 能夠自己匹配要更新的引數。
  • 給出L2正則化演算法的Optimizer實現。
  • 在Session類中增加對廣義優化器的支援(L2優化器就是廣義優化器)。

數學原理

        設模型每一層的損失函式為:

\[J=f(XW+b) \]

        X是資料, W是權重引數,b是偏移量引數. L2演算法是在原損失函式上加上W範數平方的衰減量, 得到一個新的損失函式:

\[J_{L2} = J + \frac{λ}{2}||W||^2 \]

        λ是衰減率, 是一個相當於學習率的超引數。對於一個模型來說, 只有輸出層的損失函式是明確知道的, 其他層是不明確的。不過沒關係, 更新引數是在反向傳播階段,這個時候需要的是梯度, 並不關心原函式的形式, 新損失函式的梯度為:

\[\frac{\partial}{\partial W_i}J_{L2} = \frac{\partial}{\partial W_i} J + λW_i \]

        其中

\[\frac{\partial}{\partial W_i} J \]

        可以在反向傳播時候得到. 在梯度下降法訓練模型時, 更新引數的表示式變成:

\[W_i = W_i - (α\frac{\partial}{\partial W_i} J + λW_i) = (1-λ)W_i - α\frac{\partial}{\partial W_i} J, \quad \text{α是學習率} \]

        這個表示式的含義是: 在使用學習率更新引數之前,先把引數(W的範數)縮小到原來的(1-λ)倍。

程式碼

增強Optimizer功能

        程式碼檔案: cutedl/optimizer.py
        修改__call__程式碼:

def __call__(self, model):
      params = self.match(model)
      for p in params:
          self.update_param(model, p)

match方法用來把名字匹配的引數過濾出來。
update_param方法實現實際的更新引數操作, 由子類實現。

        match實現:

  '''
  得到名字匹配pattern的引數
  '''
  def match(self, model):
      params = []
      rep = re.compile(self.pattern)
      for ly in model.layer_iterator():
          for p in ly.params:
              if rep.match(p.name) is None:
                  continue

              params.append(p)

      return params

        這個方法使用正則表示式通過引數名匹配引數, 並返回匹配的引數列表。pattern是正則表示式屬性, 子類可以通過覆蓋這個屬性, 改變匹配行為。

實現L2正則化優化器

'''
L2 正則化
'''
class L2(Optimizer):
    '''
    damping 引數衰減率
    '''
    def __init__(self, damping):
        self.__damping = damping

    def update_param(self, model, param):
        #pdb.set_trace()
        param.value = (1 - self.__damping) * param.value

在Session中支援廣義引數優化器

        程式碼檔案: cutedl/session.py。
        首先為__init__ 方法新增引數:

'''
genoptms: list[Optimizer]物件, 廣義引數優化器列表,
                  列表中的優化器將會在optimizer之前按順序執行
'''
def __init__(self, model, loss, optimizer, genoptms=None):
  self.__genoptms = genoptms

        然後在batch_train方法中呼叫優化器:

    #執行廣義優化器更新引數
    if self.__genoptms is not None:
        for optm in self.__genoptms:
            optm(self.__model)

實現隨機丟棄層: Dropout

數學原理

        向前傳播的函式:

\[Y_i = \frac{A_i}{p} X_i, \quad A_i服從引數為p的伯努利分佈, p∈(0, 1) \]

        p是我們要給出的常數。演算法使用p構造隨機變數A, 使得A=1的概率為p, A=0的概率為1-p. 對這個函式的直觀解釋是: A將有1-p的概率被丟棄掉(置為0), p的概率被保留, 如果被保留, 它將會被拉伸1/p倍。 這個函式有一個很有用的性質, 它的輸入和輸出的均值不變:

\[E(Y_i) = \frac{E(A_i)}{p} E(X_i) = \frac{p}{p} E(X_i) = E(X_i) \]

        反向傳播的梯度為:

\[\frac{\partial}{\partial X_i} = \frac{A_i}{p} \]

程式碼

        程式碼檔案: nn_layers.py。
        Dropout類實現了隨機丟棄演算法。向前傳播實現:

def forward(self, in_batch, training=False):
    kp = self.__keep_prob
    #pdb.set_trace()
    if not training or kp <= 0 or kp>=1:
        return in_batch

    #生成[0, 1)之間的均價分佈
    tmp = np.random.uniform(size=in_batch.shape)
    #保留/丟棄索引
    mark = (tmp <= kp).astype(int)
    #丟棄資料, 並拉伸保留資料
    out = (mark * in_batch)/kp

    self.__mark = mark

    return out

        隨機丟棄層傳入的引數是keep_prob保留概率, 這意味這丟棄的概率為1 - keep_prob. 只有處於訓練狀態且0<keep_prob<1才執行丟棄操作。程式碼中的變數mark就是用保留概率構造隨機變數, 它服從引數為keep_prob的伯努利分佈。
        反向傳播實現:

def backward(self, gradient):
    #pdb.set_trace()
    if self.__mark is None:
        return gradient

    out = (self.__mark * gradient)/self.__keep_prob

    return out

驗證

        目前階段所需要的程式碼已經完成,現在我們來進行驗證,驗證程式碼位於: examples/mlp/linear-regression-1.py。

對比基準

        首先我們來構造一個欠擬合模型作為對比基準。

'''
過擬合對比基準
'''
def fit0():
    print("fit0")
    model = Model([
        nn.Dense(128, inshape=1, activation='relu'),
        nn.Dense(256, activation='relu'),
        nn.Dense(1)
    ])
    model.assemble()

    sess = Session(model,
                loss=losses.Mse(),
                optimizer = optimizers.Fixed(),
            )

    history = sess.fit(ds, 200000, val_data=val_ds, val_epochs=1000,
                    listeners=[
                        FitListener('val_end', callback=lambda h:on_val_end(sess, h))
                        ]
                    )

    fit_report(history, report_path+'00.png', 10)

        可以看到這裡不再需要自己寫訓練函式, 直接呼叫fit方法即可實現自動訓練。on_val_end函式監聽val_end事件, 它的功能是在滿是條件時呼叫Session的stop_fit方法停止訓練, 這裡停止訓練的條件是: 最初的10次驗證過後, 檢查每次驗證的val_loss值, 如果連續10次沒有變得更小就停止訓練。
        擬合報告:

使用L2優化器緩解過擬合

'''
使用L2正則化緩解過擬合
'''
def fit1():
    print("fit1")
    model = Model([
        nn.Dense(128, inshape=1, activation='relu'),
        nn.Dense(256, activation='relu'),
        nn.Dense(1)
    ])
    model.assemble()


    sess = Session(model,
                loss=losses.Mse(),
                optimizer = optimizers.Fixed(),
                #L2正則化
                genoptms = [optimizers.L2(0.00005)]
            )

    history = sess.fit(ds, 200000, val_data=val_ds, val_epochs=1000,
                    listeners=[
                        FitListener('val_end', callback=lambda h:on_val_end(sess, h))
                        ]
                    )
    fit_report(history, report_path+'01.png', 10)

        擬合報告:

        從訓練損失值影象上看有明顯的緩解跡象。

使用Dropout層緩解過擬合

'''
使用dropout緩解過擬合
'''
def fit2():
    print("fit2")
    model = Model([
        nn.Dense(128, inshape=1, activation='relu'),
        nn.Dense(256, activation='relu'),
        nn.Dropout(0.80), #0.8的保留概率
        nn.Dense(1)
    ])
    model.assemble()

    sess = Session(model,
                loss=losses.Mse(),
                optimizer = optimizers.Fixed(),
            )

    history = sess.fit(ds, 200000, val_data=val_ds, val_epochs=1000,
                    listeners=[
                        FitListener('val_end', callback=lambda h:on_val_end(sess, h))
                        ]
                    )

    fit_report(history, report_path+'02.png', 15)

        擬合報告:

        從訓練損失值影象上隨機丟棄的效果更好一些。

總結

        驗證結果表明, cute-dl目前可以用很少程式碼實現模型的自動分批訓練, 和linear-regression.py相比, linear-regression-1.py中已經不需要關注具體的訓練過程了, 並且能夠得到基本訓練歷史記錄。另外, L2正則化優化器和Dropout層也能有效地緩解過擬合。 本階段目標基本達成。
        到目前為止, 用來驗證框架的是一個線性迴歸任務, 資料集是從一個二次函式取樣得到, 這個任務本質上是訓練模型預測連續值。但是在深度學習領域,還要求模型能夠預測離散值,即能夠執行分類任務。下個階段, 將會給框架新增新的損失函式, 使之能夠支援分類任務, 並討論這些損失函式的數學性質