1. 程式人生 > 其它 >FAIR: Quality-Aware Federated Learning with Precise User Incentive and Model Aggregation閱讀筆記

FAIR: Quality-Aware Federated Learning with Precise User Incentive and Model Aggregation閱讀筆記

動機

本文是2021年infocom上的一篇論文。聯邦學習面臨著兩大挑戰:1.使用者可能並不願意參與到學習中,因為該學習消耗計算資源和精力。2.每個使用者提供的更新質量不同,低質量的模型更新會破壞整體模型的效能。針對以上問題,作者提出了FAIR系統來解決上述問題,該系統通過評估使用者學習質量來促進精確的使用者激勵和模型聚合。

演算法

問題描述

在t時間段內,有N個計算節點,任務集合為,學習預算(給計算節點的報酬)為\(B^t_j\),節點i可以參與的任務集合為,每個節點在每個時間段內最多隻能參與一個任務。我們的目標是如何分配學習任務,支付報酬及聚合模型更新,使得聚合更新的模型質量最高。我們的質量感知聯邦學習問題如下:

是任務分配矩陣,表示人物\(l^t_j\)

在t時間段內是否分配給節點i。(3)表示t時刻內支出要小於學習預算,(4)表示節點i只能做它能參與的人物,(5)表示每個節點在一個時間段內至多參加一項學習任務。
FAIR系統主要由三部分構成:1.學習質量估計。2.質量感知激勵機制。3.模型聚合。

學習質量估計

我們利用每次訓練的損失減少來量化訓練的質量,假設訓練開始時間為\(t_s\),結束時間為\(t_e\),則節點i的資料質量為

\(loss_{j}(t_s)\)表示在\(t_s\)時刻的全域性模型平均損失,\(loss_{i,j}(t_e)\)表示在\(t_e\)時刻節點i區域性模型的平均損失。
結合節點i的資料數量,那麼節點i的學習質量為

我們假設節點i在t0, t1, . . . , tr時刻學習質量為,在t時刻,它的學習質量估計為

其中t>tr,0<ρ≤1。

質量感知激勵機制

在這部分我們的任務是尋找一種任務分配方案,使得預估的學習質量和最大。

使用貪心演算法求解本問題,大致思想是在每一輪將所有點按照\(q^t_{i,j}/b^t_{i,j}\)遞減排序,按順序遍歷每個點,計算它們的報酬,如果當前報酬不超過預算就把點新增到這個任務的分配列表中,最後統計每個任務的學習質量,挑選出當前最大學習質量的任務並將該任務對應的節點分配給它,然後重複這一過程,直到沒有節點可分配或者任務分配完畢。這裡有幾點需要注意,一個點在分配到任務後就不能再參與其它的任務,一個任務確定好分配後就不能再參與後續的分配計算。之後的問題是如何計算一個點的報酬,這裡涉及到關鍵報酬的計算,關鍵報酬是使得這個點既能贏得拍賣(即參與到任務),又能保證自身利益最大化,計算公式如下

其中第k個節點就是競拍失敗但排名最高的點。
整體演算法流程如下。

模型聚合

常用的聯邦學習模型平均聚合公式為

但是上述公式沒有考慮到模型質量,我們將模型質量加入到該公式中得

之後我們計算每個參與計算的節點的引數和全域性模型引數的餘弦相似度,然後計算上述餘弦相似度的平均數,中位數,標準差,中位數可以反應高質量區域性模型更新的方向。整體演算法如下。

結果

作者在激勵機制和模型聚合方法兩方面證明了FAIR系統的優越性。
首先是激勵機制,FAIR中模型精度接近理論最優解。

在模型聚合方法中,FAIR有更好的魯棒性,在面對噪聲、攻擊等異常情況時比常用的平均聯邦聚合有更好的效能。

總結與思考

本文提出的FAIR系統特點是考慮到節點學習的質量,並將估計出的學習質量結合激勵機制和模型聚合,從而得到了一個效果很好的系統。這個系統是較為通用的,那麼結合之前所學的知識,我認為它可以應用在推薦系統的領域,該系統提出的質量評估和反向拍賣的激勵機制值得借鑑,之後我會思考如何將推薦系統模型加入到該系統中。