SegAN——蠢的一匹的個人翻譯
標題:segan:對抗網路,擁有多尺度l1loss,用於醫療影象分割
摘要:新的端對端對抗網路segan。影象分割需要西密度,畫素級的label,單個標量的真/假的gan的DC的輸出可能是不充分的,而不能生產穩定而有效的梯度回饋給網路。
我們用了FCN網路作為分割器,來生成分割的label,並用一個新的對抗critic(批評)網路(多尺度l1loss)來強制DC和分割器來學習both全域性和區域性特徵,來生成長和短範圍的spatial(空間)關係,在畫素間的。在網路中,S和C網路並訓練,通過min-max game:C網路輸入影象(原始*pred label,原始影象*ground truth label)。然後訓練,通過最大化一個loss。S網路只用梯度——通過C網路的梯度,意在與最小化loss。我們展示了,這樣一個segan更加有效並且文件,對於分割任務,而且導致更好的表示,比state of art的unet更好
在miccai brats brain tumor上測試。拓展實驗結果顯示了segan的效果。
2013:更好的precision和sensitivity。
2015:更好的dcie和precision
1.介紹:
基礎問題影象分割。
許多理論框架被用於自動分割。FCN。encoder-decoder。CRF。
基於patch的訓練代價很高,區域性準確和塊大小也有關。現在最好的像unet,在整個影象或大的影象塊,使用跨越連結來聯合多等級的特徵。然而,這些方式始終被畫素級的loss限制。缺少能力來加強學習多尺度空間資訊。與基於塊的訓練相比,整個影象的問題是label和class是不平衡的。屬於整個影象的不同類的迅速是不平衡的。為了平衡整個問題,unet使用了weighted croos entropy來平衡類的頻率。然而,權重的選擇與任務相關而且難以優化。與unet相反,一個通用的loss能夠避免類不平衡以及額外的超引數會更合理。
在本文中。我們使用了新的e2e的對抗網路結果SEGAN。
——與傳統的分離G和D的loss不同,我們用了一個新的loss同時為了S和C。我們的C用來最大化l1,同時考慮cnn特徵的不同,預測和truth的不同。
——我們使用了FCN作為S,只用C傳來的梯度進行訓練。同時最小化C的同樣的loss。
——SEGAN是e2e,不需要patch或者更多的平滑化(crf)
我們的網路用了新loss,能加強多等級特徵的學習,更加直接和有效。
2.方法:
S:輸出pred
C:輸入有兩個,原始影象+pred mask;原始影象+truthmask。
S和C交替訓練,用對抗方法。S意在於最小化L1,二C在於最大化L1
2.1:Loss:MAE
2.2結構:
S:unet
C:類似於S的decoder。多等級特徵被從C的多個層中提取,用來算loss。因此可以獲得長和短程的空間聯絡——於畫素之間的。(pixel,low-superpixels,middle-patches)
2.3訓練segan:
RMSProp(bs64,lr0.00002)
用梯度搜索法來選擇最佳的block的數量
2.4穩定和收斂的基礎:
a.引入註釋