1. 程式人生 > 實用技巧 >2018年BRATS 腫瘤分割挑戰賽第三名分割方案One-pass Multi-task Networks with Cross-task Guided Attention for Brain Tumor Segmentation

2018年BRATS 腫瘤分割挑戰賽第三名分割方案One-pass Multi-task Networks with Cross-task Guided Attention for Brain Tumor Segmentation

首先說一下我對這個方案的看法,相比第一名與第二名的方案,這個方案的分割方法確實複雜的多,原論文是發表在MICCAI,後來磚投到IEEE image processing(SCI 1區),總體感覺給人一種花裡胡哨的感覺,但是看分割結果,卻著實讓人滿意。以下將解析此論文。

摘要

腫瘤分割的一個主要難點就是類別不平衡,腫瘤部分佔整個腦的比例太小以至於難以精準的分割。傳統解決類別不平衡的方法是採用級聯的網路,一步一步的從粗到精的分割。先不考慮此網路的效能如何,就網路結構而言級聯網路結構複雜,而且忽略了模型的相關性。針對此缺陷,本文提出了一種輕量級(模型引數是MC的三分之一)一步多工分割模型(One-pass Multi-task Networks,OM-Net)。此模型有以下特點:首先,OM-Net將單獨的分割任務整合到一個深度模型中,該模型由學習聯合特徵的共享引數以及學習區分性的特定任務引陣列成 特徵。 其次,為了更有效地優化OM-Net,我們利用任務之間的相關性來設計線上訓練集傳輸策略(training data strategy)和基於課程學習的訓練戰略。 第三,我們進一步提出任務之間的共享預測結果,使我們能夠設計一個跨任務引導注意力(CGA attention)模組。最後提出了一種有效的後處理方法:K-means

1

傳統的級聯模型(MC)往往是由多個單獨的網路組成,大多數的分割步驟是:首先分割出感興趣的區域(ROI),然後在感興趣的區域進行精準分割,雖然此方法能夠緩解腫瘤的類別不平衡因素,但是還是有很多缺陷:首先是MC需要訓練多個網路,增加了複雜性;其次,訓練集是相互獨立的,忽略了多個模型之間的相關性。最後,缺少多個任務之間的相互作用,並且計算成本高。所以,提出了OM-Net(多工整合,多工相互作用,training data strategy,課程學習,單步預測,CGA)

將三個任務整合到一個模型當中,加強了訓練階段任務之間的相互作用,並且在預測階段只需要一步的計算即可預測,不需要多步預測。並且採用training data strategy共享加強資料集之間的相互作用,採用課程學習的方式,根據任務的那一程度逐步將任務將如到網路中。採用CGA attention機制,加強了對重要資訊的提取,抑制了不重要的資訊。並且採用k-means的後處理的方式,對分割結果又一定的提升。

2

A.綜述

介紹資料集與前人的工作。

B proposed attention

目前主流有三種attention機制,分別可以參考https://blog.csdn.net/qq_41639077/article/details/105161157?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase

。相比SE attention而言,SE塊基於每個通道中所有體素的平均響應,並使用單個權重重新校準每個通道,而不管這些體素屬於哪個類別

3 方法

A.

取樣獲得資料集:(1)隨機的在腦部區域進行取樣,此時有5個類別:三個腫瘤類別,一個正常腦組織,一個背景。在預測時,把三個腫瘤的預測圖進行相加獲得粗分割圖。(2)對coarse tumor mask 擴充套件5個體素以減少假陰性,訓練資料在擴張的真實的完整的腫瘤區域內隨機取樣(3)訓練資料在擴張的真實的腫瘤核心區域內隨機取樣。

由於缺乏上下文資訊,補丁中邊界體素的分割結果可能不準確,採用重疊切片策略:https://blog.csdn.net/qq_34759239/article/details/79209148?tdsourcetag=s_pcqq_aiomsg,在本文中,僅僅預測中心區域的20*20*5的區域,拋棄對邊界體素的預測。

B.

OM-Net:

特點(多工整合,多工相互作用,training data strategy,課程學習,單步預測,CGA),滿足一下條件,啟動training data strategy(但是在inference階段,資料融合,資料遷移都去掉)

C.Cross-task Guided Attention

OM-net網路的由粗-精的分割可以看做是spatial attention,本文為了提高OM-Net的效能,提出了;另一種channel attention機制-----CGA。

在SE塊中的全域性平均池(GAP)操作忽略了輸入補丁中每個類的體積的巨大變化。 我們通過計算特定類別區域而不是整個補丁中的統計資料來解決這個問題。 然而,在我們到達最終分類層之前,普通CNN的特定類別區域是未知的;因此,這是一個雞和蛋的問題 。 幸運的是,OM-Net允許我們通過在任務之間共享預測結果來預先估計特定類別的區域(前面任務的分割結果會作用於後面的任務)

pt用了兩次,第一次是為了利用特定類別的概率,第二次是為了減小St,Sn對tumor與non-tumor的敏感性。

D.後處理

1)移除滿足下式的鼓勵的叢集,

TV OL= min(2000, 0.1 ×Vmax),Vmax表示最大聯通的腫瘤區域的體積。此方式對DIce提升較少 2)非增強腫瘤容易被誤分類成水腫,

If vole/volt< 0.1, vole(n)/volt(n) <0.05, and vole(n) < 1000,啟動k-means,此方式顯著提高Dice 。 通過一系列的對照試驗,試驗表明,OM-Net(CGA)效能很強大。 總體來說,此方法十分複雜(暈) 轉載請標明出處,謝謝