醫學影像比賽及資源 summary
https://luna16.grand-challenge.org/download/ -> downloaded on centos-purley-no101-1
前列腺 (prostate)
Dataset :
https://promise12.grand-challenge.org/details/ -> downloaded on self notebook
MRI format
Code: VNet
tools:
Evaluation of prostate segmentation algorithms for MRI The PROMISE12.pdf
Computer-aided diagnosis of prostate cancer with MRI.pdf
A survey of prostate segmentation methodologies.pdf
腦部相關的
Deep Learning for Brain MRI Segmentation: State of the Art and Future Directions筆記
https://blog.csdn.net/sunyao_123/article/details/73927653
為了評定一個新的開發的深度學習方法的效果,有必要將它與現在最好的方法作比較。這裡提到很多資料集,
Brats 這個腦腫瘤影象分割挑戰聯合MICCAI會議,自從2012年開始每年舉辦,為了評估現在最好的腦部腫瘤分割方法,並且比較不同方法。為此,很多的資料集被公開,有5類label:腦部健康組織,壞死區,水腫區,腫瘤的加強和非加強區。並且訓練集每年都在增長。最近的Brats 2015–2016比賽中訓練集包含220個高等級子集和54個低等級子集,測試集包含53個混合子集。所有的資料集被校準為同樣的解剖模板,並且被插值為1 mm 3的解析度。每個資料集包含增強前T1和增強後T1,T2,T2磁共振成像液體衰減反轉恢復序列MRI體素。聯合配準,頭骨分離,標註的訓練集,演算法的評價結果可以通過Virtual Skeleton Database (https://www.virtualskeleton.ch/)來獲取.
Isles 這個挑戰被組織來評估,在精確MRI掃描影象中,中風病變及臨床結果預測。提供了包含大量的精確中風樣例和相關臨床引數的MRI掃描。聯合的被標記的真實資料是最終損傷的區域(任務一),用了3到9個月的跟蹤掃描來人工標記,和表示殘疾度的臨床mRM得分(任務二)。在ISLES2016比賽中,35個訓練集和40個測試集通過SMIR平臺公開。(https://www.smir.ch/ISLES/Start2016). 亞急性缺血性卒中病變分割的獲勝者的演算法結果為0. 59±0.31(骰子相似性係數,DSC)和37.88±30.06(豪斯多夫距離,HD)。
mTOP 這個挑戰要求演算法找到健康組織和外傷性腦損傷(TBI)病人的差異,並且使用非監督方法將給定的資料分為明顯不同的類。開源MRI資料在https://tbichallenge.wordpress.com/data下載。
MSSEG 這個挑戰的目的是從MS資料的參賽者中評定最好的最新的分割方法,為此他們評估了在一個在多中心臨床資料庫(4個數據中心的38個病人,為1.5T或者3T的影象,每個病人被7個專家手動標記)上的損傷區域檢測(多少個病變區被檢測出)和分割(被勾出的損傷區精確度如何)。除了這個經典的評估外,他們提供了一個共同的基礎設施來評價演算法,比如執行時間和自動化度的比較。資料可以從https://portal.fli-iam.irisa.fr/msseg-challenge/data下載。
NeoBrainS12 這個比賽的的目的是,通過使用腦部T1和T2的MRI影象,來比較新生腦組織分割演算法和對應大小的測量。在以下結構比較:皮質和中央灰質,無髓有髓白質,腦幹和小腦,腦室和腦外間隙腦脊液。訓練資料包括兩個30周到40周大小的嬰兒的T1和T2MR影象。測試集包括5個嬰兒的T1和T2 MRI影象。資料和演算法的評估結果已經被提交,可以從http://neobrains12.isi.uu.nl/下載。
MRBrainS 這個評估架構的目的是比較腦部多序列(T1加權,T1加權反轉恢復,磁共振成像液體衰減反轉恢復序列,FLAIR)3T MRI影象,灰質,白質,腦脊髓液的分割演算法。訓練集包括5個手動分割的腦部MRI影象,測試集包括15份MRI影象。資料可以從http://mrbrains13.isi.uu.nl下載。在這個資料集上的獲勝者的演算法的結果(骰子相似係數,DSC):灰質86.15%,白質89.46%,腦脊髓液84.25%。
Brats2017, 面向GLIOMAS
Dataset https://www.med.upenn.edu/sbia/brats2017/data.html
Nii format
preprocessing: https://github.com/ANTsX/ANTs
Tools:https://www.med.upenn.edu/cbica/captk/
code:
Unet: https://ai.intel.com/biomedical-image-segmentation-u-net/
3D-Unet: https://github.com/ellisdg/3DUnetCNN
Paper:
Brain Tumor Segmentation with Deep Neural Networks_1505.03540.pdf
MICCAI_BraTS_2017_proceedings_shortPapers.pdf --> all algorithm summary
The Multimodal Brain Tumor Image Segmentation Benchmark.pdf --> good introducing about Brats dataset
Advancing The Cancer Genome Atlas glioma MRI collections with expert segmentation labels and radiomic features.pdf
T1, T1c, T2, FLAIR ???
https://camelyon17.grand-challenge.org/
淋巴癌, 乳腺癌
Dataset:
Code:
Tools:
乳腺癌
http://www.bioimaging2015.ineb.up.pt/dataset.html
Dataset:
Code:
Tools:
Paper:
Classification of breast cancer histology using CNN.pdf
宮頸癌TCT
Dataset:
Code:
Tools:
Paper:
肺結節
https://www.jianshu.com/p/9c1facf70b01
Dataset:
Code:
Tools:
Paper:
資料預處理
CT
MRI
腦部相關
http://www.360doc.com/content/18/0119/22/42715024_723486417.shtml
The image datasets used in the study all share the following four MRI contrasts (Fig. 2).
1) T1: T1-weighted, native image, sagittal or axial 2D acquisitions, with 1–6 mm slice thickness.
2) T1c: T1-weighted, contrast-enhanced (Gadolinium)
image, with 3D acquisition and 1 mm isotropic voxel size
for most patients.
3) T2: T2-weighted image, axial 2D acquisition, with 2–6 mm
slice thickness.
4) FLAIR: T2-weighted FLAIR image, axial, coronal, or
sagittal 2D acquisitions, 2–6 mm slice thickness.
病理切片??
通常可以得到各種scale的圖片,一般醫生使用20x-40x的解析度做影象分析
https://blog.csdn.net/zxllll8898/article/details/76040426
https://blog.csdn.net/u013635029/article/details/72957944
https://blog.csdn.net/a8039974/article/details/77964764
作者:lail3344
連結:https://www.jianshu.com/p/9778658da808
來源:簡書
簡書著作權歸作者所有,任何形式的轉載都請聯絡作者獲得授權並註明出處。