1. 程式人生 > >加速動態磁共振重建的低秩係數分解模型

加速動態磁共振重建的低秩係數分解模型

Low-Rank and Sparse Decomposition Model for Accelerating Dynamic MRI Reconstruction,本文源自2017年8月8日的Journal of Healthcare Engineering,截圖如下文章官網截圖
文章可以去這裡下載,截圖如下論文截圖

介紹

理論背景

k-t空間的動態磁共振資料採集可以用下式表示

y(k,t)=x(r,t)exp(2πjkr)dr+n(k,t).(1)
其中y(k,t)表示觀測到的k-t空間訊號,x(r,t)表示期望的動態影象序列,n(k,t)為觀測噪聲,它可以用一個額外的白噪聲的高斯分佈[16][17]來進行合理的模擬.

本文中,問題的解決方案是為了從降取樣的觀測資料y

(k,t)中找出磁共振影象x(r,t)的最近似表示,(1)式可以轉換為一個逆問題,並且可以重寫成向量形式[18]。

Y=RFX+n.(2)
其中Y=[y1||yT]X=[x1||xT]n=[n1||nT]T是框架中的元素個數,F為傅立葉變換運算元,觀測矩陣R為降取樣掩模,它被用於k空間。

基於壓縮感知的磁共振影象重建

壓縮感知方法[5,19]被提出用於從部分取樣的k空間資料Y中重建出磁共振影象X,這一過程是利用稀疏變換和凸優化演算法來實習的。如果我們找到滿足式(2)的稀疏向量,那麼問題將得到解決。

minXDX0s.t.YRFX2ϵ(3)
其中l
0
範數,它用來計算向量中非零元素的個數,D是稀疏變換或者字典,ϵ是一個較小的常數。不幸的是,(3)是NP難問題,這需要通過蠻力搜尋來解決。壓縮感知理論[8]提供了凸鬆弛方法,指的是(3)式中的l0範數可以用l0範數最小化來代替,
minXDX1s.t.YRFX2ϵ,(4)
其中l1範數,表示向量的絕對值之和。

低秩稀疏分解

基於壓縮感知的技術已經完全成功地應用於磁共振影象重建,它利用了影象在變換域
的稀疏性。然而, 壓縮感知的效能主要依賴於特定的字典或者稀疏運算元,這限制了最大可實現的加速度。因此,一些研究者嘗試研究一些新方法來重建磁共振影象[20-24]。這些方法中,低秩矩陣恢復是醫學影象處理中最流行的一項技術。

低秩的基本假設和[18]一樣,也即,影象X是同時稀疏(在影象域內)並且低秩的。現在的問題是從給定的少量k-空間資料Y中恢復X, 少量資料是相對矩陣中的元素個數而言的。我們假定矩陣的近似秩為r,影象的大小為M×N。當矩陣X是低秩時,它只有r(M+Nr)個自由度而不是MN個, 這就有可能從少量的取樣點中通過解決秩最小化問題來恢復矩陣X

minrank(x)s.t.YMX)2ϵ(5)
然而,秩最小化問題,也即解決式(5), 是組合問題也是NP難問題[25]。因此,凸鬆弛經常用於使得最小化問題更容易處理。
minXXs.t.YMX)2ϵ(6)
其中M表示任意的線性運算元,X是核範數,可以定義為

相關推薦

加速動態磁共振重建係數分解模型

Low-Rank and Sparse Decomposition Model for Accelerating Dynamic MRI Reconstruction,本文源自2017年8月8日的Journal of Healthcare Engineering

推薦系統(recommender systems):預測電影評分--構造推薦系統的一種方法:矩陣分解(low rank matrix factorization)

ngs img round col tin product ems 找到 推薦 如上圖中的predicted ratings矩陣可以分解成X與ΘT的乘積,這個叫做低秩矩陣分解。 我們先學習出product的特征參數向量,在實際應用中這些學習出來的參數向量可能比較難以理解

[吳恩達機器學習筆記]16推薦系統5-6協同過濾演算法/矩陣分解/均值歸一化

16.推薦系統 Recommender System 覺得有用的話,歡迎一起討論相互學習~Follow Me 16.5 向量化:低秩矩陣分解Vectorization_ Low Rank M

吳恩達機器學習筆記59-向量化:矩陣分解與均值歸一化(Vectorization: Low Rank Matrix Factorization & Mean Normalization)

接受 span amp 14. 實現 新的 mean 情況 rank 一、向量化:低秩矩陣分解     之前我們介紹了協同過濾算法,本節介紹該算法的向量化實現,以及說說有關該算法可以做的其他事情。   舉例:1.當給出一件產品時,你能否找到與之相關的其它產品。2.一位用

分解

 十歲的小男孩 目錄   概念   1. 奇異值(SVD)分解   2. 張量分解     2.1 CP 分解( Canonical Polyadic Decomposition (CPD)     2.2 TD 分解( Tucker Decomposition )     

斯坦福大學機器學習筆記——推薦系統(協同過濾、分解、推薦系統)

這個部落格讓我們來討論一下推薦系統,首先我們來討論一下為什麼學習推薦系統: 1. 推薦系統是機器學習中的一個重要應用,它已經用於很多企業中,比如淘寶、今日頭條、亞馬遜等。它們會根據你的瀏覽記錄,當你再

馬毅:模型與深度模型的殊途同歸(神經網路、壓縮感知和分解與補全)

機器之心原創 作者:邱陸陸 上週,今日頭條人工智慧實驗室在清華大學舉辦了第二期 AI 技術沙龍,邀請到上海科技大學資訊科學與技術學院的馬毅教授帶來題為「高維資料的低維結構與深度模型」的主題分享。馬毅教授以計算機視覺為例,展示了低維模型和深度模型如何從不同角度試圖攻克

模型壓縮中的分解

因為傳統訓練好的卷積核存在著低秩特性,因此常用的壓縮方法裡就會採用低秩分解(SVD)的方法進行壓縮,但時這種壓縮存在一些不足: 若卷積核不低秩,那壓不了唄 即使是低秩的,壓縮之後精度受損,需要re-training Low Rank Filters

影象

作者:柒生 連結:https://www.zhihu.com/question/28630628/answer/98955466 來源:知乎 著作權歸作者所有。商業轉載請聯絡作者獲得授權,非商業轉載請註明出處。   影象處理中,rank可以理解為影象所包含的資訊的豐富程度,在顯示生活中

核範數以及RPCA

0範數是指矩陣非零元素的個數 1範數是矩陣所有元素絕對值的和 2範數對應歐式距離 無窮範數對應矩陣所有元素絕對值中最大的那個值 核範數||W||*是指矩陣奇異值的和,英文稱呼叫Nuclear Norm 核範數可以約束低秩,而低秩的應用範圍較廣      PCA,這種方法可以

資料降維--恢復

在實際的訊號或影象採集與處理中,資料的維度越高, 給資料的採集和處理帶來越大的限制。例如,在採集三維或四維(三個空間維度再加上一個頻譜維度或一個時間維度) 訊號時,往往比較困難。然而,隨著資料維數的升

【機器學習】影象中的降噪方法之一:降噪

概述 近幾年,低秩矩陣恢復(LRMR)廣泛用於影象處理用途影象恢復,比如去噪、去模糊等。一幅清晰的自然影象其資料矩陣往往是低秩或者近似低秩的,但存在隨機幅值任意大但是分佈稀疏的誤差破壞了原有資料的低秩性。低秩矩陣恢復是將退化影象看做一組低維資料加上噪聲形成的,因此退化前的資料就可以通過低秩矩陣來

矩陣的應用--背景建模

背景建模是從拍攝的視訊中分離出背景和前景。 由於背景的視訊基本是不變的,所以如果把每幀當做一個矩陣的一列那麼,矩陣是低秩的,所以低秩矩陣的恢復來恢復出背景。 今天主要完成了,在自己的資料庫讓進行背景和前景的分離。下面為主要步驟: 1.從馬毅的實驗室網址下載RPCA求解的程式

從稀疏表示到表示(二)

確定研究方向後一直在狂補理論,最近看了一些文章,有了些想法,順便也總結了representation系列的文章,由於我剛接觸,可能會有些不足,願大家共同指正。 從稀疏表示到低秩表示系列文章包括如

矩陣在機器視覺中的理解--Low-Rank representations

閱讀論文Learning Structured Low-rank Representations for Image Classification 文章主要有兩個創新點 1.在普通的低秩表示外另外加了對低秩表示的係數需要稀疏,這個的物理意義就是使得得出的低秩表示矩陣更有有

表示的學習--Latent Low-Rank Representation(LatLLR)

最近讀了LLR(Low Rank Representation)的文章,所以整理一下。本文的主線是LLR-->LantLLR-->RobustLLR 一、低秩表示 剛開始接觸低秩表示是看到一篇論文裡面對公式進行了低秩約束,感覺很好奇,查了一下後,發現低秩很

矩陣填充|奇異值閾值演算法

斜風細雨作小寒,淡煙疏柳媚晴灘。入淮清洛漸漫漫。 雪沫乳花浮午盞,蓼茸蒿筍試春盤。人間有味是清歡。 ---- 蘇軾 更多精彩內容請關注微信公眾號 “優化與演算法” 低秩矩陣恢復是稀疏向量恢復的拓展,二者具有很多可以類比的性質。首先,稀疏是相對於向量而言,稀疏性體現在待恢復向量中非零元素的數量遠小於向量長度

稀疏矩陣恢復|ADM(IALM)演算法

一曲新詞酒一杯,去年天氣舊亭臺。夕陽西下幾時回? 無可奈何花落去,似曾相識燕歸來。小園香徑獨徘徊。 ———《浣溪沙·一曲新詞酒一杯》——晏殊 更多精彩內容請關注微信公眾號 “優化與演算法” 上一期介紹了低秩矩陣填充問題,這一期介紹一下低秩稀疏矩陣恢復問題。 1. 低秩矩陣恢復 將一個矩陣 \(\bf{D

動態規劃之揹包問題和區間模型--Java實現

揹包問題描述:給定n個重量為w1,w2...wn、價值為v1,v2...vn的物品和一個承重量為W的揹包,求這些物品中最優價值的一個子集,並且要能夠裝到揹包中。 結論:1.在不包括第i個物品的子集中,最優子集的價值是Value[i-1][j]. 2.在包括第i個物品的子