黃敏,管智慧,周到,陳軍波
(中南民族大學生物醫(yī)學工程學院,武漢 430074 )
掃描時間較長,是核磁共振(MRI)當前存在的一個主要問題?;趬嚎s感知的MRI掃描有效地緩解了這一問題。但隨后的重建過程是基于迭代算法實現的,在保證重建圖像質量的前提下,重建時間變長,不利于臨床實時成像。
傳統(tǒng)MRI圖像重建方法沒有統(tǒng)一框架,與脈沖序列、K空間采樣軌跡等密切相關,研究者必須對成像原理,脈沖序列等非常熟悉。在各種醫(yī)學成像技術中,MRI的重建算法相對是最復雜的。
近年來,深度學習[1-3]也逐步應用于MRI重建領域。Jin等[4]提出使用U-net模型重建MRI,模型通過對補零后FFT的偽影圖像與金標準圖像之間進行學習,重建出不含偽影的MRI圖像。后來,他們又在U-net模型的基礎上加入殘差模塊,解決了反向傳播過程中梯度消失的問題。隨后出現的級聯卷積神經網絡[5],將多個CNN網絡模塊級聯起來,進行輸入為帶偽影圖像的端到端訓練。2016年,Sun等[6]提出ADMM-net網絡,該模型將交替方向乘子算法(ADMM)與CNN聯合起來作為一種MRI重建方法。
上述各種CNN模型輸入的是空間域圖像,與MRI掃描的頻域數據相比,前者丟失了部分MRI信息。若直接對K空間頻域數據進行學習[7],則更符合重建的思路和工程要求。
2018年,Souza等[8]提出了W-net模型,該模型由頻域U-net和空域U-net組成,兩個子模型中間由傅里葉變換相連接。其中頻域U-net的輸入為雙通道,分別載入復數數據的實部和虛部,作為整個網絡的輸入。但當我們用新數據送入該模型,得到的重建結果較差。
為了優(yōu)化W-net模型的性能,我們對原白模型采用基于新實例數據的遷移學習方法,并對損失函數和學習率進行調整,提升了模型的泛化能力。然后對優(yōu)化后的模型加入數據更新模塊,進一步改善了模型的重建效果,并分析不同采樣率下的模型性能,與傳統(tǒng)壓縮感知算法(BM3D-MRI)[9]作比較。
W-net原數據集包含45個體數據,為T1加權、矢狀位全采樣的K空間數據,每個體數據包含170層二維數據,訓練集/驗證集/測試集分別為4 250/1 700/1 700。由于數據量較少,模型對新數據的重建效果較差。
為了提高模型的泛化能力,我們采用擴展數據進行遷移學習。數據來源于IXI數據集(https://brain-development.org/ixi-dataset/),選取其中240個T1加權的矢狀位的正常腦部體數據。每個體數據包含150張2D磁共振圖像,訓練集/驗證集/測試集分別為24 000/6 000/6 000。由于W-net模型的輸入端為K空間數據,需要對圖像進行FFT得到頻域數據,經采樣率20%的高斯隨機掩模欠采樣后,再送入網絡學習。將經過遷移學習后的W-net模型稱為W-net1,見圖1。
圖1 擴展數據集預處理Fig.1 Preprocess forextended data set
為了增加訓練集的數量,在實際訓練中還加入了數據增強。對訓練數據進行在角度(0,40)內的隨機翻轉(模擬MRI斜面掃描),以及參數為0.075的左平移和右平移、參數為0.25的裁剪和縮放,并通過最近鄰的插值方式處理超出的邊界點。最終實現小批次的在線增強,直至達到設定的Epoch次數為止。
圖2 W-net模型框架Fig.2 W-net model framework
圖2中的W-net網絡,由結構對稱的a和c兩個U-net部分,和一個中間IFFT連接部分b構成。共包含44個卷積層。
其中,a為帶殘差的頻域U-net,輸入和輸出均是頻域數據。共22個卷積層,前21個卷積層后面均伴隨激活函數ReLU,最后一個卷積層后面跟隨線性激活函數。前半部分(下采樣)經過三次池化操作對輸入數據降采,減小特征圖大小和增大視野。后半部分(上采樣)經過三次反卷積,以增大特征圖大小和輸入數據尺寸保持一致。由于下采樣會丟失一部分信息,故將上采樣和下采樣中對應的特征圖進行組合,再卷積。并將最后一層卷積輸出與a輸入相加得到a部分的輸出。
經過中間b部分的IFFT,將數據由頻域轉換到圖像域。c與a結構相似,但為空域U-net,其輸入與輸出均為圖像域。a部分對輸入為K空間欠采樣的數據進行學習,預測出完整的K空間數據。c部分則是進一步提取圖像的高階特征,濾除圖像偽影。
模型輸入為K空間欠采數據補零后的256×256數據,輸出為256×256的重建MRI圖像。損失函數為a部分輸出的全采K空間數據的均方根誤差和最終輸出圖像的均方根誤差的加權,公式為:
(1)
其中,ki和Ii分別為訓練集第i個樣本的全采樣K空間數據和重建圖像,n為訓練集樣本的數量。損失函數的第一項作為恢復原始數據的誤差項,第二項作為重建結果的誤差項。
調整q1與q2的比例q1+q2=1,訓練得到不同模型,用擴展數據的測試集對其分別測試。以測試結果的平均峰值信噪比(PSNR)和平均均方根誤差(NRMSE)作為評價指標。通過分析,折中選取q1為0.3,則q2為0.7,見圖3。
采用Adam函數對網絡進行反向優(yōu)化,原模型的初始學習速率為10-3,β1=0.9,β2=0.999。遷移學習過程以原模型參數作為初始參數,用擴展數據集中的訓練集對原模型進一步訓練。并將初始學習率調為10-4,每批次輸入4個訓練樣本,實驗共迭代6×105次,訓練時長約35 h。
圖3 q1與q2對模型性能的影響Fig.3 Effects of q1 and q2 on model performance
本研究是基于深度學習Keras框架在配置有8塊16 GB的NVIDIA Tesla V100 GPU工作站上實現的,采用了開發(fā)語言Python3.6和MatlabR2018b用于數據分析。
考慮到重建圖像的K空間數據與原始數據的一致性,有必要在模型中加入數據更新層。
首先,對輸出圖像進行傅里葉變換得到當前全K空間數據,將欠采樣輸入數據中補零的部分進行替換。然后,對更新后K空間數據進行IFFT,得到模型的最終輸出。整個模型的重建過程見圖4。
將原始和擴展數據集的兩個測試集合并為新的測試集,樣本量為7 700。分別對W-net和W-net1兩個模型進行測試,并對每個指標計算其均值和方差,指標結果見表1。分析可知,相比原模型,經過遷移學習后的模型W-net1其結構相似度SSIM從0.86上升到0.97,PSNR平均提高了約7.5 dB,NRMSE從5.08下降到2.02,說明模型的性能整體有較大的提升。
圖4 模型重建過程Fig.4 Model reconstruction process
表1 模型重建指標對比Table 1 Model reconstructionindexcomparison
為了測試模型的泛化能力,本研究隨機地在網上尋找不同部位及不同方位的MRI圖像,圖5(a)-(d)為金標準參考圖像。a為與訓練數據同一批的頭部矢狀位圖像,b為大腦軸位圖像,c為大腦軸位含病灶圖像,d為膝蓋圖像。對以上MRI圖像進行FFT,模擬得到k空間全采樣數據,并加入隨機噪聲,然后加掩模,得到欠采的測試數據。分別輸入到W-net和W-net1模型中,輸出結果分別為圖中的第二排與第三排。
從結果可知,原模型W-net對正常人的頭部測試數據,能夠預測得到較好的結果,見圖5(e)-(f)。但對含病灶的大腦和膝蓋,預測效果很差,見圖5(g)-(h)。腫瘤和周圍組織的對比度較差,且缺失了輪廓(黃色箭頭位置);膝蓋對比度更差。
由表2可知,對含病灶的頭部核磁共振數據,W-net重建圖像的NRMSE較高,PSNR較低,未達到臨床上醫(yī)學圖像的診斷標準。
圖5 W-net與W-net1的測試結果Fig.5 Test results ofW-net and W-net1 model
然而,遷移學習后的模型W-net1,對含腫瘤的頭部欠采核磁共振數據有很好的預測效果。由表2可知,相比原模型,W-net1重建圖像的PSNR提高了近10 dB,NRMSE降低了8.7。同時觀察圖5(h)和圖5(l)的膝蓋圖像,重建效果在對比度上明顯改善。
表2 含病灶數據的重建指標對比Table 2 Reconstruction indicators for lesion data
可見,W-net1模型不僅對頭部矢狀位和大腦軸位數據有很好的預測效果,而且對含腫瘤的頭部和結構相對簡單的膝蓋等部位數據,同樣具有很好的預測重建能力。因此,W-net1與原模型W-net相比,大大提升了模型的泛化能力。
圖6 數據更新效果對比Fig.6 Comparison of data update effect
最后,為進一步提升模型性能,在W-net1模型中添加數據更新層,改進后的模型對小腦部分的紋理細節(jié)恢復有更好的表現,見圖6。
為了比較深度MRI重建與傳統(tǒng)重建算法的優(yōu)劣,分別采用10%、20%和30%的降采樣率數據進行重建。采用高斯隨機掩模,對全采K空間數據進行降采樣,并比較三種采樣率的重建結果。傳統(tǒng)重建算法選用CS-MRI重建中重建效果較好的BM3D-MRI,見圖7。第二行至第四行分別對應不同采樣率的重建結果及誤差圖,第二列和第四列分別代表三種采樣率的深度重建和CS重建結果,第三列和第五列分別代表三種采樣率的深度重建誤差圖和CS重建誤差圖。
觀察可知,當采樣率為10%時,CS重建圖像較模糊,而深度重建結果雖在腫瘤邊緣不是很清晰,但腫瘤的位置和形狀能夠較準確地呈現出來。當采樣率為20%時,相比CS重建,深度重建能夠更好地恢復腫瘤的邊緣輪廓和內部形態(tài)(黃色箭頭所示)。對于深度MRI重建,當采樣率提高到30%時,腫瘤大小及對比度與金標準相比,幾乎準確復原,明顯優(yōu)于CS重建效果,且重建速度也遠遠高于傳統(tǒng)算法,可在掃描后馬上看到重建圖像,這對于臨床實時應用具有極大的意義。
圖7 深度重建與CS重建結果對比Fig.7 Comparision between the results of deep reconstruction and CS reconstruction
我們研究了深度MRI重建方法,對W-net模型進行遷移學習,對損失函數和學習率等超參數進行了調整,改進后的模型的泛化能力大大提升。在重建質量與速度上,深度MRI均優(yōu)于壓縮感知法。為進一步改善W-net1模型的重建效果,在模型中加入了數據更新模塊,改進后的模型能夠學習到更多的紋理細節(jié)特征。后期可研究深度并行MRI成像技術[10],以更接近臨床應用。
深度MRI成像基于對大量數據進行學習,訓練好的模型能夠對新數據進行預測得到理想的重建結果。相比于傳統(tǒng)MRI成像技術,深度MRI成像是更加智能化的“黑盒子”,其快速準確的預測能力,將顯著改善以往MRI成像領域掃描加速后帶來的重建算法復雜,重建效率和效果均較差的情況。深度MRI成像將開辟MRI“快速掃描+快速重建”的新未來,改變傳統(tǒng)的重建思維和實現模式。
感謝“認知科學國家民委重點實驗室”的資助(中央高校基金CZY19040)。