亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        用于CT稀疏重建的對抗式多殘差深度神經網(wǎng)絡改進方法

        2021-08-18 08:01:56杜聰聰喬志偉張艷嬌
        中國體視學與圖像分析 2021年2期
        關鍵詞:條狀偽影高精度

        杜聰聰, 喬志偉, 張艷嬌, 蘆 陽

        (山西大學 計算機與信息技術學院, 山西 太原 030006)

        0 引言

        計算機斷層成像(CT)是應用最為廣泛的醫(yī)學成像模態(tài),其過高的X射線輻射劑量可能存在終身誘發(fā)癌癥的風險。因此,低劑量CT成為當前研究的熱點。目前,低劑量CT有兩種實現(xiàn)方法。一種是降低每個投影角度下的輻射劑量,另一種是在稀疏角度下減少投影個數(shù)。在稀疏投影角度下重建的圖像就是稀疏重建。其中以濾波反投影(Filtered Back Projection,F(xiàn)BP)[1]算法為代表的解析法是一類經典的CT圖像重建算法。然而FBP算法稀疏重建的圖像產生嚴重的條狀偽影,可能導致出現(xiàn)錯誤的疾病判讀。由此,研究者們開始設計新的高精度稀疏重建算法,以壓制條狀偽影。

        CT稀疏重建方法大致分為兩類。

        一類方法是基于壓縮感知Compressed Sensing,CS)[2]的迭代法,2006年,Sidky等提出了扇束和錐束CT的總變差(Total Variation,TV)最小算法,實現(xiàn)了高精度CT稀疏重建[3-4]。隨后,研究者們在TV算法的基礎上,提出了自適應加權TV(Adaptive-weighted Total Variation,awTV)[5]、保邊TV(Edge-preserving TV,EPTV)[6]、各向異性TV(Anisotropic TV,aTV)[3,7]、高階TV(High Order TV,HOTV)[8]、非局部TV(Non-local TV,NLTV)[9]及TpV(Total p-Variation)[10]等算法,進一步提高了重建精度,有力地推動了CT稀疏重建的發(fā)展。此外,其他基于壓縮感知的重建算法也得到了深入研究,如基于字典學習的方法[11]和基于秩最小的方法[12]。

        另一類方法是深度學習法。Chen等提出的Red-CNN網(wǎng)絡,結合了反卷積[13]和殘差學習[14],在CT稀疏重建方面取得了不錯的效果[15]。Wolterink等使用生成式對抗網(wǎng)絡( Generative Adversarial Networks,GAN)[16]在CT稀疏重建問題上也獲得了很大的提升[17]。Han等證明學習條狀偽影比學習原始信號更加簡單,并提出了基于Unet網(wǎng)絡[18]的深度殘差學習方法來估計條狀偽影,然后通過輸入的含條狀偽影的CT圖像減去估計的條狀偽影來獲得高質量的CT圖像[19]。Jin等提出的FBPConvNet網(wǎng)絡將殘差UNet網(wǎng)絡和FBP算法結合起來解決稀疏重建中出現(xiàn)的條形偽影問題,并將該方法與傳統(tǒng)的TV 方法進行對比,取得了不錯的效果[20]。

        Zhang等提出的DD-Net網(wǎng)絡結合密集連接[21]和反卷積,通過特征復用克服了梯度消失和梯度爆炸以及模型參數(shù)大小增加等問題,讓網(wǎng)絡結構進一步的壓縮從而更容易訓練,提高了網(wǎng)絡訓練的性能[22]。Han等揭示了Unet網(wǎng)絡可能會產生模糊邊緣的缺陷,提出了基于UNet的多分辨率深度學習網(wǎng)絡結構:多級結構UNets和輕量級結構UNets,增強了圖像的高頻特征,并論證了該網(wǎng)絡壓制偽影的性能優(yōu)于傳統(tǒng)的TV算法[23]。Steven等提出的FD-UNet網(wǎng)絡在UNet網(wǎng)絡的收縮和擴展路徑中均引入密集連接來抑制條狀偽影,進一步實現(xiàn)高精度稀疏重建[24]。

        在這些利用深度學習的圖像處理中,ResNet網(wǎng)絡中殘差連接可以在訓練更深網(wǎng)絡的同時,又能保證良好的性能。一定程度上解決了深度神經網(wǎng)絡存在的退化、梯度消失和梯度爆炸的問題[14]。對抗機制通過兩個不同網(wǎng)絡的博弈達到納什均衡,在計算機視覺方面取得了良好的效果[16]。

        本文擬在經典UNet網(wǎng)絡的基礎上,引入多殘差連接和對抗機制,提出一種對抗式多殘差深度神經網(wǎng)絡,用于壓制由解析法FBP稀疏重建產生的條狀偽影,從而進一步提高CT稀疏重建的精度。

        1 相關工作

        1.1 GAN模型

        圖1 對抗式網(wǎng)絡框架

        1.2 馬爾科夫判別器PatchGAN

        馬爾科夫判別器PatchGAN[25]基于原始GAN將判別器進行了改進。原始GAN網(wǎng)絡中判別器輸出的是一個概率值,判斷輸入圖像的真假。而PatchGAN判別器輸出的是一個矩陣,該矩陣中的每一個元素,代表著原圖中的一個比較大的感受野,也就是對應著原圖中的一個補丁塊。該判別器可以用來判別感受野是N×N的局部補丁塊的真假。假若判別器的輸出矩陣大小是30×30,其中的每個像素感受野對應的是原圖中70×70的補丁塊,該判別器用來判斷對應輸入判別器圖像的900個70×70的補丁塊的真假。

        1.3 ASD-POCS算法

        基于CS的TV重建算法[4]可以從稀疏投影中高精度重建CT圖像,其原理是在數(shù)據(jù)保真的約束下使圖像的TV最小。TV重建模型如下:

        (1)

        ASD-POCS(Adaptive Steepest Descent-Projection Onto Convex Sets)算法是一種高效的TV模型求解算法。本文將以此算法作為對比算法之一。

        2 網(wǎng)絡結構設計

        2.1 去偽影網(wǎng)絡結構

        去偽影網(wǎng)絡原理是將FBP算法稀疏重建的含條狀偽影的CT圖像作為輸入,經過去偽影網(wǎng)絡訓練后,得到高精度CT圖像。去偽影網(wǎng)絡基于經典UNet進行了改進,其結構如圖2所示,網(wǎng)絡結構以大小為256×256的CT圖像作為輸入,卷積操作都是使用3×3大小的卷積核,之后連接了批量歸一化層和ReLU激活函數(shù),卷積通道數(shù)分別設置為32,64,128,256,512,1024,最后一層卷積層將通道數(shù)轉換為1,得到大小為256×256的生成圖像。該網(wǎng)絡在每兩層卷積操作之間加入一個殘差連接,可以提取到更多的圖像特征。圖中n64代表卷積層的卷積核的數(shù)量為64。

        圖2 多殘差生成網(wǎng)絡結構圖

        2.2 判別器結構

        判別器網(wǎng)絡如圖3所示。受PatchGAN網(wǎng)絡的啟發(fā),判別器使用了全卷積網(wǎng)絡,判別網(wǎng)絡采用5個卷積層,將大小為256×256的高精度CT圖像和去偽影網(wǎng)絡重建的CT圖像作為網(wǎng)絡的輸入,輸出大小為16×16的矩陣。首先,將去偽影網(wǎng)絡重建的CT圖像和高精度CT圖像拼接;然后,進行5個卷積操作,前四個卷積操作使用4×4大小的卷積核,步長為2;最后,一個卷積操作卷積核大小為4×4,步長為1,將通道數(shù)轉換為1,得到大小為16×16的輸出。矩陣中的每一個像素點,實際上代表著輸入圖像中的一個94×94大小的局部感受野,這樣訓練的時候可以獲取到更多的圖像細節(jié)。圖中n64s2代表卷積層的卷積核的數(shù)量為64 ,步長為2。

        圖3 判別網(wǎng)絡結構圖

        2.3 損失函數(shù)

        3 結果

        本節(jié)主要介紹數(shù)據(jù)集、網(wǎng)絡訓練參數(shù)設定以及實驗對比分析。實驗選取傳統(tǒng)的TV算法、具有代表性的FBPConvNet和原始GAN三種算法作為稀疏重建的算法,與本文算法進行對比。

        3.1 數(shù)據(jù)集的構建

        本文選取了2015幅不同的CT圖像進行訓練,來自TCIA數(shù)據(jù)集(https://www.cancerimagingarchive.net/),其中50幅為測試集,50幅為驗證集。圖像大小為256×256像素。含條狀偽影的CT圖像通過對高精度CT圖像進行radon變換得到相對應的稀疏投影圖像,其中每幅CT圖像選擇60個投影進行稀疏重建。

        3.2 網(wǎng)絡訓練超參數(shù)設定

        在實驗中,TV算法進行了500次迭代,使其結果充分收斂。原始GAN網(wǎng)絡使用交叉熵二分類。 FBPConvNet網(wǎng)絡使用l2損失函數(shù)。本文提出的對抗式多殘差網(wǎng)絡使用l2損失與l1損失函數(shù)加權,其他參數(shù)保持一致。其中,所有的網(wǎng)絡都使用Adam優(yōu)化器,epoch為60,學習率為0.0002,batch_size為12。所有的卷積和反卷積濾波器都以均值為零、標準差為0.01的隨機高斯分布初始化。

        3.3 實驗平臺

        實驗配置CPU為Inter(R) Xeon(R) CPU E5-2620 v4 @ 2.10 GHz,GPU為NVIDIA Geforce GTX 1080 Ti,使用Keras庫在Python上進行訓練,訓練時間約為4小時。

        3.4 實驗結果及分析

        3.4.1 稀疏重建算法對比分析

        該實驗中,輸入是在[0,π]范圍內等間隔采集60個角度下的投影數(shù)據(jù)進行稀疏重建的CT圖像。在測試集中分別選取腹部和頭部CT圖像不同算法測試結果如圖4~圖9所示,將本文提出的方法與傳統(tǒng)的TV算法、原始GAN和FBPConvNet三種算法進行實驗對比。實驗結果表明,F(xiàn)BP稀疏重建的CT圖像具有明顯的條狀偽影,其他三種經典稀疏重建算法都有效地壓制了條狀偽影,并取得了較好的效果,但圖像中仍然存在一些明顯的條狀偽影,而本文提出的對抗式多殘差網(wǎng)絡重建圖像較為清晰,在去掉條狀偽影的同時保留了更多的圖像細節(jié)。

        圖4 CT圖像

        圖5 FBP算法

        圖6 TV算法

        圖7 原始GAN方法

        圖8 FBPConvNet方法

        圖9 本文方法

        對于定量分析,本文采用峰值信噪比(PSNR)、均方根誤差(RMSE)和結構相似性(SSIM)作為CT圖像稀疏重建效果的評價指標,其結果如表1所示。本文方法與傳統(tǒng)的TV算法、原始GAN和FBPConvNet三種方法相比:第一幅CT圖像PSNR 高出 FBPConvNet網(wǎng)絡大概 2.3 dB,RMSE降低了將近0.0027,與FBPConvNet 相比,SSIM略微領先。其余兩幅CT圖像中本文方法指標也優(yōu)于其他的稀疏重建方法。實驗結果表明,本文提出的方法與傳統(tǒng)的TV、原始GAN和FBPConvNet三種算法相比,該方法保留的細節(jié)信息更多,重建出的CT圖像精度更高。

        表1 稀疏重建實驗對比結果

        3.4.2 本文算法在不同稀疏情形下的性能分析

        為了探索本文提出的對抗式多殘差網(wǎng)絡在不同稀疏情形下的重建圖像算法的性能,在[0,π]范圍內等間隔分別采集15個、30個、90個角度下的投影數(shù)據(jù)進行稀疏重建的CT圖像作為本文算法的輸入進行訓練,并進行了定性和定量分析。

        實驗結果如圖10所示,在稀疏度為15時,GAN網(wǎng)絡稀疏重建的CT圖像效果最差,稀疏度為30時重建的圖像仍然存在明顯的條狀偽影;稀疏度為60時,保留的細節(jié)信息明顯增加,從子圖(i)可以看出,90個投影角度下保留的細節(jié)信息更多,紋理結構更加明顯。為了更直觀地觀察不同網(wǎng)絡稀疏重建的效果,圖11(a)~(d)為圖10紅色框內局部區(qū)域的放大圖像,從圖中可以看到,90個稀疏角度下重建的圖像紋理結構更加明顯。對于定量分析,比較結果如表2所示,在90個稀疏角度下重建出的CT圖像PSNR比60個稀疏度下重建的CT圖像高出將近0.36 dB,RMSE降低了0.0006,SSIM的值也有所提高。實驗結果表明,在深度學習去條狀偽影過程中,稀疏角度越多的CT圖像,在該網(wǎng)絡中越容易訓練出高精度CT圖像。

        圖10 不同稀疏情形下的重建圖像對比圖

        圖11 不同稀疏度下的重建圖像放大對比圖

        表2 不同稀疏度下重建圖像的PSNR值、SSIM值、RMSE值

        4 結論

        在本文提出的對抗式多殘差網(wǎng)絡中,將去偽影網(wǎng)絡基于經典UNet進行了改進,判別網(wǎng)絡通過輸出矩陣來判斷補丁塊的真假,增加了神經網(wǎng)絡的深度,提高了網(wǎng)絡的表達能力。與傳統(tǒng)的TV算法、原始GAN 和FBPConvNet三種稀疏重建算法相比,該算法能夠有效地恢復圖像細節(jié),且重建出的CT圖像精度更高。同時,稀疏角度越多,該網(wǎng)絡越容易訓練出高精度CT圖像。說明該網(wǎng)絡在提高CT圖像高精度稀疏重建方面具有很大的潛力。未來的研究方向將基于此網(wǎng)絡架構的壓制條狀偽影網(wǎng)絡進行改進,進一步提高CT圖像稀疏重建的精度。目前,我們正將此網(wǎng)絡應用于電子順磁共振稀疏重建中,評估其在此成像模態(tài)下的性能。

        猜你喜歡
        條狀偽影高精度
        On Aesthetic Mechanism of Translation
        新生代(2019年11期)2019-11-13 09:28:19
        On Aesthetic Mechanism of Translation
        CT圖像“條狀”偽影校正方法研究
        核磁共振臨床應用中常見偽影分析及應對措施
        基于MR衰減校正出現(xiàn)的PET/MR常見偽影類型
        高抗擾高精度無人機著艦縱向飛行控制
        船載高精度星敏感器安裝角的標定
        基于高精度測角的多面陣航測相機幾何拼接
        減少頭部運動偽影及磁敏感偽影的propller技術應用價值評價
        一種無偽影小動物頭部成像固定裝置的設計
        青青在线精品2022国产| 欧美精品中文字幕亚洲专区| 亚洲女优中文字幕在线观看| 成人av片在线观看免费| 浪货趴办公桌~h揉秘书电影| 亚洲国产天堂久久综合网| 免费特级毛片| 暖暖免费 高清 日本社区在线观看| 真实国产乱视频国语| 国产精品国产三级国产一地 | 亚洲av无码成h在线观看| 国产97在线 | 日韩| 中文字幕+乱码+中文字幕一区| 亚洲欧洲无码av不卡在线| 色窝窝在线无码中文| 国产一级淫片免费播放电影| 中文熟女av一区二区| 在线观看视频国产一区二区三区 | 国产色系视频在线观看| 精品爆乳一区二区三区无码av| 亚洲一区二区综合色精品| 欧美v日韩v亚洲综合国产高清| 色青青女同性恋视频日本熟女| 一区二区三区亚洲免费| 偷拍夫妻视频一区二区| 欧美一区二区三区红桃小说| 国产午夜影视大全免费观看| 久久精品国产亚洲婷婷| 加勒比亚洲视频在线播放| 国产精品髙潮呻吟久久av| 中文字幕日韩人妻少妇毛片| 又色又爽又黄高潮的免费视频| 免费a级毛片无码无遮挡| 久久er国产精品免费观看8| 一级一片内射在线播放| 亚洲天堂一区二区偷拍| 国产成人av一区二区三区在线观看 | 国产一区二区三区免费在线视频| 午夜精品人妻中字字幕| 一区二区三区国产内射| 含紧一点h边做边走动免费视频|