亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的時頻域CT重建算法

        2022-05-07 07:08:30李昆鵬張鵬程上官宏王燕玲桂志國
        計算機應(yīng)用 2022年4期

        李昆鵬,張鵬程*,上官宏,王燕玲,楊 婕,桂志國

        (1.中北大學(xué)信息與通信工程學(xué)院,太原 030051;2.生物醫(yī)學(xué)成像與影像大數(shù)據(jù)山西省重點實驗室(中北大學(xué)),太原 030051;3.太原科技大學(xué)電子信息工程學(xué)院,太原 030024;4.山西財經(jīng)大學(xué)信息學(xué)院,太原 030006;5.山西中醫(yī)藥大學(xué)健康服務(wù)與管理學(xué)院,太原 030024)

        0 引言

        X 射線計算機斷層掃描(Computed Tomography,CT)是一種在臨床和工業(yè)中被廣泛使用的成像技術(shù)。在斷層成像中所需解決的主要問題是如何通過投影數(shù)據(jù)恢復(fù)出圖像數(shù)據(jù)。隨著斷層成像技術(shù)在許多領(lǐng)域中的廣泛使用,眾多研究人員致力于研究CT 重建方法。目前主要的CT 重建方法可分為三類:解析重建算法、迭代重建算法和基于神經(jīng)網(wǎng)絡(luò)的重建方法。

        依據(jù)傅里葉中心切片定理,解析重建算法建立了待重建物體的Radon 變換與其二維傅里葉變換之間聯(lián)系。濾波反投影(Filtered Back-Projection,F(xiàn)BP)算法是經(jīng)典的解析重建算法,廣泛應(yīng)用于CT 重建中。FBP 算法的優(yōu)點是計算速度快,計算存儲消耗?。蝗欢?,當投影數(shù)據(jù)角度較少或投影數(shù)據(jù)中包含大量噪聲時,該算法重建所得圖像質(zhì)量將大幅降低。

        區(qū)別于解析重建算法僅對投影數(shù)據(jù)處理,CT 重建迭代算法同時考慮投影數(shù)據(jù)和重建圖像的統(tǒng)計特性。迭代重建算法通過給目標函數(shù)添加不同的正則項,從而包含了不同的統(tǒng)計模型,如全變分(Total Variation,TV)、廣義全變分、非局部信息和字典學(xué)習(xí)等。在目標函數(shù)中使用正則項,顯著地提升了重建后圖像的視覺效果。然而,為了獲得較好的重建結(jié)果,需要謹慎設(shè)置迭代算法中的超參數(shù)以及嚴格控制迭代次數(shù)。在迭代重建算法求解過程中,導(dǎo)致計算代價高的主要原因是反復(fù)進行的投影/反投影運算。盡管能通過并行計算方法對該部分進行加速,但是仍舊比解析重建算法消耗更多計算時間和儲存空間。

        近年來,深度學(xué)習(xí)在計算機視覺和自然語言處理領(lǐng)域得到了廣泛的應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是目前應(yīng)用最廣泛的深度學(xué)習(xí)算法之一。由于很難采用CNN 表征投影域到圖像域之間的復(fù)雜映射關(guān)系,因而文獻[16-17]在網(wǎng)絡(luò)中使用全連接技術(shù)建立CT 重建網(wǎng)絡(luò)。在重建網(wǎng)絡(luò)中采用全連接技術(shù)導(dǎo)致網(wǎng)絡(luò)規(guī)模過大,增加了網(wǎng)絡(luò)訓(xùn)練和實際應(yīng)用的難度。

        為了避免在CT 重建網(wǎng)絡(luò)中使用全連接技術(shù),研究人員將迭代重建算法的迭代過程展開成固定的

        N

        步迭代,用CNN替換其中每一次迭代。一方面,迭代重建算法的正則項可以直接用CNN 進行替換;另一方面,通過交替方向乘子法將目標函數(shù)分解為幾個子目標函數(shù),這些子目標函數(shù)優(yōu)化結(jié)果等價于原目標函數(shù)的優(yōu)化結(jié)果。部分子目標函數(shù)可以通過CNN 實現(xiàn),從而避免了在重建網(wǎng)絡(luò)中使用全連接技術(shù),減少了重建網(wǎng)絡(luò)的參數(shù)量。但是相較于解析重建算法,這類方法所需計算量仍然非常大。

        與上述兩類基于神經(jīng)網(wǎng)絡(luò)的重建方法不同,雙域重建算法采用反投影算子來實現(xiàn)投影域數(shù)據(jù)到圖像域數(shù)據(jù)的轉(zhuǎn)換,在投影域與圖像域分別利用CNN 進行濾波和圖像恢復(fù)。該類方法避免了在重建網(wǎng)絡(luò)中使用全連接技術(shù),且相較于迭代展開重建算法,減少了重建所需計算量,因而被越來越多的研究人員采用。

        與傳統(tǒng)FBP 算法相比,使用特殊的濾波器替換原有理想斜坡濾波器對投影數(shù)據(jù)進行濾波,可以得到與迭代重建算法重建視覺效果相近的結(jié)果。該濾波器可以通過對迭代重建算法進行理論推導(dǎo)直接得出,也可以通過迭代重建算法進行優(yōu)化求解得出。根據(jù)傅里葉中心切片定理可知,未經(jīng)過濾波而直接進行反投影將引起重建圖像的低頻分量過度加權(quán),導(dǎo)致圖像變得模糊。傳統(tǒng)FBP 算法的濾波器為理想斜坡濾波器,該濾波器是一個高通濾波器,在實際應(yīng)用中很難實現(xiàn)。對此,常采用加窗的方法對理想斜坡濾波器進行修正。通常使用理想矩形窗對理想斜坡濾波器進行加窗得到Ram-Lak 濾波器。雖然采用Ram-Lak 濾波器重建的圖像可以有效地去除重建圖像低頻模糊效應(yīng),但是重建圖像會存在明顯的Gibbs 震蕩現(xiàn)象。針對Ram-Lak 濾波器所引起的重建圖像震蕩效應(yīng),文獻[2]提出選取sinc 函數(shù)作為窗函數(shù)得到Shepp-Logan 濾波函數(shù),該方法彌補了Ram-Lak 濾波器的不足;但是Shepp-Logan 濾波器在低頻段偏離理想濾波器,導(dǎo)致重建圖像的低頻部分視覺效果差。解析重建算法還易受投影數(shù)據(jù)質(zhì)量的影響,當投影數(shù)據(jù)角度較少或投影數(shù)據(jù)中包含大量噪聲時,重建所得圖像視覺效果明顯變差。理論上說,采用特殊的濾波器對投影數(shù)據(jù)進行濾波,可以進一步改善傳統(tǒng)FBP 算法重建圖像中低頻偏離、高頻震蕩等現(xiàn)象。

        針對采用時域濾波器進行解析重建導(dǎo)致重建后圖像存在偽影和圖像細節(jié)丟失等問題,本文利用卷積神經(jīng)網(wǎng)絡(luò)強大的特征提取和表達能力,設(shè)計了一個結(jié)合頻域處理的雙域CT 重建神經(jīng)網(wǎng)絡(luò)(Dual Domain Frequency Network,DDFre-Net)。本文主要工作有以下幾點:1)為了解決時域濾波器進行解析重建導(dǎo)致重建后圖像存在偽影和圖像細節(jié)丟失的問題,在頻域使用CNN 對投影數(shù)據(jù)進行處理,構(gòu)建了投影域網(wǎng)絡(luò)Fre-CNN;2)為了解決在投影域到圖像域轉(zhuǎn)過程中使用全連接技術(shù)而導(dǎo)致網(wǎng)絡(luò)參數(shù)量大的問題,實現(xiàn)了正投影/反投影線性算子,構(gòu)建了反投影層;3)為了提高重建網(wǎng)絡(luò)在訓(xùn)練過程中的收斂速度,獲得較高質(zhì)量的重建圖像,構(gòu)建了圖像域網(wǎng)絡(luò)Img-CNN;4)為了抵消神經(jīng)網(wǎng)絡(luò)對結(jié)果圖像的模糊效應(yīng),保留重建圖像細節(jié),在原最小均方誤差損失函數(shù)基礎(chǔ)上引入多尺度結(jié)構(gòu)相似度損失函數(shù)來組成復(fù)合損失函數(shù)以保留更多重建圖像的細節(jié)。為了驗證本文算法的有效性,將本文算法與FBP 算法、TV 算法、殘差編解碼卷積神經(jīng)網(wǎng)絡(luò)(Residual Encoder-Decoder CNN,RED-CNN)算法在臨床數(shù)據(jù)集上作對比。實驗結(jié)果表明,本文算法重建的圖像偽影少,信噪比高,且速度快。

        1 DDFre-Net

        本文構(gòu)建了一個基于雙域的CT 重建網(wǎng)絡(luò)DDFre-Net,該網(wǎng)絡(luò)結(jié)合了投影數(shù)據(jù)頻域處理和圖像數(shù)據(jù)時域處理,總體架構(gòu)如圖1(a)所示。DDFre-Net 主要由三部分組成:投影數(shù)據(jù)頻域處理網(wǎng)絡(luò)Fre-CNN、反投影層(Back-Projection)和圖像數(shù)據(jù)時域處理網(wǎng)絡(luò)Img-CNN。在DDFre-Net 中,輸入的投影數(shù)據(jù)首先在Fre-CNN 中進行處理。在Fre-CNN 中,投影數(shù)據(jù)先經(jīng)Spa2Fre 層進行傅里葉變換,然后經(jīng)過頻域編解碼的CNN處理,最后在Fre2Spa 層進行傅里葉反變換。反投影層(Back-Projection)實現(xiàn)了投影域到圖像域的變換功能,該層網(wǎng)絡(luò)的參數(shù)是固定的。在DDFre-Net 的圖像域處理中,Img-CNN 對反投影層輸出的圖像進行進一步恢復(fù),最終得到重建圖像。DDFre-Net 是一個端到端的卷積神經(jīng)網(wǎng)絡(luò),在網(wǎng)絡(luò)的輸出端采用統(tǒng)一的損失函數(shù)對網(wǎng)絡(luò)進行約束。

        圖1 DDFre-Net結(jié)構(gòu)Fig.1 DDFre-Net structure

        1.1 投影域網(wǎng)絡(luò)

        在傳統(tǒng)FBP 算法中,通常采用理想斜坡濾波器對投影數(shù)據(jù)進行濾波處理從而改善重建圖像后圖像的質(zhì)量。對投影數(shù)據(jù)的濾波處理可以在時域進行,也可以在頻域進行。時域濾波是通過將投影數(shù)據(jù)與時域濾波器進行離散卷積實現(xiàn);頻域濾波則是先各自將投影數(shù)據(jù)和濾波器進行傅里葉變換,在頻域?qū)⒍咧苯酉喑藢崿F(xiàn)。

        傳統(tǒng)FBP 算法中的理想濾波器是根據(jù)傅里葉中心切片定理推導(dǎo)得到。由于該理想濾波器是個頻帶無限的濾波函數(shù),很難直接在實際中應(yīng)用。因而,為了精確地表征該斜坡濾波器,Ghani 等利用CNN 替換理想斜坡濾波器,對投影數(shù)據(jù)進行濾波處理;Whiteley 等針對由于探測器損壞或靈敏度不足而導(dǎo)致的投影數(shù)據(jù)缺失的問題,利用CNN 在時域?qū)φ娮影l(fā)射型計算機斷層顯像(Positron Emission computed Tomography,PET)投影數(shù)據(jù)進行恢復(fù)和濾波處理。Wang 等在頻域中利用CNN 對PET 投影數(shù)據(jù)進行濾波。相較于CNN 在時域中的濾波處理,頻域處理的重建網(wǎng)絡(luò)模型具有更強的泛化能力。因此,本文在頻域中構(gòu)建網(wǎng)絡(luò)對投影數(shù)據(jù)進行濾波處理。

        頻域處理網(wǎng)絡(luò)的詳細結(jié)構(gòu)如圖1(b)所示,最左端是Spa2Fre 層,中間是頻域編解碼網(wǎng)絡(luò)Fre-CNN,最右端是Fre2Spa 層。在Spa2Fre 層中對時域投影數(shù)據(jù)進行傅里葉變換;在Fre2Spa 層中對頻域濾波后的投影數(shù)據(jù)進行傅里葉反變換;由于基于編解碼結(jié)構(gòu)的CNN 具有較強的特征提取和信息表征能力,所以本文采用基于U-Net 的CNN來構(gòu)建頻域濾波網(wǎng)絡(luò)。如圖1(b)所示,頻域濾波編解碼網(wǎng)絡(luò)Fre-CNN深度為4,每一級由編碼子網(wǎng)絡(luò)與解碼子網(wǎng)絡(luò)組成。為避免深度網(wǎng)絡(luò)訓(xùn)練過程中梯度消失問題,同級網(wǎng)絡(luò)之間通過跨層連接,將同級編碼端低維特征補充到解碼端高維特征。每一級的編碼子網(wǎng)絡(luò)和解碼子網(wǎng)絡(luò)都由相同的網(wǎng)絡(luò)結(jié)構(gòu)組成,該網(wǎng)絡(luò)結(jié)構(gòu)包含兩個連續(xù)的卷積層(Convolutional layer,Conv),在每次卷積操作后均有一個批規(guī)范化(Batch Normalization,BN)操作和一個線性修正單元(Rectified Linear Unit,ReLU)作為激活函數(shù)進行激活。其中,卷積操作的卷積核大小為1×3。在編碼端,兩次連續(xù)卷積后進行一次1×2 的池化操作,其步長為1×2;在解碼端,兩次連續(xù)卷積之后進行一次1×2 的上采樣(Up-Conv)操作,其步長為1×2。投影域網(wǎng)絡(luò)卷積特征圖數(shù)量和數(shù)據(jù)大小如圖1(b)所示。投影域網(wǎng)絡(luò)計算式如下:

        其中:

        P

        為投影數(shù)據(jù);

        F

        F

        分別表示傅里葉正變換和傅里葉反變換;

        Net

        表示該網(wǎng)絡(luò)的輸出;

        CNN

        為投影數(shù)據(jù)在頻域中的濾波網(wǎng)絡(luò)。

        1.2 反投影層

        在二維扇形束CT 重建過程中,在

        N

        個投影角度下獲取投影數(shù)據(jù),每個角度下的投影數(shù)據(jù)長度為

        N

        ,所有投影數(shù)據(jù)表示為

        p

        。重建后的圖像為

        x

        ,其大小為

        N

        ×

        N

        。于是,CT 重建問題可以表述為求解以下線性方程:

        其中:

        A

        是系統(tǒng)矩陣,其大小為

        NN

        ×

        NN

        。CT 重建過程便是根據(jù)系統(tǒng)矩陣

        A

        從投影數(shù)據(jù)

        p

        中恢復(fù)出未知圖像

        x

        。系統(tǒng)矩陣

        A

        中的元素

        a

        表示第

        i

        條X 射線穿過模體在第

        j

        號像素內(nèi)產(chǎn)生的貢獻。系統(tǒng)矩陣

        A

        與圖像

        x

        的乘積被稱為正投影,而系統(tǒng)矩陣的轉(zhuǎn)置

        A

        與投影數(shù)據(jù)

        p

        的乘積被稱為反投影。在實際應(yīng)用中,由于系統(tǒng)矩陣非常龐大,通常采用即時計算的方式計算正投影系統(tǒng)矩陣

        A

        和反投影系統(tǒng)矩陣

        A

        。CT 圖像重建過程可以表示為濾波后投影數(shù)據(jù)

        P

        與反投影矩陣

        A

        直接相乘的反投影過程。理論上說,該反投影過程可以使用全連接技術(shù)實現(xiàn)。由于實際CT 重建問題中投影數(shù)據(jù)和重建圖像的尺寸較大,導(dǎo)致全連接層的網(wǎng)絡(luò)參數(shù)非常龐大,阻礙了該技術(shù)在常規(guī)電腦上的實現(xiàn)。為了解決該問題,本文構(gòu)造了一個權(quán)重參數(shù)固定的反投影層,采取即時計算的方式計算反投影矩陣

        A

        和正投影矩陣

        A

        。反投影層的前向操作可以表示為:

        其中:反投影層的輸入

        x

        來自于投影域網(wǎng)絡(luò)的輸出,

        x

        表示該反投影層的輸出。網(wǎng)絡(luò)在訓(xùn)練過程中,誤差反向傳播通過反投影層可以表示為:

        其中:

        e

        表示來自于圖像域網(wǎng)絡(luò)的反饋誤差,該反饋誤差經(jīng)過正投影操作得到誤差

        e

        ,反饋至投影域網(wǎng)絡(luò)。為了提升DDFre-Net 重建網(wǎng)絡(luò)的性能,正投影采用射線驅(qū)動方法進行計算,反向投影則采用像素驅(qū)動方法進行計算。反投影層可以表示為:

        其中:

        Net

        為反投影層輸出;

        BP

        (·)為反投影層;

        Net

        為投影域網(wǎng)絡(luò)輸出。

        1.3 圖像域網(wǎng)絡(luò)

        為了進一步改善重建圖像視覺效果,在反投影層之后增加一個圖像域處理網(wǎng)絡(luò)Img-CNN。如圖1(c)所示,該網(wǎng)絡(luò)是一個U-Net 結(jié)構(gòu)的網(wǎng)絡(luò),包含一個編碼器子網(wǎng)絡(luò)(左半部分)和一個解碼器子網(wǎng)絡(luò)(右半部分)。編碼器子網(wǎng)絡(luò)和解碼器的深度設(shè)為4。在編碼端,每一級包含兩個連續(xù)的卷積塊和池化塊。每個卷積塊包含兩個卷積層,每個卷積層采用步長為1 的3×3 卷積核進行卷積,同時每個卷積層緊跟一個批規(guī)范化層及一個ReLU 非線性激活函數(shù)層。在連續(xù)兩個卷積塊后,有卷積核大小為3×3、步長為2×2 的最大池化層進行下采樣操作。池化層輸出的特征圖數(shù)量是輸入特征圖兩倍。在解碼端,輸入的特征圖先經(jīng)過Up-Conv 操作,通過插值操作使特征圖大小增大為原來的兩倍。在Up-Conv 操作中,輸出特征圖數(shù)量為輸入特征圖數(shù)量的1/2,同時,Up-Conv 輸出的特征圖與對應(yīng)同一編碼端卷積輸出特征圖進行級聯(lián)操作。每一級編碼端和解碼端采用跨層連接操作,解決深度神經(jīng)網(wǎng)絡(luò)梯度消失的問題,并提高網(wǎng)絡(luò)訓(xùn)練的收斂速度。在Img-CNN最后,采用一個卷積核大小為1×1、步長為1 的卷積層進行網(wǎng)絡(luò)特征融合,輸出重建圖像。Img-CNN 每層卷積數(shù)量和每層圖像大小如圖1(c)所示。圖像域網(wǎng)絡(luò)可用下列計算式表示:

        其中:

        Net

        為網(wǎng)絡(luò)輸出;

        CNN

        為圖像域數(shù)據(jù)處理網(wǎng)絡(luò);

        Net

        為反投影層的輸出。

        1.4 網(wǎng)絡(luò)損失函數(shù)

        本文采用像素級損失函數(shù)和結(jié)構(gòu)相似性損失函數(shù)共同對重建網(wǎng)絡(luò)進行約束。本文所使用的像素級損失函數(shù)為最小均方誤差(Mean Square Error,MSE),如式(7)所示:

        其中:

        x

        是重建圖像,

        x

        則是參考圖像。

        但MSE 損失通常會導(dǎo)致網(wǎng)絡(luò)收斂于訓(xùn)練數(shù)據(jù)的均值,導(dǎo)致重建后圖像存在平滑模糊、缺少細節(jié)和紋理特征的現(xiàn)象。故本文采用MSE 損失函數(shù)和多尺度結(jié)構(gòu)相似度(Multi Scale Structural Similarity,MS-SSIM)損失函數(shù)(如式(9)所示)共同作為重建網(wǎng)絡(luò)損失函數(shù),進一步地保持重建圖像細節(jié)。MSE 損失和MS-SSIM 損失函數(shù)公式如下:

        2 實驗設(shè)置

        2.1 數(shù)據(jù)集

        本文采用“2016 NIH-AAPM-Mayo Clinic 低劑量挑戰(zhàn)賽”所提供的公開數(shù)據(jù)集,該數(shù)據(jù)集包含了20 例不同病人的胸部正常計量的CT 數(shù)據(jù),共3 570 張CT 重建圖像。由于該臨床數(shù)據(jù)集采用螺旋軌跡掃描方式獲取,因而原始投影數(shù)據(jù)不能直接被用于扇形束CT 重建。在本文實驗中,在一定掃描參數(shù)下通過正投影算法重新獲取投影數(shù)據(jù),分別產(chǎn)生了投影角度數(shù)目為90、180 和360 的投影數(shù)據(jù)。生成投影數(shù)據(jù)的探測器數(shù)量是768,采樣間隔是1 mm;重建圖像尺寸為512×512,采樣間隔為0.585 9 mm×0.585 9 mm;射線源到探測器中心距離為1 068.0 mm;射線源到旋轉(zhuǎn)中心距離為595.0 mm。19 個病例的數(shù)據(jù)用于重建網(wǎng)絡(luò)的訓(xùn)練,剩余1 個病例的194 個投影數(shù)據(jù)用于重建算法的測試。

        為了進一步地驗證本文算法的減少重建圖像偽影和抑制重建圖像噪聲的能力,通過在投影中加入電子噪聲和泊松分布的噪聲來生成帶噪聲的數(shù)據(jù)集,從而模擬真實的投影數(shù)據(jù):

        2.2 實驗環(huán)境

        本文算法采用深度學(xué)習(xí)Pytorch 框架進行構(gòu)建,采取Adam 優(yōu)化算法作為重建網(wǎng)絡(luò)訓(xùn)練的優(yōu)化算法,初始學(xué)習(xí)率設(shè)置為10,批量大小設(shè)置為1,每訓(xùn)練1 000 次保存一個模型。選取的對比算法為FBP、TV 和RED-CNN 三種。FBP 算法采用Ram-Lak 濾波器對投影數(shù)據(jù)進行濾波,并使用本文算法中的反投影層對濾波后的投影數(shù)據(jù)進行反投影操作,得到重建后的圖像。TV 算法則是采用TRIGER工具箱自帶的自適應(yīng)步長的全變差最小(Adaptive Steepest Decent Projection Onto Convex Sets,ASD-POCS)算法進行CT 重建,其中迭代次數(shù)設(shè)置為40。在PyTorch 框架下對RED-CNN 算法進行復(fù)現(xiàn),網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)置與文獻[35]一致。

        本文算法和對比算法均在同一臺工作站上進行實驗,該工作站硬件參數(shù)配置如下:CPU 型號為Intel Core i7-9700k 3.6 GHz,內(nèi)存64 GB,GPU:NVIDIA RTX 3090 24 GB。該工作站的操作系統(tǒng)為Ubuntu20.04 LTS。

        2.3 評價指標

        本文分別采用峰值信噪比(Peak Signal to Noise Ratio,PSNR)、結(jié)構(gòu)相似性(SSIM)和歸一化均方誤差(Normalized MSE,NMSE)這三個指標對重建結(jié)果進行評價。SSIM 公式為式(8),PSNR 和NMSE 的計算公式如下:

        其中:

        n

        為圖像像素的比特數(shù),一般取8 或16;

        x

        是重建圖像,而

        x

        則是參考圖像;

        μ

        代表圖像均值;PSNR 的單位是dB,數(shù)值越大表示圖像失真越??;SSIM 值位于(0,1),該值越接近1表示重建圖像質(zhì)量越好;NMSE 衡量結(jié)果圖像和參考圖像之間的差異,NMSE 值越低表示重建圖像質(zhì)量越高。

        3 不帶噪聲數(shù)據(jù)實驗與結(jié)果分析

        為了驗證本文算法的有效性,分別選取了同一病例三個不同部位的投影數(shù)據(jù)作為各算法的輸入,投影數(shù)目分別為360、180 和90 個。在重建結(jié)果展示中,重建部位一和重建部位二圖像的視窗均為[-900,2 100]HU,重建部位三圖像的視窗[-360,440]HU。在重建結(jié)果殘差圖像中,各圖像的視窗為[-512,512]HU。最后,給出了不同算法在同一病例測試集上整體評價指標和各個算法的計算時間。

        3.1 360個投影數(shù)目的重建結(jié)果分析

        圖2 為不同算法對同一病例的三個不同組織部位的CT重建圖像結(jié)果對比。在各重建圖像的正下方為該重建圖像PSNR 和SSIM 的數(shù)值指標,左下角是感興趣區(qū)域(圖2(a)中白色矩形位置)的放大圖像。

        圖2 不同算法在投影數(shù)目為360時的重建結(jié)果對比Fig.2 Comparison of reconstruction results under 360 projections by different algorithms

        圖3 為不同重建算法重建所得圖像與參考圖像的殘差圖像。各個殘差圖像的下方為計算的NMSE 指標數(shù)值。綜合圖2 和圖3 可得,采用FBP 算法進行重建,重建結(jié)果的噪聲和偽影較為明顯,重建圖像視覺效果欠佳;TV 算法能很好地保留圖像的細節(jié)信息,在抑制噪聲和保留圖像的結(jié)構(gòu)信息方面表現(xiàn)良好;RED-CNN 算法雖然計算的PSNR 指標較高且能夠在一定程度上抑制噪聲并消除偽影,但是所得的圖像細節(jié)較為模糊;本文算法可以有效地抑制噪聲、去除偽影和保留紋理等細節(jié),在視覺效果方面優(yōu)于對比算法。雖然TV 算法計算所得重建圖像的評價指標略高于本文算法,但是二者在圖像視覺效果方面并無太大差異。

        圖3 不同算法在投影數(shù)目為360時的重建結(jié)果殘差圖Fig.3 Difference images of reconstruction result under 360 projections by different algorithms

        3.2 1 80個投影數(shù)目的重建結(jié)果分析

        隨著投影角度數(shù)量的減少,不同重建算法計算所得重建圖像的評價指標PSNR、SSIM 和視覺效果均會有所下降。圖4 是本文算法和對比算法在180 個投影數(shù)目下的重建結(jié)果圖,相應(yīng)的重建結(jié)果殘差圖如圖5 所示。

        圖4 不同算法在投影數(shù)目為180時的重建結(jié)果對比Fig.4 Comparison of reconstruction results under 180 projections by different algorithms

        從圖4 和圖5 可以觀察到,傳統(tǒng)的FBP 算法明顯增加了重建圖像的噪聲和偽影,無法很好地獲得重建信息。TV 算法雖然可以有效地減少重建后圖像中的噪聲和偽影,但是仍然模糊了圖像的細節(jié),且重建后圖像中存在一些條狀偽影。RED-CNN 算法嚴重地平滑了重建后圖像的細節(jié)。相較于TV 算法所得結(jié)果,RED-CNN 方法重建所得圖像雖然PSNR數(shù)值較高,但是由于該方法嚴重地平滑了所得圖像的細節(jié),因此視覺效果較差。相較于對比算法,本文算法有效地保留了重建圖像的結(jié)構(gòu)和紋理等細節(jié)信息,且圖像質(zhì)量評價指標和視覺效果比對比算法高。

        圖5 不同算法在投影數(shù)目為180時的重建結(jié)果殘差圖Fig.5 Difference images of reconstruction result under 180 projection by different algorithms

        3.3 90個投影數(shù)目的重建結(jié)果分析

        隨著投影數(shù)據(jù)角度數(shù)量的進一步減少,不同重建算法所得重建圖像的質(zhì)量均有明顯的下降。圖6是90個投影數(shù)目下4種算法的重建圖像,相應(yīng)的重建結(jié)果殘差圖如圖7所示。

        圖6 不同算法在投影數(shù)目為90時的重建結(jié)果對比Fig.6 Comparison of reconstruction results under 90 projections by different algorithms

        圖7 不同算法在投影數(shù)目為90時的重建結(jié)果殘差圖Fig.7 Difference images of reconstruction result under 90 projection by different algorithms

        從圖6 中不難發(fā)現(xiàn),三種對比算法計算所得重建圖像均丟失了圖像的結(jié)構(gòu)特征,存在較為嚴重的條紋偽影和噪聲。本文提出的算法雖然也會模糊圖像,并導(dǎo)致圖像丟失結(jié)構(gòu)細節(jié),但是與三種對比算法相比,本文算法可以更好地保留圖像結(jié)構(gòu)信息并在指標PSNR、SSIM、NMSE上獲得更好數(shù)值。

        3.4 重建測試集指標以及重建時間分析

        表1 是對比算法和本文算法在測試集上單張圖像的重建時間對比。從表1 重建時間對比中可以看出,F(xiàn)BP 算法計算速度最快,TV 算法計算耗時最長,本文所提DDFre-Net 算法計算時間介于RED-CNN 算法與FBP 算法之間。

        表1 不同算法單張圖像重建耗時 單位:sTab 1 Reconstruction of time single image by different algorithms unit:s

        表2是對比算法和本文算法在測試集上的PSNR、SSIM和NMSE 三個指標。從表2 可以看出,本文所提出DDFre-Net 算法在投影角度數(shù)目為360 時測試集上指標略低于TV 算法,但在投影角度數(shù)目為180 和90 時,在測試集上各指標均要優(yōu)于FBP、TV 和RED-CNN 三種算法。綜上可知,本文算法在保證重建圖像質(zhì)量較好的前提下,計算速度快。

        表2 不同算法測試集上指標對比Tab 2 Index comparison of different comparison algorithms under different projections

        3.5 網(wǎng)絡(luò)訓(xùn)練損失函數(shù)曲線

        圖8 是本文DDFre-Net 算法在不同投影角度數(shù)量下的網(wǎng)絡(luò)訓(xùn)練損失。從圖8 中可以觀察到,隨著網(wǎng)絡(luò)訓(xùn)練次數(shù)的增加,網(wǎng)絡(luò)的損失逐漸減小,從而說明該網(wǎng)絡(luò)是收斂的。

        圖8 DDFre-Net訓(xùn)練損失Fig.8 DFre-Net training loss

        4 帶噪聲數(shù)據(jù)實驗與結(jié)果分析

        為了進一步驗證算法的魯棒性,在帶噪聲的投影數(shù)據(jù)上進行CT 重建。圖9 分別 為FBP 算法、TV 算法、RED-CNN 算法和本文算法的重建結(jié)果,所得圖像與參考圖像的殘差圖如圖10 所示。

        圖9 不同算法在投影數(shù)目為360時的噪聲數(shù)據(jù)集重建結(jié)果對比Fig.9 Comparison of reconstruction results under 360 projections on noisy dataset by different algorithms

        從圖10 可以看出,與FBP 算法相比,本文算法有效地抑制了重建后圖像中條狀偽影的產(chǎn)生;與TV算法相比,本文算法進一步抑制了重建后圖像中的噪聲分布;與RED-CNN算法相比,本文算法很好地保留了重建后圖像中的紋理信息。

        圖10 不同算法在投影數(shù)目為360時的噪聲數(shù)據(jù)集重建結(jié)果殘差圖Fig.10 Difference images of reconstruction results under 360 projection on noisy dataset by different algorithms

        表3 為本文算法與對比算法在360 個投影角度下帶噪聲測試數(shù)據(jù)集上的總體表現(xiàn)。從表3 中可以觀察到,本文算法的總體評價指標均要優(yōu)于對比算法,從而表明本文算法在帶噪聲的數(shù)據(jù)集上也有很好的表現(xiàn)。

        表3 不同算法在360個投影數(shù)目下噪聲數(shù)據(jù)集指標對比Tab 3 Index comparison by different algorithms under 360 projections on noisy datasets

        5 結(jié)語

        針對采用傳統(tǒng)濾波器進行CT 圖像重建,重建后圖像存在偽影和圖像細節(jié)丟失的問題,本文設(shè)計了一個端到端的雙域CT 重建DDFre-Net,在頻域中采用CNN 對投影數(shù)據(jù)進行濾波,有效地改善了CT 重建圖像的質(zhì)量。為了驗證所提算法的有效性,分別在不帶噪聲數(shù)據(jù)集和帶噪聲數(shù)據(jù)集上,將本文算法與FBP、TV 和RED-CNN 算法進行了比較。實驗結(jié)果表明,在不帶噪聲數(shù)據(jù)集上,所提算法在投影數(shù)目分別為180 和90 的情況下重建圖像質(zhì)量高,重建速度快;在帶噪聲數(shù)據(jù)及下,所提算法在投影數(shù)目為360 的情況下效果最佳。同時DDFre-Net 簡單,無需人為設(shè)置復(fù)雜的超參數(shù),故在實際應(yīng)用中極易實現(xiàn)。不足之處是DDFre-Net 雖然采用U-Net 的結(jié)構(gòu)減少了參數(shù),但是所需參數(shù)仍然較為龐大,可以通過減少U-Net 編解碼層的數(shù)量進行優(yōu)化。本文算法針對的是二維扇形束CT 圖像重建情形,因為二維扇形束CT 重建是三維錐束CT 重建的一個特例,所以下一步工作將嘗試將本文算法向三維錐束適配。

        亚洲成a人片在线观看导航| 白白白在线视频免费播放| 国产精品一区二区日本| 国产偷国产偷精品高清尤物| 少妇人妻陈艳和黑人教练| 亚洲av无码成人精品区在线观看| 亚洲精品美女久久久久久久| 中文字幕亚洲综合久久| 男女动态视频99精品| 亚洲中文字幕久久在线| 久久久久国色av免费观看性色| 久久精品噜噜噜成人| 中文字幕+乱码+中文字幕无忧| 野外三级国产在线观看| 亚洲一区二区三区品视频| 日韩精品一区二区亚洲观看av| 亚洲视频在线一区二区| 国产日产欧洲系列| 又硬又粗又大一区二区三区视频 | av免费一区在线播放| 东风日产车是不是国产的| 国产熟妇疯狂4p交在线播放| 边啃奶头边躁狠狠躁| 亚洲欧美日韩国产一区| 亚洲AⅤ乱码一区二区三区| 国产影院一区二区在线| 包皮上有一点一点白色的| 国产在线观看无码免费视频 | 亚洲精品久久久av无码专区| 国产成人精品av| 欧美日韩精品一区二区三区高清视频 | 国产一极毛片| 黑人巨大亚洲一区二区久| 精品婷婷国产综合久久| 狠狠色狠狠色综合网| 中文字幕在线观看亚洲日韩| 亚洲男人天堂2017| 国产精品一区二区三区不卡| 日本免费久久高清视频| 国产午夜精品无码| 国产国语熟妇视频在线观看 |