亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多通道稀疏編碼的非剛性多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)

        2018-06-20 09:32:46王麗芳秦品樂
        計(jì)算機(jī)應(yīng)用 2018年4期
        關(guān)鍵詞:字典相似性測(cè)度

        王麗芳,成 茜,秦品樂,高 媛

        0 引言

        多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)是對(duì)從不同成像設(shè)備上獲取的圖像進(jìn)行配準(zhǔn),使兩幅圖像上的同一解剖點(diǎn)或者具有診斷意義的關(guān)鍵點(diǎn)達(dá)到空間上的一致[1]。當(dāng)兩幅圖像配準(zhǔn)完成后,可以對(duì)它們進(jìn)行比較和分析。多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)作為醫(yī)學(xué)圖像處理中的一個(gè)重要組成部分,對(duì)手術(shù)定位、患者術(shù)前和追蹤掃描[2]、多模態(tài)圖像融合[3]等具有重要意義。

        醫(yī)學(xué)圖像配準(zhǔn)方法主要有剛性配準(zhǔn)和非剛性配準(zhǔn)兩大類。剛性配準(zhǔn)僅適用于不存在形變的配準(zhǔn),目前已經(jīng)不能滿足人們的需求;當(dāng)浮動(dòng)圖像與參考圖像存在較大形變時(shí), 需要進(jìn)行非剛性配準(zhǔn)。非剛性多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)主要分為三類:1)基于特征的方法。雖在計(jì)算量上要比基于圖像像素的方法小很多,但該方法配準(zhǔn)的精度依賴于所提取的特征[4],在多數(shù)情況下,特別是在不同模態(tài)醫(yī)學(xué)圖像之間,當(dāng)圖像特征點(diǎn)不突出、位置復(fù)雜的情況下,很難進(jìn)行準(zhǔn)確的特征提取。因此,基于特征的方法對(duì)多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)并不理想。2)模態(tài)減少方法。該方法是將兩種不同的模態(tài)轉(zhuǎn)換成具有直接可比性的單一模態(tài),這種模態(tài)可以是待配準(zhǔn)圖像中其中一種模態(tài),也可以轉(zhuǎn)換成一個(gè)全新的模態(tài)或灰度空間。它的優(yōu)點(diǎn)是轉(zhuǎn)換后,多模態(tài)配準(zhǔn)問題變?yōu)閱文B(tài)的問題,這樣可以使用單模態(tài)相似性測(cè)度及其相關(guān)的優(yōu)化和變形配準(zhǔn)算法。雖然不同的模態(tài)可以以不同的方式呈現(xiàn)圖像信息,但由于在某些情況下,一些圖像信息僅在單一一種模態(tài)下出現(xiàn),當(dāng)轉(zhuǎn)換成一種全新的模態(tài),此過程中可能造成信息丟失,之后便不能再使用這些圖像信息來(lái)進(jìn)行配準(zhǔn)。3)信息理論的方法?;バ畔?Mutual Information, MI)源于信息論,被廣泛應(yīng)用于進(jìn)行多模態(tài)醫(yī)學(xué)圖像配準(zhǔn),是一種基于圖像體素的相似性測(cè)度;由于它只定義了對(duì)應(yīng)像素的灰度關(guān)系,未考慮像素之間的空間依賴性,通常對(duì)含有灰度偏移場(chǎng)的圖像魯棒性差,且在優(yōu)化過程中易陷入局部極值,最終不能產(chǎn)生滿意的配準(zhǔn)結(jié)果。為了解決互信息等傳統(tǒng)相似性測(cè)度對(duì)于灰度不均勻性圖像魯棒性較差的問題,Myronenko等[5]提出在殘差復(fù)雜性(Residual Complexity, RC)的分析上解決灰度級(jí)偏移場(chǎng),盧振泰等[6]提出了局部方差和殘差復(fù)雜性(Local Variance and Residual Complexity, LVRC)的醫(yī)學(xué)圖像配準(zhǔn)方法,Ghaffari等[7-8]提出了稀疏誘導(dǎo)的相似性測(cè)度(Sparse-Induced Similarity Measure, SISM)和Rank Induced相似性測(cè)度(Rank Induced Similarity Measure, RISM)。這些方法可以產(chǎn)生較準(zhǔn)確的配準(zhǔn)結(jié)果,但適用范圍較小,多只適用于單模態(tài)醫(yī)學(xué)圖像配準(zhǔn)。Cheng等[9]提出使用深度相似性學(xué)習(xí)方法訓(xùn)練一個(gè)二元分類器來(lái)學(xué)習(xí)兩個(gè)圖像塊的對(duì)應(yīng)關(guān)系;Simonovsky等[10]提出使用有卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的相似性測(cè)度,來(lái)估計(jì)來(lái)自不同模態(tài)兩個(gè)圖像塊之間的相似性;但文獻(xiàn)[9-10]中關(guān)于深度學(xué)習(xí)的方法訓(xùn)練成本高,需要大量的訓(xùn)練數(shù)據(jù)才能達(dá)到滿意的效果,而要獲得足夠的未配準(zhǔn)的醫(yī)學(xué)圖像數(shù)據(jù)集并為這些圖像進(jìn)行人工標(biāo)注需要耗費(fèi)大量的工作量[11]。

        為了使多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)對(duì)灰度偏移場(chǎng)具有較好的魯棒性,本文提出了基于多通道稀疏編碼的非剛性多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)方法。該方法將多通道與基于學(xué)習(xí)的稀疏編碼的L1范數(shù)相似性測(cè)度(L1norm Similarily Measure, L1SM)相結(jié)合,使多模態(tài)配準(zhǔn)問題變?yōu)橐粋€(gè)多通道配準(zhǔn)問題,劃分通道后每個(gè)通道中圖像的模態(tài)相同。由于最初缺乏在這個(gè)多通道配準(zhǔn)框架中可以使用的對(duì)應(yīng)模式,為了解決這個(gè)問題,本文使用文獻(xiàn)[12]中圖像合成方法創(chuàng)建的代理圖像來(lái)彌補(bǔ)由于轉(zhuǎn)換而可能丟失的信息,使多通道配準(zhǔn)框架在浮動(dòng)圖像和參考圖像中都產(chǎn)生相同模態(tài)的圖像,從而配準(zhǔn)來(lái)自不同模態(tài)的圖像。將多通道配準(zhǔn)框架與只適用于單模態(tài)配準(zhǔn)的基于稀疏編碼的相似性測(cè)度相結(jié)合,不僅克服了醫(yī)學(xué)圖像中存在灰度不均勻性造成的灰度偏移場(chǎng),而且實(shí)現(xiàn)了基于稀疏表示的多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)。

        1 基于稀疏編碼的L1SM

        假設(shè)兩個(gè)圖像之間的灰度關(guān)系如下:

        R=F(T)+S

        (1)

        其中:R表示參考圖像;F表示浮動(dòng)圖像;S表示灰度不均勻性造成的灰度偏移場(chǎng);T是空間變換。

        在分析模型中,用式(2)來(lái)定義一幅圖像的稀疏表示:

        α=ΩY

        (2)

        其中:Y是稀疏系數(shù)矩陣;Ω是分析字典;α是圖像塊的稀疏表示。

        根據(jù)式(2),得到參考圖像和浮動(dòng)圖像的稀疏表示分別為:

        αR=ΩR

        (3)

        αF=ΩF

        (4)

        分析式(1)和它的稀疏表示之間的關(guān)系,在式(1)兩邊都乘以Ω,在稀疏域中得到如下的線性關(guān)系:

        Ω×R=Ω×(F(T)+S)?αR=αF+αS

        (5)

        其中:αS=ΩS,是灰度校正場(chǎng)的稀疏表示。這里將L1范數(shù)作為相似性測(cè)度。

        通過最大后驗(yàn)概率(Maximum A Posteriori, MAP)的方法來(lái)近似估計(jì)T,最大化以下的可能性:

        P(T|αR,αF)∝P(αR,αF|T)P(T)=

        PαS(αR-αF)P(T)

        (6)

        T=arg max(ln(P(αR,αF|T)P(T)))=

        arg min(‖αS‖1)=arg min(‖αR-αF‖1)=

        arg min(‖Ω(R-F)‖1)

        因此有如下的L1范數(shù)相似性測(cè)度:

        L1SM(R,F)=‖Ω(R-F)‖1

        (7)

        其中:‖·‖1表示L1范數(shù)。

        2 多通道配準(zhǔn)框架

        多通道配準(zhǔn)是將不同模態(tài)的圖像劃分為多個(gè)通道,每個(gè)模態(tài)在一個(gè)單獨(dú)的通道下運(yùn)行[13-14]。在單通道配準(zhǔn)中,假設(shè)R(x)表示參考圖像,F(x)表示浮動(dòng)圖像,T為空間變換。通過T來(lái)最小化能量函數(shù)H:

        H=Csim(F°T,R)

        (8)

        其中:Csim是相似性測(cè)度。

        在多通道配準(zhǔn)中,將單個(gè)通道的能量函數(shù)的加權(quán)和作為最終的相似性測(cè)度函數(shù)HMC。HMC的計(jì)算公式為:

        (9)

        其中:M表示模態(tài)的總數(shù);(F1,F2,…,FM)為浮動(dòng)圖像集;(R1,R2,…,RM)為參考圖像集;wm為每個(gè)模態(tài)m對(duì)最終能量函數(shù)貢獻(xiàn)的權(quán)重;Csim-m是與每個(gè)模態(tài)相關(guān)的通道所使用的相似性測(cè)度。

        假設(shè)浮動(dòng)圖像為第一模態(tài)F→F1,參考圖像為第二模態(tài)R→R2。在多通道配準(zhǔn)框架中,需使用圖像合成方法,能量函數(shù)為:

        (10)

        圖1 多通道配準(zhǔn)框架

        3 本文配準(zhǔn)方法

        3.1 基于多通道稀疏編碼的相似性測(cè)度

        由于腦影像中都存在緩慢變化的灰度偏移場(chǎng),而基于稀疏編碼的L1范數(shù)相似性測(cè)度(L1SM)對(duì)含有灰度不均勻性圖像魯棒性較好,因此分別在多通道配準(zhǔn)框架的每個(gè)通道中使用L1SM作為相似性測(cè)度,總的基于多通道稀疏編碼的相似性測(cè)度(Multi-Channel L1SM, MCL1SM)函數(shù)為:

        其中:w1、w2分別為T1加權(quán)、T2加權(quán)圖像通道對(duì)HMCL1SM的貢獻(xiàn)權(quán)重;Ω1、Ω2分別為兩個(gè)通道中的分析字典;α為對(duì)應(yīng)圖像塊的稀疏表示;‖·‖1表示L1范數(shù)。

        3.1.1 圖像合成

        3.1.2 圖像正則化

        3.1.3 劃分通道和圖像塊

        3.1.4 稀疏編碼和字典更新

        使用K奇異值分解(K-means based Singular Value Decomposition,K-SVD)算法分別訓(xùn)練兩個(gè)通道中兩幅圖像的圖像塊得到分析字典Ω1、Ω2,計(jì)算每個(gè)圖像塊的稀疏系數(shù)Yi。

        本過程主要分兩個(gè)階段:

        1)稀疏編碼的求解過程階段。需要計(jì)算圖像塊

        在字典Ω1、Ω2上的稀疏系數(shù)Yi。

        (11)

        s.t. ‖α-ΩY‖≤ε

        其中: ‖Y‖0表示稀疏系數(shù)向量Y中非零元素的個(gè)數(shù);ε表示允許偏差的精度。

        (12)

        (13)

        (14)

        最后,K-SVD是一種迭代算法,通過交替地執(zhí)行稀疏編碼和字典更新這兩步驟得到分析字典Ω1、Ω2。

        3.2 算法流程

        本文提出的基于多通道稀疏編碼的非剛性多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)方法的算法流程如圖2所示。

        圖2 本文算法流程

        1)讀入兩幅分辨率相同的待配準(zhǔn)的醫(yī)學(xué)圖像,分別記為參考圖像R和浮動(dòng)圖像F。

        2)初始化多層P樣條自由形式變換(Free-Form Deformation, FFD)模型參數(shù)和優(yōu)化模塊中優(yōu)化的迭代次數(shù)和迭代的最小誤差,參考圖像和浮動(dòng)圖像之間的配準(zhǔn)誤差為10-4,梯度下降法的最大迭代次數(shù)為30。

        4)使用K-SVD算法分別訓(xùn)練每個(gè)通道中的圖像塊,得到分析字典Ω1、Ω2和每個(gè)圖像塊的稀疏表示。在每個(gè)通道分別使用L1SM,計(jì)算每個(gè)通道L1SM的初始值:

        并計(jì)算兩個(gè)通道相似性測(cè)度的能量函數(shù)的加權(quán)和:

        5)將多模態(tài)相似性測(cè)度函數(shù)

        作為優(yōu)化模塊目標(biāo)函數(shù)的第一部分HMCL1SM,另一部分加入相關(guān)的平滑變換,使待配準(zhǔn)的兩幅圖像之間保持權(quán)衡,并且變換光滑。

        C(R,F)=HMCL1SM+λCsmooth

        (15)

        其中:A是區(qū)域的面積;λ是權(quán)重參數(shù)。

        6)本文利用梯度下降法迭代地優(yōu)化目標(biāo)函數(shù),進(jìn)而更新變形場(chǎng),本文HMCL1SM的梯度表達(dá)式計(jì)算過程如下:

        (16)

        7)使用多層P樣條FFD[15]對(duì)浮動(dòng)圖像的相應(yīng)區(qū)域進(jìn)行更新來(lái)擬合圖像形變。變形過程是通過重復(fù)迭代,直到得到最優(yōu)變形場(chǎng)。

        在二維圖像中,控制點(diǎn)位置為φij,間距為Δ的δx×δy網(wǎng)格,其多層P樣條函數(shù)的自由形式變換可描述為:

        (17)

        總的懲罰P為:

        P=λ0P1?Ik0+λ1Ik1?P0+λ2P3?Ik2+

        λ3Ik3?P2

        其中:P0、P1、P2、P3分別代表邊緣基B0、B1、B2、B3的懲罰;λ0、λ1、λ2、λ3為平滑系數(shù);Ik0、Ik1、Ik2、Ik3為單位矩陣。

        8)輸出配準(zhǔn)后圖像。

        4 實(shí)驗(yàn)結(jié)果與分析

        本文的實(shí)驗(yàn)環(huán)境為: CPU為Intel CoreTM i5-7500,內(nèi)存8 GB,操作系統(tǒng)為Windows 10,編程平臺(tái)為Matlab2013a。

        為了驗(yàn)證MCL1SM在非剛性多模態(tài)醫(yī)學(xué)圖像配準(zhǔn)中具有對(duì)灰度偏移場(chǎng)魯棒性好的特點(diǎn),本文進(jìn)行了大量的仿真實(shí)驗(yàn),并與局部互信息(Regional Mutual Information, RMI)[6]、LVRC[6]、SISM[7]和RISM[8]在多通道配準(zhǔn)框架下的多通道局部方差和殘差復(fù)雜性(Multi-Channel Local Variance and Residual Complexity, MCLVRC)、多通道稀疏誘導(dǎo)的相似性測(cè)度(Multi-Channel Sparse-Induced Similarity Measure, MCSISM)、多通道Rank Induced相似性測(cè)度(Multi-Channel Rank Induced Similarity Measure, MCRISM)進(jìn)行了比較。

        實(shí)驗(yàn)首先選用BrainWeb database[17]的腦部MR數(shù)據(jù),這里對(duì)其進(jìn)行人工形變并施加不同程度的灰度不均勻場(chǎng),圖3顯示了待配準(zhǔn)的切片厚度為1 mm的三組圖像,均是加入40%或20%灰度偏移場(chǎng)的非均勻腦部圖像。分別使用局部互信息(RMI)、MCLVRC、MCSISM、MCRISM與本文MCL1SM共五種測(cè)度進(jìn)行配準(zhǔn)對(duì)比實(shí)驗(yàn),配準(zhǔn)結(jié)果分別如圖4所示。

        其次,選用哈佛大學(xué)醫(yī)學(xué)院[18]的兩組腦部數(shù)據(jù),對(duì)其進(jìn)行人工形變并施加不同程度的灰度不均勻場(chǎng),圖5為待配準(zhǔn)的兩組圖像。分別使用局部互信息(RMI)、MCLVRC、MCSISM、MCRISM與本文MCL1SM共5種測(cè)度進(jìn)行配準(zhǔn)對(duì)比實(shí)驗(yàn),配準(zhǔn)結(jié)果分別如圖6所示。

        圖4、6對(duì)應(yīng)五組待配準(zhǔn)圖像分別使用局部互信息(RMI)、MCLVRC、MCSISM、MCRISM和本文MCL1SM配準(zhǔn)后所得圖像和經(jīng)差值運(yùn)算得到的差值圖像。

        由圖4、6中五組圖像在不同相似性測(cè)度下配準(zhǔn)后圖像差不難看出,使用本文相似性測(cè)度得到的配準(zhǔn)圖像與參考圖像的圖像差要比RMI、MCLVRC、MCSISM、MCRISM得到的配準(zhǔn)圖像與參考圖像的圖像差差異性要小,配準(zhǔn)后兩幅圖像差異性越小,配準(zhǔn)效果越好。

        為客觀評(píng)價(jià)配準(zhǔn)效果,本文主要從配準(zhǔn)精度和耗時(shí)同已有相關(guān)文獻(xiàn)方法進(jìn)行比較,并采用均方根誤差(Root Mean Square Error, RMSE)來(lái)衡量圖像配準(zhǔn)精度。RMSE值越小,配準(zhǔn)效果越好。

        為定量比較, 圖3中三組圖像在各相似性測(cè)度下配準(zhǔn)后圖像與參考圖像的RMSE值與配準(zhǔn)運(yùn)行時(shí)間如表1所示。

        圖3 待配準(zhǔn)的三組圖像(Brainweb database)

        圖4 對(duì)T1/T2加權(quán)圖像用不同相似性測(cè)度得到的配準(zhǔn)結(jié)果及差值圖像

        圖5 待配準(zhǔn)的兩組圖像(哈佛大學(xué)醫(yī)學(xué)院)

        圖6 對(duì)圖5用不同方法得到的配準(zhǔn)結(jié)果及差值圖像

        組別配準(zhǔn)方案RMSE配準(zhǔn)時(shí)間/s第一組(矢狀面)第二組(橫斷面)第三組(冠狀面)RMI1.2148493.2MCLVRC1.0917480.3MCSISM1.1941593.1MCRISM0.9682658.4本文算法0.7900696.0RMI1.0810423.2MCLVRC0.9749455.3MCSISM1.0149573.3MCRISM0.8678637.0本文算法0.7242660.6RMI1.1508471.8MCLVRC1.0736455.7MCSISM1.0532692.3MCRISM0.9539679.4本文算法0.7737709.6

        圖5中兩組圖像在各相似性測(cè)度下配準(zhǔn)后所得圖像與參考圖像的RMSE值與配準(zhǔn)運(yùn)行時(shí)間如表2所示。

        表1~2給出5組圖像在局部互信息(RMI)、MCLVRC、MCSISM、MCRISM與本文MCL1SM下配準(zhǔn)結(jié)果的定量指標(biāo)(數(shù)據(jù)是5次實(shí)驗(yàn)數(shù)據(jù)的平均值)。依據(jù)對(duì)實(shí)驗(yàn)結(jié)果中配準(zhǔn)結(jié)果、差值圖像及表1~2的分析,得出基于MCL1SM相對(duì)于RMI、MCLVRC、MCSISM、MCRISM在多模態(tài)非剛性配準(zhǔn)中對(duì)含有灰度偏移場(chǎng)的圖像有更好的配準(zhǔn)表現(xiàn);RMSE平均分別下降了30.86%、22.24%、26.84%和16.49%。

        出現(xiàn)上述現(xiàn)象主要因?yàn)楸疚姆椒ㄊ腔趫D像塊且字典是通過K-SVD算法對(duì)圖像塊訓(xùn)練得到的,并在此基礎(chǔ)上對(duì)來(lái)自不同模態(tài)的圖像進(jìn)行合成和正則化,與固定字典和基于信息理論的相似性測(cè)度相比,基于字典學(xué)習(xí)的L1范數(shù)相似性測(cè)度在多通道配準(zhǔn)框架下能夠?qū)Υ嬖诨叶炔痪鶆驁?chǎng)的多模態(tài)醫(yī)學(xué)圖像有很好的魯棒性。但從配準(zhǔn)時(shí)間上來(lái)看, MCSISM、MCRISM、MCL1SM的效率要略低于RMI、 MCLVRC。

        表2 CT/MRI、PET/MRI在各相似性測(cè)度下配準(zhǔn)均方根誤差和時(shí)間比較

        5 結(jié)語(yǔ)

        本文將基于學(xué)習(xí)的稀疏編碼和多通道配準(zhǔn)框架相結(jié)合用于多模態(tài)非剛性醫(yī)學(xué)圖像配準(zhǔn),解決了多模態(tài)配準(zhǔn)中傳統(tǒng)相似性測(cè)度對(duì)灰度不均勻性魯棒性較差的問題。仿真實(shí)驗(yàn)結(jié)果表明,本文算法能夠較準(zhǔn)確地對(duì)多模態(tài)醫(yī)學(xué)圖像進(jìn)行配準(zhǔn)并提升了圖像配準(zhǔn)的魯棒性,但由于需要對(duì)圖像進(jìn)行合成、正則化,并對(duì)圖像塊進(jìn)行訓(xùn)練,該算法相對(duì)于傳統(tǒng)的方法時(shí)間效率較低,因此如何提升該算法的配準(zhǔn)效率是接下來(lái)進(jìn)一步研究的重點(diǎn)。

        參考文獻(xiàn)(References)

        [1] FRANCISCO P M, MANUEL J O, TAVARES R S. Medical image registration: a review[J]. Computer Methods in Biomechanics and Biomedical Engineering, 2014, 17(2): 73-93.

        [2] KWON D, ZENG K, BILELLO M, et al. Estimating patient specific templates for pre-operative and follow-up brain tumor registration[C]// MICCAI 2015: Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 9350. Berlin: Springer, 2015: 222-229.

        [3] BHATTACHARYA M, ARPITA D. Multimodality medical image registration and fusion techniques using mutual information and genetic algorithm-based approaches[J]. Software Tools and Algorithms for Biological Systems, 2011, 696(3): 441-449.

        [4] 王觀英, 許新征, 丁世飛. 基于3D-PCNN和互信息的3D-3D醫(yī)學(xué)圖像配準(zhǔn)方法[J]. 計(jì)算機(jī)應(yīng)用, 2017, 37(增刊1): 215-219.(WANG G Y, XU X Z, DING S F. 3D-3D medical image registration method based on 3D-PCNN and mutual information [J]. Journal of Computer Applications, 2017, 37(S1): 215-219.)

        [5] MYRONENKO A, SONG X. Intensity-based image registration by minimization of residual complexity[J]. IEEE Transactions on Medical Imaging, 2010, 29(11): 1882-1891.

        [6] 盧振泰, 張娟, 馮前進(jìn), 等.基于局部方差與殘差復(fù)雜性的醫(yī)學(xué)圖像配準(zhǔn)[J]. 計(jì)算機(jī)學(xué)報(bào), 2015, 38(12): 2400-2411.(LU Z T, ZHANG J, FENG Q J, et al. Medical image registration based on local variance and residual complexity [J]. Chinese Journal of Computers, 2015, 38(12): 2400-2411.)

        [7] GHAFFARI A, FATEMIZADEH E. Sparse-induced similarity measure: mono-modal image registration via sparse-induced similarity measure[J]. IET Image Processing, 2014, 8(12): 728-741.

        [8] GHAFFARI A, FATEMIZADEH E. RISM: single-modal image registration via rank-induced similarity measure[J]. IEEE Transactions on Image Processing, 2015, 24(12): 5567-5580.

        [9] CHENG X, ZHANG L, ZHENG Y. Deep similarity learning for multimodal medical images[J]. Computer Methods in Biomechanics and Biomedical Engineering: Imaging & Visualization, 2016, 6(4): 1-5.

        [10] SIMONOVSKY M, GUTIERREZ-BECKER B, MATEUS D, et al. A deep metric for multimodal registration [C]// MICCAI 2016: Proceedings of the 19th International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 9902. Berlin: Springer, 2016: 10-18.

        [11] LITJENS G, KOOI T, BEJNORDI B E, et al. A survey on deep learning in medical image analysis[J]. Medical Image Analysis, 2017, 42(9): 60-88.

        [12] JOG A, ROY S, CARASS A, et al. Magnetic resonance image synthesis through patch regression [C]// Proceedings of the 2013 IEEE 10th International Symposium on Biomedical Imaging. Piscataway, NJ: IEEE, 2013: 350-353.

        [13] CHEN M, JOG A, CARASS A, et al. Using image synthesis for multi-channel registration of different image modalities[C]// Proceedings of SPIE 9413. Bellingham, WA: SPIE Press, 2015: 21-26.

        [14] FORSBERG D, RATHI Y, BOUIX S, et al. Improving registration using multi-channel diffeomorphic demons combined with certainty maps[C]// MBIA 2011: Proceedings of the First International Conference on Multimodal Brain Image Analysis. Berlin: Springer, 2011: 19-26.

        [15] 王麗芳,成茜,秦品樂,高媛.基于多層P樣條和稀疏編碼的非剛性醫(yī)學(xué)圖像配準(zhǔn)方法[J/OL].計(jì)算機(jī)應(yīng)用研究:1-4.[2017- 03- 27].http://kns.cnki.net/kcms/detail/51.1196.TP.2017072 7.2121.124.html.(WANG L F, CHENG X, QIN P L, et al. Non-rigid medical image registration method based on multilayer P-spline and sparse coding[J]. Applications Research of Computers:1-4.[2017- 03- 27].http://kns.cnki.net/kcms/detail/51.1196.TP.20170727.2121.124.html.)

        [16] PRADHAN S, PATRA D. RMI based non-rigid image registration using BF-QPSO optimization and P-spline[J]. International Journal of Electronics and Communications, 2015, 69(3): 609-621.

        [17] COCOSCO C A, KOLLOKIAN V. BrainWeb: simulated brain database [EB/OL]. [2018- 01- 23]. http: //brainweb.bic.mni.mcgill.ca/brainweb/.

        [18] JOHNSON K A, BECKER J A. The whole brain Atlas[DB/OL]. [2017- 11- 15]. http: //www.med.harvard.edu/aanlib/home.html.

        This work is partially supported by the Natural Science Foundation of Shanxi Province (2015011045).

        猜你喜歡
        字典相似性測(cè)度
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        一類上三角算子矩陣的相似性與酉相似性
        三個(gè)數(shù)字集生成的自相似測(cè)度的乘積譜
        R1上莫朗測(cè)度關(guān)于幾何平均誤差的最優(yōu)Vornoi分劃
        淺析當(dāng)代中西方繪畫的相似性
        非等熵Chaplygin氣體測(cè)度值解存在性
        Cookie-Cutter集上的Gibbs測(cè)度
        我是小字典
        正版字典
        讀者(2016年14期)2016-06-29 17:25:50
        99久久国产免费观看精品| 亚洲无毛片| 欧美亚洲另类自拍偷在线拍| 亚洲一区二区三区精彩视频| 久久久极品少妇刺激呻吟网站| 99视频30精品视频在线观看| 麻豆精品久久久久久久99蜜桃| 久久久精品波多野结衣| 国产69口爆吞精在线视频喝尿 | 无码av免费精品一区二区三区| 国产91 对白在线播放九色| 亚洲天堂一区二区三区视频| 久久黄色精品内射胖女人| 国产乱子伦精品无码专区| 午夜福利92国语| 少妇的诱惑免费在线观看| 亚洲第一女优在线观看| 国产精品videossex久久发布| 日日躁夜夜躁狠狠躁超碰97| 亚洲色四在线视频观看| 国产激情在线观看免费视频| 99精品国产一区二区三区不卡| 亚洲免费观看| 少妇勾引视频网站在线观看| 今井夏帆在线中文字幕| 狂野欧美性猛xxxx乱大交| 亚洲gv白嫩小受在线观看| 玖玖资源站无码专区| 日本超级老熟女影音播放| 专干老肥熟女视频网站300部| 日韩AV无码一区二区三| 淫秽在线中国国产视频| 狠狠色狠狠色综合网| 亚洲熟伦熟女新五十路熟妇| 91免费国产高清在线| 澳门蜜桃av成人av| 欧美成人免费全部| 男女好痛好深好爽视频一区| 国产三级av大全在线爽| 久久精品99久久香蕉国产| 国产亚洲精品成人无码精品网站|