亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于局部歸一化互信息聯(lián)合約束的三維頭頸部CT/MR配準(zhǔn)方法

        2024-03-25 07:04:40商奧雪王明泉成向北李文波
        機械與電子 2024年3期
        關(guān)鍵詞:互信息頭頸部樣條

        商奧雪,王 玉,王明泉,賈 虎,成向北,李文波

        (中北大學(xué)信息與通信工程學(xué)院,山西 太原 030051)

        0 引言

        在醫(yī)學(xué)影像領(lǐng)域中,頭頸部多模態(tài)配準(zhǔn)具有重要意義。它將不同模態(tài)的圖像配準(zhǔn)在一起,提供更全面和詳細(xì)的解剖信息,補充彼此的優(yōu)勢。頭頸部CT圖像具有清晰顯示骨骼和鈣化結(jié)構(gòu)的能力,而MR圖像在軟組織如腦組織、肌肉和血管方面具有更好的對比度和分辨率[1-3]。

        然而,頭頸部是一個解剖結(jié)構(gòu)復(fù)雜的區(qū)域,包含許多可變的結(jié)構(gòu),這些結(jié)構(gòu)在不同的成像模態(tài)下可能呈現(xiàn)不同的形狀和位置,并且CT和MR圖像之間存在不匹配的對比度和分辨率差異,而MR圖像還易產(chǎn)生運動偽影和畸變。因此,如何實現(xiàn)頭頸部CT/MR圖像的準(zhǔn)確和高效配準(zhǔn)仍然是醫(yī)學(xué)圖像配準(zhǔn)領(lǐng)域的研究重點。

        統(tǒng)計方法互信息(MI)利用圖像間的聯(lián)合概率分布度量圖像間的統(tǒng)計關(guān)系強度,能適應(yīng)不同模態(tài)的圖像,在多模態(tài)醫(yī)學(xué)配準(zhǔn)中得到廣泛應(yīng)用。當(dāng)位移恢復(fù)較小時,互信息能表現(xiàn)出高性能,突出了其快速全局優(yōu)化的需求。為此,許多學(xué)者[4-7]提出了基于MI的改進算法以增強其快速計算及魯棒性,但都存在特征提取復(fù)雜、對噪聲和變化敏感以及局部最優(yōu)等問題。張馳[8]通過利用磁共振圖像,在配準(zhǔn)過程中選擇區(qū)域互信息作為目標(biāo)函數(shù)。在這一基礎(chǔ)上,Loeckx等[9]除了考慮強度維度外,引入關(guān)節(jié)強度對位置的空間維度,提出了一種名為條件互信息的非剛性圖像配準(zhǔn)方法,進一步優(yōu)化了互信息配準(zhǔn)的結(jié)構(gòu);楊志杰等[10]在互信息配準(zhǔn)算法的基礎(chǔ)上進行了歸一化處理以此來解決陷入局部極值的問題?;贏NTs的對稱歸一化(symmetric normalization,SyN)[11]在處理多模態(tài)圖像上表現(xiàn)出了優(yōu)秀的性能。研究者們還引入約束項懲罰,以實現(xiàn)對非剛性形變的約束,并在特定圖像中取得了良好的配準(zhǔn)效果。Klein等[12]利用能量場對B樣條FFD非剛性配準(zhǔn)模型進行優(yōu)化,改善了最終的配準(zhǔn)結(jié)果;Rogelj等[13]采用點相似性度量方法代替全局互信息,結(jié)合B樣條變換模型,通過體素位移場計算、局部相似性估計和靜態(tài)圖像強度相關(guān)性估計,提高了醫(yī)學(xué)圖像非剛性配準(zhǔn)的效率和精度;趙帥等[14]將局部互信息(local mutual information,LMI)與層次B樣條相結(jié)合,實現(xiàn)了快速配準(zhǔn);汪軍等[15]使用P樣條方法將懲罰項引入B樣條模型,結(jié)合局部互信息進行非剛性配準(zhǔn)。這些方法都在一定程度上改進了非剛性圖像配準(zhǔn)的效果,但也各自存在一些局限性。因此,研究者們還在不斷探索新的方法和技術(shù),以進一步提高非剛性圖像配準(zhǔn)的精度和效率[16-17]。

        基于前述研究的背景,針對頭頸部多模態(tài)圖像特點,本文提出采用局部歸一化互信息(locally normalized mutual information,LNMI)作為相似性測度,引入F范數(shù)正則化抑制不必要的畸變,提高配準(zhǔn)效率。

        1 配準(zhǔn)方案

        1.1 局部歸一化互信息

        互信息作為一種全局度量用于評估整體圖像之間的相關(guān)性。然而,在頭頸部CT和MR圖像配準(zhǔn)中,不同解剖結(jié)構(gòu)的相似度模式和對齊需求可能不同,傳統(tǒng)的互信息方法可能受到強度差異的影響,導(dǎo)致配準(zhǔn)結(jié)果不準(zhǔn)確。為了克服圖像配準(zhǔn)中的這種局限性,研究者們引入了歸一化互信息作為一種改進的相似性度量方法。歸一化互信息消除了不同圖像模態(tài)之間的強度差異,從而提高了配準(zhǔn)的魯棒性。它通過對圖像像素值進行歸一化處理,使得不同模態(tài)圖像的強度范圍相對一致,減少由強度差異引起的配準(zhǔn)誤差。減輕了噪聲和偽影的影響,并增強了配準(zhǔn)的穩(wěn)定性和收斂速度。其計算方式為

        INM(A,B)=[H(A)+H(B)]/H(A,B)

        (1)

        然而,歸一化互信息仍然是一種全局性度量。相比之下,局部互信息通過在圖像中定義局部窗口來計算互信息,以增強配準(zhǔn)的精度和穩(wěn)定性。盡管如此,在多模態(tài)圖像中,局部互信息受到不同分辨率和對比度的影響,可能導(dǎo)致配準(zhǔn)錯誤。因此,為了克服這個問題,提出了局部歸一化互信息作為相似性測度的替代方法。局部歸一化互信息考慮了局部圖像區(qū)域內(nèi)的灰度統(tǒng)計特征,消除了不同區(qū)域之間的強度差異,提高了配準(zhǔn)的準(zhǔn)確性和魯棒性。因此,選擇局部歸一化互信息作為配準(zhǔn)方法可以更好地處理頭頸部圖像的復(fù)雜性,提供更準(zhǔn)確和穩(wěn)健的配準(zhǔn)結(jié)果。局部歸一化互信息計算方式如下所述:

        將圖像視為一個多維點的分布,其中每個點代表1個像素及其鄰近像素的強度,假設(shè)高維空間是近似正態(tài)分布的,則將這些點轉(zhuǎn)換到各自相互無關(guān)的空間,每1維的獨立性可將d維分布的信息熵計算轉(zhuǎn)換為d個一維分布的信息熵計算。已知2幅圖像R和F,其分辨率為m×n,選取的鄰域半徑大小為r,像素點分別表示為Ri、Fi,(i=1,2,…,N)。

        表1 不同配準(zhǔn)方法評價

        創(chuàng)建矩陣P為

        P=[PR,PF]

        (2)

        式中:P為d×N的矩陣;PR和PF分別為圖像R和F所選取的子區(qū)域相應(yīng)的像素點和與其相鄰的像素點構(gòu)成的向量。

        計算P中所有元素的平均值Pm為

        (3)

        P中的每個元素減去Pm得到P0為

        P0=P-Pm

        (4)

        計算協(xié)方差矩陣C為

        (5)

        估計聯(lián)合信息熵Hg(C)、聯(lián)合熵Hg(CR)和Hg(CF),其中,CR為C左上方矩陣,CF為C左下方矩陣。計算得到局部歸一化互信息為

        (6)

        1.2 F范數(shù)正則項

        L2規(guī)范正則項是一種常用的正則化方法,它通過對模型的參數(shù)進行懲罰,使得模型的復(fù)雜度降低,從而避免過擬合的情況。具體來說,L2規(guī)范正則項將模型的參數(shù)加上1個懲罰項,這個懲罰項是參數(shù)的平方和乘以1個正則化系數(shù)。向量中L2范數(shù)的表達(dá)式為

        (7)

        在目標(biāo)函數(shù)中加入L2正則項后,配準(zhǔn)過程就變成求解下面目標(biāo)函數(shù),即

        (8)

        當(dāng)λ越大時,正則項的影響就越大,模型的權(quán)重就越小,從而減少過擬合的風(fēng)險;反之,當(dāng)λ越小時,正則項的影響就越小,模型的權(quán)重就越大,模型的擬合能力就越強,但過擬合的風(fēng)險也會增加。

        通過加入L2規(guī)范正則項,可以使得模型更加平滑,減少噪聲對模型尋優(yōu)的影響,從而提高尋優(yōu)的準(zhǔn)確性。在向量中的L2范數(shù)對應(yīng)到矩陣中則有Forbenius范數(shù),其表達(dá)式為

        (9)

        對于矩陣U,其Forbenius范數(shù)就是其所有元素的平方和的平方根,因此也可以看作是矩陣中的L2范數(shù)。在圖像處理過程中,圖像以數(shù)據(jù)矩陣的形式存儲,因此,Forbenius范數(shù)常被用作正則化項。引入F范數(shù)后的目標(biāo)函數(shù)為

        (10)

        1.3 圖像金字塔結(jié)構(gòu)

        圖像金字塔配準(zhǔn)框架將高分辨率的固定圖像和原始圖像分解為n層不同分辨率的子圖像,從高到低排列,每層的配準(zhǔn)結(jié)果作為下一層的初始圖像。這樣可以實現(xiàn)從粗到細(xì)的配準(zhǔn),提高配準(zhǔn)的效率和效果。

        2 配準(zhǔn)基本框架

        本文提出了基于局部歸一化互信息結(jié)合F范數(shù)進行約束的配準(zhǔn)方法,其基本框架流程如圖1所示,具體如下所述:

        圖1 配準(zhǔn)框架流程

        a.輸入?yún)⒖紙D像和浮動圖像。

        b.對數(shù)據(jù)進行預(yù)處理。

        c.采取混合配準(zhǔn)的方式,首先使用剛性變換對全局進行粗配準(zhǔn)。

        d.采用多分辨率金字塔策略實現(xiàn)由粗到精的高配準(zhǔn)方式,進一步提高配準(zhǔn)的精度與速度。本文采用多分辨率金字塔策略,將前一次輸出的結(jié)果作為下一次的輸入圖像繼續(xù)進行配準(zhǔn),共3層。軸位和矢位中每層平滑因子為16、8、4;冠狀位方向為4、2、1。

        e.初始化分層B樣條形變模型,進行非剛性配準(zhǔn),第1層控制點選取較大間距,然后在此基礎(chǔ)上依次縮小間距進行下一層配準(zhǔn)。本文選取3層B樣條。網(wǎng)格間距依次為4、2、1。通過隨機梯度下降法進行最優(yōu)值求解,迭代優(yōu)化次數(shù)為1 000,結(jié)合F范數(shù)正則項,多次實驗后獲得該項系數(shù)為5×10-4,將變換后的位移場作用于浮動圖像得到形變后的圖像。

        f.變換后的圖像出現(xiàn)非整數(shù)的像素點坐標(biāo)時使用B樣條插值法進行插值,并計算其直方圖。采樣點數(shù)為10 000。

        g.計算浮動圖像與參考圖像的局部歸一化互信息。局部區(qū)域大小為40×40×40。該區(qū)域大小的選取是通過多次實驗和比較來確定的。

        h.當(dāng)前迭代的局部歸一化互信息的值與上一次迭代的值進行比較,若比上一次大則繼續(xù)迭代,若小于上一次迭代的值,則停止迭代運算。

        i.配準(zhǔn)結(jié)束,輸出配準(zhǔn)位移場,輸出結(jié)果圖像。

        3 配準(zhǔn)評價指標(biāo)

        為了客觀評價配準(zhǔn)的效果,本文從配準(zhǔn)精度和計算耗時2個方面與現(xiàn)有成熟算法進行比較。為了評估配準(zhǔn)程度,采用可視化圖像疊加的方法,并利用互信息和均方誤差以及時間指標(biāo)來衡量圖像配準(zhǔn)的精度。均方誤差的數(shù)學(xué)表達(dá)式為

        (11)

        式中:n為像素點數(shù)。

        4 實驗結(jié)果分析

        本文的實驗數(shù)據(jù)集為HaN-Seg[18]挑戰(zhàn)賽頭頸部數(shù)據(jù)集, CT數(shù)據(jù)大小為512×512×144,層間距為2~3 mm,MR數(shù)據(jù)大小為512×512×144,層間距為3~4 mm。實驗采用Windows10系統(tǒng);處理器型號為Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20 GHz 2.20 GHz。保證其他參數(shù)相同的情況下,分別采用互信息(MI)、歸一化互信息(NMI)、局部互信息+彎曲能量[19](LMI+BEP)、歸一化局部互信息(LNMI)、LNMI+Forbenius,以及ANTs SyN[18]進行實驗,得到配準(zhǔn)結(jié)果如圖2所示,其中,從左到右依次為軸狀位、矢狀位、冠狀位。

        圖2 不同配準(zhǔn)方法結(jié)果

        從圖2中可以清晰地觀察到,所有算法都能夠?qū)崿F(xiàn)基本的輪廓相似性。為了更好地進行對比觀察,將結(jié)果圖像與參考圖像進行了彩色融合,如圖3所示。

        圖3 色彩疊加融合圖像

        根據(jù)融合圖像所示,可以總結(jié)出本文提出的算法在處理頭頸部圖像的細(xì)節(jié)方面表現(xiàn)出色,特別是在鼻腔、頸椎等部位的對齊上。這表明該算法能夠有效捕捉頭頸部圖像復(fù)雜的紋理結(jié)構(gòu)中的細(xì)微特征,提高配準(zhǔn)的準(zhǔn)確性。對于醫(yī)學(xué)影像領(lǐng)域中需要關(guān)注細(xì)節(jié)結(jié)構(gòu)的任務(wù),如病變檢測、手術(shù)導(dǎo)航和放射治療的靶區(qū)勾畫等,本文提出的算法具有潛在的應(yīng)用價值。通過準(zhǔn)確對齊頭頸部圖像的細(xì)節(jié)結(jié)構(gòu),可以為醫(yī)生和臨床醫(yī)學(xué)工作者提供更可靠的圖像分析和診斷結(jié)果,有助于指導(dǎo)精準(zhǔn)治療和手術(shù)決策。

        為進一步驗證實驗結(jié)果的有效性,本文使用上述提到的評價指標(biāo)對各算法的配準(zhǔn)效果進行定量評價。其中,均方誤差(MSE)作為一種衡量配準(zhǔn)準(zhǔn)確性的指標(biāo),其值越小越好;歸一化互信息(NMI)作為一種度量相似性的指標(biāo),其值越大越好。評價指標(biāo)的具體結(jié)果如表1所示。

        根據(jù)表1可以觀察到,本文方法在與其他較成熟的算法相比在配準(zhǔn)精度方面有所提高,并且相對于僅使用局部歸一化互信息的算法,配準(zhǔn)時間明顯縮短。這說明本文方法在時間和精度方面都取得了顯著的改善。這些結(jié)果進一步證明了本文方法的優(yōu)越性和實用性。

        5 結(jié)束語

        本文針對頭頸部圖像中不同模態(tài)(CT/MR)的分辨率差異、對比度不同和復(fù)雜的解剖結(jié)構(gòu)等問題,提出了一種新的配準(zhǔn)方法。該方法利用局部歸一化互信息作為相似性測度,并引入F范數(shù)作為正則項來約束配準(zhǔn)過程,以抑制畸變并加快配準(zhǔn)速度。實驗結(jié)果表明,本文方法在配準(zhǔn)的精度和效率方面均有所提高。通過使用局部歸一化互信息作為相似性測度,能夠更好地捕捉頭頸部圖像中細(xì)微特征的信息,提高配準(zhǔn)的準(zhǔn)確性。同時,引入F范數(shù)正則化能夠約束配準(zhǔn)過程中的畸變,提高配準(zhǔn)的質(zhì)量,并加快配準(zhǔn)的速度。因此,本文方法在頭臨床應(yīng)用具有很大的潛力。

        猜你喜歡
        互信息頭頸部樣條
        一元五次B樣條擬插值研究
        三次參數(shù)樣條在機床高速高精加工中的應(yīng)用
        三次樣條和二次刪除相輔助的WASD神經(jīng)網(wǎng)絡(luò)與日本人口預(yù)測
        軟件(2017年6期)2017-09-23 20:56:27
        基于樣條函數(shù)的高精度電子秤設(shè)計
        金匱腎氣丸加減改善頭頸部腫瘤患者生存獲益
        中成藥(2017年4期)2017-05-17 06:09:52
        頭頸部鱗癌靶向治療的研究進展
        基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
        聯(lián)合互信息水下目標(biāo)特征選擇算法
        改進的互信息最小化非線性盲源分離算法
        電測與儀表(2015年9期)2015-04-09 11:59:22
        基于增量式互信息的圖像快速匹配方法
        毛片在线播放亚洲免费中文网| 亚洲av精品一区二区| 99精品视频69V精品视频| 狠狠久久久久综合网| 无码日日模日日碰夜夜爽| 中文字幕大乳少妇| av网站免费在线不卡| 国产精品亚洲三级一区二区三区 | 午夜丰满少妇性开放视频| 久久99精品久久久久久久清纯| 久久99老妇伦国产熟女高清| 天堂av一区二区在线| 人妻少妇进入猛烈时中文字幕| 男女性杂交内射妇女bbwxz| 国产一区二区内射最近更新| 国产内射性高湖| 亚洲阿v天堂网2021| 国产一区二区丁香婷婷| 成人性生交大片免费看激情玛丽莎 | 无码熟妇人妻AV不卡| 国产中文字幕免费视频一区| 浓毛老太交欧美老妇热爱乱| 伊人色综合久久天天五月婷| 9lporm自拍视频区| 中文字幕久久久精品无码| 久99久精品免费视频热77| 国产网友自拍视频在线观看| 成人麻豆视频免费观看| 成人网站在线进入爽爽爽| 亚洲人成电影在线观看天堂色 | 国产亚洲精品自在久久蜜tv| 亚州五十路伊人网| 久久中文字幕av一区二区不卡| 肉色丝袜足j视频国产| 无码福利写真片视频在线播放| 伊人久久综合影院首页 | 一区二区三区视频在线免费观看| 91精品国产九色综合久久香蕉| 一个人看的www片免费高清视频| 精品少妇人妻av无码专区| 巨爆乳中文字幕爆乳区|