張相芬,劉艷,袁非牛
(上海師范大學(xué)信息與機(jī)電工程學(xué)院,上海 201400)
醫(yī)學(xué)圖像分割能夠最大程度地為醫(yī)生提供患者的信息,對(duì)疾病的診斷和治療手段的選擇具有重要意義。人腦圖像分割是根據(jù)強(qiáng)度同質(zhì)性等特征將腦組織分割成白質(zhì)(WM)、灰質(zhì)(GM)和腦脊液(CSF)。受腦組織復(fù)雜特征的限制,腦組織的分割面臨極大的挑戰(zhàn)。
現(xiàn)有的腦組織分割方法主要分為基于傳統(tǒng)算法的分割方法和基于深度學(xué)習(xí)的分割方法[1]?;趥鹘y(tǒng)算法的腦組織分割方法包括基于區(qū)域增長(zhǎng)、邊緣、聚類和閾值的分割方法。其中,SOMASUNDARAM等[2]根據(jù)不同腦組織的強(qiáng)度信息自動(dòng)選取種子點(diǎn),并進(jìn)行多種子點(diǎn)的區(qū)域生長(zhǎng),最終得到分割結(jié)果。LI等[3]使用K-means 聚類方法實(shí)現(xiàn)對(duì)腦組織的分割,方法簡(jiǎn)單且分割速率較快。SALMAN等[4]提出一種結(jié)合K-means、聚類、分水嶺變換等多種傳統(tǒng)分割算法的邊緣檢測(cè)分割網(wǎng)絡(luò),分階段地完成圖像分割。但傳統(tǒng)分割方法易受噪聲影響,導(dǎo)致分割精度降低。基于深度學(xué)習(xí)的分割方法[5]多借助端到端的網(wǎng)絡(luò),這種網(wǎng)絡(luò)不易受噪聲影響,能更好地學(xué)習(xí)圖像特征,因此廣泛應(yīng)用在醫(yī)學(xué)圖像分割任務(wù)中。例如,RONNEBERGER等[6]提出U-Net 網(wǎng)絡(luò),該網(wǎng)絡(luò)能夠提取單層二維圖像的上下文信息,但不能獲得醫(yī)學(xué)圖像的三維空間信息。CICEK等[7]設(shè)計(jì)3D U-Net 網(wǎng)絡(luò)模型,將3D 的卷積、池化、反卷積等操作引入到U-Net 中,從而獲取醫(yī)學(xué)圖像的3D 空間信息,但僅依靠單一模態(tài)提供的信息,存在局限性問題。此外,受上采樣、下采樣操作的影響,深度學(xué)習(xí)網(wǎng)絡(luò)不能準(zhǔn)確表達(dá)輸出特征,進(jìn)一步影響分割精度。LONG等[8]提出MSCD-UNet 網(wǎng)絡(luò),采用多分支池化信息提取器緩解最大池化方法存在的信息丟失問題,使得分割精度得到一定程度的提升,但是其網(wǎng)絡(luò)結(jié)構(gòu)過于復(fù)雜,導(dǎo)致參數(shù)量增加、分割效率降低。
針對(duì)以上問題,本文提出基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割網(wǎng)絡(luò)MCRAIP-Net。以3D U-Net作為基礎(chǔ)網(wǎng)絡(luò),為充分融合多模態(tài)特征信息,構(gòu)建多模態(tài)編碼器模塊(Multi-modality Encoder Module,MEM)和雙通道交叉重構(gòu)注意力(Dual-channel Cross Reconstruction Attention,DCRA)模塊,此外,設(shè)計(jì)倒金字塔解碼器(IPD)模塊,以融合多模態(tài)圖像的特征,解決解碼器最后一層輸出特征表達(dá)不準(zhǔn)確的問題。
3D U-Net[7]是一個(gè)具有對(duì)稱編碼器和解碼器的神經(jīng)網(wǎng)絡(luò)。3D U-Net 中編碼器和解碼器通過跳躍連接將同等分辨率的特征相連接,以提供較高的分辨率特征。此外,3D U-Net 結(jié)構(gòu)設(shè)計(jì)中將3D 醫(yī)學(xué)圖像數(shù)據(jù)作為輸入并使用3D 卷積、3D 最大池化和3D 反卷積來實(shí)現(xiàn)特征提取和特征恢復(fù)。這種方式可以捕獲圖像的3D 空間特征以提高分割精度。SUN等[9]基于3D U-Net 提出一種改進(jìn)的具有體積特征重新校準(zhǔn)層的3D U-Net,稱為SW-3D-Unet,以充分利用切片間的空間上下文特征。HUANG等[10]提出的3D RU-Net,從編碼器的區(qū)域特征中切出多級(jí)感興趣區(qū)域(Region of Interest,ROI),從而擴(kuò)大了3D RU-Net適用的體積大小和有效感知領(lǐng)域。
上述自動(dòng)分割方法在醫(yī)學(xué)圖像分割方面具有較優(yōu)的性能,但多數(shù)忽略了單一模態(tài)數(shù)據(jù)信息的局限性。因此,本文引入注意力機(jī)制,設(shè)計(jì)多模態(tài)交叉重構(gòu)的倒金字塔分割網(wǎng)絡(luò),以3D U-Net 為基礎(chǔ),在輸入層引入雙通道交叉注意力機(jī)制和多模態(tài)融合策略,從而提高圖像的分割精度。
在人們感知中,從不同感官獲得的信息會(huì)被注意力機(jī)制加權(quán)[11]。這種注意力機(jī)制允許人們選擇性地關(guān)注重要信息。受此啟發(fā),Google DeepMind 團(tuán)隊(duì)在執(zhí)行圖像分類任務(wù)時(shí)提出注意力機(jī)制,從而掀起了注意力機(jī)制研究的熱潮。例如,SENet[12]通過顯式建模通道之間的連接關(guān)系,以自適應(yīng)地重新校準(zhǔn)通道特征響應(yīng)。殘差注意力網(wǎng)絡(luò)[13]是通過堆疊注意力模塊構(gòu)建的,這些注意力模塊生成注意力感知特征。SENet 和殘差注意力網(wǎng)絡(luò)分別是采用通道注意力模塊和空間注意力模塊的代表。CBAM[14]是一種輕量級(jí)的通用模塊,同時(shí)采用空間和通道注意力來提高深度神經(jīng)網(wǎng)絡(luò)的性能。除了通道注意力和空間注意力之外,一些研究人員還使用其他注意力機(jī)制。例如,為了提取相關(guān)的空間圖像特征,SUN等[15]提出一種用于左心室分割的新堆棧注意U-Net。
多種方法利用注意力機(jī)制進(jìn)行醫(yī)學(xué)圖像分割。YANG等[16]提出用于舌下小靜脈分割的協(xié)同注意網(wǎng)絡(luò),它可以自動(dòng)學(xué)習(xí)靜脈目標(biāo)結(jié)構(gòu)。KAUL等[17]提出將注意力整合到全卷積網(wǎng)絡(luò)中的FocusNet,通過卷積編碼器生成的特征圖實(shí)現(xiàn)醫(yī)學(xué)圖像分割。受這些注意力機(jī)制的啟發(fā),本文設(shè)計(jì)雙通道交叉注意力模塊以獲得更多相關(guān)特征,并將這一思想與多模態(tài)融合機(jī)制相結(jié)合以關(guān)注更多的大腦細(xì)節(jié)信息。
在醫(yī)學(xué)圖像分析中,由于多模態(tài)(如T1、T1-IR、T2-FLAIR 等)數(shù)據(jù)可以為醫(yī)學(xué)研究提供互補(bǔ)信息,因此多模態(tài)的融合信息被廣泛用于腦組織分割[18]和病變分割[19]。根據(jù)醫(yī)學(xué)圖像分割的深度學(xué)習(xí)網(wǎng)絡(luò)[20],基于多模態(tài)的圖像分割網(wǎng)絡(luò)分為層級(jí)融合網(wǎng)絡(luò)、決策級(jí)融合網(wǎng)絡(luò)和輸入級(jí)融合網(wǎng)絡(luò)。在層級(jí)融合網(wǎng)絡(luò)中,將每個(gè)模態(tài)的圖像作為輸入來訓(xùn)練個(gè)體增強(qiáng)網(wǎng)絡(luò),這些學(xué)習(xí)到的個(gè)體特征表示在網(wǎng)絡(luò)層中進(jìn)行融合。層級(jí)融合網(wǎng)絡(luò)可以有效地集成和充分利用多模態(tài)圖像[21]。在決策級(jí)融合網(wǎng)絡(luò)[22]中,以每個(gè)模態(tài)圖像作為單個(gè)分割網(wǎng)絡(luò)的單一輸入,將各自的分割結(jié)果相結(jié)合得到最終的分割結(jié)果。輸入級(jí)融合網(wǎng)絡(luò)[23]通常在通道維度上將多模態(tài)圖像疊加得到融合特征,用于訓(xùn)練分割網(wǎng)絡(luò)。
本文考慮到輸入級(jí)融合網(wǎng)絡(luò)可以最大限度地保留原始圖像信息并學(xué)習(xí)圖像內(nèi)在特征,采用輸入級(jí)融合網(wǎng)絡(luò)來充分利用多模態(tài)圖像的特征表示。為了更加關(guān)注重要信息,本文在輸入級(jí)融合網(wǎng)絡(luò)中添加了雙通道交叉注意力機(jī)制,既能夠融合多模態(tài)特征又能關(guān)注到其中的大腦細(xì)節(jié)信息。
本文引入注意力機(jī)制,提出一種新穎的多模態(tài)交叉重構(gòu)倒金字塔網(wǎng)絡(luò)MCRAIP-Net,實(shí)現(xiàn)醫(yī)學(xué)腦圖像的分割,該網(wǎng)絡(luò)主要包含多模態(tài)交叉重構(gòu)編碼結(jié)構(gòu)和倒金字塔解碼器結(jié)構(gòu)兩個(gè)部分。
由于不同模態(tài)的MRI 圖像能夠表征不同的信息,因此有效地融合多模態(tài)信息對(duì)于實(shí)現(xiàn)高質(zhì)量的分割具有重要意義。本文使用并行前饋編碼器結(jié)構(gòu)提取不同模態(tài)的特征,并在每個(gè)分辨率上進(jìn)行融合,該融合過程主要分為兩個(gè)步驟:1)在多模態(tài)編碼器模塊中進(jìn)行初步融合;2)將初步融合的特征送入雙通道交叉重構(gòu)注意力模塊中進(jìn)一步融合。
在初步融合過程中,本文將T1、T1-IR 和T2-FLAIR三個(gè)模態(tài)的MRI 數(shù)據(jù)作為輸入,采用最大池化對(duì)每個(gè)模態(tài)的數(shù)據(jù)獨(dú)立地進(jìn)行下采樣,從而有效捕獲3D 圖像的上下文信息。將同一分辨率級(jí)的特征按像素級(jí)相加,這樣的設(shè)計(jì)不僅能夠提高網(wǎng)絡(luò)的表達(dá)能力,還可以減少參數(shù)量。多模態(tài)編碼器模塊結(jié)構(gòu)如圖1 所示。假設(shè)第l層的三個(gè)模態(tài)特征在初步融合后得到的特征為Featurel_1 和Featurel_2,其中l(wèi)∈1、2、3,至此,完成多模態(tài)的初步融合。
圖1 多模態(tài)編碼器模塊結(jié)構(gòu)Fig.1 Structure of multi-modality encoder module
第二步融合是對(duì)初步融合的特征進(jìn)行交叉重構(gòu)融合。雙通道交叉重構(gòu)注意力模塊結(jié)構(gòu)如圖2所示。
圖2 雙通道交叉重構(gòu)注意力模塊結(jié)構(gòu)Fig.2 Structure of dual-channel cross reconstruction attention module
DCRA 模塊的輸入是第一步的融合特征Featurel_1 和Featurel_2。兩個(gè)融合特征的大小均為I×J×K,其中,I、J、K分別表示特征圖的長(zhǎng)、寬、高。首先,分別對(duì)兩個(gè)輸入進(jìn)行一次卷積,其目的是充分融合每個(gè)輸入中包含的兩個(gè)模態(tài)信息,在卷積之后得到特征F1、F2;然后,將特征F1、F2 按像素級(jí)相加得到特征fl,ch;最后,使用全局平均池化對(duì)特征fl,ch沿軸向、冠狀和矢狀方向進(jìn)行空間信息壓縮,以獲得空間統(tǒng)計(jì)信息,其中ch 表示第ch 個(gè)通道,ch ∈[1,Ch]。的計(jì)算過程如式(1)~式(3)所示:
其中:ωl,ch(i,j,k)表示空間像素(i,j,k)的權(quán)重值。
每個(gè)像素通道的加權(quán)張量是使用所有模態(tài)的空間信息產(chǎn)生的,這樣能夠增強(qiáng)網(wǎng)絡(luò)對(duì)圖像特征信息的表達(dá)。本文將特征F1和F2 分別與重構(gòu)的三維權(quán)重相乘并按像素級(jí)相加,得到重構(gòu)注意的特征,該特征能更好地表達(dá)多模態(tài)的三維特征信息。
本文提出一種基于3D U-Net的MCRAIP-Net網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示,在圖中每個(gè)特征上都標(biāo)記了通道數(shù)量。
圖3 多模態(tài)交叉重構(gòu)的倒金字塔網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of inverted pyramid network with multi-modality cross reconstruction
為了對(duì)當(dāng)前分辨率下的特征向量進(jìn)行重構(gòu)加權(quán),本文對(duì)編碼器每一個(gè)分辨率級(jí)的特征都使用了雙通道交叉重構(gòu)注意力模塊,以捕獲更有效的特征,將雙通道交叉重構(gòu)注意力模塊的輸出特征跳轉(zhuǎn)連接到同一分辨率級(jí)的解碼器中,降低下采樣時(shí)信息丟失對(duì)分割精度的影響。在深度神經(jīng)網(wǎng)絡(luò)中,通常僅對(duì)網(wǎng)絡(luò)最后一層的輸出特征進(jìn)行分類,該特征經(jīng)過多次連續(xù)的下采樣和上采樣后得到,在一定程度上存在表達(dá)不準(zhǔn)確的問題。為解決該問題,本文采用倒金字塔解碼器(如圖3 中虛線框所示),將解碼器中每一層的特征都參與到最后的分類任務(wù)中。具體做法是:將低分辨率特征通過雙線性插值的方法恢復(fù)到輸入圖像大小,再將這些特征進(jìn)行拼接并通過3×3×3 的卷積來實(shí)現(xiàn)融合,對(duì)融合特征進(jìn)行1×1×1 卷積,最后采用Sigmoid 函數(shù)對(duì)卷積結(jié)果進(jìn)行判決,最終完成分割任務(wù)。
本文實(shí)驗(yàn)均在Tensorflow 開源框架下實(shí)現(xiàn),訓(xùn)練和測(cè)試的平臺(tái) 是Intel?Xeon?處理器,兩塊NVIDIA GeForce GT1080ti顯卡(顯 存8 GB)的windows(64 位)系統(tǒng)。網(wǎng)絡(luò)權(quán)重更新迭代次數(shù)設(shè)為5 000 次,網(wǎng)絡(luò)模型的初始學(xué)習(xí)率為0.001,權(quán)重每更新1 000 次學(xué)習(xí)率下降1/2。
本文為了更好地評(píng)價(jià)所提的網(wǎng)絡(luò)模型,在兩個(gè)主流的醫(yī)學(xué)腦圖像數(shù)據(jù)集MRBrainS13 和IBSR18 上進(jìn)行實(shí)驗(yàn)。MRBrainS13 數(shù)據(jù)集是對(duì)不同程度白質(zhì)病變的糖尿病患者采集獲得的,該訓(xùn)練數(shù)據(jù)集有5 個(gè)研究對(duì)象(2 個(gè)男性、3 個(gè)女性),對(duì)每個(gè)成像受試者進(jìn)行掃描,獲取多模態(tài)的MRI 大腦數(shù)據(jù),數(shù)據(jù)包括T1、T1-IR 和T2-FLAIR 三種模態(tài),每種模態(tài)數(shù)據(jù)的大小為240×240×240。在實(shí)驗(yàn)中,本文將數(shù)據(jù)的80%作為訓(xùn)練集,10%作為驗(yàn)證集,10%作為測(cè)試集。所有的圖像都經(jīng)過了偏差矯正,其目標(biāo)分割圖像由醫(yī)學(xué)專家手工分割獲得。IBSR18 數(shù)據(jù)集包含18 個(gè)T1 MRI 數(shù)據(jù),大小均為256×256×128,MRI掃描圖像和醫(yī)學(xué)專家手工分割結(jié)果由馬薩諸塞州綜合醫(yī)院的形態(tài)測(cè)量分析中心提供。
為了評(píng)價(jià)本文算法的有效性和可靠性,本文使用最常用的三個(gè)評(píng)價(jià)指標(biāo)來評(píng)估網(wǎng)絡(luò)對(duì)腦組織(WM、GM和CSF)的分割性能。這三個(gè)指標(biāo)分別是Dice系數(shù)(Dice Coefficient,DC)、絕對(duì)體積差(Absolute Volume Difference,AVD)和豪斯多夫距離(Hausdorff Distance,HD),其表達(dá)式如式(5)所示:
其中:P表示預(yù)測(cè)模型的分割圖像;G表示人工分割的真實(shí)圖像;VP表示預(yù)測(cè)分割結(jié)果的體積;VG表示真實(shí)分割圖像的體積。h(P,G)和h(G,P)的表達(dá)式分別如式(6)和式(7)所示:
Dice 系數(shù)越大表示分割越準(zhǔn)確,HD 和AVD 值越小表示分割性能越好。
本文基于MRBrainS13 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),以驗(yàn)證所提各模塊的有效性,實(shí)驗(yàn)結(jié)果如表1 所示。
表1 在MRBrainS13 數(shù)據(jù)集上的消融實(shí)驗(yàn)結(jié)果Table 1 Results of ablation experiments on the MRBrainS13 dataset
將未嵌入MEM 模塊、DCRA 模塊和IPD 模塊的3D U-Net 作為基礎(chǔ)網(wǎng)絡(luò)。在逐步將MEM、DCRA 和IPD模塊添加到3D U-Net 之后,網(wǎng)絡(luò)的分割性能也相應(yīng)得到提高。在3D U-Net 中加入MEM 模塊后(網(wǎng)絡(luò)模塊表示為3D U-Net+MEM),在9 個(gè)評(píng)價(jià)指標(biāo)中,除了CSF的AVD 指標(biāo)以外,相比3D U-Net 其他8 項(xiàng)指標(biāo)都有所提升,尤其是WM 和GM 的Dice 指標(biāo),分別提升了2.03和2.39 個(gè)百分點(diǎn)。在3D U-Net+MEM 框架基礎(chǔ)上加入DCRA 模塊后(網(wǎng)絡(luò)模塊表示為3D U-Net+MEM+DCRA),相比3D U-Net+MEM 又有6 個(gè)指標(biāo)得到提升,其中,WM 和GM 的Dice 指標(biāo)分別從90.89%和87.83%提高到91.57%和88.44%,說明本文構(gòu)造的雙通道交叉重構(gòu)注意力模塊能夠有效提取不同模態(tài)的特征,從而提高網(wǎng)絡(luò)的分割性能。
為驗(yàn)證IPD 模塊的有效性,本文算法基于3D U-Net+MEM+DCRA+IPD 框架做了第四組實(shí)驗(yàn)。從表1 可以看出,3D U-Net+MEM+DCRA+IPD 框架取得了最優(yōu)的分割結(jié)果。因此,本文提出的算法具有更好的特征提取和分割性能,所提的分割網(wǎng)絡(luò)模型在分割精度上較3D U-Net 有明顯的提升,但是其參數(shù)量比3D U-Net 網(wǎng)絡(luò)增加了將近一倍,因此其運(yùn)行效率低于3D U-Net 網(wǎng)絡(luò)。
加入不同模塊后模型所需的參數(shù)量以及對(duì)每個(gè)32×32×32 三維圖像的運(yùn)行時(shí)間對(duì)比如表2 所示。從表2 可以看出,雖然MCRAIP-Net 所需參數(shù)量和運(yùn)行時(shí)間較3D U-Net 更多,但表1 數(shù)據(jù)已表明MCRAIPNet 的分割精度最高。
表2 不同模型的參數(shù)量和運(yùn)行時(shí)間對(duì)比Table 2 Parameters quantity and running time comparison among different models
本文消融實(shí)驗(yàn)結(jié)果如圖4 所示,本文給出三個(gè)分割實(shí)例的實(shí)驗(yàn)結(jié)果對(duì)比,分別為例1、例2、例3。Ground-Truth 代表真實(shí)分割圖像,從圖中方框標(biāo)記的腦組織細(xì)節(jié)信息可以看出,與真實(shí)分割結(jié)果對(duì)比,本文提出的算法對(duì)細(xì)節(jié)特征的分割更加準(zhǔn)確,進(jìn)一步驗(yàn)證本文所提的MEM 模塊、DCRA 模塊以及IPD 模塊的有效性。
圖4 消融實(shí)驗(yàn)的分割結(jié)果Fig.4 Segmentation results of ablation experiment
實(shí)驗(yàn)結(jié)果表明,本文提出的MCRAIP-Net 可以有效地對(duì)多模態(tài)數(shù)據(jù)進(jìn)行訓(xùn)練,并且獲得更優(yōu)的分割結(jié)果。
本文將MCRAIP-Net 算法與四種目前最先進(jìn)的醫(yī)學(xué)腦圖像分割算法進(jìn)行對(duì)比,包括3D U-Net[7]、HyperDense-Net[24]、MMAN[25]和SW-3D-Unet[9]。實(shí)驗(yàn)統(tǒng)計(jì)數(shù)據(jù)如表3 所示。從表3 可以看出,在除了CSF 的Dice 系數(shù)和AVD 以及CSF 的AVD 三個(gè)指標(biāo)之外,本文提出的MCRAIP-Net 算法的6 個(gè)指標(biāo)均優(yōu)于其他算法,本文提出的深度網(wǎng)絡(luò)模型的分割效果總體優(yōu)于其他算法。以GM 的分割為例,本文算法得到的Dice 系數(shù)比SW-3D-Unet 提高2.39 個(gè)百分點(diǎn)。從表3 可以看出,本文算法的分割性能相比于3D U-Net 和HyperDense-Net 均有較大的提升,以WM為例,相較于3D U-Net 的Dice 系數(shù)平均提升了2.81 個(gè)百分點(diǎn),相較于HyperDense-Net 的Dice 系數(shù)平均提升2.21 個(gè)百分點(diǎn)。因此,本文算法能更準(zhǔn)確地完成腦部圖像分割任務(wù)。
表3 在MRBrainS13 數(shù)據(jù)集上不同算法的分割結(jié)果Table 3 Segmentation results among different algorithms on MRBrainS13 dataset
在MRBrainS13 數(shù)據(jù)集上不同算法的實(shí)驗(yàn)結(jié)果對(duì)比如圖5 所示。
圖5 在MRBrainS13 數(shù)據(jù)集上不同算法的實(shí)驗(yàn)結(jié)果對(duì)比Fig.5 Experimental results comparison among different algorithms on MRBrainS13 dataset
從圖5 可以看出,相較于其他四種算法,本文算法分割圖像的整體形態(tài)與真實(shí)標(biāo)簽最接近,對(duì)腦組織分割也更準(zhǔn)確,特別是在圖中方框標(biāo)記的區(qū)域。本文算法在測(cè)試集上的多模態(tài)分割示例如圖6 所示。本文算法分割出的腦組織邊界十分清晰,也證明了本文算法在腦組織分割任務(wù)中具有較好的分割性能。
圖6 在測(cè)試集上本文算法的多模態(tài)分割示例Fig.6 An example of multi-modality segmentation of the proposed algorithm on test dataset
為驗(yàn)證本文提出的網(wǎng)絡(luò)架構(gòu)也適用于分割單模態(tài)數(shù)據(jù),本文在IBSR18 數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),將本文所提算法與U-Net[6]、Residual U-Net[26]、Inception U-Net[27]、SegNet[28]和MhURI[29]的分割結(jié)果進(jìn)行對(duì)比。不同算法的圖像分割評(píng)價(jià)指標(biāo)如表4 所示。以Dice 系數(shù)為例,從表4 可以看出,本文算法的Dice 系數(shù)分割指標(biāo)總體高于其他對(duì)比算法。實(shí)驗(yàn)結(jié)果表明,本文算法在只有單模態(tài)情況下也能取得較好的分割結(jié)果。
表4 在IBSR18 數(shù)據(jù)集上不同算法的分割結(jié)果Table 4 Segmentation results comparison among different algorithms on IBSR18 dataset
本文提出一種新穎的深度學(xué)習(xí)網(wǎng)絡(luò),用于實(shí)現(xiàn)人腦磁共振圖像的分割。將T1、T1-IR 和T2-FLAIR三種模態(tài)的數(shù)據(jù)作為輸入,通過多模態(tài)交叉重構(gòu)編碼器對(duì)各模態(tài)數(shù)據(jù)進(jìn)行下采樣實(shí)現(xiàn)特征提取,并對(duì)同一分辨率級(jí)的特征進(jìn)行兩級(jí)融合,其中在雙通道交叉重構(gòu)注意力模塊中不僅充分融合了三模態(tài)的特征,還對(duì)特征進(jìn)行重構(gòu)加權(quán)和細(xì)化?;诮獯a器各分辨率級(jí)的特征,利用倒金字塔解碼器實(shí)現(xiàn)腦組織的分割,有效提升圖像的分割精度。實(shí)驗(yàn)結(jié)果表明,本文算法不僅具有較優(yōu)的細(xì)節(jié)特征提取能力,而且能有效融合不同模態(tài)的信息。后續(xù)將引入邊緣檢測(cè)注意力模塊來定位待分割組織的邊界,并利用正則化方法進(jìn)行深度監(jiān)督,進(jìn)一步提升網(wǎng)絡(luò)模型的分割精度和訓(xùn)練效率。