蘇 賦,但 濤,方 東
(西南石油大學(xué)電氣信息學(xué)院,成都610599)
截至2020年12月31日,全球累計(jì)確診82 981 032例新型冠狀病毒肺炎病例,累計(jì)死亡1 809 633 例。新型冠狀病毒對(duì)人類健康構(gòu)成嚴(yán)重威脅。盡早發(fā)現(xiàn)新型冠狀病毒感染的肺炎病例將有效阻斷病毒傳播。X 光胸片成像是檢測(cè)新型冠狀病毒的有效手段之一,然而由于人體胸腔結(jié)構(gòu)復(fù)雜,除肺實(shí)質(zhì)以外還包含了肋骨、脊椎、支氣管等干擾部位,這將嚴(yán)重影響計(jì)算機(jī)輔助系統(tǒng)診斷新型冠狀病毒肺炎患者,因此從X 光胸片中提取肺實(shí)質(zhì)成為新型冠狀病毒肺炎診斷任務(wù)中的關(guān)鍵環(huán)節(jié)。
圖像分割技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的重要研究方向,將圖像分成若干互不交叉且分別具有相似性質(zhì)的區(qū)域。傳統(tǒng)圖像分割技術(shù)主要依靠數(shù)字圖像處理領(lǐng)域的分割算法,這些分割算法需要人為設(shè)定超參數(shù),分割效果受人為因素影響較大。文獻(xiàn)[1]結(jié)合Freeman 鏈碼法和Bezier 曲線對(duì)傳統(tǒng)圖像分割技術(shù)進(jìn)行改進(jìn),雖然在一定程度上提升了分割精度,但是仍需要人為設(shè)定超參數(shù)。
目前,國(guó)內(nèi)外研究人員提出了大量基于深度學(xué)習(xí)技術(shù)的醫(yī)學(xué)圖像分割方法[2]并取得了實(shí)質(zhì)性進(jìn)展,其中最具代表性的是RONNEBERGER 等[3]提出的U-Net。該網(wǎng)絡(luò)利用級(jí)聯(lián)操作將編碼器與解碼器特征及圖像高層信息與淺層信息進(jìn)行有效融合,防止了卷積網(wǎng)絡(luò)高層語(yǔ)義信息的丟失,能夠充分表達(dá)上下文信息。文獻(xiàn)[4]提出的V-Net 在網(wǎng)絡(luò)結(jié)構(gòu)上與U-Net 較接近,該網(wǎng)絡(luò)主要應(yīng)用于三維圖像的特征提取,其中加入了殘差連接架構(gòu),可有效緩解網(wǎng)絡(luò)深度加深導(dǎo)致的梯度消失問(wèn)題。文獻(xiàn)[5]在U-Net 的基礎(chǔ)上加入了殘差連接模塊有效解決了深層網(wǎng)絡(luò)參數(shù)迭代遲緩甚至無(wú)法迭代的問(wèn)題。文獻(xiàn)[6]在全卷積網(wǎng)絡(luò)結(jié)構(gòu)中引入了空間注意力模塊和通道注意力模塊。文獻(xiàn)[7]提出一種漸進(jìn)式微調(diào)策略,將其應(yīng)用于深度遷移學(xué)習(xí)網(wǎng)絡(luò)以輔助診斷肺結(jié)節(jié)良惡性。文獻(xiàn)[8]將表面波變換與脈沖耦合神經(jīng)網(wǎng)絡(luò)結(jié)合進(jìn)行肺實(shí)質(zhì)分割,有效抑制了肺部圖像的干擾信息。文獻(xiàn)[9]提出一種基于編解碼模式的肺實(shí)質(zhì)分割算法,該算法運(yùn)用空洞空間金字塔池化[10]及多尺度圖像輸入充分提取圖像特征。這些算法從更加高效的整合特征入手,提升了網(wǎng)絡(luò)模型的特征提取能力,但是由于未考慮分割目標(biāo)的形變會(huì)在一定程度上影響分割準(zhǔn)確率等指標(biāo),且采用傳統(tǒng)分割損失函數(shù)訓(xùn)練網(wǎng)絡(luò),因此無(wú)法有效提升網(wǎng)絡(luò)對(duì)不同數(shù)據(jù)集的泛化能力。
本文在U-Net 的基礎(chǔ)上提出一種結(jié)合編解碼模式的肺實(shí)質(zhì)分割模型。構(gòu)建A 形特征融合模塊(ABlock),充分學(xué)習(xí)深層特征的語(yǔ)義信息,避免了特征提取過(guò)程中的信息丟失。在深層卷積網(wǎng)絡(luò)中,加入密集空洞卷積(Dense Atrous Convolution,DAC)模塊[11]和殘差多核池化(Residual Multi-kernel Pooling,RMP)模塊[11],擴(kuò)大卷積感受野并提取上下文特征信息,同時(shí)改進(jìn)可變形卷積(Deformable Convolution,DC)[12]和分割損失函數(shù),使網(wǎng)絡(luò)能自適應(yīng)檢測(cè)目標(biāo)的各種形變,充分發(fā)揮卷積神經(jīng)網(wǎng)絡(luò)的特征提取能力。
如圖1所示,傳統(tǒng)卷積使用規(guī)則的方塊卷積核進(jìn)行卷積運(yùn)算。如圖2所示,可變形卷積使用不規(guī)則的卷積核進(jìn)行卷積運(yùn)算??勺冃尉矸e使網(wǎng)絡(luò)進(jìn)行卷積運(yùn)算時(shí)重點(diǎn)關(guān)注感興趣的局部區(qū)域,而不是統(tǒng)一使用方塊卷積核掃描整張圖像區(qū)域。
圖1 傳統(tǒng)卷積Fig.1 Traditional convolution
圖2 可變形卷積Fig.2 Deformable convolution
傳統(tǒng)卷積的操作步驟主要為:1)使用規(guī)則卷積核在輸入特征圖上進(jìn)行特征采樣;2)利用權(quán)重系數(shù)W對(duì)采樣值進(jìn)行加權(quán)求和。
對(duì)輸入特征圖x進(jìn)行卷積采樣可以得到輸出特征圖上的任意位點(diǎn)a0的特征值y(a0):
其中:an為卷積核k上的所有位點(diǎn)。
在可變形卷積中,偏移量Δan(n=1,2,…,N,N=|k|)會(huì)間接改變規(guī)則卷積核的形狀,因此改進(jìn)的特征值y(a0)為:
可變形卷積實(shí)現(xiàn)流程如圖3所示。設(shè)輸入特征圖大小為b×w×h×c,文獻(xiàn)[12]單獨(dú)使用一個(gè)神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)位置偏移量Δan,輸出特征圖大小為b×w×h×2c。本文提出一種新的偏移量計(jì)算方法可使計(jì)算量減少1/2。改進(jìn)的可變形卷積實(shí)現(xiàn)流程如圖4所示。
圖3 可變形卷積實(shí)現(xiàn)流程Fig.3 Implementation flow of deformable convolution
圖4 改進(jìn)的可變形卷積實(shí)現(xiàn)流程Fig.4 Implementation flow of improved deformable convolution
(w×h)大小的特征圖X經(jīng)過(guò)卷積核為k的規(guī)則卷積后得到S(i,j),如式(3)所示。將S(i,j)輸入到sigmoid 函數(shù)σ得到Y(jié)(i,j),如式(4)所示。將Y(i,j)乘以(w×h)得到位置偏移量Aw×h×c,如式(5)所示。將原特征圖位置編號(hào)矩陣G進(jìn)行拉伸操作(Flatten)得到矩陣T,G中的每個(gè)通道號(hào)為0 到(w×h)的一維編號(hào),如式(6)所示。位置偏移矩陣Z等于A加T,并限制Z的值在0 到(w×h)之間,如式(7)所示。
利用位置偏移矩陣Z提取原特征圖中的像素值,將其進(jìn)行拉伸操作后的原特征圖記為X′、X′中的像素編號(hào)按矩陣T進(jìn)行編號(hào),將X′中編號(hào)對(duì)應(yīng)的像素值如圖5所示提取當(dāng)前偏移位置及其上下左右共5 個(gè)像素值并求平均值,得到位置變換后的特征圖Xoffset,并對(duì)Xoffset特征圖進(jìn)行卷積核大小為3×3 的卷積操作。
圖5 位置變換后的特征圖Fig.5 Feature figure after position transformation
空洞卷積可以有效避免底層網(wǎng)絡(luò)紋理細(xì)節(jié)信息的丟失,同時(shí)不增加網(wǎng)絡(luò)的計(jì)算量??斩淳矸e在傳統(tǒng)卷積的基礎(chǔ)上加入了膨脹系數(shù)。圖6 給出了加入了膨脹系數(shù)為2 的空洞卷積。對(duì)于膨脹系數(shù)為r,卷積核尺寸為k的空洞卷積的感受野g計(jì)算如式(8)所示:
圖6 空洞卷積Fig.6 Atrous convolution
圖7 給出了本文算法流程,首先將輸入圖像經(jīng)過(guò)直方圖均衡化、翻轉(zhuǎn)、拉伸等預(yù)處理操作,把處理好的圖像分批次輸入分割模型中得到預(yù)測(cè)值(即1 張像素值為0 到1 的圖像),用預(yù)測(cè)值與標(biāo)簽二值圖像計(jì)算損失函數(shù)進(jìn)行網(wǎng)絡(luò)參數(shù)優(yōu)化。
圖7 肺實(shí)質(zhì)分割算法流程Fig.7 Procedure of pulmonary parenchyma segmentation algorithm
本文采用基于編解碼模式[13]的U 形神經(jīng)網(wǎng)絡(luò)(AD-U-Net)。AD-U-Net 分為編碼部分、深層特征融合部分和解碼部分,并使用級(jí)聯(lián)操作將編解碼特征圖進(jìn)行融合,避免高層特征紋理細(xì)節(jié)信息丟失。AD-U-Net 結(jié)構(gòu)如圖8所示。
圖8 AD-U-Net 結(jié)構(gòu)Fig.8 AD-U-Net structure
2.2.1 編碼部分
由于神經(jīng)網(wǎng)絡(luò)中淺層特征紋理細(xì)節(jié)信息豐富,高層特征語(yǔ)義信息豐富,在圖像分割中決定分割質(zhì)量的因素通常存在于紋理細(xì)節(jié)中。本文使用4 個(gè)最大池化層得到4 個(gè)不同尺度的特征圖,并利用級(jí)聯(lián)操作向4 個(gè)尺度特征圖輸入不同尺度的輸入圖像以避免深層網(wǎng)絡(luò)紋理細(xì)節(jié)信息的丟失。編碼部分每層采用2 組3×3 卷積操作(3×3 conv)加上批歸一化(BN)和Relu 激活函數(shù),并使用最大池化(Maxpooling)進(jìn)行下采樣。在每層卷積后所得的特征圖不僅要傳入最大池化層進(jìn)行下采樣,而且要運(yùn)用級(jí)聯(lián)操作輸入到深層特征融合部分和解碼部分進(jìn)行特征融合,從而充分表達(dá)每層所提取的不同特征。
2.2.2 深層特征融合部分
由編碼部分輸入的圖像如果不采用特征融合操作,直接將編碼部分最后一層輸出與解碼部分相連,則編碼部分提取的豐富特征信息在網(wǎng)絡(luò)參數(shù)傳遞過(guò)程中有極大概率會(huì)丟失,最終影響分割質(zhì)量。本文提出一種A-Block 結(jié)構(gòu),如圖9所示,黑色特征層為編碼器各層的輸出特征圖,白色特征層為編碼器最后一層的特征圖。
圖9 A-Block 結(jié)構(gòu)Fig.9 Structure of A-Block
將編碼器最后一層的特征圖經(jīng)過(guò)1 次3×3 卷積和3 次3×3 轉(zhuǎn)置卷積(3×3 upconv)上采樣,得到4 個(gè)特征圖。將上采樣得到的特征圖與對(duì)應(yīng)尺度的黑色特征層進(jìn)行相加操作(Add)和拼接操作(Concatenation),將特征圖疊加融合,最終得到輸出特征圖(output)。
除此之外,深度特征融合部分還加入了密集空洞卷積模塊[14]和殘差多核池化模塊[15]。如圖10所示,將特征圖用不同膨脹系數(shù)(r)的空洞卷積進(jìn)行特征提取,得到不同感受野的特征圖,在DAC 中首先進(jìn)行一次膨脹系數(shù)為1 的3×3 卷積后,并列進(jìn)行多次不同膨脹系數(shù)的卷積操作,卷積通道數(shù)(C)均設(shè)置為512。值得注意的是不同膨脹系數(shù)的膨脹卷積可有效提取多尺度信息,最后將這些并列的卷積操作進(jìn)行拼接操作后輸出得到多尺度特征映射。本文將A-Block 中A 點(diǎn)處的輸出特征圖進(jìn)行一次kernel size為1、stride 為2 的反卷積,改變特征圖大小并調(diào)整通道數(shù),經(jīng)過(guò)sigmoid 激活函數(shù)得到深層網(wǎng)絡(luò)預(yù)測(cè)特征圖,將該預(yù)測(cè)特征圖與標(biāo)簽二值圖像進(jìn)行對(duì)比并計(jì)算損失函數(shù)。本文通過(guò)深度監(jiān)督(Depth Supervision,DS)機(jī)制[16]指導(dǎo)深層網(wǎng)絡(luò)的參數(shù)優(yōu)化,避免由于網(wǎng)絡(luò)深度增加導(dǎo)致的優(yōu)化梯度消失問(wèn)題。
圖10 密集空洞卷積模塊結(jié)構(gòu)Fig.10 Structure of DAC module
在醫(yī)學(xué)圖像中,分割目標(biāo)大小及形狀因?yàn)椴煌Y狀的影響變化較大。文獻(xiàn)[11]使用一種殘差多核池化模塊來(lái)解決該問(wèn)題,其結(jié)構(gòu)如圖11所示。該模塊主要依靠多個(gè)不同尺度的最大池化來(lái)檢測(cè)不同大小的對(duì)象。殘差多核池化模塊首先采用4 個(gè)不同大小的池化核對(duì)全局上下文信息進(jìn)行編碼,然后將池化后的多尺度特征圖進(jìn)行拼接操作,最后引入一個(gè)1×1 卷積及批歸一化進(jìn)行特征降維。
圖11 殘差多核池化模塊結(jié)構(gòu)Fig.11 Structure of RMP module
2.2.3 解碼部分
當(dāng)神經(jīng)網(wǎng)絡(luò)輸入信息量很大時(shí),模型參數(shù)也非常龐大,以至于神經(jīng)網(wǎng)絡(luò)無(wú)法重點(diǎn)關(guān)注起決定性作用的部分參數(shù)。在解碼部分,本文采用可變形卷積,在每層解碼模塊的開始加入一個(gè)改進(jìn)的可變形卷積模塊,將解碼模塊、編碼模塊、深層融合模塊的輸出特征圖進(jìn)行拼接操作后輸入可變形卷積模塊中。該模塊將自適應(yīng)地對(duì)圖像中感興趣的區(qū)域進(jìn)行特征提取,變相地改變了卷積形狀,并在卷積過(guò)程中不斷地識(shí)別圖形中的感興趣區(qū)域。普通注意力模塊是在進(jìn)行規(guī)則卷積后對(duì)得到的特征圖進(jìn)行篩選操作。該方法比較依賴人為設(shè)定不同尺寸的卷積核對(duì)多尺度目標(biāo)的檢測(cè),而可變形卷積無(wú)需人為設(shè)定不同尺寸的卷積核,即可實(shí)現(xiàn)對(duì)多尺度目標(biāo)的檢測(cè)。每層解碼模塊引入了可變形卷積和3×3 普通卷積,并用轉(zhuǎn)置卷積進(jìn)行上采樣,實(shí)現(xiàn)特征圖的尺度變換。
本文引入類距懲罰項(xiàng)改進(jìn)分割損失函數(shù),目的是增大類間距并縮短類內(nèi)距。Tversky 損失函數(shù)的定義如式(9)所示:
其中:pi表示像素i屬于肺實(shí)質(zhì)的預(yù)測(cè)概率;表示像素i屬于背景的預(yù)測(cè)概率;yi表示像素i屬于肺實(shí)質(zhì)的真實(shí)標(biāo)簽值;表示像素i屬于背景的真實(shí)標(biāo)簽值;ε是一個(gè)極小的數(shù),避免分母為0;α和β分別用于控制假陽(yáng)性和假陰性的權(quán)重。本文在Tversky 損失函數(shù)的基礎(chǔ)上進(jìn)行了改進(jìn),加入了類距懲罰項(xiàng),定義如式(10)所示:
其中:a表示預(yù)測(cè)為肺實(shí)質(zhì),標(biāo)簽為肺實(shí)質(zhì)的所有像素的平均值;b為預(yù)測(cè)為背景,標(biāo)簽為背景的所有像素的平均值;d表示標(biāo)簽為肺實(shí)質(zhì)的預(yù)測(cè)值的所有像素的平均值;e表示標(biāo)簽為背景的預(yù)測(cè)值的所有像素的平均值。在式(10)中,多項(xiàng)式第2 項(xiàng)和第3 項(xiàng)即為控制類內(nèi)距(Sn)和類間距函數(shù)(Sp)。如果僅將類內(nèi)距和類間距加入到損失函數(shù)中以尋求減少(Sn-Sp),那么該法將缺乏優(yōu)化靈活性。
由于該對(duì)稱優(yōu)化方法對(duì)類間距和類內(nèi)距的懲罰力度是嚴(yán)格相等的,因此在進(jìn)行優(yōu)化時(shí)Sn和Sp具有相同的梯度。如圖12所示,Sn已非常小,如果按照對(duì)稱的類距損失函數(shù)進(jìn)行參數(shù)優(yōu)化,那么Sn將繼續(xù)以較大的梯度減小,從而到達(dá)決策邊界T所在的位置。該方法效率低,且收斂狀態(tài)模糊。由圖12 可以看出,點(diǎn)T和T′均位于決策邊界上,由于對(duì)稱的類距損失函數(shù)允許模糊的收斂狀態(tài),因此收斂速度減慢,收斂狀態(tài)多樣化。
圖12 傳統(tǒng)類距損失函數(shù)的收斂情況Fig.12 Convergence of traditional class distance loss function
文獻(xiàn)[17]為類距損失函數(shù)進(jìn)行優(yōu)化,將(Sn-Sp)修改為(λnSn-μpSp),允許Sn和Sp以不同的步調(diào)進(jìn)行學(xué)習(xí)。如圖13所示,在加入λn和μp后將使類間距和類內(nèi)距的下降梯度和收斂狀態(tài)相適應(yīng),決策邊界呈圓弧形。對(duì)于Sn和Sp,加入了控制不同相似度函數(shù)收斂梯度的加權(quán)因子。將正負(fù)樣本標(biāo)簽與預(yù)測(cè)值之間的歐式距離作為加權(quán)因子,當(dāng)類內(nèi)距過(guò)大時(shí),權(quán)重參數(shù)將會(huì)附加給類內(nèi)距相似度函數(shù)更高的權(quán)重,提高其在優(yōu)化時(shí)的梯度。因此,相似度損失函數(shù)可以按照各自不同的步調(diào)進(jìn)行參數(shù)優(yōu)化,提升了函數(shù)優(yōu)化的靈活性和決策邊界的泛化能力。
圖13 圓損失函數(shù)的收斂情況Fig.13 Convergence of circular loss function
實(shí)驗(yàn)采用5 000 張X 光胸片數(shù)據(jù)及其對(duì)應(yīng)的肺實(shí)質(zhì)人工分割二值圖像。X 光胸片數(shù)據(jù)包含正常、已感染新型冠狀病毒肺炎和患有其他疾病的胸部X光成像,其中每張圖片分辨率均為512 像素×512 像素。將80%的圖像作為訓(xùn)練集,20%的圖像作為測(cè)試集。實(shí)驗(yàn)硬件環(huán)境為NVIDIA RTX 2080 Ti GPU,Intel Core i7 CPU,采用Adam 優(yōu)化器,并且學(xué)習(xí)率設(shè)定為1e-4,batch size設(shè)定為8。
本文評(píng)價(jià)指標(biāo)包括準(zhǔn)確度(Acc)、Dice 系數(shù)、敏感度(Sen)和Jaccard 指數(shù),具體計(jì)算公式如式(11)~式(14)所示:
其中:TTP表示標(biāo)簽分割圖像和預(yù)測(cè)分割圖像的肺實(shí)質(zhì)公共區(qū)域的像素?cái)?shù)量;FFP表示在分割預(yù)測(cè)區(qū)域內(nèi)而在標(biāo)簽分割區(qū)域外的像素?cái)?shù)量;TTN表示標(biāo)簽分割圖像和預(yù)測(cè)分割圖像的非肺實(shí)質(zhì)公共區(qū)域的像素?cái)?shù)量;FFN表示在分割預(yù)測(cè)區(qū)域外而在標(biāo)簽分割區(qū)域內(nèi)的像素?cái)?shù)量。
3.3.1 損失函數(shù)對(duì)分割結(jié)果的影響
經(jīng)過(guò)統(tǒng)計(jì)得出,數(shù)據(jù)集中正負(fù)樣本比例嚴(yán)重失衡,Tversky 損失函數(shù)對(duì)于FFN和FFP的檢測(cè)權(quán)重是不相等的,可以根據(jù)數(shù)據(jù)的實(shí)際情況改變相應(yīng)的權(quán)重值,從而減弱數(shù)據(jù)樣本分布不平衡對(duì)分割結(jié)果造成的不良影響。測(cè)試并比較Tversky 損失函數(shù)(見式(9))和改進(jìn)的Tversky 損失函數(shù)(見式(10))的性能,損失函數(shù)對(duì)分割結(jié)果的影響如表1所示。可以看出,在使用改進(jìn)的Tversky 損失函數(shù)后,分割算法的各項(xiàng)性能指標(biāo)均有不同程度的提升。
表1 損失函數(shù)性能對(duì)比Table 1 Performance comparison of loss function %
由于使用sigmoid 函數(shù),預(yù)測(cè)值被限定在0.0 到1.0 之間,將預(yù)測(cè)結(jié)果分為10 個(gè)區(qū)段,分別統(tǒng)計(jì)預(yù)測(cè)值在各個(gè)區(qū)段中的像素?cái)?shù)量,基于Tversky 損失函數(shù)和改進(jìn)Tversky 損失函數(shù)的預(yù)測(cè)數(shù)據(jù)分布結(jié)果如圖14 和圖15所示??梢钥闯?,在改進(jìn)的Tversky 損失函數(shù)后像素預(yù)測(cè)值主要分布于0.1~0.3 和0.7~1.0,而0.3~0.7 的預(yù)測(cè)數(shù)相對(duì)損失函數(shù)不斷減少,像素預(yù)測(cè)值大量分布在0.0 或者1.0 附近,表明改進(jìn)的Tversky 損失函數(shù)的魯棒性更強(qiáng)。對(duì)比圖14 與圖15可以看出,基于改進(jìn)Tversky 損失函數(shù)的預(yù)測(cè)數(shù)據(jù)分布兩極分化更加明顯,符合預(yù)期效果。
圖14 基于Tversky 損失函數(shù)的預(yù)測(cè)數(shù)據(jù)分布Fig.14 Prediction data distribution based on Tversky loss function
圖15 基于改進(jìn)Tversky 損失函數(shù)的預(yù)測(cè)數(shù)據(jù)分布Fig.15 Prediction data distribution based on improved Tversky loss function
3.3.2 消融實(shí)驗(yàn)
由A-Block、DAC 模塊、RMP 模塊、DC 和DS 機(jī)制組成的5 種改進(jìn)方案對(duì)分割性能的影響如表2所示。可以看出,A-Block 和DC 相較其他模塊和機(jī)制對(duì)于分割結(jié)果的影響較大。A-Block 將上下文信息充分融合,避免特征提取過(guò)程中的信息丟失,從而提升分割精度。DC 作為一種特殊的注意力機(jī)制,使網(wǎng)絡(luò)能自適應(yīng)檢測(cè)目標(biāo)的各種形變,充分發(fā)揮了卷積神經(jīng)網(wǎng)絡(luò)的特征提取能力。DS 機(jī)制可以有效指導(dǎo)深層網(wǎng)絡(luò)的參數(shù)優(yōu)化,有效避免了隨著神經(jīng)網(wǎng)絡(luò)深度加深導(dǎo)致的網(wǎng)絡(luò)訓(xùn)練梯度消失和收斂速度過(guò)慢等問(wèn)題。
表2 5 種改進(jìn)方案對(duì)分割結(jié)果的影響Table 2 Influence of five improved schemes on segmentation results %
3.3.3 算法對(duì)比實(shí)驗(yàn)結(jié)果分析
將本文提出的AD-U-Net 與U-Net[3]、CE-Net[9]、U-Net++[18]、U2-Net[19]、U-Net 3+[20]等5 種目前表現(xiàn)較好的神經(jīng)網(wǎng)絡(luò)進(jìn)行分割性能對(duì)比,結(jié)果如表3所示。可以看出,本文基于AD-U-Net 模型的分割算法的準(zhǔn)確度、Dice 系數(shù)、敏感度和Jaccard 指數(shù)分別達(dá)到98.16%、98.32%、98.13%和98.54%,相較對(duì)比模型有不同程度的提升。因此,本文提出的基于AD-U-Net模型的圖像分割算法能有效實(shí)現(xiàn)肺實(shí)質(zhì)分割。
表3 基于6 種神經(jīng)網(wǎng)絡(luò)模型的圖像分割算法性能對(duì)比Table 3 Performance comparison of image segmentation algorithms based on six neural network models %
本文提出基于編解碼模式的肺實(shí)質(zhì)分割算法,運(yùn)用特征融合思想,在深度融合模塊中采用A-Block、密集空洞卷積模塊和殘差多核池化模塊充分融合上下文信息。通過(guò)帶有可變形卷積的注意力機(jī)制對(duì)編解碼特征進(jìn)行融合,提升卷積神經(jīng)網(wǎng)絡(luò)對(duì)檢測(cè)目標(biāo)形變的適應(yīng)能力。設(shè)計(jì)類距懲罰損失函數(shù),使網(wǎng)絡(luò)預(yù)測(cè)結(jié)果更加穩(wěn)定。實(shí)驗(yàn)結(jié)果表明,該算法能實(shí)現(xiàn)肺實(shí)質(zhì)部位的有效分割,相比其他算法分割性能更優(yōu)。后續(xù)將探索并研究更加高效準(zhǔn)確的分割算法,提升新型冠狀病毒肺炎的檢測(cè)準(zhǔn)確率,并進(jìn)一步擴(kuò)展該分割算法在其他醫(yī)學(xué)圖像處理中的應(yīng)用,提升其普適性與實(shí)用性。