亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合多尺度空間特征的甲狀腺結(jié)節(jié)超聲圖像分割

        2024-04-29 02:42:42崔少國(guó)張宇楠
        關(guān)鍵詞:特征實(shí)驗(yàn)模型

        崔少國(guó),張宇楠

        (重慶師范大學(xué)計(jì)算機(jī)與信息科學(xué)學(xué)院,重慶 401331)

        0 引 言

        近年來(lái),甲狀腺結(jié)節(jié)的發(fā)病率逐年升高,它嚴(yán)重危害人體的健康[1]。截止到目前,甲狀腺結(jié)節(jié)的超聲檢出率可達(dá)20%~76% ,其中5%~15%最終診斷為甲狀腺癌[2]。目前臨床檢查甲狀腺結(jié)節(jié)的方法主要有:超聲檢測(cè)、細(xì)針穿刺細(xì)胞學(xué)檢查、血清學(xué)檢查、計(jì)算機(jī)斷層檢查(CT)與核磁共振成像(MRI)。而超聲檢測(cè)屬于完全無(wú)損、無(wú)創(chuàng)、無(wú)輻射的檢查技術(shù),且因其檢測(cè)實(shí)時(shí)、價(jià)格低廉和重復(fù)性好等優(yōu)點(diǎn)已逐漸成為大多數(shù)醫(yī)院診斷甲狀腺疾病首選方法[3]。

        甲狀腺結(jié)節(jié)超聲圖像斑點(diǎn)噪聲嚴(yán)重,且灰度不均勻,給病灶分割及疾病診斷帶來(lái)了很大的挑戰(zhàn)[4]。傳統(tǒng)超聲圖像分析方法主要依賴醫(yī)生的主觀判斷[5-6],對(duì)臨床經(jīng)驗(yàn)要求極高,且對(duì)于一些醫(yī)療設(shè)施較差的地區(qū),還可能存在誤診和漏診的風(fēng)險(xiǎn)。隨著計(jì)算機(jī)技術(shù)的不斷發(fā)展,計(jì)算機(jī)輔助診斷(Computer Aided Diagnosis,CAD)已成為如今醫(yī)學(xué)領(lǐng)域研究的熱點(diǎn)[7],醫(yī)學(xué)影像分割是CAD進(jìn)行診斷的基礎(chǔ),為醫(yī)生提供了重要的臨床輔助診斷信息[8-9]。因此,實(shí)現(xiàn)一種高效的甲狀腺結(jié)節(jié)超聲圖像分割方法具有很高的臨床意義[10]。

        隨著醫(yī)學(xué)影像數(shù)據(jù)的快速增長(zhǎng)及計(jì)算機(jī)性能的提升[11],深度學(xué)習(xí)以其快速、客觀等優(yōu)勢(shì),在醫(yī)學(xué)影像領(lǐng)域的應(yīng)用取得了突破性的進(jìn)展[12],它能夠直接處理原始數(shù)據(jù),并能夠自動(dòng)提取出大量有效的高階特征,從而實(shí)現(xiàn)甲狀腺結(jié)節(jié)的準(zhǔn)確分割?;诰矸e神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型在醫(yī)學(xué)圖像分割領(lǐng)域取得了很好的應(yīng)用效果[13],許多模型都是基于編碼器-解碼器的結(jié)構(gòu),如全卷積神經(jīng)網(wǎng)絡(luò)(FCN)[14]、FusionNet[15]、U-Net[16]、U-Net++[17]、ResUNet[18]等模型。

        目前,卷積神經(jīng)網(wǎng)絡(luò)已成為大多數(shù)醫(yī)學(xué)圖像分割任務(wù)的熱點(diǎn),并且做出很多有意義的改進(jìn)。文獻(xiàn)[19]以U-Net為基礎(chǔ)網(wǎng)絡(luò),提出了一種標(biāo)記引導(dǎo)的超聲甲狀腺結(jié)節(jié)深度網(wǎng)絡(luò)分割算法,該算法雖然沒(méi)有加重醫(yī)生的操作負(fù)擔(dān),但仍需要人工標(biāo)注結(jié)節(jié)邊緣的標(biāo)記點(diǎn)。文獻(xiàn)[20]提出了條件分割對(duì)抗網(wǎng)絡(luò)cSegAN 模型,在分割器網(wǎng)絡(luò)S 中引入了一種多擴(kuò)張率卷積塊對(duì)結(jié)節(jié)區(qū)域進(jìn)行定位,分割出二值掩膜,但針對(duì)小結(jié)節(jié)的分割還有待加強(qiáng)。文獻(xiàn)[21]在Mask-R-CNN 網(wǎng)絡(luò)的基礎(chǔ)上設(shè)計(jì)了一種具有多任務(wù)處理能力的網(wǎng)絡(luò)框架,能夠同時(shí)進(jìn)行甲狀腺結(jié)節(jié)檢測(cè)、分割和分類的任務(wù),但該模型依然對(duì)于小尺寸的結(jié)節(jié)分割效果較差。文獻(xiàn)[22]提出基于注意力機(jī)制的半監(jiān)督神經(jīng)網(wǎng)絡(luò)對(duì)甲狀腺結(jié)節(jié)超聲圖像進(jìn)行分割,該網(wǎng)絡(luò)通過(guò)使用弱注釋的分類數(shù)據(jù)和少量完全注釋的分割數(shù)據(jù)來(lái)完成甲狀腺超聲圖像的分割,并取得了較好的分割結(jié)果,但該模型的泛化能力還有待提升。文獻(xiàn)[23]將DCNN用于超聲甲狀腺結(jié)節(jié)的分割,把分割問(wèn)題制定為一個(gè)patch 分類任務(wù),忽略patch 之間的關(guān)系,訓(xùn)練網(wǎng)絡(luò)生成分割概率圖,且首次將CNN 用于甲狀腺結(jié)節(jié)的分割,但存在分割邊界不清晰的問(wèn)題。

        針對(duì)上述問(wèn)題,本文提出一種基于多尺度特征和坐標(biāo)注意力機(jī)制的甲狀腺結(jié)節(jié)超聲圖像分割算法。首先,對(duì)下采樣采用步長(zhǎng)為2 的卷積代替池化層,以防止細(xì)節(jié)信息丟失。接著,引入坐標(biāo)注意力機(jī)制,實(shí)現(xiàn)對(duì)甲狀腺結(jié)節(jié)的準(zhǔn)確定位。然后,構(gòu)建可以獲取多尺度特征的輕量空洞空間金字塔池化模塊,并應(yīng)用于編碼的最后階段。通過(guò)訓(xùn)練測(cè)試和實(shí)驗(yàn)對(duì)比,結(jié)果表明本文方法可以更好地優(yōu)化邊緣信息,并在小結(jié)節(jié)和形態(tài)不規(guī)則的結(jié)節(jié)中,也能實(shí)現(xiàn)更準(zhǔn)確的分割。

        1 本文方法

        1.1 模型總述

        本文以U-Net網(wǎng)絡(luò)為基準(zhǔn)模型,提出一種融合多尺度空間特征的甲狀腺結(jié)節(jié)超聲圖像分割算法,即CMSF-UNet 模型。整個(gè)網(wǎng)絡(luò)由編碼部分(左側(cè))和解碼部分(右側(cè))組成,具體結(jié)構(gòu)如圖1所示。

        圖1 CMSF-UNet網(wǎng)絡(luò)結(jié)構(gòu)圖

        其中,卷積層組的左上角和右上角分別為輸入的通道數(shù)和輸出的通道數(shù),卷積層組的左下角和右下角分別為輸入的特征圖大小和輸出的特征圖大小,綠色箭頭是卷積核為2×2、步長(zhǎng)為2的下采樣層,灰色箭頭是跳躍連接,橙色箭頭是卷積核為3×3、步長(zhǎng)為2的上采樣層,藍(lán)色箭頭是1×1 的常規(guī)卷積塊,紫色箭頭為均值池化,黃色箭頭為不同空洞率的空洞卷積。

        在編碼階段,每個(gè)卷積層組都由2 個(gè)3×3 的卷積層進(jìn)行特征提取,卷積層后使用ReLU 激活函數(shù),然后增加一個(gè)CA模塊,通過(guò)捕獲特征的空間位置關(guān)系,獲得精確的位置信息和特征之間的依賴關(guān)系;接著,在編碼的最后階段,引入多尺度特征模塊,分別采用空洞率為1、6、12、18 的深度可分離空洞卷積進(jìn)行特征提取并將特征圖進(jìn)行拼接,來(lái)捕捉高級(jí)語(yǔ)義信息;下采樣部分,本文使用卷積核為2×2、步長(zhǎng)為2的卷積層替換U-Net 原始2×2 的最大池化層,目的是為了在特征圖縮小的同時(shí),保留更多細(xì)節(jié)信息。在解碼階段,每層包含一個(gè)步長(zhǎng)為2 的上采樣層,再緊跟2 個(gè)3×3 的卷積層組,每個(gè)卷積層后面依然接一個(gè)ReLU層。再通過(guò)跳躍連接,將編碼階段的淺層次特征與解碼階段的深層次特征相結(jié)合,最后使用1×1的卷積并采用雙線性插值輸出最后的預(yù)測(cè)圖。

        1.2 坐標(biāo)注意力協(xié)同卷積

        1.2.1 坐標(biāo)注意力模塊

        由于甲狀腺結(jié)節(jié)邊緣信息噪聲較大,隨著網(wǎng)絡(luò)層數(shù)的加深,結(jié)節(jié)邊緣的特征信息,尤其是位置等信息,伴隨著層數(shù)的加深而減少,而位置信息在圖像分割任務(wù)中有著不可替代的作用,但直接減少主體網(wǎng)絡(luò)層數(shù)會(huì)導(dǎo)致結(jié)節(jié)信息提取不足。因此,為了更好地捕獲甲狀腺結(jié)節(jié)的細(xì)節(jié)特征,本文引入由Hou等人[24]提出的坐標(biāo)注意力(Coordinate Attention,CA)模塊,通過(guò)將位置信息嵌入到通道注意力中,以實(shí)現(xiàn)模型對(duì)甲狀腺結(jié)節(jié)區(qū)域的定位。整體的坐標(biāo)注意力模塊如圖2所示。

        圖2 坐標(biāo)注意力模塊

        整個(gè)模型對(duì)甲狀腺結(jié)節(jié)區(qū)域定位的過(guò)程主要分為2步:

        1)通過(guò)2 個(gè)并行的一維全局池化操作嵌入位置信息,分別沿著水平方向和垂直方向進(jìn)行特征聚合,生成2個(gè)具有方向感知且獨(dú)立的特征圖。在位置信息嵌入過(guò)程中,將全局池化操作分解為對(duì)特征圖的水平方向(H,1)和垂直方向(1,W)分別使用池化操作,對(duì)每個(gè)通道進(jìn)行編碼。具體的,設(shè)h、w分別為輸入特征圖的高度和寬度,數(shù)值會(huì)隨著網(wǎng)絡(luò)的下采樣而變化,在第c個(gè)通道中高度h上輸出的一維特征如式(1)所示:

        在第c個(gè)通道中寬度w上輸出的一維特征如式(2)所示:

        2)將得到的2 個(gè)特征圖按通道進(jìn)行拼接,再利用1×1 卷積壓縮通道數(shù),接著依次經(jīng)過(guò)批正則化和非線性激活函數(shù)來(lái)進(jìn)一步編碼位置信息,最后沿著通道方向分解得到2 個(gè)注意力權(quán)重,采用矩陣乘法將權(quán)重映射到特征圖中,得到最終輸出。

        1.2.2 改進(jìn)的池化層

        通過(guò)坐標(biāo)注意力學(xué)習(xí)到特征信息后,進(jìn)入到下采樣階段,U-Net 網(wǎng)絡(luò)在相鄰的卷積層之間通常會(huì)加入一個(gè)池化層,池化是在不同通道上分開(kāi)執(zhí)行,且不需要參數(shù)控制。但池化操作主要是提取關(guān)鍵特征,并不能保證訓(xùn)練階段的分類誤差最小化,勢(shì)必會(huì)丟失細(xì)節(jié)信息。由于甲狀腺結(jié)節(jié)超聲圖像對(duì)比度低且灰度值不均勻,如果采用池化操作,會(huì)導(dǎo)致丟失結(jié)節(jié)邊緣部分的細(xì)節(jié)特征,而這些細(xì)節(jié)信息,在醫(yī)學(xué)圖像輔助診斷中都是極其重要的。因此,本文將池化層用卷積核為2×2、步長(zhǎng)為2的卷積替代,讓網(wǎng)絡(luò)通過(guò)訓(xùn)練參數(shù)來(lái)自動(dòng)選擇哪些是分割過(guò)程中要保留的特征,哪些是需要被拋棄的特征。

        1.3 多尺度特征模塊

        空洞空間金字塔池化(ASPP)模塊是由Chen 等人[25]提出的由不同空洞率的空洞卷積進(jìn)行特征提取,且以級(jí)聯(lián)拼接的方式獲取多尺度特征。但級(jí)聯(lián)拼接后的ASPP 模塊會(huì)增加大量的通道數(shù),導(dǎo)致參數(shù)量增大,因此本文將級(jí)聯(lián)的空洞卷積替換為深度可分離空洞卷積,深度可分離空洞卷積是在深度可分離卷積[26]的逐通道卷積環(huán)節(jié)中引入空洞卷積,主要用來(lái)提取空間方面的特征,逐點(diǎn)卷積是使用1×1的卷積核在通道方向上提取特征,具體操作如圖3所示。

        圖3 深度可分離空洞卷積

        深度可分離空洞卷積的padding設(shè)置與空洞率大小相同,因此在卷積過(guò)程中,卷積前后的特征圖尺寸保持不變,這也是它的關(guān)鍵優(yōu)勢(shì)。深度可分離空洞卷積取代空洞卷積,以緩解不同感受野拼接后模型參數(shù)量、計(jì)算量增加的問(wèn)題。

        通過(guò)與不同空洞率的深度可分離空洞卷積相融合,得到多尺度特征模塊(Multiscale Spatial Features,MSF)。具體結(jié)構(gòu)如圖4所示。

        圖4 MSF模塊圖

        MSF 模塊是由1 個(gè)1×1 的卷積層、3 個(gè)空洞卷積層和1 個(gè)池化層組成。不同的空洞率能夠獲取不同尺度的感受野,因此本文選擇使用空洞率分別為6、12、18 的深度可分離空洞卷積進(jìn)行特征提取,小的空洞率可以更好地獲取局部信息,例如小的甲狀腺結(jié)節(jié)特征,大的空洞率可以獲得更大的感受野,最后的池化層是為了獲取特征圖的全局特征。最后,將獲取到的每個(gè)特征圖進(jìn)行堆疊獲取多尺度的語(yǔ)義信息。

        1.4 綜合損失函數(shù)

        由于甲狀腺結(jié)節(jié)超聲圖像對(duì)比度低,分割的特征尺度所占比例差異較大,因此本文采用綜合損失作為損失函數(shù),可以在關(guān)注整體圖像損失度的前提下,更注重目標(biāo)損失度的變化,從而避免特征面積對(duì)分割準(zhǔn)確度的影響。

        綜合損失Lall包括Dice 系數(shù)損失Ldice和二值交叉熵?fù)p失LBCE,可改善數(shù)據(jù)的不平和問(wèn)題,即:

        Dice系數(shù)損失的表達(dá)式為:

        式中,T為甲狀腺結(jié)節(jié)標(biāo)簽真值,C為網(wǎng)絡(luò)最終輸出的甲狀腺結(jié)節(jié)標(biāo)簽,N為批處理大小,i為對(duì)應(yīng)的索引。二值交叉熵?fù)p失的計(jì)算公式為:

        式中,N為批處理大小,i為對(duì)應(yīng)的索引,t是樣本的真值,v為網(wǎng)絡(luò)預(yù)測(cè)概率值。

        2 實(shí)驗(yàn)與結(jié)果分析

        2.1 實(shí)驗(yàn)平臺(tái)及數(shù)據(jù)集

        本文實(shí)驗(yàn)所有訓(xùn)練均在Windows 10系統(tǒng)環(huán)境的計(jì)算機(jī)上運(yùn)行,計(jì)算機(jī)配置為:Intel Core i9-10920X 3.5 GHz CPU 和NVIDA GeForce RTX 3080 Ti 顯卡。實(shí)驗(yàn)采用Python 3.8編程語(yǔ)言,利用深度學(xué)習(xí)計(jì)算框架PyTorch 1.7.1實(shí)現(xiàn)本文提出的網(wǎng)絡(luò),并進(jìn)行實(shí)驗(yàn)對(duì)比。

        本文采用的甲狀腺超聲數(shù)據(jù)集是來(lái)自專業(yè)醫(yī)院的私人數(shù)據(jù)集,其為使用不同的超聲設(shè)備所收集的圖像,共有3200 張,其中,惡性1759 張,良性1441 張,標(biāo)簽圖像均由經(jīng)驗(yàn)豐富的醫(yī)生標(biāo)記,所有標(biāo)簽圖像均為二值圖像,每張超聲圖像的大小為512×512 像素,共得到6400張超聲結(jié)節(jié)數(shù)據(jù)。

        2.2 模型訓(xùn)練

        在實(shí)驗(yàn)中,將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集,訓(xùn)練集用以訓(xùn)練模型,測(cè)試集用以測(cè)試模型的性能。在6400 張圖片中,隨機(jī)將圖片劃分為訓(xùn)練集和測(cè)試集,劃分比例為9:1,數(shù)據(jù)集的具體分布如表1 所示。網(wǎng)絡(luò)參數(shù)的設(shè)置遵循以下規(guī)則:選擇圖片輸入的維度為(512,512,3),輸出維度為(512,512,2),其中,輸出的通道數(shù)2 分別對(duì)應(yīng)需要預(yù)測(cè)的2 種類別,即劃分為前景的甲狀腺結(jié)節(jié)區(qū)域和劃分為背景的非甲狀腺結(jié)節(jié)區(qū)域,優(yōu)化算法采用Adam 優(yōu)化器,根據(jù)顯卡性能選擇送入網(wǎng)絡(luò)的圖片批次量batch_size 為4,并根據(jù)訓(xùn)練結(jié)果保存最優(yōu)模型。

        表1 數(shù)據(jù)集分布情況

        2.3 評(píng)價(jià)指標(biāo)

        為了評(píng)估本文所提模型的分割效果,從主觀評(píng)價(jià)和客觀評(píng)價(jià)2 個(gè)方面對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了對(duì)比分析,用常用的混淆矩陣。主觀評(píng)價(jià)主要從視覺(jué)效果上比較圖像的整體分割及微弱邊緣的分割情況??陀^評(píng)價(jià)采用常用的F1 分?jǐn)?shù)(F1-score)、交并比(IOU)、精確率(Precision,Pre)、召回率(Recall)和準(zhǔn)確率(Accuracy,Acc)作為評(píng)價(jià)指標(biāo),其最大值為1,最小值為0。

        2.4 對(duì)比實(shí)驗(yàn)及分析

        為了觀察可視化效果,本文選用5 組具有代表性的甲狀腺結(jié)節(jié)超聲圖像,采用不同網(wǎng)絡(luò)進(jìn)行分割驗(yàn)證,每張圖像的結(jié)節(jié)分別在形狀、大小等方面具有各自的特征,用以說(shuō)明在灰度不均勻、形態(tài)大小不一的區(qū)域下每種模型的優(yōu)劣。不同網(wǎng)絡(luò)的分割結(jié)果如圖5所示。

        圖5 不同網(wǎng)絡(luò)分割結(jié)果圖

        圖5(a)是原始的甲狀腺結(jié)節(jié)超聲圖像,紅色圈內(nèi)代表甲狀腺結(jié)節(jié)的位置,圖5(b)是醫(yī)生手工標(biāo)注的甲狀腺結(jié)節(jié)區(qū)域,圖5(c)是使用FusionNet 模型分割出的效果圖,圖5(d)是使用FCN 模型分割出的效果圖,圖5(e)是使用U-Net 模型分割出的效果圖,圖5(f)是使用U-Net++模型分割出的效果圖,圖5(g)是使用ResUNet 模型分割出的效果圖,圖5(h)是本文CMSF-UNet模型分割出的效果圖。

        從圖5 中可以看出,使用FusionNet 模型分割時(shí),沒(méi)有完全分割出甲狀腺結(jié)節(jié)邊緣,且在第3 張不規(guī)則形狀的小結(jié)節(jié)中,背景像素分類錯(cuò)誤,出現(xiàn)過(guò)度分割的情況;從第5 張可以看出,F(xiàn)usionNet 模型和FCN 模型在分割時(shí),結(jié)節(jié)與真實(shí)標(biāo)簽形狀差異較大,出現(xiàn)欠分割的現(xiàn)象;使用U-Net 模型分割時(shí),基本覆蓋了真陽(yáng)性區(qū)域,但結(jié)節(jié)分割的形狀大小不夠準(zhǔn)確且邊緣信息模糊;使用U-Net++模型分割時(shí),能夠更好地抑制噪聲,但對(duì)小結(jié)節(jié)分割不夠準(zhǔn)確;使用ResUNet 模型分割時(shí),相較于U-Net 模型有所提升,但從第1 張結(jié)節(jié)的分割形狀來(lái)看,與真實(shí)標(biāo)簽還有一定差距。而使用本文CMSF-UNet 模型的分割效果無(wú)論是在小結(jié)節(jié)的分割還是邊緣信息都有了一定程度的提升,使得分割結(jié)果與真實(shí)標(biāo)簽更加接近。

        為了驗(yàn)證本文算法的性能,本文復(fù)現(xiàn)了經(jīng)典的分割方法FusionNet[15]、FCN[14]、U-Net[16]、U-Net++[17]和ResUNet[18]并與其他論文中甲狀腺結(jié)節(jié)超聲圖像分割模型的實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比。實(shí)驗(yàn)結(jié)果如表2所示。

        表2 不同模型的對(duì)比實(shí)驗(yàn)結(jié)果

        從表2 可知,CMSF-UNet 網(wǎng)絡(luò)的F1 分?jǐn)?shù)達(dá)到91.6%,與U-Net相比提升了9.9個(gè)百分點(diǎn),而精確率、召回率、交并比和準(zhǔn)確率分別提升至92.8%、94.2%、85%和96.1%。其中,F(xiàn)usionNet 模型加入了padding和殘差塊,但網(wǎng)絡(luò)層數(shù)過(guò)深,導(dǎo)致丟失部分細(xì)節(jié)特征。FCN模型。使用池化層降低輸入數(shù)據(jù)的空間維度,但在級(jí)聯(lián)特征時(shí)表達(dá)性不高,網(wǎng)絡(luò)參數(shù)較大,對(duì)圖像的細(xì)節(jié)信息不夠敏感,導(dǎo)致整體性能較低。U-Net 模型是經(jīng)典的端到端分割網(wǎng)絡(luò),通過(guò)跳躍連接使低維信息有效地補(bǔ)償了高維特征,網(wǎng)絡(luò)參數(shù)較小,但無(wú)法獲取深層次的細(xì)節(jié)特征,導(dǎo)致精確率較低。文獻(xiàn)[27]通過(guò)以不斷進(jìn)階的方式進(jìn)行特征融合,抑制低維特征噪聲,精確率雖有所提升,但模型的參數(shù)過(guò)大導(dǎo)致訓(xùn)練速度較慢。文獻(xiàn)[28]使用通道注意力機(jī)制和卷積操作獲取不同尺度的特征,但網(wǎng)絡(luò)無(wú)法更準(zhǔn)確地定位甲狀腺結(jié)節(jié)的位置信息。ResUNet 采用了殘差結(jié)構(gòu),可以簡(jiǎn)化深層網(wǎng)絡(luò)的訓(xùn)練,與前3 個(gè)網(wǎng)絡(luò)相比效果有所提升,而本文所提模型利用MSF 模塊進(jìn)行不同尺度的特征提取,并結(jié)合坐標(biāo)注意力模塊,提高了網(wǎng)絡(luò)對(duì)甲狀腺結(jié)節(jié)模糊邊緣的特征提取能力,與其他4 種模型相比表現(xiàn)更加優(yōu)秀。

        2.5 消融實(shí)驗(yàn)

        為了驗(yàn)證不同模塊對(duì)本文所提模型的有效性,本文在U-Net模型的基礎(chǔ)上,通過(guò)逐個(gè)引入改進(jìn)的池化層、MSF 模塊和坐標(biāo)注意力機(jī)制進(jìn)行消融實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果如表3所示。

        表3 CMSF-UNet模型消融實(shí)驗(yàn)

        從表3中可以看出,U-Net+Conv表示引入卷積層作為下采樣,雖然F1分?jǐn)?shù)有所降低,但精確率提升了4.4 個(gè)百分點(diǎn),表明改進(jìn)的池化層有效地保留了一些細(xì)節(jié)特征,在此基礎(chǔ)上加入原始的ASPP 模塊,F(xiàn)1 分?jǐn)?shù)提升至90.2%,且其他指標(biāo)也有所提升。再將ASPP模塊替換為MSF,F(xiàn)1分?jǐn)?shù)達(dá)到了91%,表明該模塊能夠更好地獲取多尺度特征。最后,添加了坐標(biāo)注意力機(jī)制,F(xiàn)1 分?jǐn)?shù)達(dá)到91.6%,且其他指標(biāo)也達(dá)到了最好的效果,體現(xiàn)了坐標(biāo)注意力能夠更好地捕獲甲狀腺結(jié)節(jié)的細(xì)節(jié)特征。

        2.5.1 多尺度特征模塊

        為了驗(yàn)證多尺度特征(MSF)模塊的有效性,本文分別進(jìn)行MSF 模塊的消融實(shí)驗(yàn)和復(fù)雜度對(duì)比。表4為逐個(gè)增加空洞率為6、12、18、24 的深度可分離空洞卷積的實(shí)驗(yàn)對(duì)比結(jié)果。

        表4 MSF模塊消融實(shí)驗(yàn)結(jié)果

        從表4 可以看出,1-MSF 表示增加了一個(gè)空洞率為6 的MSF 模塊,各項(xiàng)指標(biāo)有所提升,2-MSF 表示增加空洞率為6 和12 的MSF 模塊,隨著空洞率的增大,感受野也隨之增加,因此可以有效提取局部特征信息。3-MSF 是加入空洞率為18 的MSF 模塊,即本文所提模塊,F(xiàn)1 分?jǐn)?shù)和精確率達(dá)到了最好的效果,而在此基礎(chǔ)上繼續(xù)添加空洞率為24 的空洞卷積時(shí),F(xiàn)1 分?jǐn)?shù)降低至90.2%,精確率、召回率和IOU 也有所降低。因此,通過(guò)對(duì)比,MSF模塊的F1分?jǐn)?shù)和其他3種指標(biāo)效果最好,表明MSF能夠更好地捕捉不同尺度的特征。

        表5 為多尺度特征模塊與原始ASPP 模塊的復(fù)雜度對(duì)比結(jié)果,從表中可知,與ASPP 模塊相比,多尺度特征模塊的參數(shù)量和計(jì)算量均有顯著降低,參數(shù)量和計(jì)算量FLOPs 只有ASPP 模塊的45.6%和25.7%,乘法累加運(yùn)算中數(shù)量為6.69×109,表明深度可分離空洞卷積能夠有效地減少參數(shù)量和計(jì)算量。因此,本文提出的多尺度特征模塊具有更低的模型復(fù)雜度,可提升模型的訓(xùn)練速度。

        表5 MSF模塊與ASPP模塊的復(fù)雜度對(duì)比

        2.5.2 綜合損失函數(shù)

        為了驗(yàn)證綜合損失函數(shù)的有效性,將U-Net模型和本文所提的CMSF-UNet模型分別使用Dice損失函數(shù)、交叉熵?fù)p失函數(shù)以及綜合損失函數(shù)進(jìn)行實(shí)驗(yàn)對(duì)比,并以F1分?jǐn)?shù)為評(píng)價(jià)標(biāo)準(zhǔn),具體實(shí)驗(yàn)結(jié)果如表6所示。

        表6 使用不同損失函數(shù)后的分割結(jié)果

        實(shí)驗(yàn)結(jié)果表明,綜合損失函數(shù)不論是在U-Net模型還是在CMSF-UNet 模型中F1 分?jǐn)?shù)都有所提高,表明在甲狀腺結(jié)節(jié)數(shù)據(jù)不平衡的問(wèn)題上能夠更好地優(yōu)化,并提高模型的魯棒性。

        3 結(jié)束語(yǔ)

        為了減少圖像局部信息丟失并提高對(duì)甲狀腺結(jié)節(jié)的超聲圖像的分割精度,本文提出了一種將空洞空間金字塔池化和坐標(biāo)注意力模塊相結(jié)合的U-Net 分割算法,采用不同大小的空洞卷積捕獲局部特征和全局特征,并引入坐標(biāo)注意力模塊提高圖像分割的準(zhǔn)確性。通過(guò)實(shí)驗(yàn)驗(yàn)證,本文的分割方法與以往算法相比有很大的提升,在小結(jié)節(jié)上分割效果更好,對(duì)邊緣的分割也更加清晰。在后續(xù)的工作中,會(huì)考慮使用更輕量的網(wǎng)絡(luò),以此降低整體模型的復(fù)雜度、減少訓(xùn)練時(shí)的參數(shù)量,從而提高網(wǎng)絡(luò)收斂速度。

        猜你喜歡
        特征實(shí)驗(yàn)模型
        一半模型
        記一次有趣的實(shí)驗(yàn)
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        久久一区av蜜桃人妻| 无码手机线免费观看| av网站在线观看二区| 国产精品嫩草影院午夜| 欧美老肥妇做爰bbww| 亚洲福利av一区二区| 午夜精品久久久久久| 久久夜色国产精品噜噜亚洲av| 欧洲日韩视频二区在线| 无码精品人妻一区二区三区影院| 国产一区二区三区 在线观看| 久久国产亚洲精品超碰热| 中国人妻被两个老外三p| 免费无码专区毛片高潮喷水 | 日本在线免费精品视频| 中文字幕一区二区三区乱码不卡| 欧美亚洲国产片在线播放| 欧美综合天天夜夜久久| 日韩在线精品视频一区| 欧洲国产精品无码专区影院 | 亚洲成人福利在线视频| 国产一级淫片免费播放电影| 午夜丰满少妇性开放视频| 日韩中文字幕有码午夜美女| 午夜麻豆视频在线观看| 中文字幕一区,二区,三区| 久久久久亚洲AV无码专| 天堂资源中文最新版在线一区| 人妻少妇精品视频专区二区三区| 日本一区免费喷水| 国产999精品久久久久久| 丰满熟妇乱又伦精品| 久久久人妻一区二区三区蜜桃d| 一区二区三区日本久久| 丝袜美女污污免费观看的网站| 国产精品美女久久久久久| 亚洲国产精品中文字幕久久| 亚洲大胆美女人体一二三区| 精品黄色av一区二区三区| 国产亚洲精品日韩综合网| 欧美日韩另类视频|