亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合多尺度語(yǔ)義和剩余瓶頸注意力的醫(yī)學(xué)圖像分割

        2023-10-17 05:50:02徐蓬泉梁宇翔李英
        計(jì)算機(jī)工程 2023年10期
        關(guān)鍵詞:息肉注意力語(yǔ)義

        徐蓬泉,梁宇翔,李英

        (青島大學(xué) 計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,山東 青島 266071)

        0 概述

        近年來(lái),醫(yī)學(xué)圖像分析通常借助圖像分割技術(shù),例如,視網(wǎng)膜血管圖像中的血管分割、結(jié)腸鏡息肉圖像中的息肉組織分割等[1-2],精準(zhǔn)的分割大大提高了此類診斷和治療的效果。然而,傳統(tǒng)的分割算法[3-5]在處理計(jì)算機(jī)斷層掃描(CT)、X 射線、磁共振成像(MRI)等的生物醫(yī)學(xué)圖像時(shí),難以提取圖像中的語(yǔ)義信息,魯棒性較差。深度學(xué)習(xí)技術(shù)[6]解決了傳統(tǒng)圖像分割方法中語(yǔ)義信息缺失的問(wèn)題[7-8]。例如,CHEN等[9]采用端到端的全卷積網(wǎng)絡(luò)提取多層次的上下文特征,以便對(duì)組織學(xué)圖像中的腺體進(jìn)行精確分割。

        U-Net[10]是深度學(xué)習(xí)網(wǎng)絡(luò)[11-12],被廣泛用于生物醫(yī)學(xué)圖像分割,核心是引入跳躍連接,通過(guò)連接編碼器的低層次特征和解碼器的高層次特征,實(shí)現(xiàn)圖像語(yǔ)義分割,在2015 年的ISBI 細(xì)胞跟蹤挑戰(zhàn)賽中,U-Net 表現(xiàn)最優(yōu)。U-Net 及其變體廣泛應(yīng)用于皮膚病變[13]、結(jié)腸組織學(xué)[14]、腎臟[15]、肺結(jié)節(jié)[16]、前 列腺[17]等醫(yī)學(xué)圖像分割。除了醫(yī)學(xué)圖像分割以外,U-Net 還廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)中的其他任務(wù)。例如,TernausNet[18]將U-Net 中的編碼器替換為VGG11[19],能在大型數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練[20]等。

        盡管U-Net 模型在醫(yī)學(xué)圖像分割中具有較好的性能,但U-Net 中單一的感受野難以處理不同尺度的圖像,編碼器和解碼器存在很大的語(yǔ)義差距且網(wǎng)絡(luò)運(yùn)行效率較慢。鑒于此,研究者們對(duì)U-Net 網(wǎng)絡(luò)進(jìn)行了改進(jìn)。文獻(xiàn)[21]提出U-Net++模型,引入嵌套和密集的跳躍連接,以降低編碼器和解碼器之間的語(yǔ)義差距。文 獻(xiàn)[22]以U-Net 為基礎(chǔ)提出Attention U-Net,在解碼器部分引用注意力模塊,關(guān)注目標(biāo)區(qū)域,忽略背景區(qū)域。文獻(xiàn)[23]提出R2U-Net,將循環(huán)神經(jīng)網(wǎng)絡(luò)嵌入U(xiǎn)-Net 網(wǎng)絡(luò),并結(jié)合殘差連接構(gòu)建圖像分割模型,提升了網(wǎng)絡(luò)分割性能,用于分割視網(wǎng)膜血管圖像和肺部CT 圖像。文獻(xiàn)[24]將U-Net級(jí)聯(lián)用于圖像分割,提升了分割性能,但也提高了模型復(fù)雜度。

        然而,上述研究多數(shù)以增加模型參數(shù)量或提高模型復(fù)雜度為代價(jià),從而提高了分割性能。鑒于此,本文構(gòu)建一個(gè)輕量靈活的醫(yī)學(xué)圖像分割模型(LFUNet)。設(shè)計(jì)多尺度語(yǔ)義(Multi-scale Semantic,MS)模塊,提取圖像不同尺度的語(yǔ)義特征。相對(duì)于U-Net網(wǎng)絡(luò)中的單一尺度卷積核,MS 模塊集成了3×3、5×5、7×7 3種卷積核,以獲得不同的感受野。此外,1×1 卷積應(yīng)用靈活,無(wú)需簡(jiǎn)單地疊加更多層,增加了網(wǎng)絡(luò)深度。設(shè)計(jì)剩余瓶頸注意力(Residual Bottleneck Attention,RBA)模塊,將剩余瓶頸結(jié)構(gòu)與可微分的柔性注意力機(jī)制相結(jié)合,消除每層編碼器和解碼器之間的語(yǔ)義差距,使神經(jīng)網(wǎng)絡(luò)更關(guān)注目標(biāo)區(qū)域。

        1 LFUNet 體系結(jié)構(gòu)

        基于U-Net 體系結(jié)構(gòu),設(shè)計(jì)輕量級(jí)的LFUNet 體系結(jié)構(gòu),如圖1 所示(彩色效果見(jiàn)《計(jì)算機(jī)工程》官網(wǎng)HTML 版)。LFUNet 主要由兩部分組成:1)MS 模塊,采用3×3 卷積序列獲得不同的感受野;2)RBA 模塊,集成剩余瓶頸模塊和注意力機(jī)制。

        1.1 多尺度語(yǔ)義模塊

        細(xì)胞核、器官和組織等生物醫(yī)學(xué)圖像中需要分割的對(duì)象大小、形狀各異。例如,息肉的內(nèi)窺鏡檢查圖像如圖2 所示,不同圖像中的息肉具有顯著性差異。因此,分割模型需要在各種尺度和類型下具有魯棒性。受文獻(xiàn)[25-27]的啟發(fā),構(gòu)建多尺度語(yǔ)義模塊[28],包含多個(gè)分支,用于提取不同層次的語(yǔ)義特征,如圖3 所示(彩色效果見(jiàn)《計(jì)算機(jī)工程》官網(wǎng)HTML 版)。分支1 是1 個(gè)3×3 卷積核操作,捕獲圖像的局部空間信息。事實(shí)上,多個(gè)小卷積核連續(xù)卷積可達(dá)到單個(gè)大卷積核卷積相同的感受野,提取圖像更大鄰域范圍的信息。此操作不僅可以大大減少參數(shù)和計(jì)算量,而且生成更深的網(wǎng)絡(luò)結(jié)構(gòu),提取高維特征。分支2 采用2 個(gè)連續(xù)的3×3 卷積核操作,達(dá)到1 個(gè)5×5 卷積核操作的感受野的效果。分支3 采用3 個(gè)連續(xù)的3×3 卷積核操作,達(dá)到1 個(gè)7×7卷積核操作的感受野的效果。需要注意的是,3 個(gè)分支都有1×1 卷積。1×1 卷積相當(dāng)于1 個(gè)多層感知器,通過(guò)使用ReLU 激活函數(shù)增加了更多的非線性,提高網(wǎng)絡(luò)表達(dá)能力,減少相關(guān)空間信息丟失。分支4 先是3×3 池化,再是1×1 卷積,通過(guò)池化操作刪除一些冗余信息,1×1 卷積操作補(bǔ)償了一些額外的空間信息。

        圖2 醫(yī)學(xué)圖像中的實(shí)例尺度差異Fig.2 Example scale differences in medical images

        圖3 MS 模塊結(jié)構(gòu)Fig.3 Structure of the MS module

        為了控制參數(shù)量,每個(gè)分支采用不同數(shù)量的卷積核進(jìn)行卷積操作。假設(shè)C表示通道集合,|C|是輸入特征圖的通道數(shù)。如果前3 個(gè)分支的卷積層分別配置3 個(gè)濾波器,那么前3個(gè)分支的特征圖拼接后與第4 個(gè)分支的特征圖具有相同的通道數(shù)。通過(guò)將前3 個(gè)分支的拼接特征圖與第4 個(gè)分支的特征圖疊加,獲得輸出特征圖。

        1.2 剩余瓶頸注意力模塊

        U-Net 編碼器中的特征圖都具有較低的語(yǔ)義,而解碼器中經(jīng)過(guò)多次卷積運(yùn)算的特征圖具有較高的語(yǔ)義。在跳躍連接運(yùn)算時(shí),較低語(yǔ)義和較高語(yǔ)義的不兼容降低了模型的分割性能。因此,通過(guò)嵌入剩余瓶頸模塊消除編碼器和解碼器間的語(yǔ)義差距。同時(shí),為了更多關(guān)注與分割目標(biāo)相關(guān)的信息,引入注意力機(jī)制。通過(guò)集成剩余瓶頸模塊與注意力機(jī)制,設(shè)計(jì)RBA 模塊,如圖4 所示(彩色效果見(jiàn)《計(jì)算機(jī)工程》官網(wǎng)HTML 版),其中,d表示輸入和輸出維度。RBA 模塊在關(guān)注目標(biāo)區(qū)域的同時(shí),消除了語(yǔ)義差距。

        圖4 RBA 模塊結(jié)構(gòu)Fig.4 Structure of the RBA module

        圖5 注意力機(jī)制結(jié)構(gòu)Fig.5 Structure of attention mechanism

        剩余瓶頸塊包括線性逆殘差結(jié)構(gòu)和剩余連接結(jié)構(gòu)。線性逆殘差依次包括1×1 逐點(diǎn)卷積、3×3 深度可分離卷積和1×1 逐點(diǎn)卷積3 個(gè)部分[29]。第1 個(gè)1×1 逐點(diǎn)卷積擴(kuò)展了通道數(shù),可提取更多特征信息。第2 個(gè)3×3 深度可分離卷積可減少參數(shù)量[30-31]。第3 個(gè)1×1逐點(diǎn)卷積能夠保留特征信息,并減少通道數(shù)。

        假設(shè)剩余瓶頸塊將通道數(shù)量增加了一個(gè)因子t,值得注意的是因子t的值因網(wǎng)絡(luò)層次結(jié)構(gòu)而異。由于編碼器和解碼器之間存在較大的語(yǔ)義差距,在MS Block 1 和MS Block 9 之間的第1 層網(wǎng)絡(luò)中選擇一個(gè)相對(duì)較大的值t=4。這表明使用1×1 卷積將通道數(shù)擴(kuò)大了4倍。同樣地,從第2 層到第4 層設(shè)定t=3,2,1。

        注意力機(jī)制能使神經(jīng)網(wǎng)絡(luò)在訓(xùn)練時(shí)對(duì)環(huán)境更加敏感。假定M和G分別是注意力模塊的較低和較高語(yǔ)義輸入。由圖1 和圖4 可知,剩余瓶頸塊的輸出作為注意力機(jī)制的輸入M,多個(gè)卷積層的轉(zhuǎn)置卷積生成注意力機(jī)制的輸入G。G中包含的語(yǔ)義信息揭示了注意力機(jī)制的方向。因此,M和G同時(shí)輸入注意力模塊后可使網(wǎng)絡(luò)中M專注于學(xué)習(xí)的空間區(qū)域。

        其中:σ是Sigmoid 函數(shù);N表示批標(biāo)準(zhǔn)化操作;f1×1表示1×1卷積運(yùn)算;fReLU表示ReLU 激活函數(shù)。前 面2 個(gè)1×1 卷積運(yùn)算調(diào)整特征圖的通道數(shù),后面1 個(gè)1×1濾波器減少通道數(shù)。

        為了更好地理解RBA 模塊,以LFUNet網(wǎng)絡(luò)的第1 層為例進(jìn)行說(shuō)明。將MS Block 1 的輸出特征圖輸入RBA 模塊生成新的特征圖。該新圖與MS Block 8的上采樣結(jié)果連接,然后輸入MS Block 9。LFUNet在U-Net 架構(gòu)的每一層中擁有相同數(shù)量的通道。從MS Block 1 到MS Block 5 的濾波器數(shù)量依次對(duì)應(yīng)64、128、256、512、1 024。相反地,從MS Block 5 到MS Block 9 的濾波器依次對(duì)應(yīng)1 024、512、256、128、64。由于深度可分離卷積優(yōu)化了參數(shù)量,且注意力模塊沒(méi)有額外的參數(shù),LFUNet中的參數(shù)量相對(duì)較少[31]。

        2 實(shí)驗(yàn)數(shù)據(jù)集及設(shè)置

        2.1 數(shù)據(jù)集

        考慮成像設(shè)備成本、圖像采集渠道以及專家注釋等因素[33],使得生物醫(yī)學(xué)圖像數(shù)據(jù)集的獲取比傳統(tǒng)計(jì)算機(jī)視覺(jué)數(shù)據(jù)集更具挑戰(zhàn)性。因此,只有少數(shù)公共生物醫(yī)學(xué)圖像數(shù)據(jù)集能夠用于評(píng)估分析。選擇4 個(gè)具有不同分割難度的生物醫(yī)學(xué)圖像數(shù)據(jù)集用于測(cè)試LFUNet結(jié)構(gòu)的性能。數(shù)據(jù)集簡(jiǎn)要信息如表1所示。

        表1 數(shù)據(jù)集信息Table 1 Dataset information

        2.1.1 皮膚鏡檢查圖像數(shù)據(jù)集

        ISIC-2018 皮膚鏡檢查圖像數(shù)據(jù)集包含2 594 張不同類型的皮膚病變圖像[34],隨機(jī)挑選2 000 張圖像,其中,1 600 張用于訓(xùn)練,400 張用于測(cè)試。圖像分辨率統(tǒng)一調(diào)整為256×192 像素。如圖6 所示,數(shù)據(jù)集中圖像對(duì)比度差,病變區(qū)域與背景相似程度高,圖像的背景和前景存在不同的紋理,皮膚病變形狀和大小各異。上述問(wèn)題皆增加了分割難度。

        圖6 對(duì)比度差和紋理不同的皮膚鏡檢查圖像Fig.6 Dermoscopy examination images with poor contrast and different texture

        2.1.2 內(nèi)窺鏡檢查圖像數(shù)據(jù)集

        CVC-ClinicDB 內(nèi)窺鏡檢查圖像數(shù)據(jù)集來(lái)自29 個(gè)結(jié)腸鏡視頻序列[35],使用612 張病變的息肉圖像進(jìn)行實(shí)驗(yàn),圖像分辨率統(tǒng)一調(diào)整為256×192 像素。在數(shù)據(jù)集中邊界模糊、息肉組織小的內(nèi)窺鏡圖像為分割工作帶來(lái)了很大的挑戰(zhàn),如圖7 所示。在某些極端情況下,專家無(wú)法準(zhǔn)確地區(qū)分背景和結(jié)腸息肉。

        圖7 邊界模糊、息肉組織小的內(nèi)窺鏡檢查圖像Fig.7 Endoscopy examination images with vague boundary and small polyp tissue

        2.1.3 細(xì)胞核圖像數(shù)據(jù)集

        Data Science Bowl 2018 分割挑戰(zhàn)賽提供了細(xì)胞核圖像數(shù)據(jù)集。該數(shù)據(jù)集由670 個(gè)帶注釋的細(xì)胞核圖像組成。圖像分辨率統(tǒng)一調(diào)整為256×192 像素。數(shù)據(jù)集中圖像的細(xì)胞核數(shù)量各不相同,細(xì)胞核形態(tài)和大小各異,多個(gè)細(xì)胞核相互重疊和交叉。上述圖像特征給分割帶來(lái)了巨大挑戰(zhàn),如圖8 所示。

        圖8 數(shù)量不同和相互重疊的細(xì)胞核圖像Fig.8 Nuclei images with different numbers and overlaps

        2.1.4 電子顯微鏡圖像數(shù)據(jù)集

        ISBI-2012 電子顯微鏡圖像數(shù)據(jù)集僅包含30 張果蠅幼蟲腹側(cè)神經(jīng)索連續(xù)切片透射電子顯微鏡圖像[36-37],圖像原始分辨率大小為512×512 像素,受到計(jì)算資源限制,調(diào)整數(shù)據(jù)集圖像分辨率的大小為256×256 像素。為了保障評(píng)估的真實(shí)性和可靠性,未進(jìn)行數(shù)據(jù)擴(kuò)充。ISBI-2012 電子顯微鏡數(shù)據(jù)集的分割具有相當(dāng)大的挑戰(zhàn)性,如圖9 所示,例如整張圖像充滿細(xì)胞、細(xì)胞間相互重疊、細(xì)胞邊界、非邊界區(qū)域的對(duì)比度差和噪聲過(guò)多等,過(guò)多噪聲的干擾易使圖像過(guò)度分割。

        圖9 邊界不清晰且噪聲大的電子顯微鏡圖像Fig.9 Electron microscopy images with unclear boundary and excessive noise

        2.2 實(shí)驗(yàn)設(shè)置

        使用Python 3[38]作為編程語(yǔ)言,并使用Keras 作為深度學(xué)習(xí)框架。實(shí)驗(yàn)運(yùn)行環(huán)境是裝有Ubuntu 18.04、NVIDIA RTX 2080 Ti(12 GB 和1.545 GHz)GPU 的臺(tái)式計(jì)算機(jī)。

        為了測(cè)試LFUNet 的性能,將其與U-Net、Attention U-Net、Attention R2U-Net、U-Net++和ResUNet++進(jìn)行實(shí)驗(yàn)對(duì)比。采用計(jì)算機(jī)視覺(jué)中常用的Jaccard 和Dice系數(shù)[39]作為評(píng)估標(biāo)準(zhǔn)。實(shí)驗(yàn)采 用Adam[40]優(yōu)化器作為最小化損失函數(shù)。該優(yōu)化器具有AdaGrad 和RMSProp 的優(yōu)勢(shì),能夠根據(jù)訓(xùn)練數(shù)據(jù)迭代更新神經(jīng)網(wǎng)絡(luò)的權(quán)值。由于網(wǎng)絡(luò)在150 個(gè)epoch 后基本收斂,因此基于Adam 優(yōu)化器使用150 個(gè)epoch訓(xùn)練數(shù)據(jù)集。利用交叉驗(yàn)證方法[41]確保評(píng)估的可靠性。在實(shí)驗(yàn)中,每個(gè)數(shù)據(jù)集被劃分為80%的訓(xùn)練集和20%的測(cè)試集,實(shí)施5 倍交叉驗(yàn)證測(cè)試。

        3 實(shí)驗(yàn)結(jié)果

        3.1 LFUNet 及對(duì)比模型的分割性能

        LFUNet與其他5 種模型的對(duì)比結(jié)果如表2 和表3所示,其中Jaccard 和Dice 系數(shù)都給出均值和誤差范圍,結(jié)果表明LFUNet 優(yōu)于其他5 種模型。

        表2 不同模型在4 個(gè)數(shù)據(jù)集上的分割結(jié)果(Jaccard 系數(shù))Table 2 Segmentation results(Jaccard coefficient)by different models on four datasets %

        表3 不同模型在4 個(gè)數(shù)據(jù)集上的分割結(jié)果(Dice 系數(shù))Table 3 Segmentation results(Dice coefficient)by different models on four datasets %

        由表2、表3 可以看出:在最具挑戰(zhàn)性的CVCClinicDB 數(shù)據(jù)集上,LFUNet 的Jaccard系數(shù)均值相較于U-Net 提高了11.936 6 個(gè)百分點(diǎn)。對(duì)于僅有30 張圖像的ISBI-2012 數(shù)據(jù)集,LFUNet 也極具競(jìng)爭(zhēng)力。可見(jiàn),LFUNet 在大規(guī)模數(shù)據(jù)集和小規(guī)模數(shù)據(jù)集上均具有良好的魯棒性。

        LFUNet 結(jié)合了不同大小的卷積核提取更多的空間特征,提高了系統(tǒng)抗噪能力,如圖10 所示。在第1 行的皮膚鏡病變檢查圖像中,一些病變區(qū)域看起來(lái)像背景區(qū)域,專家也難以準(zhǔn)確地識(shí)別皮膚病變。U-Net 由于計(jì)算單一特征,因此無(wú)法克服大量噪聲的干擾。U-Net 將其分割為兩個(gè)前景,并沒(méi)有完全識(shí)別出皮膚病變,Jaccard 系數(shù)為0.677 1,而且分割的前景中包含一些分散的區(qū)域被錯(cuò)誤地識(shí)別為背景。其他4 種對(duì)比模型分割時(shí)仍漏掉病變的中間部分,Jaccard 系數(shù)分別為0.634 1、0.652 2、0.767 3、0.714 3。LFUNet大大提高了分割精度,Jaccard 系數(shù)高達(dá)0.800 6,能識(shí)別連續(xù)的整個(gè)病變區(qū)域。在第2 行的內(nèi)窺鏡息肉檢查圖像中,該息肉組織圖像與其他圖像相比,形狀怪異,不易識(shí)別,U-Net 及其變體很難完全分割息肉,尤其是圖中標(biāo)記的區(qū)域在分割過(guò)程中易被忽略,難以識(shí)別。由分割結(jié)果可知,LFUNet 成功地分割出標(biāo)記區(qū)域,Jaccard 系數(shù)高達(dá)0.956 6。

        圖10 皮膚鏡與內(nèi)窺鏡檢查圖像的分割效果(Jaccard 系數(shù))Fig.10 Segmentation effect(Jaccard coefficient)of dermoscopy and endoscopy examination images

        3.2 LFUNet 組成模塊的分割性能

        進(jìn)一步研究LFUNet 中各模塊的分割性能。選擇最具挑戰(zhàn)性的CVC-ClinicDB 數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù),并采用U-Net 作為對(duì)比模型。表4 和表5 展示了5 倍交叉驗(yàn)證的實(shí)驗(yàn)結(jié)果。與U-Net 相比,僅采用MS 結(jié)構(gòu)的模型(Only MS)的Jaccard 系數(shù)均值提高了約10 個(gè)百分點(diǎn)。MS 模塊集成注意力機(jī)制或剩余瓶頸結(jié)構(gòu)(MS and attention 或bottleneck)后,Jaccard系數(shù)略有提高。集成3 種結(jié)構(gòu)的LFUNet 具有最優(yōu)分割性能。

        表4 LFUNet不同組成模塊的分割結(jié)果(Jaccard系數(shù))Table 4 Segmentation results(Jaccard coefficient)of different components of the LFUNet %

        表5 LFUNet 不同組成模塊的分割結(jié)果(Dice 系數(shù))Table 5 Segmentation results(Dice coefficient)of different components of the LFUNet %

        結(jié)合圖10 可以看出:U-Net 對(duì)于一些結(jié)腸息肉圖像幾乎失去了分割能力;MS 結(jié)構(gòu)集成多尺度卷積核,具有不同大小的感受野,能夠提取更多的語(yǔ)義特征,并且集成剩余瓶頸結(jié)構(gòu)能夠有效地消除編碼器和解碼器之間語(yǔ)義差異對(duì)分割性能的負(fù)面影響,明顯提高了分割精度,幾乎分割出整個(gè)息肉組織的輪廓;LFUNet 表現(xiàn)最優(yōu)。這與表4 和表5 的實(shí)驗(yàn)結(jié)果一致。

        3.3 時(shí)間和空間復(fù)雜度

        為了分析模型訓(xùn)練時(shí)的收斂性,將Jaccard 系數(shù)變化可視化,如圖11 所示。由圖11 可以看出,LFUNet 通常收斂較快。對(duì)于皮膚鏡檢查和細(xì)胞核數(shù)據(jù)集,LFUNet 能穩(wěn)定收斂并且波動(dòng)小。這歸因于LFUNet 中兩個(gè)MS 和RBA 模塊之間的協(xié)同作用。雖然LFUNet 在電子顯微鏡數(shù)據(jù)集上開(kāi)始收斂性稍弱,但隨后趨于穩(wěn)定。表6 展示了LFUNet 及其5 個(gè)對(duì)比模型的參數(shù)量,可以看出LFUNet 大大減少了參數(shù)量。綜上,LFUNet 具有相對(duì)較低的時(shí)間和空間復(fù)雜度及較高的可靠性。

        表6 模型參數(shù)量Table 6 The number of model parameters

        圖11 訓(xùn)練過(guò)程中不同模型的Jaccard 系數(shù)變化Fig.11 Change of Jaccard coefficients of different models in the training process

        4 結(jié)束語(yǔ)

        本文分析主流的U-Net 體系結(jié)構(gòu)及其變體,發(fā)現(xiàn)U-Net 存在提取特征單一且魯棒性不強(qiáng)的問(wèn)題。盡管U-Net 的一些變體克服了U-Net 的弱點(diǎn),但涉及的參數(shù)量過(guò)大。為此,提出一種集成MS 和RBA 模塊的LFUNet 模型。參數(shù)相對(duì)較少的MS 模塊融合了不同尺度的卷積核,提高了分割性能。RBA 模塊由剩余瓶頸和注意力機(jī)制組成,消除了編碼器和解碼器之間的語(yǔ)義差距,并更加關(guān)注目標(biāo)區(qū)域。在4 個(gè)公共生物醫(yī)學(xué)圖像數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,LFUNet 模型具有很強(qiáng)的魯棒性,能夠適用于不同的應(yīng)用場(chǎng)景。隨著更多醫(yī)學(xué)圖像的公共數(shù)據(jù)集的發(fā)布,后續(xù)將進(jìn)一步擴(kuò)展LFUNet 的適用范圍及提高分割性能。

        猜你喜歡
        息肉注意力語(yǔ)義
        讓注意力“飛”回來(lái)
        息肉雖小,防病要早
        語(yǔ)言與語(yǔ)義
        你真的了解子宮內(nèi)膜息肉嗎
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        A Beautiful Way Of Looking At Things
        “上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
        ER、PR、Ki-67在絕經(jīng)后子宮內(nèi)膜息肉中的表達(dá)
        認(rèn)知范疇模糊與語(yǔ)義模糊
        息肉樣黑素瘤一例
        伊在人亚洲香蕉精品区麻豆| 人人爽久久涩噜噜噜丁香| 亚洲爱婷婷色婷婷五月| 麻豆一区二区三区蜜桃免费| 久久午夜夜伦鲁鲁片免费无码| 国产无遮挡a片又黄又爽| 亚洲国产精品中文字幕日韩| 亚洲夫妻性生活视频网站| 日韩人妖一区二区三区| 在线观看国产成人av天堂野外| 丁香六月久久婷婷开心| 精品亚洲国产成人av| 欧美亚洲韩国国产综合五月天| 日本草逼视频免费观看| 精品中文字幕精品中文字幕| 久久婷婷五月综合色高清| av永久天堂一区二区三区| 国产精品久久久久久久久鸭| 久久精品韩国日本国产| 日本视频一中文有码中文| 国产午夜免费高清久久影院| 成人性生交大片免费| 99热成人精品免费久久| 免费va国产高清不卡大片| 成人国产高清av一区二区三区| 少妇愉情理伦片丰满丰满| 伊人久久综合精品无码av专区| 欧美日韩国产在线观看免费| 午夜av内射一区二区三区红桃视| 男性av天堂一区二区| 性久久久久久| 又粗又粗又黄又硬又深色的| 人妻丰满熟妇AV无码片| 偷拍视频十八岁一区二区三区| 日本天堂免费观看| 国产极品美女高潮无套在线观看| 最新亚洲av日韩av二区一区| 国产中文字幕免费视频一区| 综合色区亚洲熟妇另类| 无码人妻精品一区二区三区在线| 丰满人妻一区二区乱码中文电影网|