亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SF-Unet的高分辨率耕地遙感影像分割

        2024-07-20 00:00:00秦倫明凌雪海鄒鈺潔龔楊洋邊后琴王悉
        無線電工程 2024年5期

        摘 要:利用深度學(xué)習(xí)實現(xiàn)遙感影像耕地區(qū)域自動化檢測,取代人工解譯,能有效提升耕地面積統(tǒng)計效率。針對目前存在分割目標(biāo)尺度大且連續(xù)導(dǎo)致分割區(qū)域存在欠分割現(xiàn)象,邊界區(qū)域情況復(fù)雜導(dǎo)致邊緣分割困難等問題,提出了語義分割算法———Swin Transformer,TransFuse and U-Net (SF-Unet)。為強化網(wǎng)絡(luò)不同層次特征提取和信息融合能力,提升邊緣分割性能,使用U-Net 網(wǎng)絡(luò)替代TransFuse 網(wǎng)絡(luò)中的ResNet50 模塊; 將Vision Transformer (ViT) 替換為改進后的SwinTransformer 網(wǎng)絡(luò),解決大區(qū)域的欠分割問題;通過注意力機制構(gòu)建的Fusion 融合模塊將2 個網(wǎng)絡(luò)輸出特征進行融合,增強模型對目標(biāo)的語義表示,提高分割的精度。實驗表明,SF-Unet 語義分割網(wǎng)絡(luò)在Gaofen Image Dataset (GID) 數(shù)據(jù)集上的交并比(Intersection over Union,IoU) 達到了90. 57% ,分別比U-Net 和TransFuse 網(wǎng)絡(luò)提升了6. 48% 和6. 09% ,明顯提升了耕地遙感影像分割的準(zhǔn)確性。

        關(guān)鍵詞:耕地遙感影像;語義分割;卷積神經(jīng)網(wǎng)絡(luò);Swin Transformer

        中圖分類號:TP391 文獻標(biāo)志碼:A 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

        文章編號:1003-3106(2024)05-1197-08

        0 引言

        耕地是人類生存發(fā)展所需要的重要資源,快速精準(zhǔn)地獲取耕地面積是生態(tài)環(huán)境檢測、農(nóng)作物產(chǎn)量估算以及實現(xiàn)土地資源可持續(xù)發(fā)展的基礎(chǔ)。隨著計算機視覺技術(shù)的不斷進步,通過結(jié)合新技術(shù)手段對耕地面積進行快速統(tǒng)計己成為歷史發(fā)展的必然。

        近年來,高分辨率遙感衛(wèi)星不斷發(fā)展,獲取高精度耕地遙感更加便捷,為國家各監(jiān)管部門提供重要的數(shù)據(jù)支撐,其提取遙感影像耕地區(qū)域采用的主要方法為人工解譯[1-2],但人工分割的方式耗費大量人力、物力,且效率低下,因此研究如何采用自動化的方式對耕地遙感影像進行分割具有重要研究價值。

        在傳統(tǒng)的耕地遙感影像分割算法領(lǐng)域,依據(jù)圖像的顏色、紋理和形狀特征等特點,大多數(shù)模型使用了基于閾值分割[3]、基于區(qū)域分割[4]、基于邊緣檢測分割[5]以及超像素[6]等方法,但總體分割精度不高,且復(fù)雜多變的遙感影像耕地區(qū)域?qū)鹘y(tǒng)分割模型性能有較大限制。

        近年來,人工智能技術(shù)不斷發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[7]因其極強的特征提取能力,能更好地利用高分辨率遙感圖像中空間信息和邊界細節(jié),提取遙感影像中的多尺度特征信息,優(yōu)于傳統(tǒng)方法。2015 年Long 等[8]提出的全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Network,FCN)實現(xiàn)了像素級的分割,但實驗得到的結(jié)果較為粗糙,且并未考慮到像素與像素之間的聯(lián)系。為了減少卷積過程中空間細節(jié)的丟失,U-Net[9]通過融合低層次的細節(jié)紋理信息和高層次的語義信息來達到多尺度特征融合的效果,但由于在下采樣操作時會丟失局部信息,且很難還原,分割整體性效果較差,易丟失目標(biāo)間長距離信息。

        由于Transformer[10]結(jié)構(gòu)在上下文信息提取能力上表現(xiàn)優(yōu)異,逐漸發(fā)展到圖像處理領(lǐng)域。Dosovitskiy等提出的(Vision Transformer,ViT)[11]模型將Trans-former 結(jié)構(gòu)首次應(yīng)用于圖像分類任務(wù)。針對ViT 模型只能提取單尺度特征問題,Liu 等[12]提出SwinTransformer 模型通過Shifted Window 來建立分層特征圖,獲取多尺度特征。TransFuse[13]模型通過將Transformer 和CNN 融合實現(xiàn)了一個淺層的網(wǎng)絡(luò)架構(gòu)來建模全局關(guān)系和底層細節(jié),但Transformer 結(jié)構(gòu)中全連接的注意力機制需要對整個輸入序列進行處理,這在圖像處理任務(wù)中不利于捕捉空間相關(guān)性。

        本文基于以上問題,在TransFuse 算法的基礎(chǔ)上提出的SF-Unet 算法,具體如下:

        ① 針對耕地區(qū)域邊界分割情況復(fù)雜、分割困難等特點,使用UNet 網(wǎng)絡(luò)替換TransFuse 網(wǎng)絡(luò)中的ResNet50[14]部分,通過跳躍連接增強邊界分割能力。

        ② 針對耕地遙感圖像中目標(biāo)尺度大、耕地區(qū)域在遙感圖像上普遍大而連續(xù)等問題,利用改進后的Swin Transformer 結(jié)構(gòu)替換原來的ViT 網(wǎng)絡(luò)部分,增強模型的長距離信息提取能力,減少空間的丟失。

        ③ 通過添加深度監(jiān)督機制,添加額外的目標(biāo)函數(shù)對模型中間層進行監(jiān)督學(xué)習(xí),輔助神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,提高圖像分割網(wǎng)絡(luò)的性能。

        1 算法原理

        1. 1 Transformer 編碼器

        實驗使用Swin Transformer 作為Transformer 編碼器的主干網(wǎng)絡(luò),相比較ViT 作為特征提取主干網(wǎng)絡(luò),通過Patch Merging 層進行下采樣,實現(xiàn)了多層特征提取結(jié)構(gòu),盡可能減少圖像特征信息的丟失。

        Swin Transformer 提出窗口多頭注意力(Window-based MSA,W-MSA)機制,將特征圖分割成多個窗口進行獨立的自注意力計算,使得計算復(fù)雜度與圖像窗口數(shù)量之間呈現(xiàn)線性關(guān)系,極大減少了計算量,相關(guān)的時間復(fù)雜度計算如下[15-16]:

        Ω(MSA) = 4hwC2 + 2(hw) 2 C, (1)

        Ω(W-MSA) = 4hwC2 + 2M2 hwC, (2)

        式中:h、w、C 分別表示輸入特征圖的尺寸大小和通道數(shù),M 表示窗口尺寸。

        為保證各個窗口之間的聯(lián)系,在第二個階段引入了移動窗口多頭注意力(Shifted Window-basedMSA,SW-MSA),通過改變窗口位置提供各個窗口之間的信息聯(lián)系。通過采用映射、注意力機制、MLP等來獲取上下文語義信息及全局依賴關(guān)系。

        一個Swin Transformer 模塊如圖1 所示,由進行各窗口內(nèi)自注意力計算的W-MSA 和進行窗口之間交互計算的SW-MSA 兩部分組成,在模塊間插入LN層,穩(wěn)定并加快了訓(xùn)練過程。

        連續(xù)的2 個Swin Transformer 塊的計算如下[17]:

        z^l = W-MSA(LN(zl-1 ))+ zl-1 , (3)

        zl = MLP(LN(z^l))+ z^l, (4)

        z^l+1 = SW-MSA(LN(zl))+ zl, (5)

        zl+1 = MLP(LN(z^l+1 ))+ z^l+1 , (6)

        式中:z^l 和zl 分別表示(S)WMSA 和MLP 模塊在第l 個模塊的特征輸出,dl-1 表示相應(yīng)l-1 層的輸出特征。

        1. 2 CNN 編碼器

        由于U-Net 模型所需數(shù)據(jù)量少、速度快、分割準(zhǔn)確率高等特點,本文將其作為CNN 編碼器部分的主干網(wǎng)絡(luò)。U-Net 網(wǎng)絡(luò)主要包含編碼模塊和解碼模塊兩部分,與FCN 同樣采用跳躍連接的方式,將輸入特征與同尺寸的特征圖進行聯(lián)接。與FCN 直接相加融合的方式不同,U-Net 采用通道拼接的方式,保留了更多的位置信息,其U-Net 原始網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。

        圖2 中編碼部分通過卷積層實現(xiàn)特征的提取,最大池化層(Max Pooling)實現(xiàn)下采樣操作,ReLU激活函數(shù)和批量歸一化層(Batch Normalization)使訓(xùn)練參數(shù)更有效地向前傳播;解碼部分則是在上采樣的同時,通過跳躍連接的方式實現(xiàn)多維要素的融合,提高網(wǎng)絡(luò)對特征信息的提取能力,最終輸出與原圖像相同尺寸的像素級分類結(jié)果圖。U-Net 網(wǎng)絡(luò)在獲取更大的感受野的同時,損失了一定的特征信息,分類精確度較低。

        1. 3 CNN 和Transformer 融合模塊

        為將Transformer 編碼模塊和CNN 編碼模塊提取特征圖相結(jié)合,本文使用了基于空間注意力(Spatial Attention ) 和通道注意力(ChannelAttention)相結(jié)合的Fusion 融合模塊,將通過注意力模塊計算之后的Transformer 特征圖和CNN 特征圖進行拼接并做卷積,如圖3 所示。

        由于Transformer 編碼模塊提取特征缺乏局部細節(jié),因此將Transformer 特征圖通過通道注意力模塊進行運算,首先對輸入特征圖進行全局最大池化和全局平均池化,再通過全連接層對通道數(shù)先降維再升維,對處理后的2 個特征層進行相加,用Sigmoid 函數(shù)激活生成特征通道注意力特征權(quán)重。卷積特征相對于處理上下文信息能力較弱,容易包含不相關(guān)區(qū)域,因此將CNN 特征圖通過空間注意力模塊進行運算,對輸入的特征圖進行基于通道的全局最大池化和全局平均池化,將輸出進行通道拼接后通過卷積運算和Sigmoid 激活函數(shù)生成空間注意力特征權(quán)重。將輸入特征與對應(yīng)的特征權(quán)重相乘并拼接,通過一個卷積層得到輸出特征圖,完成Trans-former 編碼模塊和CNN 編碼模塊的融合并輸出。

        1. 4 SF-Unet 網(wǎng)絡(luò)結(jié)構(gòu)

        本文基于TransFuse 所提出的CNN 和Transformer網(wǎng)絡(luò)相融合的思想,針對遙感耕地影像所存在的欠分割、邊界分割較差等問題,提出了SF-Unet 耕地遙感圖像分割方法,其網(wǎng)絡(luò)模型結(jié)構(gòu)如圖4 所示。

        SF-Unet 網(wǎng)絡(luò)分為CNN 編碼模塊、Transformer編碼模塊、解碼模塊、融合模塊和AG (AttentionGates)[18]模塊四部分。遙感圖像輸入網(wǎng)絡(luò)后分別通過兩路編碼,CNN 編碼模塊采用UNet 主干網(wǎng)絡(luò),由4 個下采樣卷積塊組成,生成5 組不同尺寸大小的特征圖,通過卷積和池化等操作,獲得更大的感受野及高層次語義信息。Transformer 主干網(wǎng)絡(luò)由改進的Swin Transformer 構(gòu)成。由于基礎(chǔ)的SwinTransformer 在生成多級特征圖時要先通過PatchPartition 層,尺寸變?yōu)樵瓉淼模?/ 4,其同層次特征圖尺寸與UNet 不一致,在融合模塊難以進行融合。本實驗采用改進版的Swin Transformer,將通過PatchPartition 層之后的特征層對應(yīng)于U-Net 網(wǎng)絡(luò)第三層,使用雙線性上采樣方式擴大特征圖,通過SwinTransformer 模塊進行下采樣操作,以滿足特征層進行融合的條件。融合模塊由空間注意力和通道注意力組合而成,通過一個卷積層進行交互,融合過程不改變特征圖大小,融合之后的通道數(shù)和CNN 模塊通道數(shù)相對應(yīng)。

        SF-Unet 通過融合U-Net 和改進的Swin Trans-former 主干網(wǎng)絡(luò),在保留CNN 強大的局部特征提取能力的同時,加入Transformer 的全局注意力機制,加強上下文信息聯(lián)系,減少空間細節(jié)的丟失,達到了較好的分割效果。

        1. 5 深度監(jiān)督

        SF-Unet 模型融合了Transformer 和CNN 兩部分,模型較為復(fù)雜,在模型訓(xùn)練時易產(chǎn)生梯度消失或爆炸等問題。為加快網(wǎng)絡(luò)收斂速度,提高網(wǎng)絡(luò)的識別能力,本文引入了Lee 等[19]提出的深度監(jiān)督機制,通過在不同深度特征層中添加額外的目標(biāo)函數(shù)對模型進行監(jiān)督,提高中間層的分類準(zhǔn)確率,從而進一步提高最終輸出的分割性能。深度監(jiān)督機制在SFUnet 網(wǎng)絡(luò)中的應(yīng)用如圖5 所示。

        在圖5 中,F1 ~ F5 表示Fusion1 ~ Fusion5 融合模塊輸出,將Fusion1 ~ Fusion5 這5 層輸出作為深度監(jiān)督的輸入,在前4 個解碼器階段得到全分辨率的中間特征圖,最后一個解碼器直接輸出全分辨率特征圖。對這5 個輸出特征圖使用BCELoss 和IoU-Loss[20]組合的損失函數(shù),將所有分支的輸出結(jié)果求和取平均作為最終損失進行反向傳播[21],計算如下:

        式中:yj、^yj 分別表示不同解碼層輸出的預(yù)測值和真實標(biāo)簽,N 表示分支總數(shù)。

        2 實驗結(jié)果與分析

        2. 1 實驗數(shù)據(jù)集

        本文所使用的數(shù)據(jù)來自GID 數(shù)據(jù)集,是基于我國Gaofen-2 衛(wèi)星數(shù)據(jù)而構(gòu)建的大規(guī)模高分辨率遙感圖像數(shù)據(jù)集。本文采用GID-15 精細土地覆蓋集(GID 數(shù)據(jù)集),并且對數(shù)據(jù)集進行了預(yù)處理。將數(shù)據(jù)集標(biāo)簽部分進行二值化處理,耕地區(qū)域像素值為255,非耕地區(qū)域像素值為0。由于該數(shù)據(jù)集圖像尺寸過大,本文將大圖像進行裁剪成256 pixel ×256 pixel 進行實驗,如圖6 所示。圖6(a)為原始遙感圖像,圖6(b)為遙感圖像對應(yīng)的標(biāo)簽圖像,分辨率為7 200 pixel×6 800 pixel,標(biāo)簽圖像為多分類標(biāo)簽結(jié)果圖。圖6(c)為裁剪后的遙感圖像,圖6(d)為裁剪后的遙感圖像對應(yīng)的二值化處理之后標(biāo)簽圖像,分辨率均為256 pixel×256 pixel。

        2. 2 評價指標(biāo)

        本實驗設(shè)置了3 個評價指標(biāo)用于定量評估模型分割性能,分別是Dice 系數(shù)(Dice Similarity Coeffi-cient,DSC)、交并比(Intersection over Union,IoU)和準(zhǔn)確率(Accuracy,Acc),計算如下:

        式中:TP (True Positive)表示分類正確的正類,FP(False Positive )表示被錯分為正類的負類,TN(True Negative)表示分類準(zhǔn)確的負類,FN (FalseNegative)表示被錯分為負類的正類。標(biāo)簽圖中正類表示耕地,負類表示背景。

        2. 3 消融實驗

        為了驗證SF-Unet 模型方法的有效性,分別對CNN 編碼模塊、Transformer 編碼模塊和融合模塊進行消融實驗。選?。眨危澹?和改進后的Swin Trans-former 網(wǎng)絡(luò)模型分別作為CNN 和Transformer 的基線模型。通過融合模塊,將并聯(lián)的2 路輸出進行融合,并且在每一個融合模塊之后都輸出一個結(jié)果,如表1 所示。

        由表1 可以看出,在Transformer 和CNN 的基準(zhǔn)模型上,評價指標(biāo)IoU 僅有81. 00% 和84. 09% ;二者融合之后IoU 比基準(zhǔn)模型分別提高了5. 32% 和2. 23% ;當(dāng)Fusion 融合模塊達到第五層時IoU 指標(biāo)對比基準(zhǔn)模型分別提高了10. 57% 和6. 48% 。從評價指標(biāo)可以看出,Transformer 和CNN 模塊的融合對比單一模型有更好的分割精度,隨著Fusion 分割模塊的增多,分割性能越好。消融實驗各部分的實驗結(jié)果如圖7 所示。Transformer 模塊采用的是改進之后的Swin Transformer 網(wǎng)絡(luò),在分割結(jié)果圖中整體性較好,內(nèi)部填充較為完整,但邊緣分割能力較弱。CNN 模塊采用的是U-Net 網(wǎng)絡(luò),邊緣分割較好,但出現(xiàn)較多空洞現(xiàn)象,整體性不強。經(jīng)過5 層Fusion 融合模塊融合之后的模型分割結(jié)果圖中噪聲較少,內(nèi)部填充相比較U-Net 和Swin Transformer 模型更加飽滿,輪廓邊界更加清晰,通過融合2 路編碼的SF-Unet 模型在邊界分割和內(nèi)部填充兩方面相對原模型都有較大提高。不同層數(shù)的Fusion 融合模塊對模型性能提升不同,融合層數(shù)越多,分割性能越好。由圖7(e)~ 圖7(i)可以看出,Fusion5 的分割效果明顯優(yōu)于Fusion1 的分割效果。實驗證明,利用跳躍連接的方式進行特征融合,對于去除噪聲和加強邊緣分割都有積極作用。

        2. 4 深監(jiān)督實驗結(jié)果分析

        本文設(shè)計了5 層輸出特征圖進行深監(jiān)督機制來解決深度模型訓(xùn)練時的優(yōu)化問題,加快了網(wǎng)絡(luò)收斂速度和識別能力。為驗證該設(shè)計的有效性,分別對不同數(shù)量特征圖進行深監(jiān)督對比試驗,Loss 損失結(jié)果對比如圖8 所示。圖中D_S 表示Deep Supervi-sion,由圖8 可以看出,隨著采用的深監(jiān)督層數(shù)越多,模型收斂越快,當(dāng)采用5 層特征圖進行深監(jiān)督時,Loss 值最低,模型分割性能達到最優(yōu)。

        為了從客觀上定量進行總體評價,全尺度監(jiān)督機制結(jié)果對比如表2 所示。

        由表2 可以看出,當(dāng)采用5 層特征圖進行深監(jiān)督時,IoU 值最高,達到90. 57% ,Dice 系數(shù)達到了95. 05% ,相比較D_S1 的IoU 值高了1. 44% ,Dice系數(shù)高了1. 76% ,在性能方面達到了最優(yōu)。實驗證明,通過添加深監(jiān)督機制,確實提高了模型性能,且隨著深監(jiān)督層數(shù)越多,模型分割性能越好。

        2. 5 不同算法分割性能比較

        為了評估SF-Unet 模型方法的性能,選?。?Net、PSPNet、SegNet、TransFuse 四種經(jīng)典的語義分割網(wǎng)絡(luò)進行對比試驗,所有網(wǎng)絡(luò)均在相同的軟硬件環(huán)境下進行訓(xùn)練和測試,均使用GID 數(shù)據(jù)集進行實驗。各個網(wǎng)絡(luò)模型的分割結(jié)果如圖9 所示。

        耕地遙感影像因為其自身特性,往往呈片狀,大范圍內(nèi)分布,因此模型分割時農(nóng)田內(nèi)部分割效果和邊緣輪廓分割準(zhǔn)確性十分重要。由圖9 可以看出,PSPNet 由于具有金字塔結(jié)構(gòu),對于整體區(qū)域識別分割能力較強,但邊界分割較為模糊;SegNet 和U-Net都存在噪聲較大的現(xiàn)象;TransFuse 分割效果相對較好,但依然存在部分區(qū)域未識別、分割圖中存在少部分噪點現(xiàn)象。相比之下,本文提出的SF-Unet 模型分割的遙感影像圖像邊緣更加清晰、圖像完整性更高,分割性能更好。

        各模型分割性能指標(biāo)對比如表3 所示??梢钥闯?,本文所提出的SF-Unet 網(wǎng)絡(luò)的IoU、Dice 系數(shù)和Acc 均達到了最優(yōu),分別達到了90. 57% 、95. 05% 和95. 38% ,相比較U-Net 模型提高了6. 48% 、3. 69%和7. 20% ;相比較其他分割模型也有較大提升。本文所提出SF-Unet 模型在TransFuse 和SwinTransfuse 模型方法的基礎(chǔ)上進行改進創(chuàng)新,性能優(yōu)于原網(wǎng)絡(luò)模型,實驗證明了方法的可行性,相比較其他幾種主流的分割網(wǎng)絡(luò),在遙感影像耕地面積提取上取得了最好的效果。

        3 結(jié)束語

        本文將U-Net 和Swin Transformer 模型相結(jié)合,在高分辨率耕地遙感影像分割任務(wù)上,實現(xiàn)了目前深度學(xué)習(xí)方法中最優(yōu)的提取結(jié)果,該方法在數(shù)據(jù)獲取上較為簡單,在耕地區(qū)域提取精度上相對之前的方法有較大提升。

        深度學(xué)習(xí)在遙感影像耕地面積提取上有較大發(fā)展空間,作為一種新興技術(shù),仍然有很多工作需要進一步完善,如語義分割實現(xiàn)的像素級分類會導(dǎo)致出現(xiàn)較多噪點,能否有更高效的方法來去除噪點,以及小塊耕地識別困難等問題,仍然需要后續(xù)的研究工作來繼續(xù)完善。后續(xù)將對相關(guān)問題進行研究,以改進現(xiàn)有方法,從速度和精度上提升高分辨率遙感影像的耕地面積提取。

        參考文獻

        [1] 趙少華,劉思含,毛學(xué)軍,等. 新時期我國環(huán)保領(lǐng)域衛(wèi)星遙感技術(shù)的應(yīng)用與發(fā)展[J]. 無線電工程,2017,47(3):1-7.

        [2] 黃春波,佃袁勇,周志翔,等. 基于時間序列統(tǒng)計特性的森林變化監(jiān)測[J]. 遙感學(xué)報,2015,19(4):657-668.

        [3] OTSU N. A Threshold Selection Method from Graylevel Histograms [J]. IEEE Transactions on Systems,Man,and Cybernetics,1979,9(1):62-66.

        [4] 丁海勇,王雨軒,毛宇瓊,等. 基于動態(tài)閾值區(qū)域分裂合并算法的高分辨率遙感圖像分割研究[J]. 測繪通報,2016 (8):145-146.

        [5] 張愛華,余勝生,周敬利. 一種基于邊緣檢測的局部閾值分割算法[J]. 小型微型計算機系統(tǒng),2003,24(4):661-663.

        [6] 南柄飛,穆志純. 基于SLIC0 融合紋理信息的超像素分割方法[J]. 儀器儀表學(xué)報,2014,35 (3):527-534.

        [7] LECUN Y,BOTTOU L,BENGIO Y,et al. Gradientbased"Learning Applied to Document Recognition [J]. Proceedings of the IEEE,1998,86(11):2278-2324.

        [8] LONG J,SHELHAMER E,DARRELL T. Fully Convolutional Networks for Semantic Segmentation [C]∥ 2015"IEEE Conference on Computer Vision and Pattern Recognition. Boston:IEEE,2015:3431-3440.

        [9] RONNEBERGER O,FISCHER P,BROX T. UNet:Convolutional Networks for Biomedical Image Segmentation"[C]∥18th International Conference. Munich:Springer,2015:234-241.

        [10] VASWANI A,SHAZEER N,PARMAR N,et al. Attention Is All You Need[EB / OL]. (2017 -12 -06)[2023 -10 -20]. https:∥arxiv. org / pdf / 1706. 03762v5. pdf.

        [11] DOSOVITSKIY A,BEYER L,KOLESNIKOV A,et al. An Image Is Worth 16 × 16 Words:Transformers for Image"Recognition at Scale[EB / OL]. (2020 - 10 - 22)[2023 -10-15]. https:∥arxiv. org / abs / 2010. 11929.

        [12] LIU Z,LIN Y T,CAO Y,et al. Swin Transformer:Hierarchical Vision Transformer Using Shifted Windows[C]∥2021 IEEE / CVF International Conference on Computer"Vision. Montreal:IEEE,2021:9992-10002.

        [13] ZHANG Y D,LIU H Y,HU Q Y. Transfuse:Fusing Transformers and CNNs for Medical Image Segmentation[C]∥24th International Conference. Strasbourg:Springer,2021:14-24.

        [14] HE K M,ZHANG X Y,REN S Q,et al. Deep Residual"Learning for Image Recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition. Las"Vegas:IEEE,2016:770-778.

        [15] 周澤昊. 基于SwinSpec Transformer 的膽管癌顯微高光譜圖像分割研究[D]. 上海:華東師范大學(xué),2022.

        [16] 王金祥,付立軍,尹鵬濱,等. 基于CNN 與Transformer的醫(yī)學(xué)圖像分割[J]. 計算機系統(tǒng)應(yīng)用,2023,32(4):141-148.

        [17] 王軍,高放,省海先,等. 基于Swin Transformer 生成對抗網(wǎng)絡(luò)的圖像生成算法[J]. 小型微型計算機系統(tǒng),2024,45(1):241-248.

        [18] OKTAY O,SCHLEMPER J,LE FOLGOC L,et al.Attention UNet:Learning Where to Look for the Pancreas"[EB / OL]. (2018 - 04 - 11)[2023 - 11 - 20]. https:∥arxiv. org / abs / 1804. 03999.

        [19] LEE C Y,XIE S N,GALLAGHER P,et al. Deeplysupervised Nets[C]∥ Proceedings of the Eighteenth International Conference on Artificial Intelligence and Statistics.[S. l. ]:PMLR,2015:562-570.

        [20] WEI J,WANG S H,HUANG Q M. F3Net:Fusion,Feedback and Focus for Salient Object Detection[C]∥34th AAAI Conference on Artificial Intelligence. [S. l. ]:AAAI,2020:12321-12328.

        [21] 秦傳波,宋子玉,曾軍英,等. 聯(lián)合多尺度和注意力-殘差的深度監(jiān)督乳腺癌分割[J]. 光學(xué)精密工程,2021,29(4):877-895.

        作者簡介

        秦倫明 男,(1983—),博士,講師,碩士生導(dǎo)師。主要研究方向:圖像分割、目標(biāo)檢測、多源圖像視頻信息處理、電力設(shè)備在線監(jiān)測等。

        凌雪海 男,(1997—),碩士研究生。主要研究方向:深度學(xué)習(xí)、圖像分割和計算機視覺。

        鄒鈺潔 女,(1991—),碩士,工程師。主要研究方向:電氣設(shè)備狀態(tài)檢測。

        龔楊洋 男,(1998—),碩士研究生。主要研究方向:計算機視覺、光流估計算法。

        (*通信作者)邊后琴 女,(1976—),博士,副教授。主要研究方向:智能控制、計算機視覺和模式識別等。

        王 悉 男,(1980—),博士,副教授,碩士生導(dǎo)師。主要研究方向:列車智能駕駛、模型預(yù)測控制。

        基金項目:國家自然科學(xué)基金面上項目(62073024)

        亚洲欧美国产日产综合不卡| 中文字幕日韩一区二区三区不卡| 黑人老外3p爽粗大免费看视频| 亚洲午夜无码毛片av久久| 强开少妇嫩苞又嫩又紧九色| 忘忧草社区www日本高清| 国产成人av性色在线影院色戒| 国产日产高清欧美一区| 一级片麻豆| 久久久国产精品ⅤA麻豆百度| 女优视频一区二区三区在线观看| 国产一区二区白浆在线观看| 成人av蜜桃在线观看| 色与欲影视天天看综合网| 色哟哟精品视频在线观看| 国产无遮挡无码视频免费软件| 久久精品国产一区二区电影| 中文字幕无码专区一VA亚洲V专| 狠狠色婷婷久久综合频道日韩| 久久久精品一区aaa片| 国产大陆亚洲精品国产| 国产欧美日韩不卡一区二区三区| 国产精品日日摸夜夜添夜夜添| 少妇被搞高潮在线免费观看| 看国产亚洲美女黄色一级片 | 国产啪亚洲国产精品无码 | 免费一区二区三区在线视频| 亚洲国产剧情在线精品视| 日美韩精品一区二区三区| 亚洲男人的天堂av一区| 国产18禁黄网站免费观看| 亚洲国产精品久久久久久无码| 麻豆亚洲av永久无码精品久久| 天堂AV无码AV毛片毛| 亚洲精品一区二区三区麻豆| 亚洲精品第一页在线观看| av免费网址在线观看| 亚洲欧洲∨国产一区二区三区| 免费黄网站久久成人精品| 国产一区二区在线观看av| 精品国产a一区二区三区v|