亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        拉普拉斯卷積的雙路徑特征融合遙感圖像智能解譯方法

        2024-09-22 00:00:00曾軍英顧亞謹曹路秦傳波鄧森耀翟懿奎甘俊英謝梓源
        現(xiàn)代電子技術 2024年17期
        關鍵詞:尺度語義卷積

        摘" 要: 由于遙感圖像存在多尺度變化和目標邊緣模糊等問題,對其進行智能解譯仍然是一項極具挑戰(zhàn)性的工作。傳統(tǒng)的語義分割方法在處理這些問題時存在局限性,難以有效捕捉全局和局部信息。針對上述問題,文中提出一種雙路徑特征融合分割方法DFNet。首先,使用Swin Transformer作為主干提取全局語義特征,以處理像素之間的長距離依賴關系,從而促進對圖像中不同區(qū)域相關性的理解;其次,將拉普拉斯卷積嵌入到空間分支,以捕獲局部細節(jié)信息,加強目標地物邊緣信息表達;最后,引入多尺度雙向特征融合模塊,充分利用圖像中的全局和局部信息,以增強多尺度信息的獲取能力。在實驗中,使用了三個公開的高分辨率遙感圖像數(shù)據集進行驗證,并通過消融實驗驗證了所提模型不同模塊的作用。實驗結果表明,所提方法在Uavid數(shù)據集、Potsdam數(shù)據集、LoveDA數(shù)據集的mIoU達到了71.32%、85.58%、54.01%,提高了語義分割的性能,使分割結果更為精細。

        關鍵詞: 語義分割; 遙感圖像; 多尺度信息; 拉普拉斯卷積; 邊緣信息; 雙路徑; 特征融合; 智能解譯

        中圖分類號: TN911.73?34; TP751" " " " " " " " " 文獻標識碼: A" " " " " " " " " "文章編號: 1004?373X(2024)17?0065?08

        Dual?path feature fusion remote sensing image intelligent interpretation method

        by Laplacian convolution

        ZENG Junying, GU Yajin, CAO Lu, QIN Chuanbo, DENG Senyao, ZHAI Yikui, GAN Junying, XIE Ziyuan

        (School of Electronics and Information Engineering, Wuyi University, Jiangmen 529020, China)

        Abstract:" Due to the multi?scale variations of images and blurred target edges, the intelligent interpretation of remote sensing images is still a challenging task. The traditional semantic segmentation methods have limitations in dealing with these problems and fail to capture global and local information effectively. Therefore, a dual?path feature fusion segmentation method DFNet is proposed. The Swin Transformer is used as the backbone to extract global semantic features, so as to facilitate addressing long?range dependencies between pixels, thereby enhancing the comprehension of correlations in different regions of the image. The Laplacian convolution is incorporated into the spatial branch to capture local detail information, so as to strengthen the expression of edge information for target features. A multi?scale bidirectional feature fusion module is introduced to leverage both global and local information within the image, so as to enhance the capability to capture multi?scale information. In the experiments, three publicly available high?resolution remote sensing image datasets are used for validation. The ablation experiments are utilized to validate the roles of different modules of the proposed model. Experiment results show that the mIoU (mean intersection over union) of the proposed method reaches 71.32%, 85.58%, and 54.01% in dataset Uavid, dataset Potsdam and dataset LoveDA, respectively. To sum up, the proposed method can improve the performance of semantic segmentation and make the segmentation result more refined.

        Keywords: semantic segmentation; remote sensing image; multi?scale information; Laplacian convolution; edge information; dual path; feature fusion; intelligent interpretation

        0" 引" 言

        隨著遙感技術的不斷進步,高分辨率遙感圖像的獲取變得更加便利。遙感圖像在城市規(guī)劃、災害監(jiān)測、環(huán)境保護、農業(yè)管理等方面有著廣泛的應用[1?5]。遙感圖像信息的提取和識別是這些應用的基礎。語義分割作為一種像素級的圖像分析技術,是遙感圖像解譯領域最重要也是最具挑戰(zhàn)性的研究方向之一[6]。

        早期的圖像分割算法主要是提取圖像的低層特征進行分割[7],分割結果往往不包含語義信息。隨著深度學習的發(fā)展,一系列基于卷積神經網絡(CNN)[8]的網絡模型相繼被提出,并進入了語義分割的新階段。CNN具有強大的特征提取能力,在語義分割任務中表現(xiàn)出優(yōu)越性能[9?12]。隨后,基于全卷積網絡的方法,如FCN[10]、U?Net[11]和DeepLab系列[12?14],幾乎主導了計算機視覺圖像語義分割領域。在遙感方面,研究人員改進了通用語義分割網絡,考慮到遙感的具體特點,進一步提高了遙感圖像語義分割任務的準確性。例如文獻[15]提出一種基于FCN網絡的深度多尺度空間光譜特征提取算法,在高光譜遙感圖像上實現(xiàn)良好的分割效果。文獻[16]提出了一種多尺度特征提取和內容感知重組網絡。文獻[17]提出了一種基于U?Net的邊界感知雙流網絡,引入了一個輔助邊緣檢測流,通過顯示監(jiān)控對象邊界改善高分辨率遙感圖像邊界分割結果。

        然而,CNN受卷積核感受野的局限性影響,較少關注整體語義信息特征之間的相關性[8,10,15]。在2020年,Transformer[18]以其卓越的圖像建模能力在多個計算機視覺任務中取得顯著成就,例如圖像分類、對象檢測和語義分割[19?20]。盡管自注意力機制能夠捕獲全局信息,但它未能有效捕捉一些復雜的細節(jié)信息,并且基于Transformer編碼器的計算復雜度比基于CNN的編碼器高得多,這嚴重影響了其在城市建設實際應用中的潛力和可行性。

        傳統(tǒng)的語義分割方法難以捕獲遙感圖像中的全局語義信息和空間細節(jié)信息,因此本文提出了一種雙向特征融合的方法,利用卷積網絡與Transformer結構各自的優(yōu)勢,實現(xiàn)對遙感圖像更準確的語義分割。在全局方面,引入注意力機制以助于網絡更有針對性地關注圖像中的重要特征,提高整體語義分割的性能。在局部方面,采用多層卷積和拉普拉斯濾波技術有效捕捉圖像中的細節(jié)和邊緣信息,以使分割結果更為精細。

        本文研究的主要貢獻在于:

        1) 設計了一種適合無人機遙感圖像分割的雙路徑特征融合網絡,利用卷積神經網絡與Transformer在圖像特征提取中各自的優(yōu)勢,同時處理空間細節(jié)信息和全局上下文信息,從而捕獲豐富的特征信息。

        2) 引入拉普拉斯卷積到空間分支,旨在捕獲圖像中的局部細節(jié)信息,從而增強目標地物信息的邊緣。拉普拉斯卷積是一種有效的邊緣增強技術,通過突出圖像中的高頻信息,以助于更清晰地定位目標地物的邊緣輪廓。

        3) 引入多尺度雙向特征融合模塊,旨在充分利用圖像中的全局和局部信息,以增強多尺度信息的獲取能力。這一模塊通過將來自不同層次的特征進行融合,實現(xiàn)了全局和局部信息之間的有效交互。

        4) 根據無人機航拍圖像和無人機遙感圖像的特性,DFNet在Uavid、Potsdam、LoveDA三個不同高度拍攝的數(shù)據集上進行語義分割,均實現(xiàn)了良好的分割效果,表明了網絡具有很好的泛化性能。

        1" 方" 法

        1.1" 整體網絡結構

        針對遙感圖像多尺度變化、目標邊緣模糊的問題,本文提出用于遙感圖像語義分割的雙分支多尺度特征融合網絡DFNet,如圖1所示。首先該網絡選擇使用帶有預訓練權重的Swin Transformer?tiny作為骨干網絡[20],提取具有全局語義信息的上下文特征;然后通過卷積特征提取模塊捕獲遙感圖像的地物邊界和局部空間信息;最后,將全局語義信息和局部空間信息的輸出結果進行多尺度特征融合。融合后的特征經過兩層空洞卷積操作,將得到的預測結果與真實標簽對比,迭代損失,提高語義分割精度。

        1.2" 基于Transformer的編碼模塊

        Swin Transformer是一種高效的Transformer架構,具備強大的圖像建模能力[20]。相較于傳統(tǒng)的Transformer架構,Swin Transformer通過將圖像劃分為非重疊的塊,實現(xiàn)了對大規(guī)模圖像的有效處理。這種劃分方式保證了模型能夠同時獲得局部信息和全局信息,不會因為圖像塊的尺寸過大而導致信息丟失。

        在主干網絡中,輸入的圖像[X∈RH×W×3]。首先利用Patch partition模塊將圖像展平,轉變?yōu)閇X∈RH4×W4×48],[H]和[W]分別表示圖像的高和寬;然后經過四個階段獲取不同的特征信息。階段一通過線性嵌入層將圖像塊映射到任意維度,其他三個階段利用圖像合并層將圖像特征尺寸減半,通道數(shù)增加1倍。此外,每個階段還包含不同數(shù)量的Swin Transformer Block,具體數(shù)量如圖2中Num所示。與標準Transformer相比,Swin Transformer Block采用滑動窗口的多頭自注意力,實現(xiàn)不同窗口像素的交互,提升了模型上下文信息的表達能力。

        1.3" 基于拉普拉斯卷積的邊緣感知模塊

        盡管上下文分支可以良好地表達圖像的全局關系,但對圖像的某些局部細節(jié)卻沒辦法表現(xiàn)出良好的性能?;趯嶒灪陀^察,本文另外提出了一個細節(jié)空間分支,如圖1中的Spatial path,用于對上下文分支進行細節(jié)特征的補全。具體來說,空間細節(jié)分支包括四層卷積模塊和一層拉普拉斯卷積。其中前三層卷積塊中,第一層選擇較大內核的卷積,其余都是3×3卷積核,卷積操作后接批量歸一化層和ReLU激活函數(shù)。經過卷積下采樣后引入拉普拉斯卷積,凸顯圖像的邊緣信息。最后一層卷積塊中,使用內核大小為1的卷積層,用于改變通道數(shù)??臻g細節(jié)分支可以保留更多空間細節(jié)信息和邊緣特征,使網絡對局部信息具有更好的理解能力。另外,空間細節(jié)分支所包含的運算量較少,對整體的運算速度影響較小,卻添加了更多空間細節(jié)信息。拉普拉斯卷積過程如公式(1)和公式(2)所示,拉普拉斯濾波器[L=0101-41010]。公式(1)表示特征圖經過濾波輸出的結果,公式(2)表示每個像素經過濾波器操作的結果。[L(i+1,j+1)]表示濾波器在位置[(i+1,j+1)]索引的權值。

        [Out=Laplacian(M)] (1)

        [Out(x,y)=i=-11j=-11M(x+i,y+j)L(i+1,j+1)] (2)

        1.4" 特征融合模塊

        在遙感圖像解譯中,由于地物的尺度差異,多尺度信息的綜合對于提高模型的適應性和泛化能力至關重要。

        本文引入多尺度雙向特征融合模塊FFM,如圖3所示。充分利用圖像中的全局和局部信息,并增強多尺度信息的獲取能力。

        通過在不同尺度上進行特征融合,能夠更全面地理解遙感圖像,從而更有效地進行語義分割。該模塊不僅考慮特征的上下文關系,還注重多尺度信息的交互,使得模型在處理不同尺度上的地物時表現(xiàn)更為優(yōu)越。全局上下文特征與局部空間特征逐元素相加結合后引入雙向特征融合模塊調整融合特征。具體來說,融合后的特征經過全局平均池化和全局最大池化,調整維度的同時保留特征圖整體和最大顯著特征,然后經過不規(guī)則卷積進行逐元素相加,對輸出的結果賦予不同的權值與輸入特征相乘,獲取新的特征圖。最后對輸入特征進行重新加權,后接卷積塊操作。特征融合不僅可以增強模型關注語義相關信息,還能抑制不相關特征。池化過程如公式(3)所示:

        [yC×H×W=Conv1C×H×Wi=1Cj=1Hk=1Wxi,j,k+Convmax(xi,j,k)] (3)

        式中:[xi,j,k]表示在通道[i]、高度[j]、寬度[k]處的像素值;[C]、[H]、[W]分別表示特征圖的通道、高度、寬度。

        2" 實" 驗

        2.1" 數(shù)據集

        為了驗證本文提出的方法在不同數(shù)據集上的有效性和泛化性能,選擇了三個具有代表性的航空和無人機遙感圖像數(shù)據集進行測試和結果比較。這些數(shù)據集分別是ISPRS Potsdam、Uavid和LoveDA。

        Potsdam:該數(shù)據集包含38幅尺寸為6 000×6 000、地面分辨率為5 cm的精細分辨率圖像。此數(shù)據集一共有5個前景類別和1個背景類別。前景類別為不透明水表面、建筑物、低值被、樹木和汽車;背景類別為除了前景外的其他類別。使用id:2_13、2_14、3_13、3_14、4_13、4_14、4_15、5_13、5_14、5_15、6_13、6_14、6_15、7_13用于測試,其余的圖像用于訓練。在實驗中,僅使用RGB圖像并將原始圖像裁剪為1 024×1 024像素大小,以滿足實驗需求。

        Uavid:包含42個無人機載街景遙感影像序列,每個序列包括10張4K分辨率的圖像,對應紅色(R)、綠色(G)和藍色(B)三個波段。該數(shù)據集涵蓋7個前景類別和1個背景類別。前景類別分別為建筑物、道路、樹木、低值被、動態(tài)車、靜態(tài)車和行人;背景類別為除了前景外的其他地物。本文使用200張圖像用于訓練,70張圖像用于驗證,官方提供的150張圖像用于測試。在實驗中,每個圖像都被裁剪為1 024×1 024的像素大小,以便更好地適應模型訓練。

        LoveDA:該數(shù)據集從Google Earth平臺獲取,覆蓋了超過536 km2的廣闊區(qū)域,涵蓋中國三個區(qū)域(南京、常州、武漢)的城市和農村場景,共包含5 987張空間分辨率為0.3 m的遙感圖像。該數(shù)據集包括7個類別(建筑、道路、水、荒地、森林、農作物和背景)。本文使用2 522張圖像進行訓練,1 669張作為驗證集,余下的1 769張用于測試。

        2.2" 實驗細節(jié)與評估指標

        實驗中的所有模型均在單個NVIDIA RTX A4000 GPU上使用PyTorch框架實現(xiàn)。為了快速收斂,本文部署了AdamW優(yōu)化器來訓練實驗中的所有模型,基礎學習率設置為6×10-4,并采用余弦策略調整學習率。對于Uavid和LoveDA數(shù)據集使用隨機垂直翻轉、隨機水平翻轉和隨機亮度,在1 024×1 024的像素大小進行輸入和訓練期間的數(shù)據增強。訓練時期設置為80 epoch,batchsize設置為4。Potsdam數(shù)據集在訓練過程中采用隨機縮放(0.5,0.75,1.0,1.25,1.5)、隨機旋轉等增強數(shù)據集,訓練時間設置為50 epoch,batchsize設置為2。在測試階段都可以使用多尺度和隨機翻轉增強數(shù)據結果。

        本文基于常用的指標:平均交并比(mean Intersection over Union, mIoU)、整體精確度(Overall Accuracy," OA)和[F1]分數(shù)來評估本文所提網絡的結果。根據累積的混淆矩陣,mIoU、OA、[F1]的計算公式為:

        [mIoU=1Nn=1NTPnTPn+FPn+FNn] (4)

        [OA=n=1NTPn+n=1NTNnn=1NTPn+n=1NFPn+n=1NTNn+n=1NFNn] (5)

        [F1=2×Precisionn×RecallnPrecisionn+Recalln] (6)

        [Precisionn=TPnTPn+FPn] (7)

        [Recalln=TPnTPn+FNn] (8)

        式中:[TPn]、[FPn]、[TNn]和[FNn]分別代表索引為[n]類的地物信息的真陽性、假陽性、真陰性和假陰性;OA是指包括背景在內的所有類別的準確度。

        2.3" 消融實驗

        本網絡是由單分支網絡改進而來的,采用Swin Transformer作為特征提取器進行語義分割任務。因此本節(jié)以一個單分支Swin Transformer作為基線網絡對改進的各個模塊進行對比分析。經過分析,單分支的Swin Transformer網絡難以捕捉細節(jié)的空間信息,容易忽略目標地物的邊緣信息,因此針對單分支網絡缺失空間細節(jié)這一問題,本文提出使用拉普拉斯卷積的空間分支,對遙感圖像語義分割空間細節(jié)以及邊緣信息補全。為了減少融合過程中語義信息的丟失,本文引入一個雙向特征融合模塊,以促進兩個分支的特征表達。針對上述幾點的改進,本文在Uavid數(shù)據集上設置了4組實驗,實驗結果如表1所示。

        表1中:Base表示Swin Transformer作為主干網絡的實驗;Sp表示空間分支模塊;Laplacian表示拉普拉斯卷積;FFM表示特征融合模塊。與Base網絡相比,添加空間分支后的mIoU、[F1]、OA分別增加了6.28%、5.55%、1.17%。添加所有模塊后的mIoU、[F1]、OA分別達到了71.32%、82.41%、88.36%。

        2.4" 對比實驗

        為了確定所提出遙感圖像特征融合語義分割網絡算法在無人機遙感場景的實際性能和可行性,本文進行了多組對比實驗用來評估和驗證本文提出的語義分割模型對無人機遙感場景語義的理解能力。本文在Uavid、ISPRS Potsdam數(shù)據集和LoveDA數(shù)據集展開多組實驗,用來分析所提出算法在不同數(shù)據集中的分割性能,通過設置多組實驗來驗證網絡分割圖像的準確率。

        不同分割網絡在Uavid數(shù)據集上的結果見表2。由表2可知,本文所提出網絡的平均交并比(mIoU)優(yōu)于Swin?tiny[20]、BiSeNet[21]、A2?FPN[22]、EANet[23]、ABCNet[24]等語義分割網絡。本文所提方法在Uavid數(shù)據集上的分割結果mIoU、OA分別達到了71.32%、88.36%。與基線Swin?tiny網絡相比,本文方法的mIoU與OA分別提升7.32%和1.56%。與次優(yōu)模型EANet相比,本文所提方法的mIoU提高了2.2%。具體到類別上,本文方法在絕大部分類別的IoU評估指標上的性能比其他網絡都顯示出更加優(yōu)異的結果。所提網絡在Uavid數(shù)據集中的分割可視化效果如圖4所示。由可視化結果顯示,所提網絡在Uavid數(shù)據集的分割效果更好,在部分語義信息的細節(jié)信息方面對比其他網絡表現(xiàn)得較為良好。

        在ISPRS Potsdam數(shù)據集上,與不同網絡分割模型定量比較的結果見表3。本文所提方法在五個類別中四個類別取得了最佳IoU分數(shù),并且相比次優(yōu)模型A2?FPN,本文方法的mIoU、OA、[F1]分別提升了1.98%、1.46%、1.19%。本文在小目標“Car”的IoU值高達90.79%,與基線模型相比提升了16.16%,這得益于本文所提出的空間分支捕獲到的空間細節(jié)信息,增強了圖像的邊緣特征表達。Potsdam數(shù)據集的可視化結果如圖5所示。

        在LoveDA數(shù)據集上,與不同網絡分割模型定量比較的結果見表4。本文所提方法相比基線模型整體分割指標mIoU、OA、[F1]分別提升了1.81%、0.96%、1.47%,與次優(yōu)模型EANet相比,mIoU、OA、[F1]分別提高2.42%、3.10%、2.11%。由表4可知,本文所提出的模型在綜合評估指標上性能都高于其他方法,個別類別IoU性能得到次高的結果。

        LoveDA數(shù)據集可視化展示如圖6所示。由可視化結果可知,本文所提方法的分割性能優(yōu)于其他方法,不同類別的邊界更清晰。

        3" 結" 論

        本文構建了一個雙路徑遙感圖像語義分割模型DFNet,該模型具有強大的圖像理解和地物識別能力。本模型在保留全局語義信息的同時還利用空間分支的拉普拉斯卷積增強了圖像的邊緣信息。最后通過多尺度特征融合交互兩個分支的信息,更全面地解譯遙感圖像信息。在Uavid、Potsdam和LoveDA數(shù)據集上的實驗證明了本文方法的有效性和泛化性。在未來的工作中,考慮將多模態(tài)數(shù)據應用于高空間分辨率遙感圖像的語義分割任務中,通過數(shù)據融合獲得更豐富的語義信息,提高分割的精度和效率。

        注:本文通訊作者為曹路。

        參考文獻

        [1] SCHUMANN G J P, BRAKENRIDGE G R, KETTNER A J, et al. Assisting flood disaster response with earth observation data and products: A critical assessment [J]. Remote sensing, 2018, 10(8): 1230.

        [2] WEISS M, JACOB F, DUVEILLER G. Remote sensing for agricultural applications: A meta?review [J]. Remote sensing of environment, 2020, 236: 111402.

        [3] SHI S N, ZHONG Y F, ZHAO J, et al. Land?use/land?cover change detection based on class?prior object?oriented conditional random field framework for high spatial resolution remote sensing imagery [J]. IEEE transactions on geoscience and remote sensing, 2020, 60: 1?16.

        [4] CHEN J, YUAN Z Y, PENG J, et al. DASNet: Dual attentive fully convolutional Siamese networks for change detection in high?resolution satellite images [J]. IEEE journal of selected topics in applied earth observations and remote sensing, 2021, 14: 1194?1206.

        [5] ZHU Q, LIAO C, HU H, et al. MAP?Net: Multiple attending path neural network for building footprint extraction from remote sensed imagery [J]. IEEE transactions on geoscience and remote sensing, 2021, 59(7): 6169?6181.

        [6] XING J, SIEBER R E, KALACSKA M. The challenges of image segmentation in big remotely sensed imagery data [J]. Annals of GIS, 2014, 20(4): 233?244.

        [7] GEDEON T, PARKER A E, CAMPION C, et al. Annealing and the normalized N?cut [J]. Pattern recognition, 2008, 41(2): 592?606.

        [8] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks [J]. Communications of the ACM, 2017, 60(6): 84?90.

        [9] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the inception architecture for computer vision [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 2818?2826.

        [10] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2015: 3431?3440.

        [11] RONNEBERGER O, FISCHER P, BROX T. U?Net: Convolutional networks for biomedical image segmentation [C]// Medical Image Computing and Computer?assisted Intervention. Heidelberg, Germany: Springer, 2015: 234?241.

        [12] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs [J]. IEEE transactions on pattern analysis and machine intelligence, 2018, 40(4): 834?848.

        [13] CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segmentation [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1706.05587.

        [14] CHEN L C, ZHU Y K, PAPANDREOU G, et al. Encoder?decoder with atrous separable convolution for semantic image segmentation [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 833?851.

        [15] JIAO L C, LIANG M M, CHEN H, et al. Deep fully convolutional network?based spatial distribution prediction for hyperspectral image classification [J]. IEEE transactions on geoscience and remote sensing, 2017, 55(10): 5585?5599.

        [16] YAO Z Q, JIA J L, QIAN Y R. MCNet: Multi?scale feature extraction and content?aware reassembly cloud detection model for remote sensing images [J]. Symmetry, 2021, 13(1): 28.

        [17] NONG Z X, SU X, LIU Y, et al. Boundary?aware dual?stream network for VHR remote sensing images semantic segmentation [J]. IEEE journal of selected topics in applied earth observations and remote sensing, 2021(14): 5260?5268.

        [18] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Advances in Neural Information Processing Systems. [S.l.: s.n.], 2017: 5998?6008.

        [19] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: Transformers for image recognition at scale [EB/OL]. [2021?01?12]. https://openreview.net/forum?id=YicbFdNTTy.

        [20] LIU Z, LIN Y T, CAO Y, et al. Swin Transformer: Hierarchical vision transformer using shifted windows [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 9992?10002.

        [21] YU C Q, WANG J B, PENG C, et al. BiSeNet: Bilateral segmentation network for real?time semantic segmentation [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 334?349.

        [22] LI R, WANG L B, ZHANG C, et al. A2?FPN for semantic segmentation of fine?resolution remotely sensed images [J]. International journal of remote sensing, 2022, 43(3): 1131?1155.

        [23] ZHENG X W, HUAN L X, XIA G S, et al. Parsing very high resolution urban scene images by learning deep ConvNets with edge?aware loss [J]. ISPRS journal of photogrammetry and remote sensing, 2020, 170: 15?28.

        [24] LI R, ZHENG S Y, ZHANG C, et al. ABCNet: Attentive bilateral contextual network for efficient semantic segmentation of fine?resolution remotely sensed imagery [J]. ISPRS journal of photogrammetry and remote sensing, 2021, 181: 84?98.

        猜你喜歡
        尺度語義卷積
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        財產的五大尺度和五重應對
        語言與語義
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標跟蹤算法
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        “上”與“下”語義的不對稱性及其認知闡釋
        認知范疇模糊與語義模糊
        9
        一種基于卷積神經網絡的性別識別方法
        電視技術(2014年19期)2014-03-11 15:38:20
        色婷婷av一区二区三区丝袜美腿 | 国产98在线 | 免费| 国产思思久99久精品| 亚洲天堂一区二区三区| 高清午夜福利电影在线| 无码av免费一区二区三区试看| 亚洲另类欧美综合久久图片区| 国产精品久久中文字幕亚洲| 一本之道久久一区二区三区| 欧美黑人性暴力猛交喷水| 国产亚洲亚洲精品777| 日韩丝袜人妻中文字幕| 亚洲最大中文字幕在线| 国语对白嫖老妇胖老太| 国产亚洲精品bt天堂| 亚洲性码不卡视频在线| 亚洲视频高清一区二区| 色橹橹欧美在线观看视频高清| 免费毛片视频网站| 日韩av一区二区三区在线观看| 亚洲国产精品久久又爽av| 99国产精品人妻噜啊噜| 欧洲中文字幕| 久草视频在线播放免费| 亚洲欧洲日产国码av系列天堂| 成人白浆超碰人人人人| 精品久久久久久电影院| 日本女优久久精品久久| 久久国产精品偷任你爽任你| 久久久久亚洲av无码网站| 日本高清视频在线一区二区三区| 亚洲国产精品国自产拍久久蜜av | 国产一区二区三区视频网| 国产精品对白刺激久久久| 亚洲专区路线一路线二天美| 亚洲天堂一区二区三区| 亚洲精品无码av人在线观看| 人人看人人做人人爱精品| 日本一区二区三区在线视频观看| 国产性自爱拍偷在在线播放| 无码熟妇人妻av在线影片|