亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于語義分割實(shí)現(xiàn)的SAR圖像艦船目標(biāo)檢測(cè)

        2022-04-07 12:10:26句彥偉
        關(guān)鍵詞:艦船解碼語義

        陳 冬, 句彥偉

        (南京電子技術(shù)研究所, 江蘇 南京 210013)

        0 引 言

        合成孔徑雷達(dá)(synthetic aperture radar, SAR)屬于微波遙感方式中的一種,具有全天時(shí)、全天候工作的特點(diǎn),能夠捕獲目標(biāo)散射特性,在軍事上、民事上均具有非常廣泛的運(yùn)用。而傳統(tǒng)的SAR圖像處理流程包括:相干斑抑制、目標(biāo)檢測(cè)、目標(biāo)分割以及特征提取和識(shí)別等。

        目標(biāo)檢測(cè)是其中一個(gè)極其重要的環(huán)節(jié),其包含變化檢測(cè)與特定目標(biāo)檢測(cè)。艦船目標(biāo)檢測(cè)即是其中一類特定的檢測(cè)任務(wù),軍事上可以探查軍艦情況,民事上可以用于航海監(jiān)測(cè)等。傳統(tǒng)的艦船目標(biāo)檢測(cè)主要有:恒虛警率法(constant false alarm rate, CFAR)、尾跡檢測(cè)法、模板匹配法等。

        深度學(xué)習(xí)在自然圖像上取得巨大成功的同時(shí)帶動(dòng)了SAR領(lǐng)域中的智能解譯。當(dāng)前基于深度學(xué)習(xí)實(shí)現(xiàn)的SAR圖像相干斑抑制、目標(biāo)檢測(cè)與目標(biāo)識(shí)別等方法層出不窮,其中又涉及小樣本學(xué)習(xí)、生成對(duì)抗網(wǎng)絡(luò)等方法。而針對(duì)檢測(cè)問題,當(dāng)前諸多方法均是自然圖像領(lǐng)域算法的遷移,對(duì)SAR圖像中小目標(biāo)檢測(cè)問題做出了模型調(diào)整,其中很大一部分缺少對(duì)SAR圖像本身特點(diǎn)的考慮。

        深度學(xué)習(xí)的檢測(cè)方法可分為雙階段檢測(cè)和單階段檢測(cè),其各具非常鮮明的特點(diǎn)。雙階段以區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(regions with convolutional neural network, R-CNN)系列為主,具有非常高的檢測(cè)精度和召回率,適用于復(fù)雜和實(shí)時(shí)性要求低的場(chǎng)景中。Faster R-CNN更是實(shí)現(xiàn)了雙階段方法的端到端訓(xùn)練,并取得了非常好的效果。在此基礎(chǔ)之上,Cascade R-CNN與Mask R-CNN被提出,得到了廣泛使用。2017年Li等人首先提出了SSDD數(shù)據(jù)集并測(cè)試了Faster R-CNN在該數(shù)據(jù)集上的性能,之后其他改進(jìn)及優(yōu)化的雙階段模型不斷被提出。

        相較于雙階段的大量候選框產(chǎn)生的問題,以單次多盒檢測(cè)(single shot multibox detector, SSD)系列和“你只看一次”(you only look once, YOLO)系列為主的單階段檢測(cè)具有非常高的檢測(cè)速度。拋棄候選框產(chǎn)生過程帶來好處的同時(shí)在精度上卻有所下降,使得單階段方法更加適用于相對(duì)簡(jiǎn)單以及實(shí)時(shí)性要求比較高的場(chǎng)景。YOLOv4方法更是融合多種方法優(yōu)點(diǎn)于一體,在實(shí)時(shí)性以及效果上取得了一個(gè)較好的平衡。

        由于雙階段和單階段檢測(cè)中存在的錨框問題成為了實(shí)時(shí)性的又一大桎梏,2019年起諸多無錨框的方法開始興起?;跓o錨框的方法可以舍棄錨框的概念,在實(shí)時(shí)性上進(jìn)一步提高,并逐漸設(shè)計(jì)出新的解碼過程。CenterNet即是先尋找目標(biāo)的中心點(diǎn)再基于中心點(diǎn)進(jìn)行邊框的回歸。而Nicolas更是將Transformer引入檢測(cè)中,提出了名為DETR的檢測(cè)網(wǎng)絡(luò),對(duì)CNN提取出的特征和相應(yīng)的位置編碼進(jìn)行處理,通過詢問式的序列輸入進(jìn)行解碼。

        以上如此復(fù)雜的檢測(cè)解碼過程并不適用于SAR圖像艦船目標(biāo)檢測(cè)。深度學(xué)習(xí)目標(biāo)檢測(cè)的概念是定位與分類一體化,其對(duì)應(yīng)于雷達(dá)檢測(cè)識(shí)別一體化。而當(dāng)前已公布數(shù)據(jù)集SSDD、SAR-Ship-Dataset以及HRSID均不具備識(shí)別的條件,使得研究方法更加專注于定位問題。此外,多數(shù)艦船目標(biāo)圖像中不存在復(fù)雜背景,只是海面,因此圖像中大部分是“黑色區(qū)域”。此時(shí)錨框的引入必然造成大量的算力冗余,耗費(fèi)資源且沒有明顯的收益。如何進(jìn)行高效的解碼成為了當(dāng)前SAR圖像智能檢測(cè)的一大問題。

        本文重新思考已有檢測(cè)方法并在其基礎(chǔ)上,針對(duì)SAR圖像本身特點(diǎn),提出使用語義分割來實(shí)現(xiàn)檢測(cè)、分割一體化。實(shí)驗(yàn)結(jié)果證明,基于語義分割實(shí)現(xiàn)的SAR圖像艦船檢測(cè)方法具有更好的性能。

        本文的主要?jiǎng)?chuàng)新點(diǎn)如下:

        (1) 提出了通過語義分割的方式實(shí)現(xiàn)SAR圖像艦船目標(biāo)檢測(cè)、分割一體化,將檢測(cè)問題轉(zhuǎn)化為分割問題,避免了復(fù)雜的檢測(cè)網(wǎng)絡(luò)解碼過程。

        (2) 基于語義分割網(wǎng)絡(luò)的編解碼形式提出了UNet-S的網(wǎng)絡(luò)結(jié)構(gòu),能夠有效地提取特征和實(shí)現(xiàn)目標(biāo)的檢測(cè)與分割。

        (3) 針對(duì)背景與目標(biāo)樣本不均衡問題,引入了Dice Loss損失,結(jié)合交叉熵?fù)p失構(gòu)建本文的損失函數(shù),實(shí)驗(yàn)結(jié)果證明效果提升顯著。

        1 方法介紹

        1.1 語義分割與SAR圖像艦船目標(biāo)檢測(cè)

        1.1.1 語義分割

        在計(jì)算機(jī)視覺(computer vision, CV)中,語義分割是一個(gè)非常重要的領(lǐng)域。圖像分割通常可以表述為具有語義標(biāo)簽的像素分類問題(語義分割)或單個(gè)對(duì)象的分割問題(實(shí)例分割)。語義分割的結(jié)果通常是逐像素分類的類別(如人、車等),其在二維視覺和三維視覺中均具有極其重要的運(yùn)用,并廣泛運(yùn)用于自動(dòng)駕駛、醫(yī)學(xué)圖像診斷、人機(jī)交互、增強(qiáng)現(xiàn)實(shí)等領(lǐng)域中。

        隨著深度學(xué)習(xí)的快速發(fā)展,語義分割也取得了非常大的進(jìn)步。全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional neural network, FCN)采用常見的特征提取網(wǎng)絡(luò)如VGG作為編碼器,并采用反卷積層實(shí)現(xiàn)上采樣恢復(fù)分辨率作為解碼器,首次實(shí)現(xiàn)了語義分割端到端訓(xùn)練。在醫(yī)學(xué)圖像分割領(lǐng)域中取得巨大成功的UNet網(wǎng)絡(luò)結(jié)構(gòu)是當(dāng)前主要采用結(jié)構(gòu)的代表,其基于FCN拓展和修改而來。其他語義分割的模型穩(wěn)步增多,如SegNet、DeepLab系列等。但UNet模型仍具有非常好的分割效果,曾在ISBI電子顯微鏡下細(xì)胞圖像的分割比賽中,以較大的優(yōu)勢(shì)領(lǐng)先,獲得了冠軍。本文即是基于UNet的網(wǎng)絡(luò)編解碼結(jié)構(gòu)并進(jìn)行部分改進(jìn)提出了UNet-S網(wǎng)絡(luò)來實(shí)現(xiàn)SAR圖像艦船目標(biāo)分割與檢測(cè)。

        1.1.2 SAR圖像艦船目標(biāo)檢測(cè)

        SAR圖像艦船目標(biāo)檢測(cè)不同于CV領(lǐng)域中的目標(biāo)檢測(cè)任務(wù)。后者通常涉及到定位與分類,而當(dāng)前前者只涉及到定位問題。此外,諸多深度學(xué)習(xí)網(wǎng)絡(luò)用于檢測(cè)的解碼部分極為復(fù)雜,涉及到檢測(cè)框回歸、置信度以及分類網(wǎng)絡(luò)。基于錨框的方法通常還需要進(jìn)行非極大值抑制(non-maximum suppression, NMS),對(duì)檢測(cè)出的諸多重復(fù)框進(jìn)行篩選。

        從某種意義上來說,SAR圖像艦船目標(biāo)檢測(cè)可不看作是檢測(cè)問題而認(rèn)為是二分類問題,關(guān)注點(diǎn)在于區(qū)分目標(biāo)和背景。通過當(dāng)前的神經(jīng)網(wǎng)絡(luò)有效地區(qū)分背景和目標(biāo),即可比較好地實(shí)現(xiàn)艦船目標(biāo)檢測(cè)問題。在該思路上,本文提出基于語義分割的方法來實(shí)現(xiàn)SAR圖像艦船目標(biāo)檢測(cè),即逐像素進(jìn)行艦船目標(biāo)和背景的分類。該方法能在完成檢測(cè)的同時(shí),獲取艦船目標(biāo)的分割掩膜,便于后續(xù)的識(shí)別研究等。

        1.2 艦船目標(biāo)語義分割實(shí)現(xiàn)

        1.2.1 改進(jìn)型UNet-S語義分割網(wǎng)絡(luò)

        UNet網(wǎng)絡(luò)結(jié)構(gòu)本身具有非常好的語義分割效果,而本文此處對(duì)UNet網(wǎng)絡(luò)結(jié)構(gòu)做出了部分修改以適應(yīng)性地運(yùn)用于SAR圖像中,采用的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 本文UNet-S網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 The proposed UNet-S network architecture

        輸入大小統(tǒng)一為800×800×3的形式,而輸出對(duì)應(yīng)為800×800×2的大小(其具體的解碼過程可參考第1.2.2節(jié))。

        UNet網(wǎng)絡(luò)由一個(gè)收縮路徑和一個(gè)對(duì)稱擴(kuò)張路徑組成。收縮路徑即下采樣過程,用于獲取上下文信息;而對(duì)稱擴(kuò)張路徑即上采樣過程,融合提取的上下文信息用于精確定位。

        本文的模型對(duì)UNet中多尺度信息融合的方式進(jìn)行了保留。整體網(wǎng)絡(luò)結(jié)構(gòu)同樣采用16倍下采樣的方式,相比較于原UNet網(wǎng)絡(luò),本文UNet-S的設(shè)計(jì)方案以常見的VGG16網(wǎng)絡(luò)為特征編碼網(wǎng)絡(luò)。通過該特征提取網(wǎng)絡(luò)可在訓(xùn)練過程中加載預(yù)訓(xùn)練模型,進(jìn)行固化訓(xùn)練,并在迭代一定次數(shù)之后進(jìn)行微調(diào),能夠有效地加快模型收斂速度、提高模型的性能。

        解碼部分采用雙線性上采樣來提高分辨率并結(jié)合淺層網(wǎng)絡(luò)中提取的特征來獲取豐富的上下文信息,為逐像素預(yù)測(cè)過程提供更加豐富的空間信息。最后使用1×1大小的卷積進(jìn)行通道數(shù)的調(diào)整,使其滿足語義分割的類別數(shù)。

        1.2.2 語義分割解碼過程

        基于深度學(xué)習(xí)的檢測(cè)方法通常會(huì)對(duì)提取的特征結(jié)合空間位置進(jìn)行解碼,將提取的特征轉(zhuǎn)換為檢測(cè)框、置信度和類別,之后需對(duì)重復(fù)的檢測(cè)框進(jìn)行非極大值抑制等操作。本文采用語義分割的方式,逐像素區(qū)分背景和艦船目標(biāo),在獲得分類結(jié)果之后對(duì)艦船目標(biāo)的預(yù)測(cè)區(qū)域進(jìn)行提取即可實(shí)現(xiàn)檢測(cè),因此避免了復(fù)雜的檢測(cè)解碼過程。

        而基于語義分割的解碼過程是在目標(biāo)分類任務(wù)上的擴(kuò)充。此處認(rèn)為檢測(cè)是逐像素二分類任務(wù),最終的預(yù)測(cè)結(jié)果為兩層800×800大小且經(jīng)過Softmax激活之后的對(duì)應(yīng)位置概率值。通過該方式即可完成SAR圖像艦船目標(biāo)語義分割任務(wù),再對(duì)獲取的連通域進(jìn)行提取,可獲得每個(gè)連通域的坐標(biāo)框以及目標(biāo)大小。

        圖2為網(wǎng)絡(luò)預(yù)測(cè)結(jié)果、對(duì)應(yīng)的生成掩膜以及轉(zhuǎn)化為檢測(cè)的結(jié)果。通過該方式實(shí)現(xiàn)的艦船目標(biāo)檢測(cè),一方面避免了諸多基于“過冗余”方法實(shí)現(xiàn)的檢測(cè)方法中帶來的算力大量消耗、設(shè)計(jì)錨框等問題;另一方面將檢測(cè)轉(zhuǎn)化為分割問題,使得艦船目標(biāo)檢測(cè)中多尺度特性轉(zhuǎn)化為前景與背景類別不均衡問題,同時(shí)能夠獲取分割之后目標(biāo)的具體信息,便于之后的識(shí)別研究等。

        圖2 解碼實(shí)現(xiàn)過程Fig.2 Decoding implementation process

        1.2.3 損失函數(shù)

        (1)

        式中:是總類別數(shù);為第個(gè)類別對(duì)應(yīng)的CNN輸出結(jié)果。此時(shí),像素交叉熵?fù)p失為

        (2)

        最終的分割交叉熵?fù)p失為

        (3)

        式中:為像素?cái)?shù)。該損失函數(shù)形式歸根到底是逐像素單獨(dú)評(píng)估交叉熵?fù)p失再取均值,即可認(rèn)為每個(gè)像素對(duì)于最終模型的貢獻(xiàn)是均衡的。但本文存在一個(gè)樣本不均衡的問題:艦船目標(biāo)與背景具有很大的失調(diào)關(guān)系。經(jīng)統(tǒng)計(jì)得出,訓(xùn)練數(shù)據(jù)中背景與艦船目標(biāo)出現(xiàn)的頻率分別為0996和0004。如何有效地區(qū)分背景與目標(biāo),避免造成誤判尤其重要。

        因此,本文在交叉熵?fù)p失基礎(chǔ)之上采用Dice Loss損失來緩解樣本不均衡的情況。Dice Loss損失最早于VNet中使用,用于解決醫(yī)學(xué)圖像中前景與背景極其不均衡的問題,后被廣泛引用并擴(kuò)充至其他語義分割任務(wù)中。該損失函數(shù)采用的思想是直接對(duì)指標(biāo)進(jìn)行優(yōu)化而不是通過不同目標(biāo)權(quán)重比來解決不均衡問題,其來源于評(píng)價(jià)指標(biāo)Dice系數(shù)。不妨設(shè)樣本和,則

        (4)

        式中:|∩|表示的是交集個(gè)數(shù);||和||分別表示其元素個(gè)數(shù)。Dice系數(shù)是一個(gè)集合相似度度量函數(shù),取值范圍在0到1之間。在分割評(píng)價(jià)中,預(yù)測(cè)結(jié)果與標(biāo)簽重合度越高,Dice值越大,而將其引用作為損失函數(shù)優(yōu)化可采用如下形式:

        =1-Dice

        (5)

        本文Dice損失最終形式:

        (6)

        綜上,本文采用的損失函數(shù)為

        =+

        (7)

        2 實(shí)驗(yàn)驗(yàn)證

        本文采用的實(shí)驗(yàn)框架是Pytorch深度學(xué)習(xí)框架,實(shí)驗(yàn)計(jì)算機(jī)硬件配置為GTX 1080Ti,顯存為11 G,內(nèi)存為32 GB。實(shí)驗(yàn)過程中,總迭代次數(shù)設(shè)置為150次。其中,前50次加載預(yù)訓(xùn)練模型進(jìn)行固化訓(xùn)練;后100次對(duì)模型進(jìn)行微調(diào),所有參數(shù)均進(jìn)行更新。

        本文使用分割與檢測(cè)兩種評(píng)價(jià)指標(biāo),從多方面對(duì)檢測(cè)以及分割所得的結(jié)果進(jìn)行比較,能夠凸顯采用方法的優(yōu)越性。此外,為了與基于深度學(xué)習(xí)的檢測(cè)方法相比較,本文選用單階段檢測(cè)YOLOv4方法以及雙階段檢測(cè)算法Faster R-CNN(ResNet50)作為參照基準(zhǔn)。

        2.1 實(shí)驗(yàn)數(shù)據(jù)

        當(dāng)前公布且用于深度學(xué)習(xí)訓(xùn)練的SAR圖像艦船目標(biāo)檢測(cè)數(shù)據(jù)并不是很多,典型代表有海軍航空大學(xué)的SSDD、中國(guó)科學(xué)院的SAR-Ship-Dataset以及電子科學(xué)技術(shù)大學(xué)的HRSID數(shù)據(jù)集等。

        相比較于其他數(shù)據(jù)集,HRSID數(shù)據(jù)集數(shù)據(jù)量適中,單圖像雖較大,但具有比較高的分辨率,且其涵蓋多目標(biāo)、多尺度以及強(qiáng)干擾等情況的艦船目標(biāo)。此外,該數(shù)據(jù)集還進(jìn)行了統(tǒng)一劃分,具有一個(gè)二階段檢測(cè)方法的對(duì)照基準(zhǔn),且對(duì)艦船目標(biāo)進(jìn)行了實(shí)例分割的標(biāo)注。在該數(shù)據(jù)集基礎(chǔ)上,本文對(duì)標(biāo)注結(jié)果進(jìn)行調(diào)整,進(jìn)一步生成語義分割標(biāo)注結(jié)果,用于實(shí)驗(yàn)驗(yàn)證。

        2.2 評(píng)價(jià)指標(biāo)

        由于本文通過分割的方式來實(shí)現(xiàn)SAR圖像艦船目標(biāo)檢測(cè),因此具有分割特性且具有檢測(cè)特性,可通過兩種不同的方式對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)價(jià)分析。

        從語義分割的角度進(jìn)行分析,本文選取了均交并比(mean intersection over union, MIoU)和平均像素準(zhǔn)確率(mean pixel accuracy, MPA)作為評(píng)價(jià)指標(biāo)。假設(shè)包含背景共有+1個(gè)類別,表示類別為的像素被預(yù)測(cè)為類別為的數(shù)目,則就表示TP(true positives),分別表示為FP(false positives)與FN(false negatives)。則MIoU和MPA的計(jì)算方式分別如下:

        (8)

        (9)

        MIoU是計(jì)算真實(shí)值和預(yù)測(cè)值之間的交集與并集之比,先計(jì)算出每一類的交并比(intersection over union, IoU),再對(duì)多類IoU求和之后的結(jié)果進(jìn)行平均得到最終的全局評(píng)價(jià)指標(biāo)。而MPA計(jì)算的是每一類正確判別的像素比例,再同樣對(duì)所有類別求其平均值,是從像素角度進(jìn)行的評(píng)價(jià)。

        從檢測(cè)的角度進(jìn)行分析,本文選取COCO數(shù)據(jù)集中的平均精度和平均召回率等作為評(píng)價(jià)指標(biāo)。此外,本文還考慮了模型大小等問題,并從其他角度對(duì)結(jié)果進(jìn)行比較分析。

        2.3 實(shí)驗(yàn)結(jié)果

        本文方法的語義分割指標(biāo)如表1所示,實(shí)驗(yàn)采用的模型即是本文在UNet基礎(chǔ)上進(jìn)行修改并適應(yīng)的調(diào)整應(yīng)用于SAR圖像中的UNet-S。不同損失函數(shù)對(duì)應(yīng)的結(jié)果對(duì)比如表1所示。

        表1 語義分割評(píng)價(jià)指標(biāo)Table 1 Semantic segmentation evaluation indicators

        其中,總計(jì)是背景和艦船目標(biāo)分割結(jié)果的平均值,CE指的是是否使用交叉熵?fù)p失函數(shù),Dice代表是否使用Dice Loss損失。從表1中對(duì)比可看出,訓(xùn)練過程中使用Dice Loss能夠有效地提升語義分割效果。雖在背景上分割結(jié)果相近,但對(duì)于艦船目標(biāo)分割效果提升顯著,MPA更達(dá)到了7.3%的差距。表2和表3反映的是檢測(cè)評(píng)價(jià)指標(biāo),其中Dice代表是否使用Dice Loss損失;而AP代表的是準(zhǔn)確度,下標(biāo)數(shù)字代表的是不同閾值情況,下標(biāo)s、m和l對(duì)應(yīng)小目標(biāo)、中目標(biāo)和大目標(biāo)情況。

        表2 不同模型的平均精度指標(biāo)Table 2 Average precision indicators of different models

        表3 不同模型的平均召回率指標(biāo)Table 3 Average recall rate indicators of different models

        對(duì)比可知,本文方法在精度指標(biāo)AP上超出單階段檢測(cè)優(yōu)秀算法YOLOv4和雙階段典型算法Faster R-CNN(采用的骨干網(wǎng)絡(luò)為ResNet50),且無論目標(biāo)大小都有極高的精度。表3中AR指的是平均召回率,同樣超出YOLOv4和Faster R-CNN,最高達(dá)到33.3%的差距,可見本文所用算法的優(yōu)越性。

        圖3展示了本文方法的部分預(yù)測(cè)結(jié)果,其中圖3(a)對(duì)應(yīng)的是真實(shí)標(biāo)注框,圖3(b)對(duì)應(yīng)的是本文方法的預(yù)測(cè)結(jié)果,圖3(c)是語義分割過程中預(yù)測(cè)的掩膜。可以看出,無論是大目標(biāo)還是小目標(biāo)、復(fù)雜背景與簡(jiǎn)單背景還是稀疏情況與稠密情況下,本文方法都能得到一個(gè)很好的檢測(cè)與分割效果。

        圖3 UNet-S的檢測(cè)結(jié)果Fig.3 Detection results of UNet-S

        2.4 對(duì)比分析

        表2和表3反映了本文方法的優(yōu)越性,這可歸因于UNet-S對(duì)于艦船目標(biāo)尺度不敏感的特性。其將檢測(cè)問題轉(zhuǎn)化為語義分割問題,逐像素判斷艦船目標(biāo)和背景。因此不利于檢測(cè)方法的艦船目標(biāo)多尺度特性與小目標(biāo)檢測(cè)在此處轉(zhuǎn)化為目標(biāo)和背景的不均衡問題。通過Dice Loss損失函數(shù)可有所緩解,整體效果提升巨大。

        與此同時(shí),從表3中的模型大小可以發(fā)現(xiàn),UNet-S參數(shù)量?jī)H為94.9 M,而YOLOv4參數(shù)量為244.4 M。其他如雙階段檢測(cè)算法HRSDNet檢測(cè)效果雖好,但模型大小更達(dá)到728.2M。相對(duì)而言,本文UNet-S模型的參數(shù)量較小。

        圖4展示的是本文方法與YOLOv4的檢測(cè)框?qū)Ρ惹闆r,其中綠色框代表的是真實(shí)標(biāo)注框,紅色框?qū)?yīng)的是本文UNet-S的預(yù)測(cè)結(jié)果而黃色框是YOLOv4的檢測(cè)結(jié)果。從圖4(a)中可以看出,本文方法的預(yù)測(cè)框與真實(shí)標(biāo)注的結(jié)果基本相重合,預(yù)測(cè)的結(jié)果相對(duì)于真實(shí)框偏移極小。而圖4(b)中YOLOv4的檢測(cè)結(jié)果相對(duì)而言偏移較大。

        圖4 預(yù)測(cè)框結(jié)果對(duì)比Fig.4 Result comparisons of predicted bounding boxes

        圖5展示的是復(fù)雜背景下和多尺度目標(biāo)下,UNet-S和YOLOv4算法的檢測(cè)結(jié)果,其中標(biāo)注框顏色與前文所述一致。YOLOv4在該場(chǎng)景中漏檢兩個(gè)目標(biāo)且預(yù)測(cè)框偏移較大,而本文算法則完整地檢測(cè)出所有目標(biāo),預(yù)測(cè)框整體偏移較小。這再次說明通過語義分割的方式能夠在SAR圖像上達(dá)到很好的檢測(cè)與分割效果。

        圖5 復(fù)雜背景下檢測(cè)對(duì)比Fig.5 Detection comparisons under complex backgrounds

        3 結(jié)束語

        在諸多公開數(shù)據(jù)集的引導(dǎo)下,當(dāng)前已有許多深度學(xué)習(xí)的檢測(cè)方法用于SAR圖像中完成艦船目標(biāo)檢測(cè)等任務(wù)。但就其自身特點(diǎn)來說,均屬于遷移類方法,缺乏了對(duì)其任務(wù)自身的考量。當(dāng)前SAR圖像艦船目標(biāo)檢測(cè)只涉及定位而不涉及分類問題,且錨框等設(shè)計(jì)思路在SAR圖像中容易造成冗余、算力浪費(fèi)情況。此外,數(shù)據(jù)集本身的噪聲影響、多尺度特性以及目標(biāo)背景不均衡問題等均對(duì)檢測(cè)產(chǎn)生極大的負(fù)面影響。

        不同于當(dāng)前已有思路,本文將SAR圖像艦船檢測(cè)問題認(rèn)為是二分類問題,通過語義分割的方法實(shí)現(xiàn)了SAR圖像艦船目標(biāo)檢測(cè)分割一體化。本文避免了復(fù)雜的檢測(cè)網(wǎng)絡(luò)解碼問題以及將艦船目標(biāo)多尺度不易檢測(cè)特性轉(zhuǎn)化為目標(biāo)和背景判別問題,通過引入Dice Loss損失函數(shù)進(jìn)行優(yōu)化,在分割的同時(shí)實(shí)現(xiàn)了艦船目標(biāo)檢測(cè)。實(shí)驗(yàn)結(jié)果表明,本文方法在評(píng)價(jià)指標(biāo)上均取得了大幅提升。

        本文所有實(shí)驗(yàn)結(jié)果均基于UNet語義分割實(shí)現(xiàn),并對(duì)其進(jìn)行了部分改進(jìn),提出了UNet-S網(wǎng)絡(luò)以適用于SAR圖像中。下一步工作將考慮如何進(jìn)一步提升檢測(cè)與分割的效果以及追求更加高效的性能。

        猜你喜歡
        艦船解碼語義
        交互設(shè)計(jì)在艦船零部件智能制造中的應(yīng)用
        《解碼萬噸站》
        基于艦船使命的功能分解方法
        語言與語義
        解碼eUCP2.0
        NAD C368解碼/放大器一體機(jī)
        Quad(國(guó)都)Vena解碼/放大器一體機(jī)
        “上”與“下”語義的不對(duì)稱性及其認(rèn)知闡釋
        艦船腐蝕預(yù)防與控制系統(tǒng)工程
        認(rèn)知范疇模糊與語義模糊
        女人被弄到高潮的免费视频| 中文片内射在线视频播放| 欧洲国产精品无码专区影院| 手机在线中文字幕av| 末成年人av一区二区| 99久久国产综合精品五月天| 免费无码成人av在线播放不卡| 真人在线射美女视频在线观看| a级三级三级三级在线视频| 欧美激欧美啪啪片| 久久久精品人妻一区二区三区| 亚洲国产成人精品激情| 一区二区三区中文字幕在线观看| 国产成年人毛片在线99| 国产成人无码av一区二区| 午夜性刺激免费视频| 日韩色久悠悠婷婷综合| 一边摸一边做爽的视频17国产| 免费人成在线观看视频播放 | 免费 无码 国产精品| 五月婷婷开心五月播五月| 亚洲成熟丰满熟妇高潮xxxxx| 亚洲色偷拍区另类无码专区| 久久久久久无码AV成人影院| 少妇高潮精品在线观看| 人人妻人人狠人人爽天天综合网| 香蕉视频在线观看国产| 久久精品国产精品亚洲婷婷| 色欲一区二区三区精品a片 | 国产成人精品久久亚洲高清不卡 | 亚洲精品你懂的在线观看| 国产av一区网址大全| 情爱偷拍视频一区二区| 人妻夜夜爽天天爽三区| 精品国产一级毛片大全| 色婷婷av一区二区三区不卡| 久久久精品国产免大香伊| 亚洲va中文字幕无码久久不卡| 中日无码精品一区二区三区| 喷水白浆视频在线观看| 久久aⅴ人妻少妇嫩草影院|