亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進YOLOv3-SPP的SAR圖像艦船目標檢測

        2024-01-05 11:10:28黃強王鈺寧劉曉霞胡云冰
        遙感信息 2023年5期
        關(guān)鍵詞:特征檢測模型

        黃強,王鈺寧,劉曉霞,胡云冰

        (1.吉利學(xué)院 智能科技學(xué)院,成都 641423;2.四川水利職業(yè)技術(shù)學(xué)院 信息工程學(xué)院,四川 崇州 611231;3.廈門大學(xué) 信息學(xué)院,福建 廈門 361005)

        0 引言

        遙感技術(shù)在近些年得到深入發(fā)展,對于沿海國家來說,借助遙感圖像實現(xiàn)艦船檢測已經(jīng)成為重要的任務(wù)。合成孔徑雷達(synthetic aperture radar,SAR)是一種高分辨率成像雷達,作為主動微波成像傳感器,與光學(xué)遙感相比,SAR數(shù)據(jù)成像過程受環(huán)境因素影響較少,例如天氣、光線和云層,適應(yīng)性很強,它能在全天候、全天時的情況下進行工作[1]。隨著機載和星載SAR的快速發(fā)展,SAR已廣泛應(yīng)用于民用和軍用領(lǐng)域[2]。合成孔徑雷達圖像中的艦船目標檢測已經(jīng)成為世界各國的研究熱點,在民用和軍事上具有重要意義,例如民用領(lǐng)域中的海洋監(jiān)測和軍事領(lǐng)域中的精確制導(dǎo)武器等。

        在初始階段,大多采用傳統(tǒng)的半自動化方法進行SAR圖像艦船目標檢測研究。國內(nèi)外的研究者在傳統(tǒng)方法上進行了大量研究,提出了恒虛警率(constant false-alarm rate,CFAR)算法,并以此為基礎(chǔ),設(shè)計了基于K分布的CFAR方法,還有研究者提出了模板匹配和小波變換等方法來檢測艦船目標。然而這些傳統(tǒng)方法存在建模過程復(fù)雜、依賴度高、泛化效果不佳和檢測精度低、檢測時間較長等問題。

        近年來隨著深度學(xué)習(xí)技術(shù)在不同領(lǐng)域的快速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)憑借其強大的自動特征提取和表達能力,在計算機視覺領(lǐng)域取得了顯著的成功。與傳統(tǒng)的恒虛警率算法相比,基于深度學(xué)習(xí)的艦船檢測算法不需要復(fù)雜的建模過程,這推動SAR圖像艦船檢測從半自動進入了全自動,在未來對于雷達智能感知來說意義重大。因此引起了學(xué)者們相當大的研究興趣[3-4]。目前已有很多學(xué)者在這方面進行了研究。

        李健偉等[5]提出基于改進Faster R-CNN的模型,檢測精度達到了78.8%。蘇娟等[6]提出了基于SSD思想改進型的模型,精度可達88.1%。Jiao等[7]提出基于Faster R-CNN框架的緊密連接的多尺度神經(jīng)網(wǎng)絡(luò),該方法利用密集連接的網(wǎng)絡(luò)作為其主干來檢測艦船目標。Kang等[8]提出了一個基于區(qū)域的CNN,將上下文信息和淺層定位特征與深層語義特征結(jié)合起來,以提高艦船目標定位的準確性。顧佼佼等[9]重新設(shè)計Faster R-CNN中錨框的大小和個數(shù),來解決重復(fù)進行目標檢測的問題。張佳欣等[10]從網(wǎng)絡(luò)訓(xùn)練策略角度出發(fā),提出了一種改進YOLOv3的SAR圖像艦船目標檢測方法,來提升對不同艦船目標的適應(yīng)性。張曉玲等[11]借助YOLO網(wǎng)絡(luò)建立了深度可分離卷積網(wǎng)絡(luò)(depthwise separable convolution),并將空間注意力機制和通道相結(jié)合來提升檢測精度。

        相比于二階段檢測算法,YOLOv3規(guī)模更小,實時性更佳,易于在移動端部署。同時與YOLOv4/YOLOv5算法相比,YOLOv3算法與它們在核心思想上基本相同,但參數(shù)量更少,運算速度更快。YOLOv3-SPP兼顧了速度和精度,具有訓(xùn)練效率高的特點,對檢測多尺度目標具有優(yōu)勢,能適應(yīng)復(fù)雜場景,同時檢測性能較YOLOv3更好,能達到一個更好的檢測效果。但YOLOv3-SPP仍然不足以處理尺度差異大、小目標居多的SAR圖像。針對以上分析,于是選擇在YOLOv3-SPP基礎(chǔ)上進行改進。首先在主干特征提取網(wǎng)絡(luò)Darknet-53中的第二次下采樣層中輸出一個104×104的尺度預(yù)測,并將13×13、26×26、52×51、104×104這4個尺度進行一個緊密連接。然后結(jié)合SAR艦船數(shù)據(jù)特點,用K-median++算法重新聚類生成合適的anchor值。最后對改進前后的方法在SAR圖像艦船數(shù)據(jù)集AIR-SARShip-1.0和SSDD上進行對比實驗。

        1 YOLOv3-SPP算法

        基于卷積神經(jīng)網(wǎng)絡(luò)的目標檢測領(lǐng)域主要分為兩類。一類是基于候選區(qū)域的檢測方法,也稱兩階段方法;另一類是基于回歸思想的一階段方法。兩階段方法具有較高的精度,但計算成本較大、實時性不佳。相反,一階段方法具有訓(xùn)練快速、簡單的特點,在速度上具有絕對優(yōu)勢。

        YOLOv3作為典型的一階段目標檢測模型,其網(wǎng)絡(luò)結(jié)構(gòu)中主要包含兩部分內(nèi)容,一部分是主干網(wǎng)絡(luò)Darknet-53,用于提取輸入數(shù)據(jù)的特征,并輸出13×13、26×26、52×52這3個預(yù)測特征圖;另一部分是對提取到的特征進行分類與預(yù)測回歸的檢測網(wǎng)絡(luò)(feature pyramid network,FPN)[14],對3個尺度進行一個特征融合,增強各特征的語義表示。FPN通過Anchor機制在輸出的3個特征圖上分配9個尺度的先驗框,用于優(yōu)化網(wǎng)絡(luò)。模型輸出的3個尺度的特征圖張量會按照尺度被劃分成多個柵格,并最終通過置信度閾值和非極大值抑制(NMS)算法對網(wǎng)絡(luò)輸出進行濾波,得到最終檢測結(jié)果。

        在YOLOv3中第一個檢測頭前的第5、第6層卷積之間添加一個SPP[15]模塊(空間金字塔池化結(jié)構(gòu))就構(gòu)成了YOLOv3-SPP。這能將局部特征和全局特征在特征圖級別上加以融合,提升最終特征圖的表達能力,從而提高檢測識別效果。空間金字塔池化模塊如圖1所示,由4個并行分支組成,3個最大池化層和一個跳躍連接,這樣可以將一張圖片的多方面特征進行提取。YOLOv3-SPP整體結(jié)構(gòu)如圖2所示。

        圖1 空間金字塔池化模塊圖

        2 改進YOLOv3-SPP檢測算法

        YOLOv3-SPP的網(wǎng)絡(luò)結(jié)構(gòu)以及由傳統(tǒng)聚類算法生成的錨框并不適合用來檢測SAR圖像艦船目標。因此本文對模型的結(jié)構(gòu)進行改進并使用新的聚類算法(K-median++)來重新生成適合于艦船特征的anchor值,來共同提升模型的檢測性能。

        2.1 改進YOLOv3-SPP網(wǎng)絡(luò)模型

        在YOLOv3-SPP的主干特征提取網(wǎng)絡(luò)Darknet-53中,通過不斷的卷積下采樣來擴大感受野,最終輸出3個尺度的特征圖。通過特征金子塔網(wǎng)絡(luò)結(jié)構(gòu)(feature pyramid network,FPN)將這3個尺度進行特征融合,特征金字塔網(wǎng)絡(luò)如圖3所示。

        而在深度卷積神經(jīng)網(wǎng)絡(luò)中,低層卷積層的特征圖含有豐富的空間信息,但是語義信息較少,高層的特征圖含有較多的語義信息但是空間信息較少,而且尺度較小的目標在通過多層卷積之后,特征圖中的空間信息丟失嚴重,這樣不利于對小尺度目標的檢測。

        (1)燃氣輪機屬于旋轉(zhuǎn)葉輪式流體機械,通過壓氣機將空氣逐級增壓,送到燃燒室與噴入的燃氣混合燃燒生成高溫高壓的氣體,并在透平中膨脹做功,帶動發(fā)電機轉(zhuǎn)子高速旋轉(zhuǎn),其發(fā)電效率約20~38%。采用燃氣-蒸汽聯(lián)合循環(huán),將燃氣輪機的煙氣引入余熱鍋爐,產(chǎn)生蒸汽帶動汽輪機后,發(fā)電效率可提高到約50%。燃氣輪機的余熱形式為煙氣,煙氣溫度400~650℃。余熱利用可考慮回收煙氣用來制冷,煙氣也可以進余熱鍋爐產(chǎn)生蒸汽再供熱或制冷。

        合成孔徑雷達一般安裝在星載或機載平臺上,由于遠距離成像導(dǎo)致SAR圖像中存在大量小目標或者點目標,點目標包含很少的特征信息。YOLOv3-SPP標準輸入圖像分辨率為416像素×416像素,尺度為13×13、26×26、52×52的特征層的下采樣步長分別為32、16、8。那么理論上能檢測到的艦船目標最小分辨率為8像素×8像素。然而以SSDD[16]數(shù)據(jù)集為例,當網(wǎng)絡(luò)輸入尺寸統(tǒng)一設(shè)為416時,會有5.4%的目標存在漏檢風(fēng)險[17]。為了充分利用淺層特征中包含的小目標信息,增加網(wǎng)絡(luò)對小目標的敏感度,因此在YOLOv3-SPP的FPN模塊中增加104×104的尺度來提升對小目標的檢測性能,并最終形成4個尺度的目標預(yù)測網(wǎng)絡(luò)。

        同時有效整合語義信息和空間信息對于多尺度目標檢測至關(guān)重要。傳統(tǒng)的特征金字塔(FPN)雖然能很好地兼顧底層特征圖和高層特征圖,并能很好地勝任自然圖像中的圖像分割與目標檢測等任務(wù),但由于SAR圖像是微波遙感圖像,信息量更少,加之在圖像中艦船尺度變化更大,為了進一步提高對多尺度目標檢測能力,設(shè)計了一個緊密連接的特征金子塔網(wǎng)絡(luò),用于融合不同層次特征來增強每個尺度的語義信息。13×13的尺度不僅和26×26的尺度進行融合,也分別與52×52、104×104的尺度進行融合。26×26的尺度不僅和52×52的尺度進行融合,也同時和104×104的尺度進行融合。綜上所述,改進前后的FPN模塊如圖4、圖5所示。

        圖5 改進后FPN模塊

        2.2 K-median++聚類anchor

        對于目標檢測任務(wù),如果直接通過網(wǎng)絡(luò)模型預(yù)測目標邊界框的尺寸,會對梯度的穩(wěn)定性造成影響[18],那么就引入了anchor機制。anchor最早是在Faster R-CNN中提出的。anchor (錨框)[19]是從原有訓(xùn)練數(shù)據(jù)集中的所有真實框中根據(jù)一定方法(一般常用的是無監(jiān)督聚類K-means[20])統(tǒng)計出來的出現(xiàn)可能性比較高的形狀和尺寸。在檢測模型進行訓(xùn)練時,就可以將之前統(tǒng)計出來的數(shù)據(jù)當作先驗引入到模型中,相當于對檢測的對象加了一個范圍約束,這樣就可以避免盲猜,檢測過程就變?yōu)榱饲骯nchor與真實框的偏移,從而加速檢測模型快速收斂,提升檢測效果。anchor框如圖6所示。

        圖6 anchor框

        在原始的YOLOv3-SPP模型中,使用的anchor的值是根據(jù)VOC數(shù)據(jù)得來,VOC數(shù)據(jù)集是目標檢測領(lǐng)域中通用標準化數(shù)據(jù)集。VOC數(shù)據(jù)集中大目標有bus、bicycle,小目標有bird、cat。原始anchor分布如表1所示。YOLOv3-SPP模型中會提取出3個尺度特征,每個尺度上都有3個anchor,那么就有9組anchor值。13×13預(yù)測大目標,26×26預(yù)測中等目標,52×52預(yù)測小目標。

        表1 anchor參數(shù)分布

        而對于特定的數(shù)據(jù)集,尤其是SAR數(shù)據(jù)來說,之前的部分anchor設(shè)置就不太合理,因為在成像視角上,常規(guī)數(shù)據(jù)集是水平拍攝的光學(xué)圖像,而SAR圖像是從上到下,邊框的形狀會受到目標姿態(tài)的影響。SAR圖像數(shù)據(jù)集的邊框尺寸分布與通用數(shù)據(jù)集存在較大差異。本文將SAR圖像艦船數(shù)據(jù)集SARShip、SSDD目標尺寸進行可視化,可視化分布如圖7、圖8所示,橫坐標為寬,縱坐標為高。從圖中可見大部分艦船目標的尺度集中在0.2×0.2,且聚集緊密,說明SAR艦船數(shù)據(jù)集中以小目標為主,另外存在少數(shù)離群點。

        圖7 SARShip數(shù)據(jù)集可視化

        因此對于SAR數(shù)據(jù),需重新生成合適的anchor值,使anchor值設(shè)定能符合每個檢測層的特點。在原始YOLOv3中使用的是K-means聚類算法進行錨框聚類,在K-means算法中需要不斷地更換聚類中心,通過平均值來重新計算每個簇群的中心。當數(shù)據(jù)呈現(xiàn)出緊密聚集且存在明顯離散點的特點時,使用平均值確定聚類中心會讓處于離散點簇的中心不穩(wěn)定,很容易受噪聲點的影響。另外,在K-means算法中,需要人為進行初始聚類中心的選擇,聚類效果很容易受到初始聚類中心的影響。K-means++[21]是對K-means聚類算法的改進,能解決初始聚類中心選擇對聚類結(jié)果的影響[22]。K-median算法是在K-means的基礎(chǔ)上,將聚類中心值的選擇由均值變成了中位數(shù),這能很好避免離散點對聚類結(jié)果的影響。因此可以采用融合了二者優(yōu)點的K-median++進行錨框的設(shè)定。K-median++聚類步驟如下。

        K-median++算法重新設(shè)定錨框(anchor)步驟1:從所有樣本目標框中隨機選取一個當作初始聚類中心。步驟2:求出每一個樣本與當前已經(jīng)存在的聚類中心的最短距離,設(shè)為D,并計算此樣本被選為下一個聚類中心的概率,設(shè)為式(1)。p=D(x)2∑x∈XD(x)2(1)步驟3:采用輪盤法得出下一個聚類中心,然后重新計算每一個樣本目標框與已有聚類中心的距離。由于存在多個聚類中心,所以會存在多個距離,選取最小的距離,同時更新概率p(x)。步驟4:重復(fù)步驟2和步驟3,得出需要的k個初始anchor。步驟5:計算每一個樣本和已經(jīng)選出的k個初始an-chor之間的距離,將該樣本點歸到距離最小的類中。步驟6:更新聚類中心。用該類中樣本的中位數(shù)代替均值作為新的聚類中心。步驟7:重復(fù)步驟5和步驟6,直到所有的anchor值不再改變。

        在傳統(tǒng)的K-means算法中,兩個樣本之間的距離用的是歐式距離,這會造成大的邊界框比小的邊界框產(chǎn)生更多損失誤差。為此采用YOLO作者提出的新的距離公式,如式(2)所示。

        d(box,centroid)=1-IoU(box,centroid)

        (2)

        式中:box為各anchor box;centroid是當前簇群的聚類中心;IoU(box,centroid)為anchor和當前聚類中心的交并比。IoU的計算如式(3)所示。

        (3)

        對數(shù)據(jù)集進行預(yù)處理之后,用K-means和K-median++進行聚類實驗,并用meanIoU進行評價。對比結(jié)果如圖9所示。

        圖9 聚類實驗對比

        從圖中可以看出,隨著迭代次數(shù)增加,K-median++的meanIoU總是高于K-means的meanIoU,說明在此種場景下,K-median++優(yōu)于K-means,更適合進行錨框聚類,能獲得更合理的anchor參數(shù)。

        3 實驗及結(jié)果分析

        為了驗證本文提出方法的有效性,將改進前后的YOLOv3-SPP算法進行對比實驗,用P(準確率)、R(召回率)、mAP(平均檢測精度)、FPS(每秒檢測圖片數(shù))進行評價。

        3.1 實驗數(shù)據(jù)及實驗平臺

        本文使用的合成孔徑雷達圖像艦船數(shù)據(jù)集是AIR-SARShip-1.0和SSDD。AIR-SARShip-1.0(高分辨SAR艦船)包含31景大圖,按照PASCAL VOC的格式對數(shù)據(jù)集進行標注,標注信息經(jīng)過相關(guān)專業(yè)人員核準,數(shù)據(jù)集版權(quán)歸中國科學(xué)院空天信息創(chuàng)新研究院所有。場景中包含的類型有島礁、不同級別海況的海面、港口等,背景涵蓋近岸和遠海等多種場景。按照2∶1的比例將該數(shù)據(jù)集劃分為訓(xùn)練集和測試集。SSDD數(shù)據(jù)集由海軍航空大學(xué)公開,其分辨率的范圍在1~15 m之間,包含不同尺度、海況、傳感器類型等條件下的艦船SAR圖像,總共有1 160張圖片和2 456個艦船目標。每張圖片平均有2.12只船。按照4∶1比例將該數(shù)據(jù)集劃分為訓(xùn)練集和測試集。將對應(yīng)的.xml標注文件轉(zhuǎn)換為相應(yīng)的.txt標注文件。

        本研究的硬件實驗平臺是CPU Intel(R) Xeon(R) Silver 4110 CPU @ 2.10 GHz,GPU GeForce GTX 2080Ti 11 G顯卡。軟件平臺是Ubuntu 16.04,Pytorch 1.8.1,CUDA11.1。

        3.2 模型訓(xùn)練及評價指標

        分別訓(xùn)練YOLOv3-SPP和改進后YOLOv3-SPP。在訓(xùn)練之前,需要根據(jù)K-median++算法重新聚類anchor。由于FPN改進前輸出的是3個尺度,每個尺度有3個不同的anchor,需要生成9個anchor值。FPN改進后輸出的是4個尺度,需要生成12個anchor值。將生成的anchor加入到配置文件中。輸入圖像尺寸統(tǒng)一設(shè)為416像素×416像素。在訓(xùn)練過程中,每個batch設(shè)為16,最大迭代次數(shù)epoch設(shè)為100。訓(xùn)練的優(yōu)化器采用SGD,momentum設(shè)為0.9,初始學(xué)習(xí)率為0.002 3。訓(xùn)練過程中學(xué)習(xí)率動態(tài)改變,在進行總epoch的70%時,進行以0.1的學(xué)習(xí)率衰減,在進行總epoch的90%時,進行以0.01的學(xué)習(xí)率衰減。在模型測試時,IoU設(shè)為0.5,conf設(shè)為0.001。用單張圖片進行測試。

        3.3 實驗結(jié)果及分析

        1)改進YOLOv3-SPP對比實驗。對YOLOv3-SPP進行K-median++聚類,將模型命名為(YOLOv3-SPP-A);將改進FPN結(jié)構(gòu)后的模型命名為(YOLOv3-SPP-B);以及進行上述兩方面改進后的模型命名為(YOLOv3-SPP-C)。然后分別在AIR-SARShip-1.0數(shù)據(jù)集和SSDD數(shù)據(jù)集上進行訓(xùn)練和測試,做了4組實驗。第1組為原始YOLOv3-SPP模型的實驗情況,第2組為K-median++聚類后模型的實驗情況,第3組是改進FPN結(jié)構(gòu)后模型的實驗情況,第4組是所提模型的實驗情況。逐步改進的實驗結(jié)果如表2、表3所示。

        表2 模型在AIR-SARShip上結(jié)果比較

        表3 模型在SSDD上結(jié)果比較

        從實驗結(jié)果表2和表3中可以看出,改進后的YOLOv3-SPP在AIR-SARShip、SSDD數(shù)據(jù)集上的檢測效果均比原始模型有所提高。其中YOLOv3-SPP-A的mAP分別提升了1.3%、1.4%,表明通過K-median++算法進行anchor聚類,由于克服了離群點和初始聚類中心對檢測結(jié)果的影響,相比原始的K-means聚類,降低了漏檢率,提升了模型的檢測能力。同時因為模型網(wǎng)絡(luò)結(jié)構(gòu)沒有改變,FPS沒有發(fā)生變化。YOLOv3-SPP-B的mAP分別提升了1.6%、2.4%,表明大尺度的預(yù)測能更好地利用淺層特征的位置信息來提升對小目標的檢測性能,對不同深度的特征進行融合提升了對不同尺度目標的檢測能力。同時由于模型從原來的3個尺度變?yōu)榱?個尺度,模型結(jié)構(gòu)發(fā)生了改變,導(dǎo)致計算量增加,FPS會有所下降。融合了兩種改進的YOLOv3-SPP-C的mAP分別提升了3.2%、4.4%,效果在4種模型中最好,雖然檢測速度FPS有所下降,但仍然能滿足較高的實時性。

        2)不同圖片尺寸的改進YOLOv3-SPP實驗。為了驗證算法改進的有效性,將輸入的SAR圖像的尺寸分別設(shè)為416像素×416像素、512像素×512像素、1 024像素×1 024像素,將原模型YOLOv3-SPP與改進后的模型(YOLOv3-SPP-C)進行實驗對比。測試數(shù)據(jù)集包含232張圖片,涵蓋有500個艦船目標,實驗結(jié)果如表4所示。

        表4 不同圖片尺寸的檢測效果

        從表4中數(shù)據(jù)可以看出,在圖像輸入尺寸為416像素×416像素、512像素×512像素、1 024像素×1 024像素時,改進后的模型與原模型相比,mAP分別提高了0.032、0.026、0.024。由于輸入圖片尺寸增大,檢測速度FPS有所降低,但在416像素×416像素和512像素×512像素時,依然能滿足較高的檢測實時性。

        3)改進算法與其他算法對比。為了進一步驗證改進算法的有效性,將輸入圖片的尺寸統(tǒng)一設(shè)為416像素×416像素,在AIR-SARShip-1.0數(shù)據(jù)集上對改進后的算法與DCENN[23]、Faster-RCNN[24]、SSD[25]、YOLOv3、CenterNet等經(jīng)典檢測算法進行對比實驗,另外引入了YOLO的最新系列(YOLOv4、YOLOv5、YOLOX)進行對照,實驗結(jié)果如表5所示。

        表5 不同算法檢測結(jié)果對比

        從表5可以看出,在檢測精度上,本文提出方法的精度達到了0.905,超過了上述其他檢測方法,在檢測速度上低于YOLO系列。與YOLO系列中的最新YOLOv4、YOLOv5、YOLOX相比,本文提出的方法雖然在檢測速度上不如他們,但檢測的精度更高。實驗結(jié)果表明,本文提出的方法在較好的實時性的情況下具有更好的檢測效果。

        4) SAR圖像艦船檢測結(jié)果。圖10展示了本文改進后的模型分別在AIR-SARShip-1.0數(shù)據(jù)集中的3種場景下的部分檢測結(jié)果。左邊(紅色)是真實目標艦船存在的情況,中間(黃色)是YOLOv3-SPP的檢測結(jié)果,右邊(藍色)是改進模型的檢測結(jié)果。圖10(a)展示了復(fù)雜近岸目標的檢測情況,圖10(b)展示了遠海不同尺寸目標的檢測情況,圖10(c)展示了遠海小目標的檢測情況??梢钥闯?在檢測近岸目標時,受到復(fù)雜背景的干擾,原模型存在漏檢的情況,而改進后的模型正確檢測出了停在岸邊的艦船目標;在檢測遠海不同尺寸的目標時,原模型忽略了一些較小目標,而改進后的模型能很好地檢測出不同尺度目標;在檢測遠海小目標時,原模型漏檢了目標艦船,而改進后的模型對小目標具有很好的檢測效果。

        圖10 改進方法在AIR-SARShip數(shù)據(jù)集上檢測情況

        4 結(jié)束語

        針對SAR圖像艦船目標尺度差異大、小目標偏多的問題,本文提出了改進的YOLOv3-SPP的檢測算法,在保證較高的實時性的情況下,提升了對SAR圖像艦船目標的檢測精度,與其他算法相比證明了該算法的有效性。這為SAR數(shù)據(jù)場景下的實時艦船目標檢測提供了新的解決思路,為機載SAR或星載SAR的快速目標檢測奠定了理論基礎(chǔ)。但同時,本文的算法在檢測近岸復(fù)雜背景下的艦船目標時,依然存在虛警率較高的問題,說明對近岸目標的檢測還存在一定的提升空間。另外,該算法在體積大小上略顯冗余,在實時性上還有提升價值。為方便模型在未來實際場景中的部署,下一步工作將模型規(guī)模與檢測精度相統(tǒng)一,探討如何在保證精度不丟失情況下對模型進行輕量化。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        3D打印中的模型分割與打包
        国产av一级片在线观看| 小妖精又紧又湿高潮h视频69| 精品亚洲成a人无码成a在线观看| 天堂√中文在线bt| 久久精品国产热久久精品国产亚洲| 成人激情视频一区二区三区| 性色视频加勒比在线观看| 成人区人妻精品一区二区不卡网站| 最近高清中文在线字幕观看| 少妇高潮惨叫久久久久电影| 午夜精品一区二区三区av免费| 国产亚洲精品久久情侣| 精品人妻午夜一区二区三区四区 | 视频在线观看一区二区三区| 女人让男人桶爽30分钟| 国产网站视频| 精品专区一区二区三区| 亚洲天堂成人av在线观看| 天堂国精产品2023年| 538任你爽精品视频国产| 中文字幕丰满人妻被公强| 欧美丰满熟妇xxxx性ppx人交| 日本不卡在线视频二区三区| 久久久亚洲精品蜜桃臀| 精品少妇人妻av一区二区蜜桃 | 蜜桃传媒网站在线观看| 久久综合九色综合97欧美| 午夜一级在线| 日本顶级片一区二区三区| 人妻中文字幕乱人伦在线| 天天躁日日躁狠狠躁av中文| 久久久精品国产亚洲麻色欲 | 国产成人精品亚洲日本在线观看| 婷婷综合缴情亚洲| 秋霞国产av一区二区三区| 黄污在线观看一区二区三区三州| 亚洲国产成人久久综合下载| 亚洲av影院一区二区三区四区| 激情五月开心五月啪啪| 亚洲国产成人片在线观看| 日韩高清无码中文字幕综合一二三区 |