亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的光學(xué)遙感影像艦船檢測(cè)算法對(duì)比分析

        2021-06-28 01:37:58夏文輝萬(wàn)劍華鄭紅霞許明明曲川萍
        海洋科學(xué) 2021年5期
        關(guān)鍵詞:艦船精度特征

        夏文輝, 萬(wàn)劍華, 鄭紅霞, 許明明, 曲川萍

        基于深度學(xué)習(xí)的光學(xué)遙感影像艦船檢測(cè)算法對(duì)比分析

        夏文輝, 萬(wàn)劍華, 鄭紅霞, 許明明, 曲川萍

        (中國(guó)石油大學(xué)(華東) 海洋與空間信息學(xué)院, 山東 青島 266580)

        艦船目標(biāo)檢測(cè)是進(jìn)行海洋環(huán)境監(jiān)管, 保障海上權(quán)益的重要手段?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)算法能在復(fù)雜環(huán)境下保持良好性能, 為測(cè)試不同深度學(xué)習(xí)目標(biāo)檢測(cè)算法在艦船檢測(cè)中的效果, 構(gòu)建了一個(gè)包含3 893張圖像的數(shù)據(jù)集, 涵蓋了復(fù)雜背景下不同類型的艦船, 基于此數(shù)據(jù)集分別采用Faster RCNN、SSD、RetinaNet、YOLOv3、YOLOv4算法進(jìn)行實(shí)驗(yàn), 結(jié)果表明, YOLOv4、YOLOv3、RetinaNet、Faster RCNN平均精度均在83%以上, 其中YOLOv4最高達(dá)到91.77%, Faster RCNN誤檢較多, 而SSD平均精度最低, 只有79.23%, 總的艦船檢測(cè)數(shù)目偏少。將5種模型訓(xùn)練結(jié)果在高分二號(hào)影像上進(jìn)行測(cè)試, 得到較好的檢測(cè)效果, 對(duì)艦船檢測(cè)未來理論研究的開展具有一定的指導(dǎo)意義。

        遙感; 目標(biāo)檢測(cè); 艦船; 深度學(xué)習(xí)

        艦船作為海上重要的運(yùn)輸載體, 其自動(dòng)檢測(cè)具有非常重要的現(xiàn)實(shí)意義[1]?,F(xiàn)有的艦船研究工作大部分都是基于SAR影像[2-3], 而光學(xué)遙感影像與SAR影像相比具有更高的分辨率和更直觀的圖像可讀性, 能夠提供更豐富的細(xì)節(jié)信息。因此, 基于光學(xué)遙感影像的艦船目標(biāo)檢測(cè)逐漸成為研究熱點(diǎn)[4]。

        傳統(tǒng)艦船檢測(cè)方法主要包括海陸分割、艦船預(yù)檢與艦船識(shí)別3個(gè)流程, 其主要通過提取艦船目標(biāo)的灰度特征、形狀特征、紋理特征等進(jìn)行多特征聯(lián)合檢測(cè)。Zhu等基于形狀和紋理特征并引入紋理算子局部多值模式(local multiple patterns, LMP)來增強(qiáng)特征集在特征提取中的表示能力[5]。彭敬濤等融合了艦船目標(biāo)的形狀、灰度、紋理和梯度等多特征信息[6]。王慧利等[7]提出一種新的表征艦船特性的邊緣?方向梯度直方圖特征對(duì)艦船目標(biāo)進(jìn)行描述。然而傳統(tǒng)光學(xué)遙感手段無(wú)法對(duì)目標(biāo)特性準(zhǔn)確描述﹐檢測(cè)魯棒性差, 虛警率高, 受云霧、波浪、雜波等因素影響嚴(yán)重。

        目前目標(biāo)檢測(cè)領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類, 即雙階段目標(biāo)檢測(cè)算法和單階段目標(biāo)檢測(cè)算法。作為雙階段檢測(cè)算法代表, Faster RCNN[8]在RCNN[9]、Fast RCNN[10]基礎(chǔ)上創(chuàng)造性地使用RPN網(wǎng)絡(luò)生成建議框, 速度跟精度都得到大幅改善, 并實(shí)現(xiàn)了端到端的檢測(cè), 取得較高精度。相較于帶有候選區(qū)域提取的雙階段檢測(cè)方法, 基于回歸的單階段方法如YOLO[11]、SSD[12]等算法, 在檢測(cè)速度上具有更大的優(yōu)勢(shì), 但準(zhǔn)確性偏低。RetinaNet[13]提出Focal loss改進(jìn)交叉熵?fù)p失來提升單階段檢測(cè)的精度。YOLOv3[11]保持檢測(cè)速度的同時(shí)提高了該系列對(duì)小目標(biāo)檢測(cè)識(shí)別的準(zhǔn)確率, 2020年推出的YOLOv4[14]引用各種優(yōu)化策略, 形成一個(gè)高效而強(qiáng)大的模型。基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法, 能夠充分提取檢測(cè)目標(biāo)的底層特征, 模型的泛化能力很強(qiáng), 能在復(fù)雜環(huán)境下保持很好的魯棒性?,F(xiàn)有光學(xué)遙感影像艦船的公開數(shù)據(jù)集較少, Liu等[15]制作的HRSC2016數(shù)據(jù)集在艦船識(shí)別領(lǐng)域應(yīng)用較廣, 該數(shù)據(jù)集主要包含軍艦、商船等大型艦船, 可以較好地應(yīng)用于大中型艦船的類型識(shí)別, 但該數(shù)據(jù)集缺乏小型艦船的截取標(biāo)定, 而小目標(biāo)的檢測(cè)是衡量深度學(xué)習(xí)目標(biāo)檢測(cè)性能的一個(gè)重要指標(biāo)。因此本文構(gòu)建了復(fù)雜背景下不同類型艦船的數(shù)據(jù)集, 基于此數(shù)據(jù)集對(duì)Faster RCNN、SSD、RetinaNet、YOLOv3、YOLOv4五種算法進(jìn)行實(shí)驗(yàn)對(duì)比分析, 并將模型訓(xùn)練結(jié)果在高分二號(hào)影像上進(jìn)一步測(cè)試, 為艦船目標(biāo)的實(shí)際檢測(cè)應(yīng)用提供參考。

        1 方法

        1.1 Faster RCNN

        1.2 SSD

        作為單階段檢測(cè)器的代表, 有明顯的速度優(yōu)勢(shì)。圖像輸入到VGG16骨干網(wǎng)絡(luò)獲取不同大小的特征圖,從中抽取6層特征圖用于檢測(cè)不同尺度的目標(biāo),特征圖經(jīng)過卷積感受野不斷增大,對(duì)不同尺度特征圖預(yù)測(cè)分類從而達(dá)到多尺度檢測(cè)的目的。

        1.3 RetinaNet

        RetinaNet由特征提取網(wǎng)絡(luò)、特征金字塔網(wǎng)絡(luò)(FPN)、分類和邊框回歸網(wǎng)絡(luò)組成, 在特征提取殘差網(wǎng)絡(luò)ResNet基礎(chǔ)上利用FPN來構(gòu)成多尺度卷積特征金字塔, 同時(shí)提出了Focal loss來解決單階段檢測(cè)器存在的類別失衡問題, Focal loss計(jì)算方式如下:

        1.4 YOLOv3

        YOLOv3基礎(chǔ)網(wǎng)絡(luò)采用Darknet-53, 網(wǎng)絡(luò)結(jié)構(gòu)層非常深入, 沒有使用池化層、全連接層, 在一些層之間設(shè)置了快捷鏈路, 可有效抑制算法的過擬合現(xiàn)象, 減少了計(jì)算量, 提高了速度, 利用多尺度特征結(jié)合不同大小的感受野對(duì)各種大小對(duì)象進(jìn)行檢測(cè)。

        1.5 YOLOv4

        YOLOv4在YOLOv3基礎(chǔ)上做出較大改進(jìn), 為了提升準(zhǔn)確度, 在主干網(wǎng)絡(luò)、激活函數(shù)、損失函數(shù)等多個(gè)方面進(jìn)行優(yōu)化。核心主干網(wǎng)絡(luò)采用CSPDarknet53,借鑒CSPNet結(jié)構(gòu)簡(jiǎn)潔準(zhǔn)確度高的經(jīng)驗(yàn), 在Darknet53殘差塊上加入CSP, 將基礎(chǔ)層的特征映射劃分為兩部分并通過跨階段結(jié)構(gòu)合并, 在減少計(jì)算量的同時(shí)保證準(zhǔn)確率。在骨干網(wǎng)絡(luò)上添加了SPP塊擴(kuò)大感受野分離出最顯著的上下文特征, 在3個(gè)有效特征層上使用PANet作為參數(shù)聚合方法, 充分利用特征提取信息, 具體結(jié)構(gòu)如圖1所示。

        圖1 YOLOv4結(jié)構(gòu)示意圖

        2 實(shí)驗(yàn)

        2.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)

        本實(shí)驗(yàn)采用的是64位Win10系統(tǒng), 計(jì)算機(jī)配置GPU為NVIDIA GeForce GTX 1080TI, 顯存為11 GB, 深度學(xué)習(xí)框架使用PyTorch和Keras。豐富樣本集的學(xué)習(xí)是支撐深度學(xué)習(xí)檢測(cè)算法發(fā)揮高性能的基礎(chǔ), 公開的HRSC2016樣本集艦船大部分處于海域港口, 船舶類型多為軍艦、大中型船只, 本文構(gòu)建的艦船數(shù)據(jù)集包含全球范圍內(nèi)各海域, 艦船目標(biāo)的場(chǎng)景、種類更加豐富。樣本集的3 893張影像來源于Arcgis online的world imagery, 分辨率達(dá)到0.3 m到1 m, 影像尺寸均為1 000×600, 涵蓋了各種復(fù)雜背景下不同類型的艦船, 樣本數(shù)據(jù)集整體情況如圖2所示。

        圖2 樣本數(shù)據(jù)集影像示意圖

        使用Labelimg工具進(jìn)行標(biāo)注, 影像中包含艦船8 098只, 艦船大小對(duì)應(yīng)個(gè)數(shù)統(tǒng)計(jì)結(jié)果如圖3所示, 可以發(fā)現(xiàn)數(shù)據(jù)集包含艦船大小、種類豐富, 因此可以較好地對(duì)深度學(xué)習(xí)算法性能進(jìn)行測(cè)試。

        圖3 艦船大小統(tǒng)計(jì)示意圖

        2.2 實(shí)驗(yàn)結(jié)果與分析

        將數(shù)據(jù)集3 116張用于訓(xùn)練, 777張用于測(cè)試, 采用該數(shù)據(jù)集對(duì)Faster RCNN、SSD、RetinaNet、YOLOv3、YOLOv4進(jìn)行測(cè)試, 為了準(zhǔn)確預(yù)估算法檢測(cè)效果, 取置信度為0.3對(duì)艦船檢測(cè)數(shù)目進(jìn)行統(tǒng)計(jì)。不同置信度下獲得多組精確率(precision)和召回率(recall)繪制PR曲線, 計(jì)算平均精度mAP值進(jìn)行精度評(píng)價(jià)[16-17]。

        檢測(cè)結(jié)果統(tǒng)計(jì)如表1所示, YOLOv4平均精度達(dá)到91.77%, 遠(yuǎn)高于其他算法, 能準(zhǔn)確檢測(cè)出大部分船只, 并且誤檢數(shù)較少。YOLOv3、RetinaNet、Faster RCNN平均精度接近, 均在83%以上, 其中Faster RCNN能檢測(cè)出更多的艦船, 但誤檢偏多。而SSD平均精度只有79.23%, 檢測(cè)性能較差, 總的檢測(cè)數(shù)目偏少。

        選取了幾張復(fù)雜背景下包含多種尺寸艦船的影像進(jìn)行測(cè)試, 從上到下依次為a、b、c、d 4個(gè)場(chǎng)景, 影像測(cè)試結(jié)果如圖4所示:

        表1 各算法檢測(cè)結(jié)果統(tǒng)計(jì)表

        圖4 復(fù)雜背景下不同算法檢測(cè)效果示意圖

        注: a—d: 4個(gè)復(fù)雜背景下的影像; A: Faster RCNN; B: SSD; C: RetinaNet; D: YOLOv3; E: YOLOv4

        SSD、YOLO作為單階段檢測(cè)器, 具有明顯的速度優(yōu)勢(shì), 都采用多尺度結(jié)構(gòu), 但測(cè)試中YOLOv3、YOLOv4檢測(cè)性能明顯優(yōu)于SSD。這是由于SSD網(wǎng)絡(luò)層數(shù)較少, 不能對(duì)艦船特征信息進(jìn)行有效提取, 同時(shí)訓(xùn)練時(shí)會(huì)受到負(fù)樣本影響, 導(dǎo)致訓(xùn)練時(shí)學(xué)習(xí)特征效果不好, 輸入尺寸較小也會(huì)影響到艦船特征的表達(dá)。相比之下, YOLO系列深層卷積網(wǎng)絡(luò)結(jié)合快捷鏈路能對(duì)特征信息有效提取, 背景信息及干擾因素較好區(qū)分出來, 多層次的結(jié)構(gòu)對(duì)小物體也能進(jìn)行有效檢測(cè)。YOLOv4作為一個(gè)高效而強(qiáng)大的目標(biāo)檢測(cè)算法, 其在原有YOLOv3目標(biāo)檢測(cè)算法的基礎(chǔ)上采用多種優(yōu)化策略, 進(jìn)一步提升了該系列的效果和精度, 因而取得不錯(cuò)的效果, 圖4四個(gè)場(chǎng)景中的艦船均能準(zhǔn)確檢測(cè)。

        Faster RCNN和RetinaNet平均精度較高, 檢測(cè)性能較好, 對(duì)于圖4b、4d場(chǎng)景的艦船檢測(cè)效果較好, 但在圖4a、4c場(chǎng)景測(cè)試中小型艦船的檢測(cè)效果一般。Faster RCNN由于其骨干提取網(wǎng)絡(luò)提取能力不足, RPN網(wǎng)絡(luò)采用的是多次卷積后形成的特征圖, 像素感受野較大, 對(duì)于面積較小的物體檢測(cè)效果不好。同時(shí)不同大小候選框池化到統(tǒng)一尺寸, 對(duì)目標(biāo)特征描述也會(huì)存在偏差。RetinaNet作為單階段檢測(cè)方法針對(duì)類別不均衡問題做出改進(jìn), 由于通過層層卷積與融合形成多層金字塔, 不同金字塔層錨框大小從32×32到512×512, 最小錨框?qū)?yīng)原影像32×32大小的窗口, 對(duì)于過小目標(biāo)不能進(jìn)行有效檢測(cè)。同時(shí)RetinaNet測(cè)試中誤檢較少, 說明骨干網(wǎng)絡(luò)ResNet結(jié)合FPN網(wǎng)絡(luò)形成的多尺度卷積特征金字塔對(duì)影像特征能夠有效提取, 將復(fù)雜背景干擾因素很好的區(qū)分出來。

        作為效果最優(yōu)的YOLOv4在各背景環(huán)境下均能準(zhǔn)確檢測(cè)出艦船, 然而對(duì)于并排艦船, 也未能取得理想的效果, 如圖5所示。

        圖5 YOLOv4并排艦船檢測(cè)效果示意圖

        注: a—c: 3個(gè)包含并排艦船的復(fù)雜背景影像

        2.3 高分二號(hào)影像測(cè)試

        將5種模型訓(xùn)練結(jié)果對(duì)高分二號(hào)影像數(shù)據(jù)進(jìn)行測(cè)試, 本文采用的是2020年7月25日高分二號(hào)衛(wèi)星拍攝青島沿海某區(qū)域的影像數(shù)據(jù), 空間分辨率為1 m, 影像情況如圖6所示。

        圖6 高分二號(hào)影像示意圖

        影像中包含艦船40只, 取置信度為0.3對(duì)艦船數(shù)目進(jìn)行統(tǒng)計(jì), 并使用品質(zhì)因數(shù)進(jìn)行定量評(píng)價(jià)分析:

        式中:N為正確檢測(cè)的艦船數(shù)目;N為虛警數(shù)目;N為測(cè)試集中真實(shí)艦船數(shù)目。能同時(shí)考慮到檢測(cè)率和虛警率, 對(duì)應(yīng)值越高表示檢測(cè)性能越好。測(cè)試結(jié)果如表2所示, 可以看出, YOLOv4品質(zhì)因數(shù)遠(yuǎn)高于其他幾種算法, 達(dá)到90.48%, YOLOv3、RetinaNet、Faster RCNN品質(zhì)因數(shù)接近保持在80%以上, SSD品質(zhì)因數(shù)較低, 僅有70.45%。

        表2 高分2號(hào)影像測(cè)試結(jié)果

        圖7展示了該高分二號(hào)影像中各模型實(shí)際測(cè)試效果, 可以看出, YOLOv4幾種場(chǎng)景中均能準(zhǔn)確檢測(cè)到艦船, YOLOv3、RetinaNet、Faster RCNN能檢測(cè)到較多艦船, 但Faster RCNN誤檢偏多, SSD準(zhǔn)確檢測(cè)到艦船數(shù)較少。

        圖7 高分二號(hào)影像不同算法檢測(cè)效果示意圖

        注: a—c: 3個(gè)復(fù)雜背景下的影像; A: Faster RCNN; B: SSD; C: RetinaNet; D: YOLOv3; E: YOLOv4

        3 結(jié)論

        本文構(gòu)建了復(fù)雜背景下不同類型艦船的數(shù)據(jù)集, 在對(duì)深度學(xué)習(xí)中的目標(biāo)檢測(cè)算法理論總結(jié)與分析基礎(chǔ)上, 分別采用Faster RCNN、SSD、YOLOv3、RetinaNet、YOLOv4五種算法在構(gòu)建數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對(duì)比, 得出以下結(jié)論:

        1) YOLOv4相比其他算法能達(dá)到較高的精度, 在YOLOv3基礎(chǔ)上采用多種優(yōu)化策略進(jìn)一步提高了該系列精度。同時(shí)作為單階段檢測(cè)器具有速度優(yōu)勢(shì), 魯棒性較好, 該系列深層卷積網(wǎng)絡(luò)結(jié)合快捷鏈路能對(duì)特征信息有效提取, 將背景信息及干擾因素較好區(qū)分出來, 多層次結(jié)構(gòu)能有效檢測(cè)小目標(biāo)。SSD效果較差, 淺層卷積網(wǎng)絡(luò)不能有效地提取目標(biāo)特征信息, 在復(fù)雜背景下對(duì)艦船不能有效地檢測(cè)。

        2) 幾種算法都存在不同程度的誤檢, 復(fù)雜背景會(huì)對(duì)目標(biāo)檢測(cè)器效果產(chǎn)生影響, 通過優(yōu)化檢測(cè)器對(duì)特征信息有效提取可以減少誤檢。同時(shí)對(duì)于密集排列的艦船, 幾種目標(biāo)檢測(cè)算法都不能很好地解決, 效果不佳, 如何對(duì)并排艦船進(jìn)行有效提取是一個(gè)重要研究方向。

        [1] 王彥情, 馬雷, 田原. 光學(xué)遙感圖像艦船目標(biāo)檢測(cè)與識(shí)別綜述[J]. 自動(dòng)化學(xué)報(bào), 2011, 37(9): 1029-1039.

        Wang Yanqing, Ma Lei, Tian Yuan. Overview of ship target detection and recognition in optical remote sensing images[J]. Acta Automatica Sinica, 2011, 37(9): 1029-1039.

        [2] Eldhuset K. An automatic ship and ship wake detection system for spaceborne SAR images in coastal regions[J]. IEEE Transactions on Geoscience and Remote Sensing, 1996, 34(4): 1010-1019.

        [3] Wang Y, Liu H. A hierarchical ship detection scheme for high-resolution SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2012, 50(10): 4173-4184.

        [4] 尹雅, 黃海, 張志祥, 等. 基于光學(xué)遙感圖像的艦船目標(biāo)檢測(cè)技術(shù)研究[J]. 計(jì)算機(jī)科學(xué), 2019, 46(3): 82-87.

        Yin Ya, Huang Hai, Zhang Zhixiang, et al. Research on ship target detection technology based on optical remote sensing image[J]. Computer Science, 2019, 46(3): 82-87.

        [5] Zhu Changren, Zhou Hui, Wang Runsheng, et al. A novel hierarchical method of ship detection from spaceborne optical image based on shape and texture features[J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(9): 3446-3456.

        [6] 彭敬濤. 光學(xué)遙感圖像艦船目標(biāo)檢測(cè)技術(shù)的研究[D]. 上海: 東華大學(xué), 2017.

        Peng Jingtao. Research on ship target detection technology in optical remote sensing image[D].Shang Hai: Donghua University, 2017.

        [7] 王慧利, 朱明, 藺春波, 等. 光學(xué)遙感圖像中復(fù)雜海背景下的艦船檢測(cè)[J]. 光學(xué)精密工程, 2018, 26(3): 723-732.

        Wang Huili, Zhu Ming, Lin Chunbo, et al. Ship detection in complex sea background in optical remote sensing image[J]. Optics and Precision Engineering, 2018, 26(3): 723-732.

        [8] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with regionproposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

        [9] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//computer vision and pattern recognition, Columbus, 2014: 580-587.

        [10] Girshick R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision(ICCV), Santiago Chile, December 7-13, 2015: 1440-1448.

        [11] Redmon J, Farhadi A. YOLOv3: an incremental improvement[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2018. https://arxiv.org/ pdf/1804.02767.pdf.

        [12] Liu W, Anguelov D, Erhan D, et al. SSD: single shot multiBox detector[C]//European Conference on Computer Vision, Amsterlam, Netherlans, 2016: 21-37.

        [13] Lin T, Goyal P, Girshick R, et al. Focal loss for dense object detection[C]//Proceedings of the IEEE International Conference on Computer Vision, Venice, 2017: 2999-3007.

        [14] Bochkovskiy A, Wang C, Liao H. YOLOv4: Optimal Speed and Accuracy of Object Detection[C]//Internal-tional Conference on Computer Vision and Pattern Recogintion, 2020. https://arxiv.org/abs/2004. 10934.

        [15] Liu Z, Yuan L, Weng L, et al. A high resolution Optical satellite image dataset for Ship recognition and some new baselines[C]//Proceedings of the 6thInternational Conference on Pattern Recognition Applications & Methods-ICPRAM, 324-331, Porto, Portugal, 2017.

        [16] 余東行, 郭海濤, 張保明, 等. 級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的遙感影像飛機(jī)目標(biāo)檢測(cè)[J]. 測(cè)繪學(xué)報(bào), 2019, 48(8): 1046-1058.

        Yu Dongxing, Guo Haitao, Zhang Baoming, et al. Aircraft target detection in remote sensing image based on cascade convolution neural network[J]. Acta Geodae-tica et Cartographica Sinica, 2019, 48(8): 1046-1058.

        [17] 李宸堯, 郭海濤, 馬東洋, 等. 深度學(xué)習(xí)遙感影像油罐檢測(cè)算法精度對(duì)比分析[J]. 海洋測(cè)繪, 2020, 40(2): 53-56.

        Li Chenyao, Guo Haitao, Ma Dongyang, et al. Accuracy comparison and analysis of oil tank detection algorithm based on deep learning remote sensing image[J]. Hydrographic Surveyingand Charting, 2020, 40(2): 53-56.

        Comparative analysis of ship detection algorithms based on deep learning in optical remote sensing images

        Xia Wen-hui, WAN Jian-hua, ZHENG Hong-xia, Xu Ming-ming, Qu Chuan-ping

        (China University of Petroleum, Qingdao 266580, China)

        Ship target detection is an important means to supervize a marine environment and protect maritime rights and interests. A target detection algorithm based on deep learning can maintain good performance in a complex environment. This study describes the construction of a dataset containing 3, 893 images, covering different types of ships in a complex background. Based on this dataset, the performances of Faster RCNN, SSD, RetinaNet, YOLOv3, and YOLOv4 algorithms are examined. The results show that the mean average precision of YOLOv4, YOLOv3, RetinaNet, and Faster RCNN are above 83%. Furthermore, YOLOv4 reached 91.77%, Faster RCNN produced more false detections, and SSD achieved the lowest mean average precision, only 79.23%, with a low total number of ship detections. The training results of the five models are tested on a GF-2 image, with good detection results obtained; these results have certain guiding significance for the future theoretical research of ship detection.

        remote sensing; target detection; ship; deep learning

        Nov. 8, 2020

        P237

        A

        1000-3096(2021)05-0096-07

        10.11759/hykx20201108009

        2020-11-08;

        2020-12-02

        國(guó)家重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2017YFC1405600)

        [National Key Research and Development Program Plan, No. 2017YFC1405600]

        夏文輝(1996—), 男, 山東青島人, 碩士研究生, 主要從事艦船檢測(cè)識(shí)別研究, E-mail: 1721760100@qq.com; 萬(wàn)劍華(1966—),通信作者, 男, 山東單縣人, 教授, 主要從事3S技術(shù)應(yīng)用方面的研究, E-mail: wjh66310@163.com

        (本文編輯: 趙衛(wèi)紅)

        猜你喜歡
        艦船精度特征
        艦船通信中的噪聲消除研究
        艦船測(cè)風(fēng)傳感器安裝位置數(shù)值仿真
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        抓住特征巧觀察
        GPS/GLONASS/BDS組合PPP精度分析
        艦船腐蝕預(yù)防與控制系統(tǒng)工程
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        综合色免费在线精品视频| 91伊人久久| www.日本一区| 亚洲av无码第一区二区三区| 尤物视频一区二区| 中文字幕精品永久在线| 久久老熟女乱色一区二区 | 伊人加勒比在线观看视频| 国产av自拍视频在线观看| 国产精品天干天干综合网| 成人片黄网站色大片免费观看cn| 无码天堂亚洲国产av麻豆| 日本岛国精品中文字幕| 日本久久大片中文字幕| 粉嫩av国产一区二区三区| 日本大片在线看黄a∨免费| 中文字幕无码免费久久9一区9 | 亚洲成在人线久久综合| 视频一区二区三区中文字幕狠狠| 白白色发布的在线视频| 亚洲av无码一区二区三区人| 91av精品视频| 亚洲欧美中文v日韩v在线| 亚洲精品熟女av影院| 91精品国产一区国产二区久久| 亚洲精品成人av在线| 中文字幕爆乳julia女教师| 毛片av在线播放亚洲av网站| 精品国产av一区二区三区| 中国妇女做爰视频| 亚洲狠狠婷婷综合久久| 亚洲AV专区一专区二专区三| 在教室轮流澡到高潮h免费视| 成人午夜特黄aaaaa片男男| 国产成人午夜精品免费视频| 国产免费人成网站在线播放| 中文日本强暴人妻另类视频| 一本一道av无码中文字幕麻豆 | 国产亚洲美女精品久久| 亚洲中文字幕一区精品| 97日日碰曰曰摸日日澡|