亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        衛(wèi)星視頻艦船目標(biāo)檢測(cè)方法

        2021-06-28 01:27:58馳,朝,
        海洋科學(xué) 2021年5期
        關(guān)鍵詞:先驗(yàn)艦船卷積

        張 馳, 王 朝, 盛 輝

        衛(wèi)星視頻艦船目標(biāo)檢測(cè)方法

        張 馳1, 王 朝2, 盛 輝1

        (1. 中國(guó)石油大學(xué)(華東)海洋與空間信息學(xué)院, 山東 青島 266580; 2. 青島市勘察測(cè)繪研究院, 山東 青島 266000)

        艦船目標(biāo)檢測(cè)是進(jìn)行海上目標(biāo)監(jiān)管, 保障海上權(quán)益的重要手段。本文在SSD(single shot multibox detector)算法的基礎(chǔ)上, 利用殘差網(wǎng)絡(luò)(ResNet, residual network)作為骨干網(wǎng)絡(luò)構(gòu)建SSD模型, 將改進(jìn)后的SSD算法應(yīng)用于衛(wèi)星視頻艦船目標(biāo)檢測(cè), 該算法采用殘差連接替換原本的級(jí)聯(lián)方式, 加強(qiáng)前后特征之間的聯(lián)系, 減少模型參數(shù), 在保證檢測(cè)精度的同時(shí)提高檢測(cè)速度。在本文構(gòu)建的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn), 結(jié)果表明, 改進(jìn)后的SSD算法在測(cè)試集上的均值平均精度(mAP, mean average precision)為93%, 比原始SSD算法提高了5.31%, 充分證明了該方法對(duì)于提升SSD模型性能的有效性。使用“吉林一號(hào)”視頻03星圖像進(jìn)行驗(yàn)證, 結(jié)果表明, 該算法能夠較準(zhǔn)確地檢測(cè)到艦船目標(biāo), 可為海上復(fù)雜環(huán)境條件下的艦船實(shí)時(shí)檢測(cè)提供參考。

        衛(wèi)星視頻; 目標(biāo)檢測(cè); 艦船; 深度學(xué)習(xí)

        海面是重要的經(jīng)濟(jì)區(qū)域, 在軍事和民用領(lǐng)域具有顯著的地位。艦船是海上交通運(yùn)輸以及裝備的主要載體, 對(duì)其進(jìn)行快速和精確的檢測(cè)在沿海監(jiān)管和防御等領(lǐng)域具有重要意義[1]。視頻衛(wèi)星作為一種新型的對(duì)地觀測(cè)衛(wèi)星, 與傳統(tǒng)遙感衛(wèi)星相比, 其最大的特點(diǎn)是可以對(duì)某一區(qū)域進(jìn)行“凝視”觀測(cè), 以“視頻錄像”的方式實(shí)時(shí)獲取動(dòng)態(tài)信息, 并實(shí)時(shí)傳輸至用戶, 特別適于監(jiān)視動(dòng)態(tài)目標(biāo), 分析目標(biāo)位置變化特性[2]。

        傳統(tǒng)視頻目標(biāo)檢測(cè)方法主要有幀間差分法、背景建模法、光流法等。Kopsiaftis等[3]針對(duì)Skysat-1衛(wèi)星視頻, 利用背景差分法將當(dāng)前幀與背景模板進(jìn)行計(jì)算得到待檢測(cè)目標(biāo), 檢測(cè)完整度為80%, 精度為80%, 但是難以適應(yīng)海量數(shù)據(jù)。張過(guò)等[4]利用“吉林一號(hào)”衛(wèi)星視頻數(shù)據(jù), 在經(jīng)典算法隨機(jī)鄰域和區(qū)域匹配法的基礎(chǔ)上, 結(jié)合光流法的運(yùn)動(dòng)矢量輔助并加以精化處理取得較好的效果, 但是光流法計(jì)算量較大, 很難應(yīng)用到遙感衛(wèi)星視頻目標(biāo)的實(shí)時(shí)檢測(cè)中。

        隨著目標(biāo)檢測(cè)在計(jì)算機(jī)視覺(jué)領(lǐng)域的發(fā)展, 各類硬件水平不斷提高, 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法逐漸成為主流, 主要算法有Faster RCNN[5], YOLO[6](you only look once)和SSD[7](single shot multibox detector)等。近年來(lái), 將深度學(xué)習(xí)類目標(biāo)檢測(cè)算法用于遙感視頻衛(wèi)星的研究也越來(lái)越多, 例如, 張作省等[8]結(jié)合遙感影像特點(diǎn)對(duì)YOLOv2網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn), 首次將深度卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于凝視視頻衛(wèi)星目標(biāo)檢測(cè), 填補(bǔ)了光學(xué)視頻衛(wèi)星成像領(lǐng)域目標(biāo)檢測(cè)方案的技術(shù)空白; 劉貴陽(yáng)等[9]使用改進(jìn)的YOLO模型和內(nèi)容一致性檢測(cè)模型, 利用視頻數(shù)據(jù)中相鄰幀之間內(nèi)容的相似性降低精確檢測(cè)的次數(shù), 在保證檢測(cè)精度的前提下, 提高了視頻數(shù)據(jù)的檢測(cè)效率。將深度學(xué)習(xí)用于視頻衛(wèi)星目標(biāo)檢測(cè)主要面臨兩個(gè)問(wèn)題: 一是需要大量的待檢測(cè)目標(biāo)樣本, 二是計(jì)算量大導(dǎo)致其檢測(cè)速度可能無(wú)法滿足實(shí)時(shí)性的要求。

        本文結(jié)合視頻衛(wèi)星數(shù)據(jù)的特點(diǎn), 將目前在傳統(tǒng)圖像目標(biāo)檢測(cè)中性能較為優(yōu)異的SSD算法用于衛(wèi)星視頻艦船目標(biāo)檢測(cè), 并進(jìn)行改進(jìn), 在本文構(gòu)建的艦船數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)并分析實(shí)驗(yàn)結(jié)果, 最后利用“吉林一號(hào)”衛(wèi)星視頻數(shù)據(jù)進(jìn)行驗(yàn)證。結(jié)果表明, 改進(jìn)后的SSD算法在保證準(zhǔn)確度的同時(shí), 提高了艦船目標(biāo)檢測(cè)效率。

        1 方法

        1.1 SSD算法原理

        1.1.1 模型結(jié)構(gòu)

        SSD算法模型結(jié)構(gòu)如圖1所示, 輸入圖像大小為300×300, 采用VGG16[10]作為基礎(chǔ)網(wǎng)絡(luò), 保留了VGG16的卷積層部分用于特征提取, 并將VGG16的兩個(gè)全連接層轉(zhuǎn)換為了普通的卷積層(Conv6和Conv7), 之后又加了多個(gè)卷積層(Conv8_1, Conv8_2, Conv9_1, Conv9_2, Conv10_1, Conv10_2), 最后用一個(gè)全局池化層來(lái)變成1′1的輸出(Conv11_2)。

        1.1.2 多尺度特征圖

        SSD算法采用多尺度特征圖進(jìn)行檢測(cè), 選取Conv4_3, Conv_7, Conv8_2, Conv9_2, Conv10_2, Conv11_2這些大小不同的卷積塊作為預(yù)測(cè)特征層, 進(jìn)行多尺度目標(biāo)檢測(cè)。較淺的特征層由于感受野較小, 主要用于檢測(cè)小目標(biāo); 而較深的特征層感受野較大, 主要用于檢測(cè)大目標(biāo)。如圖2所示, 對(duì)于每一個(gè)預(yù)測(cè)特征層采用不同個(gè)數(shù)的3×3大小的卷積核計(jì)算類別得分和邊界框回歸參數(shù), 分別對(duì)應(yīng)圖2中的conf和loc, 其中, Δ(c,c,,)表示邊界框的中心坐標(biāo)、寬和高的變換量, (1,2,…,c)表示各類別得分。

        圖1 SSD模型結(jié)構(gòu)

        圖2 多尺度檢測(cè)原理

        1.1.3 先驗(yàn)框

        SSD算法參照Faster RCNN中的錨框機(jī)制, 在不同特征圖的不同單元設(shè)置了尺度和長(zhǎng)寬比不同的的先驗(yàn)框, 預(yù)測(cè)的邊界框是以這些先驗(yàn)框?yàn)榛鶞?zhǔn)的, 在一定程度上減少訓(xùn)練難度。一般情況下, 每個(gè)單元會(huì)設(shè)置多個(gè)先驗(yàn)框, 其尺度和長(zhǎng)寬比存在差異, 如圖2所示, 以每一個(gè)特征圖的而每一個(gè)單元作為中心, 使用了四種不同的先驗(yàn)框, 圖片中貓和狗分別采用最適合它們形狀的先驗(yàn)框來(lái)進(jìn)行訓(xùn)練。假設(shè)對(duì)于特征圖的每個(gè)位置預(yù)測(cè)個(gè)邊界框, 對(duì)于每一個(gè)邊界框, 預(yù)測(cè)個(gè)類別得分, 以及相對(duì)先驗(yàn)框中心坐標(biāo)的4個(gè)偏移量值, 則共需要(+4)×個(gè)分類器, 在×的特征圖上面將會(huì)產(chǎn)生(+4)×××個(gè)預(yù)測(cè)值。每個(gè)特征層的尺度通過(guò)下面的公式計(jì)算得到:

        其中,min表示最底層的尺度, 其值為0.2;max表示最高層的尺度, 其值為0.9;表示特征層數(shù)。

        先驗(yàn)框的設(shè)置使用5種橫縱比, 分別為1, 2, 3, 1/2, 1/3, 另外, 當(dāng)橫縱比為1時(shí), 先驗(yàn)框大小的計(jì)算公式為:

        每個(gè)特征層先驗(yàn)框的尺度和比例設(shè)置如表1所示。利用不同尺度和比例的先驗(yàn)框, 可以基本覆蓋各種形狀大小的圖像, 具有很好的適應(yīng)性和選擇性。

        表1 先驗(yàn)框大小設(shè)置

        1.1.4 損失函數(shù)

        SSD算法的損失函數(shù)包含兩個(gè)部分, 一個(gè)是類別損失, 一個(gè)是定位損失。整個(gè)損失函數(shù)計(jì)算公式為:

        其中,是匹配到的正樣本數(shù)量,是類別置信度預(yù)測(cè)值,是先驗(yàn)框?qū)?yīng)的邊界框預(yù)測(cè)值,是先驗(yàn)框的位置參數(shù),代表網(wǎng)絡(luò)的預(yù)測(cè)值。

        類別損失計(jì)算公式為:

        定位損失計(jì)算公式為:

        1.2 算法改進(jìn)

        SSD算法是將VGG16作為骨干網(wǎng)絡(luò), 并在其基礎(chǔ)上修改并增加一系列卷積塊構(gòu)成的, VGG16是一種深層的卷積神經(jīng)網(wǎng)絡(luò), 由13個(gè)卷積層和3個(gè)全連接層疊加而成, 它使用較小的卷積核代替較大的卷積核來(lái)減少參數(shù)量的同時(shí)通過(guò)增加網(wǎng)絡(luò)的深度和寬度來(lái)提升性能。原始SSD模型的設(shè)計(jì)主要是針對(duì)自然場(chǎng)景中的目標(biāo)檢測(cè)任務(wù), 其在紋理信息豐富的數(shù)據(jù)集中可以提高計(jì)算效率, 但是對(duì)于經(jīng)過(guò)壓縮的衛(wèi)星視頻數(shù)據(jù)來(lái)說(shuō)這會(huì)丟失大量目標(biāo)的重要特征。

        ResNet[11]是一種殘差網(wǎng)絡(luò), 基本結(jié)構(gòu)如圖3所示, 其采用殘差連接替換原本的級(jí)聯(lián)方式, 增加前后特征層的聯(lián)系, 采用批歸一化的方式并將激活函數(shù)設(shè)置為ReLU(rectified linear unit), 在增加網(wǎng)絡(luò)深度的同時(shí)減少模型的參數(shù)量, 避免了因梯度爆炸或梯度消失帶來(lái)的性能下降。

        圖3 ResNet基本結(jié)構(gòu)

        本文將原始SSD模型的骨干網(wǎng)絡(luò)替換為ResNet, 構(gòu)建ResNet-SSD模型, 完整結(jié)構(gòu)如圖4所示, 與原始SSD模型類似, ResNet-SSD以ResNet50(ResNet中最具代表性的版本)作為特征提取網(wǎng)絡(luò), 保留了ResNet50模型的前4個(gè)卷積層(圖4中的Conv1、Conv2_x、Conv3_x、Conv4_x)作為骨干網(wǎng)絡(luò), 同時(shí)為了使輸入圖像經(jīng)過(guò)Conv4_x后得到的預(yù)測(cè)特征層1尺度不變, 我們將Conv4_x中的第一個(gè)殘差結(jié)構(gòu)中的步距全部修改為1(圖4中虛線指示部分), 增強(qiáng)對(duì)小目標(biāo)特征信息的提取, 并且去掉ResNet50卷積層后續(xù)的全連接層, 增加額外的卷積層作為預(yù)測(cè)特征層, 得到不同尺度的特征圖。本文ResNet-SSD模型雖然增加了網(wǎng)絡(luò)深度, 但是由于使用了殘差結(jié)構(gòu)來(lái)減少參數(shù)量, 模型精度提升的同時(shí)速度也有所提高。

        2 實(shí)驗(yàn)

        2.1 環(huán)境

        實(shí)驗(yàn)在Intel Xeon(R) CPU E5-2699、64 G內(nèi)存、Windows10系統(tǒng)下搭建的Pytorch環(huán)境下進(jìn)行, 顯卡為Geforce GTX1080TI, 實(shí)驗(yàn)環(huán)境配置參數(shù)如表2所示。

        2.2 數(shù)據(jù)

        目前, 大部分用于目標(biāo)檢測(cè)的公開數(shù)據(jù)集主要是針對(duì)自然圖像, 遙感圖像數(shù)據(jù)集較少, 其中包含的艦船數(shù)量更少, 因此, 我們收集了來(lái)自不同衛(wèi)星的高分辨率光學(xué)遙感圖像, 將其裁剪為500×500大小的圖像, 構(gòu)建艦船數(shù)據(jù)集, 其中包括1 963張圖像, 共2 287個(gè)艦船目標(biāo)。為了提高模型訓(xùn)練精度, 我們采用鏡像、隨機(jī)旋轉(zhuǎn)、隨機(jī)對(duì)比度變換等方法對(duì)數(shù)據(jù)集進(jìn)行增強(qiáng), 將數(shù)據(jù)集擴(kuò)充為19 630張圖像, 使用LableImg軟件進(jìn)行標(biāo)注, 得到完整的艦船檢測(cè)數(shù)據(jù)集。在實(shí)驗(yàn)中, 我們將數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證集和測(cè)試集, 三者比例為8︰1︰1。艦船樣本如圖5所示。

        圖4 ResNet-SSD模型結(jié)構(gòu)

        表2 實(shí)驗(yàn)環(huán)境配置參數(shù)

        圖5 艦船樣本

        本文衛(wèi)星視頻數(shù)據(jù)采用“吉林一號(hào)”衛(wèi)星視頻數(shù)據(jù), 由視頻03星獲取, 分辨率為0.92 m, 時(shí)間為30 s, 共300幀, 視頻中每幀圖像大小為4 096×3 072, 將每一幀圖像分割為500×500大小。

        2.3 結(jié)果

        由于SSD模型中先驗(yàn)框參數(shù)的設(shè)置對(duì)檢測(cè)精度會(huì)產(chǎn)生一定的影響, 本文統(tǒng)計(jì)了所構(gòu)建數(shù)據(jù)集中艦船大小分布情況, 如圖6, 可以看出本文數(shù)據(jù)集中, 艦船面積大多在102ppi和902ppi之間, 因此原始SSD的參數(shù)大小并不適用于本文數(shù)據(jù)集, 根據(jù)本文數(shù)據(jù)集特點(diǎn), 進(jìn)行多組實(shí)驗(yàn), 最終取min為0.02,max為0.4, 計(jì)算得到各特征層先驗(yàn)框參數(shù)設(shè)置如表3所示。

        表3 先驗(yàn)框大小修改

        圖6 艦船大小分布直方圖

        為驗(yàn)證改進(jìn)后SSD算法的有效性, 本文在原始SSD模型的基礎(chǔ)上, 利用ResNet50作為骨干網(wǎng)絡(luò)構(gòu)建SSD模型, 在本文構(gòu)建的數(shù)據(jù)集上采用SGD (stochastic gradient descent)優(yōu)化器對(duì)模型進(jìn)行訓(xùn)練, 初始學(xué)習(xí)率設(shè)為0.001, 采用動(dòng)態(tài)學(xué)習(xí)率調(diào)整機(jī)制, 隨著迭代次數(shù)增加, 學(xué)習(xí)率逐漸衰減直到模型收斂, 迭代最大次數(shù)設(shè)置為100 000。利用訓(xùn)練得到的最終模型在測(cè)試集上進(jìn)行測(cè)試, 并使用均值平均精度(mAP, mean average precision)評(píng)估模型性能, 得到結(jié)果如表4所示。

        表4 不同模型測(cè)試結(jié)果

        2.4 分析

        由表4可以看出, 改進(jìn)后的SSD算法mAP值為93%, 相比原始SSD算法提高了5.31%, 并且運(yùn)行時(shí)間加快了7 s。這表明特征提取對(duì)于整體模型精度的影響較大, 本文使用的ResNet50特征提取網(wǎng)絡(luò)由于使用跨層連接傳遞的方式將卷積處理后的特征與輸入特征進(jìn)行合并, 減少參數(shù)量的同時(shí)充分利用了各層特征信息, 將底層網(wǎng)絡(luò)訓(xùn)練的更加充分, 使其網(wǎng)絡(luò)深度增加, 精度也得到提高, 證明了殘差網(wǎng)絡(luò)的優(yōu)異性能。

        為測(cè)試改進(jìn)后的SSD算法對(duì)衛(wèi)星視頻中艦船目標(biāo)的檢測(cè)能力, 利用“吉林一號(hào)”衛(wèi)星視頻數(shù)據(jù)進(jìn)行實(shí)際艦船檢測(cè), 本文算法檢測(cè)結(jié)果如圖7所示, 圖中綠色矩形框?yàn)闄z測(cè)出的艦船目標(biāo)。為了綜合評(píng)價(jià)算法的檢測(cè)性能, 同時(shí)考慮虛警率和檢測(cè)率, 本文利用艦船檢測(cè)品質(zhì)因數(shù)OM對(duì)檢測(cè)結(jié)果進(jìn)行定量分析:

        其中,N為艦船目標(biāo)的正確檢測(cè)數(shù)目,N為虛警目標(biāo)數(shù)目,N為實(shí)際的艦船目標(biāo)數(shù)目, 由上式知,OM越大則檢測(cè)性能越好。

        由表5可知, 改進(jìn)前后的SSD算法漏檢目標(biāo)數(shù)目分別為15和10, 正確檢測(cè)目標(biāo)數(shù)目分別為21和26, 說(shuō)明對(duì)于大部分艦船目標(biāo), SSD算法都能夠準(zhǔn)確地檢測(cè)出來(lái), 而漏檢目標(biāo)大部分為難分樣本, 可以通過(guò)擴(kuò)充數(shù)據(jù)集來(lái)減少漏檢目標(biāo)。改進(jìn)前后的SSD算法虛警目標(biāo)數(shù)目分別為5和1, 說(shuō)明殘差網(wǎng)絡(luò)能夠很好的避免因梯度爆炸或梯度消失帶來(lái)的性能下降。綜合來(lái)看, 改進(jìn)后的SSD算法OM為0.703, 比原始SSD算法提高了0.191, 說(shuō)明本文算法不僅能夠很好地應(yīng)用于衛(wèi)星視頻艦船目標(biāo)檢測(cè), 并且檢測(cè)效果比原始SSD算法更好。

        表5 不同模型檢測(cè)結(jié)果

        圖7 本文算法艦船檢測(cè)結(jié)果

        3 結(jié)論

        針對(duì)傳統(tǒng)視頻目標(biāo)檢測(cè)算法計(jì)算量大, 難以適應(yīng)海量數(shù)據(jù)的問(wèn)題, 本文將在傳統(tǒng)圖像目標(biāo)檢測(cè)中性能優(yōu)異的SSD算法用于衛(wèi)星視頻艦船目標(biāo)檢測(cè), 并在原始SSD模型基礎(chǔ)上進(jìn)行改進(jìn), 在本文構(gòu)建的數(shù)據(jù)集上進(jìn)行測(cè)試, 并利用“吉林一號(hào)”衛(wèi)星視頻數(shù)據(jù)進(jìn)行驗(yàn)證, 主要結(jié)論如下。

        1) 通過(guò)分析本文數(shù)據(jù)集中艦船目標(biāo)大小分布, 進(jìn)行多組實(shí)驗(yàn)確定最佳先驗(yàn)框的大小, 一定程度上提高了SSD算法對(duì)小目標(biāo)的檢測(cè)能力。

        2) 為提高SSD算法對(duì)艦船目標(biāo)的檢測(cè)能力, 本文將殘差網(wǎng)絡(luò)與SSD算法相結(jié)合, 利用ResNet作為骨干網(wǎng)絡(luò)構(gòu)建SSD模型, 采用殘差連接替代原本的級(jí)聯(lián)方式, 在減少參數(shù)量的同時(shí)將深層特征與淺層特征結(jié)合, 相比原始的SSD算法, 在測(cè)試集上mAP提高了5.31%, 速度上也有一定的提升。

        3) 為驗(yàn)證改進(jìn)后的SSD算法對(duì)衛(wèi)星視頻中艦船目標(biāo)的檢測(cè)能力, 利用“吉林一號(hào)”衛(wèi)星視頻數(shù)據(jù)進(jìn)行艦船目標(biāo)檢測(cè)實(shí)驗(yàn), 分析檢測(cè)過(guò)程中的漏檢和誤檢目標(biāo), 得到艦船檢測(cè)品質(zhì)因數(shù)為0.703, 總體檢測(cè)效果較好, 證明了改進(jìn)后的SSD算法在衛(wèi)星視頻艦船目標(biāo)檢測(cè)中的有效性。但該算法對(duì)于訓(xùn)練過(guò)程要求較高, 并且需要大量的數(shù)據(jù)集, 后續(xù)還應(yīng)進(jìn)一步擴(kuò)充數(shù)據(jù)集并對(duì)算法進(jìn)行改進(jìn)。

        [1] 唐沐恩, 林挺強(qiáng), 文貢堅(jiān). 遙感圖像中艦船檢測(cè)方法綜述[J]. 計(jì)算機(jī)應(yīng)用研究, 2011, 28(1): 29-36.

        TANG Muen, LIN Tingqiang, WEN Gongjian. Survey of ship detection methods in remote sensing images[J]. Research on Computer Application, 2011, 28(1): 29-36.

        [2] 孫志遠(yuǎn), 張劉, 金光, 等. 視頻小衛(wèi)星凝視姿態(tài)跟蹤的仿真與實(shí)驗(yàn)[J]. 光學(xué)精密工程, 2011, 19(11): 2715- 2723.

        SUN Zhiyuan, ZHANG Liu, JIN Guang, et al. Simulation and experiment of gaze attitude tracking for video small satellite[J]. Optical Precision Engineering, 2011, 19(11): 2715-2723.

        [3] KOPSIAFTIS G, KARANTZALOS K. Vehicle detection and traffic density monitoring from very high resolution satellite video data[C]//Proceedings of the 2015 IEEE International Geoscience and Remote Sensing Symposium. Milan: IEEE, 2015, 1881-1884.

        [4] 張過(guò). 衛(wèi)星視頻處理與應(yīng)用進(jìn)展[J]. 應(yīng)用科學(xué)學(xué)報(bào), 2016, 34(4): 361-370.

        ZHANG Guo. Progress of satellite video processing and Application[J]. Journal of Applied Science, 2016, 34(4): 361-370.

        [5] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

        [6] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2015). Washington: IEEE Computer Society, 2016: 779-788.

        [7] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multibox detector[C]//Proceedings of the European Conference on Computer Vision. Berlin, Germany: Springer, 2016: 21-37.

        [8] 張作省, 朱瑞飛. 凝視視頻衛(wèi)星目標(biāo)檢測(cè)算法[J]. 航天返回與遙感, 2018, 39(6): 102-111.

        ZHANG Zuoxing, ZHU Ruifei. Satellite target detection algorithm based on staring video[J]. Space Return and Remote Sensing, 2018, 39(6): 102-111.

        [9] 劉貴陽(yáng), 李盛陽(yáng), 邵雨陽(yáng). 衛(wèi)星視頻中目標(biāo)的快速檢測(cè)算法研究[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用, 2018, 27(11): 155-160.

        LIU Guiyang, LI Shengyang, SHAO Yuyang. Research on fast target detection algorithm in satellite video[J]. Application of Computer System, 2018, 27(11): 155- 160.

        [10] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014: 1409-1556.

        [11] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]//Procee--dings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE Computer Society, 2016: 770-778.

        Research on ship target detection based on satellite video

        ZHANG Chi1, WANG Zhao2, SHENG Hui1

        (1. College of ocean and space information, China University of Petroleum (East China), Qingdao 266580, China; 2. Qingdao Geotechnical Investigation and Surveying Research Institute, Qingdao 266000, China)

        Ship target detection is an important means to supervise and control maritime targets and protect maritime rights and interests. In this paper, based on SSD (single shot multibox detector) algorithm, using ResNet as the backbone network to build SSD model, the improved SSD algorithm is applied to satellite video ship target detection. The algorithm uses residual connection to replace the original cascade mode, strengthens the connection between the front and rear features, reduces model parameters, and improves the detection speed while ensuring the detection accuracy. The experimental results show that the map of the improved SSD algorithm on the test set is 93%, which is 5.31% higher than the original SSD algorithm, which fully proves the effectiveness of this method for improving the performance of SSD model. The results show that the algorithm can detect the ship target more accurately, which has a certain theoretical significance for real-time ship detection in complex marine environment.

        satellite video; target detection; ship; deep learning

        Nov. 8, 2020

        TP79

        A

        1000-3096(2021)05-0009-07

        10.11759/hykx20201108006

        2020-11-08;

        2021-01-20

        國(guó)家重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2017YFC1405600)

        [National Key R & D Plan, No. 2017YFC1405600]

        張馳(1997—), 男, 山東濟(jì)寧人, 碩士研究生, 主要從事目標(biāo)檢測(cè)研究, E-mail: 535474915@qq.com

        (本文編輯: 叢培秀, 譚雪靜)

        猜你喜歡
        先驗(yàn)艦船卷積
        艦船通信中的噪聲消除研究
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        艦船測(cè)風(fēng)傳感器安裝位置數(shù)值仿真
        基于無(wú)噪圖像塊先驗(yàn)的MRI低秩分解去噪算法研究
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于自適應(yīng)塊組割先驗(yàn)的噪聲圖像超分辨率重建
        艦船腐蝕預(yù)防與控制系統(tǒng)工程
        基于平滑先驗(yàn)法的被動(dòng)聲信號(hào)趨勢(shì)項(xiàng)消除
        先驗(yàn)的廢話與功能的進(jìn)路
        天天噜日日噜狠狠噜免费| 日本顶级片一区二区三区| 99在线视频这里只有精品伊人| 亚洲一区av在线观看| 女人夜夜春高潮爽a∨片传媒| 婷婷五月亚洲综合图区| 日本免费影片一区二区| 92午夜少妇极品福利无码电影| 性动态图av无码专区| 亚洲国产精品久久九色| 国产人妖av在线观看| 国产对白国语对白| 亚洲精品久久久久久| 欧美人与动牲交片免费播放| av免费网站免费久久网| 乱色精品无码一区二区国产盗 | 又粗又大又黄又爽的免费视频| 亚洲国产精品综合久久20| 一区视频免费观看播放| 亚洲乱码日产精品一二三| 精品国产高清a毛片无毒不卡| 亚洲精品成人网站在线观看| 国产高清a| 亚洲综合久久中文字幕专区一区| 国产精品天干天干综合网| 国产肉体ⅹxxx137大胆| 精品久久久久久99人妻| 日本成人午夜一区二区三区| 亚洲精品无码久久久影院相关影片 | 国产高清在线91福利| 国产精品亚洲一区二区三区在线看| 又爽又黄又无遮挡网站| 亚洲欧洲高潮| 国产美女主播福利一区| 欧美高清精品一区二区| 国产亚洲精品久久久久久| 99亚洲乱人伦精品| 亚洲激情综合中文字幕| 中文无码久久精品| 浪荡少妇一区二区三区| 自拍视频在线观看国产|