亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的可見光圖像艦船目標(biāo)檢測與識別

        2021-06-16 06:43:30瞳,楊
        艦船電子對抗 2021年2期
        關(guān)鍵詞:艦船卷積深度

        岳 瞳,楊 宇

        (武警工程大學(xué),陜西 西安 710016)

        0 引 言

        大數(shù)據(jù)時代,基于海量的數(shù)據(jù)源對海上艦船目標(biāo)進(jìn)行智能檢測與識別是一個非常重要的任務(wù),無論是在民用還是軍用上,都有著很大的意義。對海上目標(biāo)進(jìn)行實時精準(zhǔn)的檢測與識別,在民用上可以輔助港口船舶管理、海上秩序維護,在軍用上可以輔助戰(zhàn)場態(tài)勢感知、目標(biāo)智能分析。目前,按數(shù)據(jù)源成像技術(shù)來分,主要有基于合成孔徑雷達(dá)(SAR)成像、可見光成像、紅外成像的艦船目標(biāo)檢測與識別。其中相比于SAR圖像、紅外圖像而言,可見光圖像噪聲低,不需要復(fù)雜的預(yù)處理;分辨率高,能夠保留更多細(xì)節(jié)特征。傳統(tǒng)的艦船檢測與識別方法中的特征表示主要依賴于尺度不變特征變換(SIFT)[1]、加速穩(wěn)定特征(SURF)[2]、方向梯度直方圖(HOG)[3]等人工特征,準(zhǔn)確性和泛化性都不高。而深度卷積神經(jīng)網(wǎng)絡(luò)因其全面、有效的特征表示輸出已逐漸取代早期圖像智能檢測與識別中的手工特征提取手段,自從2006年Hinton提出深度學(xué)習(xí)的概念后[4],深度卷積神經(jīng)網(wǎng)絡(luò)呈現(xiàn)井噴式發(fā)展的態(tài)勢,其在目標(biāo)檢測與分類識別中取得了優(yōu)異表現(xiàn),受到了學(xué)術(shù)界的廣泛關(guān)注。本文主要對可見光圖像的艦船目標(biāo)檢測與識別中深度學(xué)習(xí)方法的運用研究進(jìn)行概述,探討應(yīng)用效果與存在問題,展望未來研究方向。

        1 深度學(xué)習(xí)目標(biāo)檢測與識別方法簡述

        1.1 深度卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)的概念于上個世紀(jì)就開始出現(xiàn)與發(fā)展,但由于學(xué)習(xí)樣本與計算能力的受限并未得到廣泛關(guān)注。進(jìn)入21世紀(jì)以后,大數(shù)據(jù)時代的到來、圖像處理硬件的改進(jìn)與計算能力的提高使得對更加復(fù)雜的卷積神經(jīng)網(wǎng)絡(luò)的處理成為可能。以Hinton博士的深度學(xué)習(xí)思想為基礎(chǔ),2012年Alex等人采用線性整流函數(shù)(RELU)構(gòu)造了擁有5層卷積層和3層全連接層的AlexNet[5],創(chuàng)新采用圖形處理單元(GPU)進(jìn)行訓(xùn)練,在ImageNet競賽上將識別錯誤率降低到15.3%;2014年牛津大學(xué)的視覺幾何組利用較小的卷積核與較深的網(wǎng)絡(luò)深度構(gòu)筑了19層的VggNet[6],在 2014年的Imagenet大型視覺識別挑戰(zhàn)(ILSVRC)競賽中獲得了優(yōu)異的成績,探討了網(wǎng)絡(luò)深度對卷積神經(jīng)網(wǎng)絡(luò)模型的影響;同年的ILSVRC競賽中,谷歌研究院提出的GoogleNet[7]將物體分類錯誤率刷新降低到了6.67%,采用了全新的Inception結(jié)構(gòu),在不增加計算負(fù)載的情況下,增加了網(wǎng)絡(luò)的寬度和深度,并且以不同的卷積核增強了特征獲取能力?;诰W(wǎng)絡(luò)深度對學(xué)習(xí)表達(dá)能力更強的特征至關(guān)重要的思想,2015年ILSVRC競賽中,微軟研究院的He等人提出了深度殘差網(wǎng)絡(luò)ResNet[8],并以3.57%的識別錯誤率一舉奪得冠軍。ResNet中的shortcut模塊在前向過程中幫助網(wǎng)絡(luò)中的特征進(jìn)行恒等映射,在反向過程中幫助傳導(dǎo)梯度,使其152層深的模型得以成功訓(xùn)練。Huang和Liu等人在2017年提出DenseNet[9],采用特征重用思想,建立了不同層間的連接,進(jìn)一步解決了梯度消失問題,相比于ResNet在提升了效果的同時減少了參數(shù)量,被評為2017年CVPR最佳論文。

        1.2 深度學(xué)習(xí)目標(biāo)檢測與識別框架

        目標(biāo)檢測任務(wù)要求對原始圖像進(jìn)行對象級區(qū)域定位,而目標(biāo)識別任務(wù)要求對對象級區(qū)域進(jìn)行分類識別。針對這兩個任務(wù)衍生的深度學(xué)習(xí)框架可分為一階段(One-stage)和二階段(Two-stage)算法。如圖1所示,前者把背景劃分進(jìn)對象類別中,將檢測與識別任務(wù)統(tǒng)一在一步完成,而后者則先完成前景檢測任務(wù)(二分類),再對前景區(qū)域映射到原圖中的區(qū)域提取特征訓(xùn)練另外一個網(wǎng)絡(luò),以獲得更精確的多分類識別結(jié)果。研究表明,由卷積神經(jīng)網(wǎng)絡(luò)提取出的特征具有強大的泛化能力。在此基礎(chǔ)上,涌現(xiàn)了一批優(yōu)秀的目標(biāo)檢測與識別算法模型。

        圖1 二階段與一階段算法框架比較

        1.2.1 二階段算法

        2014年,Girshick等人提出了R-卷積神經(jīng)網(wǎng)絡(luò)(CNN)[10],對SS算法生成的候選區(qū)域進(jìn)行特征提取,然后用支持向量機(SVM)進(jìn)行類別的識別,將平均精確率均值(mAP)提升到 53.3%;2015年,He等人提出空間金字塔池化(SPP)-Net[11],Girshick等人提出Fast R-CNN[12],通過先提取整張?zhí)卣鲌D,再生成候選區(qū)域的方法提升了目標(biāo)檢測的速度。2017年,何愷明、Girshick等人為改進(jìn)Fast R-CNN,聯(lián)合提出了Faster R-CNN[13],采用區(qū)域建議網(wǎng)絡(luò)(RPN)代替SS進(jìn)行候選區(qū)域生成,將mAP值提升到75.9%。

        1.2.2 一階段算法

        2015年,Redmon等人提出舍棄區(qū)域生成網(wǎng)絡(luò),僅利用一個損失函數(shù)的端到端訓(xùn)練模型Yolo[14],極大地提高了檢測速度,并在此基礎(chǔ)上為改善模型的檢測準(zhǔn)確率相繼提出了Yolo9000[15]與YoloV3[16],以出色的檢測效率聞名,為目標(biāo)檢測的工程運用做出了很大貢獻(xiàn)。2016年,Liu等人提出了SSD[17]模型,改進(jìn)目標(biāo)框的預(yù)測規(guī)則,并利用多尺度的特征圖改善對小尺度物體的檢測,成功得到了比Yolo更快、同時也更準(zhǔn)確的檢測效果。

        2 可見光圖像艦船數(shù)據(jù)集

        可見光圖像是指光電探測傳感器工作波段限于可見光波段范圍間的成像。其成像技術(shù)成熟、平臺豐富,活躍于各類目標(biāo)檢測與識別實驗中。與SAR圖像、紅外圖像中的艦船目標(biāo)相比,可見光圖像中的艦船目標(biāo)分辨率高,在特征提取中有著明顯優(yōu)勢。在迄今為止的研究中,已涌現(xiàn)了一批較為標(biāo)準(zhǔn)與完善的可見光圖像艦船數(shù)據(jù)集,本節(jié)選取2個比較適合使用的數(shù)據(jù)集進(jìn)行介紹。

        2.1 Seaships

        Seaships[18]數(shù)據(jù)集來自可見光高分辨率監(jiān)控圖像,擁有6類共31 455張圖片,且每一類中都包含了不同的場景。每張圖片都進(jìn)行了人工標(biāo)注,同時包括邊界框與類別標(biāo)簽,以PASCAL VOC2007的格式保存了注釋文件。作者用該數(shù)據(jù)集對Yolo,SSD,F(xiàn)aster-R-CNN等模型進(jìn)行了試訓(xùn),在實時監(jiān)控場景下取得了良好的效果。部分樣本如圖2所示。

        圖2 Seaships[18]部分類別圖片

        2.2 MARVEL

        MARVEL[19]是一個大型船舶數(shù)據(jù)集,主要用于艦船目標(biāo)分類識別。作者通過對用戶上傳的海量圖像數(shù)據(jù)進(jìn)行分析,根據(jù)可分性和意義性整理出了26類共1 190 169張圖像。數(shù)據(jù)集圖片質(zhì)量高,數(shù)量大,缺點是各類圖片數(shù)量不均勻。部分樣本如圖3所示。

        圖3 Marvel[19]部分類別圖片

        3 基于深度學(xué)習(xí)的艦船目標(biāo)檢測與識別方法

        艦船目標(biāo)的檢測與識別本質(zhì)上是物體檢測與識別的一個子任務(wù)。將艦船作為前景目標(biāo)進(jìn)行檢測與識別,與常規(guī)的物體檢測與識別一樣面臨著遮擋、復(fù)雜背景、多姿態(tài)的問題,對一般的模型具有一定的可適用性;然而,由于艦船數(shù)據(jù)集的特殊性、艦船目標(biāo)的結(jié)構(gòu)復(fù)雜性與特征精細(xì)性,為了實現(xiàn)高效率、高準(zhǔn)確率的艦船目標(biāo)的檢測與識別,對更好的方法也存在著很大需求。因此,研究人員針對模型遷移、候選區(qū)域生成、特征提取等方面進(jìn)行了針對性的研究,概覽如圖4所示。

        圖4 基于深度學(xué)習(xí)的艦船目標(biāo)檢測與識別方法概覽

        3.1 基于從頭訓(xùn)練與遷移學(xué)習(xí)的方法

        考慮到深度卷積特征強大的泛化能力,部分研究人員們嘗試直接利用深度學(xué)習(xí)目標(biāo)檢測與識別模型進(jìn)行艦船目標(biāo)檢測與識別。文獻(xiàn)[20]中,作者用自標(biāo)注的光學(xué)遙感圖像數(shù)據(jù)集對Faster R-CNN進(jìn)行從頭訓(xùn)練,并與傳統(tǒng)的HOG+SVM,SIFT+SVM等方法進(jìn)行比較,發(fā)現(xiàn)Faster R-CNN具有突出的性能優(yōu)勢;文獻(xiàn)[21]中,作者用20 000張不同艦船的圖像分別對Faster R-CNN與YOLO進(jìn)行從頭訓(xùn)練,發(fā)現(xiàn)Faster R-CNN的準(zhǔn)確率與召回率高,YOLO的運行效率較高。

        同時,也有一部分研究人員考慮到自制艦船數(shù)據(jù)集存在數(shù)據(jù)量不夠足、類別分布不夠均勻的問題,將共享參數(shù)的遷移學(xué)習(xí)方法應(yīng)用到艦船目標(biāo)檢測與分類識別上。共享參數(shù)的遷移學(xué)習(xí)一般用于深度學(xué)習(xí)。在源數(shù)據(jù)與目標(biāo)數(shù)據(jù)域均有標(biāo)注,且目標(biāo)數(shù)據(jù)集達(dá)不到要求、源數(shù)據(jù)集數(shù)據(jù)量足夠的情況下,利用大數(shù)據(jù)集對模型進(jìn)行預(yù)訓(xùn)練,得到初始化的參數(shù)后,再用特定目標(biāo)的小數(shù)據(jù)集對預(yù)訓(xùn)練好的模型進(jìn)行微調(diào)。文獻(xiàn)[22]首先用ImageNet數(shù)據(jù)集預(yù)訓(xùn)練好多個版本的Inceptionnet和Resnet,再基于MARVEL數(shù)據(jù)集進(jìn)行微調(diào),將檢測結(jié)果進(jìn)行對比,在Inception V3上達(dá)到了最高78.73%的分類正確率;文獻(xiàn)[23]中,作者嘗試用在ImageNet上訓(xùn)練好的Faster R-CNN模型對自制的七類別小型數(shù)據(jù)集進(jìn)行遷移學(xué)習(xí),首先單獨對RPN網(wǎng)絡(luò)進(jìn)行微調(diào),得到微調(diào)后的模型后,用其輸出對后面的全連接分類層進(jìn)行訓(xùn)練,更新整個網(wǎng)絡(luò)的參數(shù);接著再進(jìn)行整體網(wǎng)絡(luò)微調(diào),凍結(jié)RPN網(wǎng)絡(luò)和共享卷積層,對全連接分類層進(jìn)行訓(xùn)練;作者還對在ImageNet上訓(xùn)練好的SSD模型進(jìn)行微調(diào)訓(xùn)練,并對兩者進(jìn)行了比較,發(fā)現(xiàn)SSD對小艦船目標(biāo)的檢測精度較低,但是整體速度較快;FasterR-CNN對小艦船目標(biāo)檢測精度較高,但是整體速度偏慢。上述總結(jié)如表1所示。

        表1 不同卷積神經(jīng)網(wǎng)絡(luò)在MARVEL數(shù)據(jù)集上的分類實驗結(jié)果[22]

        3.2 基于先驗框改進(jìn)的方法

        針對自然常見目標(biāo)的區(qū)域生成方法對候選框的設(shè)計思想往往較為簡單寬泛,多從經(jīng)驗角度選擇普適的比例,不具有針對性。如Yolo、RPN網(wǎng)絡(luò)中的錨點框默認(rèn)均采用整數(shù)的縱橫比。而艦船目標(biāo)特殊的結(jié)構(gòu)意味著:如果不能很好地確定候選框尺寸,不僅會導(dǎo)致較多的無用背景特征包含進(jìn)特征圖里,而且意味著對一些二維輪廓信息的丟失,造成識別準(zhǔn)確率的下降。對此,一部分學(xué)者重點研究尺寸自適應(yīng)的檢測框。文獻(xiàn)[24]在SSD網(wǎng)絡(luò)的錨點設(shè)置中采用k-means聚類,將樣本中標(biāo)注框的縱橫比作為輸入,聚類得到相適應(yīng)的比例;文獻(xiàn)[25]對RPN網(wǎng)絡(luò)提出一種自適應(yīng)的錨點機制,將標(biāo)注信息的縱橫比歸一化后作為輸入,使用優(yōu)化后的k-means++算法進(jìn)行聚類。k-means++提出在初始化時指定簇中心,避免了隨機選擇中心點對聚類結(jié)果與收斂速度的影響,增強了縱橫比聚類結(jié)果的魯棒性。文獻(xiàn)[26]針對循環(huán)注意力(RA)-CNN中注意力生成網(wǎng)絡(luò)(APN)提出了多特征(MF)-APN網(wǎng)絡(luò)。該網(wǎng)絡(luò)目標(biāo)是用縱橫比適當(dāng)?shù)木匦蜗闰灴蛉〈W(wǎng)絡(luò)中的正方形先驗框。作者通過設(shè)計可導(dǎo)的截取函數(shù),以面積與尺度為約束,計算出符合要求的矩形框縱橫比。之后按照實際需求選取合適的先驗框個數(shù),以此來框取船舶排煙口、雷達(dá)天線等特殊區(qū)域,在識別與定位中得到了更好的魯棒性。

        另外,常見目標(biāo)檢測中的候選框多選擇水平垂直矩形框,但是由于艦船目標(biāo)在圖像中具有方向性強的特點,使得此種候選框?qū)Ω劭诖a頭等船舶聚集場景中的個別定位很不精確,因此對候選框形狀的設(shè)計也很重要。同時,合適的候選框形狀也有利于去除冗余背景信息。對此,一部分研究人員將眼光投向了旋轉(zhuǎn)檢測框。文獻(xiàn)[27]提出旋轉(zhuǎn)區(qū)域(RR)-CNN,將旋轉(zhuǎn)檢測框的方法應(yīng)用在密集船舶的定位檢測上,應(yīng)用了旋轉(zhuǎn)感興趣區(qū)域池化方法、旋轉(zhuǎn)包圍框回歸方法、類間非極大值抑制,在HRSC2016數(shù)據(jù)集上取得了良好的檢測效果;文獻(xiàn)[28]將Ma等人在文字識別領(lǐng)域中提出的旋轉(zhuǎn)區(qū)域建議網(wǎng)絡(luò)(RRPN)[29]模型應(yīng)用在光學(xué)遙感圖像中的艦船檢測中,并針對其中的旋轉(zhuǎn)感興趣區(qū)域池化做了改進(jìn)。作者考慮到環(huán)境信息不全可能導(dǎo)致特征過于特殊,所以在特征池化時引入了適當(dāng)?shù)沫h(huán)境信息,提出上下文旋轉(zhuǎn)感興趣區(qū)域池化,同樣在HRSC2016數(shù)據(jù)集上進(jìn)行實驗,對比RR-CNN提高了5個百分點的mAP。文獻(xiàn)[30]在SSD中使用旋轉(zhuǎn)錨點,并在此基礎(chǔ)上創(chuàng)新提出了Related-交并比(IOU)方法,在IOU的計算中引入角度信息,在訓(xùn)練中有效剔除角度相差較大的錨點,對自制數(shù)據(jù)集中多方向與并靠的船舶均做到了較精確的定位。上述一系列研究表明,旋轉(zhuǎn)檢測框的應(yīng)用對密集靠泊與方向性強的艦船目標(biāo)有較好的檢測效果。

        如表2所示的比較表明,在海面稀疏、港口稀疏、港口密集、復(fù)雜背景等場景下采用旋轉(zhuǎn)檢測框的方法進(jìn)行檢測,可以得到較低的漏檢率與精確的定位結(jié)果,展現(xiàn)了此方法的優(yōu)越性。

        表2 不同模型在HRSC數(shù)據(jù)集上的檢測實驗結(jié)果[28]

        3.3 基于特征優(yōu)化的方法

        相比于人工設(shè)計的船舶特征,深度卷積神經(jīng)網(wǎng)絡(luò)對艦船圖像提取的特征已具備了更強的泛化性和更抽象的細(xì)節(jié)特征。但是基于艦船自身的復(fù)雜結(jié)構(gòu),在精細(xì)化與復(fù)雜度較高的任務(wù)里,為了得到更高的識別準(zhǔn)確率,對特征的進(jìn)一步優(yōu)化仍是必要的。學(xué)者們考慮對特征提取網(wǎng)絡(luò)進(jìn)行不同形式的擴展與改進(jìn),探討增強型深度卷積特征的分類表現(xiàn),通過各種方法研究了特征優(yōu)化的可能途徑。文獻(xiàn)[32]、文獻(xiàn)[33]基于殘差網(wǎng)絡(luò)的思想對Yolo網(wǎng)絡(luò)進(jìn)行改進(jìn),加入殘差模塊后將低層的特征直接連接到高層,減輕了梯度消失的影響,提取出更完整的船舶特征,對可見光遙感圖像中的艦船目標(biāo)進(jìn)行檢測,準(zhǔn)確率較改進(jìn)前有顯著提高;文獻(xiàn)[34]基于YoloV3的多尺度思想,將原網(wǎng)絡(luò)中的三尺度特征融合改進(jìn)為四尺度特征融合,對小目標(biāo)艦船的檢測效果提升明顯,如表3所示。

        表3 不同模型結(jié)合不同特征優(yōu)化方法的檢測實驗結(jié)果[34]

        另外,還有針對通道與輔助網(wǎng)絡(luò)的特征改進(jìn)方式。文獻(xiàn)[35]提出AugNet算法,使網(wǎng)絡(luò)通過學(xué)習(xí)自分配特征通道的權(quán)重,以達(dá)到強化有效特征、抑制無效特征的效果。作者在GoogleNet上應(yīng)用此算法,對自構(gòu)建的大規(guī)模艦船數(shù)據(jù)集進(jìn)行分類識別實驗,準(zhǔn)確率比原始的GoogleNet提升了1.5%;文獻(xiàn)[36]基于對抗生成網(wǎng)絡(luò)(GAN)網(wǎng)絡(luò)的思想,將分類子網(wǎng)絡(luò)作為判別器在其上級聯(lián)了一個生成器,交替訓(xùn)練以生成模仿小概率樣本的特征。通過對小樣本的特征學(xué)習(xí),間接循環(huán)增強了特征表示,達(dá)到了輔助分類的效果,總結(jié)如圖5所示。

        圖5 特征增強與優(yōu)化方法

        3.4 其他提高艦船目標(biāo)檢測與識別性能的方法

        文獻(xiàn)[37]提出一種輕量化模型,將精力集中在提高檢測與識別的效率上,為資源受限條件下的艦船檢測與識別提供了方案。作者在SSD網(wǎng)絡(luò)原框架的基礎(chǔ)上,采用了可分離卷積方法,大幅減少了卷積核的參數(shù);同時,將輸入特征通道進(jìn)行過隨機比例切分之后使用不同尺寸的卷積核進(jìn)行卷積操作,從而減少了模型中參數(shù)的使用。該模型大小較ResNet縮小了5倍多,單幀耗時僅需16.3 ms。文獻(xiàn)[38]提出了多特征堆疊(ME)-CNN,考慮了多源多網(wǎng)絡(luò)的復(fù)合性處理。在對源圖像進(jìn)行不同形式的預(yù)處理以后,將所得的圖像分別作為不同卷積神經(jīng)網(wǎng)絡(luò)的輸入,提取有不同的深層抽象特征后分別進(jìn)行分類,最后將不同的分類結(jié)果進(jìn)行組合,在VAIS[39]數(shù)據(jù)集上取得的準(zhǔn)確率較單分支網(wǎng)絡(luò)有所提高。文獻(xiàn)[40]提出粗細(xì)級聯(lián)(CFC)-CNN,考慮對常規(guī)網(wǎng)絡(luò)進(jìn)行層級改進(jìn),將基礎(chǔ)網(wǎng)絡(luò)的結(jié)果送進(jìn)第2層進(jìn)行驗證,對沒有達(dá)到假設(shè)預(yù)期值的類別進(jìn)行重訓(xùn)練,嘗試針對第1層中識別結(jié)果最差的類別提取更有區(qū)別性的特征,對比一層網(wǎng)絡(luò)的模型進(jìn)行實驗,取得了較好的準(zhǔn)確率。

        4 結(jié)束語

        4.1 總結(jié)

        在人工智能與大數(shù)據(jù)時代,深度學(xué)習(xí)技術(shù)得到了極大關(guān)注,可見光圖像艦船目標(biāo)檢測與識別的應(yīng)用也愈發(fā)廣泛?;趯z測框改進(jìn)、特征優(yōu)化等方法的大量研究,深度學(xué)習(xí)技術(shù)針對艦船目標(biāo)檢測的調(diào)整應(yīng)用也愈發(fā)成熟??偟膩碚f,在不斷的實驗探索中,融合深度學(xué)習(xí)方法的可見光艦船目標(biāo)檢測與識別在實時性、準(zhǔn)確性、精確性上,均有所改進(jìn):

        (1) 相比于早期對模型直接進(jìn)行轉(zhuǎn)移應(yīng)用、從頭訓(xùn)練的方法,遷移學(xué)習(xí)明顯克服了數(shù)據(jù)量不足的問題,利用小數(shù)據(jù)集也能得到較好的準(zhǔn)確率。

        (2) 基于改進(jìn)候選框與特征優(yōu)化的方法,經(jīng)實驗證明均能在一定程度上剔除冗余信息,增強細(xì)節(jié)特征,使得針對艦船的目標(biāo)檢測與識別達(dá)到較高的準(zhǔn)確率。

        4.2 展望

        為了達(dá)到精細(xì)度與復(fù)雜度更高的前沿應(yīng)用要求,下一步仍應(yīng)對3個方面進(jìn)行拓展研究:

        (1) 仍要對更全面、更精準(zhǔn)的特征表示進(jìn)行研究。探究融合多波段源圖像的精度提升方法。SAR圖像、紅外圖像、可見光圖像在不同環(huán)境下?lián)碛歇毺氐膬?yōu)勢。結(jié)合3類圖像進(jìn)行聯(lián)合判別,探索有效的特征融合方法;探究在多網(wǎng)絡(luò)、多層次模型下的創(chuàng)新型特征提取方法,在不斷實驗中嘗試尋找性能更好的組合架構(gòu)。

        (2) 為適應(yīng)海上平臺資源受限的特點,應(yīng)重視研究輕量化的艦船檢測模型,削減網(wǎng)絡(luò)參數(shù),精簡模型架構(gòu)。在不依賴高算力的情況下,用更少的計算量達(dá)到預(yù)期的準(zhǔn)確率,同時提高識別幀率。

        (3) 研究大類識別基礎(chǔ)上的船舶細(xì)粒度分類。細(xì)粒度分類因?qū)ο箢愰g差異小、類內(nèi)差異大的特點,應(yīng)用模型時效果達(dá)不到預(yù)期標(biāo)準(zhǔn),需要進(jìn)一步創(chuàng)新改進(jìn)網(wǎng)絡(luò)架構(gòu)與模塊功能。在更強的特征表示、更好的分類算法的基礎(chǔ)上,船舶細(xì)粒度分類是船舶目標(biāo)識別研究的必然趨勢;反之,高要求的任務(wù)也會對算法工具的研究起到推動效果。

        猜你喜歡
        艦船卷積深度
        艦船通信中的噪聲消除研究
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        艦船測風(fēng)傳感器安裝位置數(shù)值仿真
        深度理解一元一次方程
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        深度觀察
        深度觀察
        深度觀察
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        艦船腐蝕預(yù)防與控制系統(tǒng)工程
        极品美女高潮喷白浆视频| 亚洲av日韩精品久久久久久a| 国产精品久久国产精品99 | 国产三级三级三级看三级日本| 日本在线观看不卡一区二区| 国语自产偷拍在线观看| 高潮毛片无遮挡高清免费| 无码高潮久久一级一级喷水 | 国产激情小视频在线观看 | 亚洲人午夜射精精品日韩| 国产午夜精品一区二区三区视频| 中文字幕av人妻一区二区| 亚洲av不卡一区男人天堂 | 欧洲极品少妇| 精品在免费线中文字幕久久| 亚洲性av少妇中文字幕| 国产熟妇与子伦hd| 国产微拍精品一区二区| 欧美在线Aⅴ性色| 涩涩鲁精品亚洲一区二区| 成人欧美一区二区三区| 在线欧美精品二区三区| 中文字幕一区二区区免| 亚洲精品国产精品乱码在线观看| 日韩成人大屁股内射喷水 | 韩国av一区二区三区不卡| 国产真实夫妇交换视频| 国产成人cao在线| 蜜桃av中文字幕在线观看| 最新日本一道免费一区二区 | 久久99亚洲综合精品首页| 深夜福利国产精品中文字幕| 国产在线精品一区二区三区直播| 精品国产午夜福利在线观看| 久久久精品亚洲懂色av| 亚洲精品中文字幕乱码影院| 二区三区日本高清视频| 国产一区二区三区乱码| 国产精品第1页在线观看| 亚洲福利网站在线一区不卡 | 男女深夜视频网站入口|