亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        凝視視頻衛(wèi)星目標(biāo)檢測(cè)算法

        2019-01-07 07:28:40張作省朱瑞飛
        航天返回與遙感 2018年6期
        關(guān)鍵詞:檢測(cè)模型

        張作省 朱瑞飛

        ?

        凝視視頻衛(wèi)星目標(biāo)檢測(cè)算法

        張作省1,2,3朱瑞飛4

        (1 中國(guó)科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所,長(zhǎng)春 130033)(2 中國(guó)科學(xué)院大學(xué),北京100049)(3 中國(guó)電子科技集團(tuán)公司第二十八研究所,南京 210000)(4 長(zhǎng)光衛(wèi)星技術(shù)有限公司,長(zhǎng)春 130000)

        為了實(shí)現(xiàn)對(duì)高分辨率光學(xué)遙感視頻衛(wèi)星成像視場(chǎng)范圍內(nèi)的飛機(jī)目標(biāo)進(jìn)行快速高效檢測(cè),提出一種遙感影像快速目標(biāo)檢測(cè)方案。文章借鑒深度卷積神經(jīng)網(wǎng)絡(luò)模型YOLO系列算法高速檢測(cè)目標(biāo)優(yōu)點(diǎn),引入端對(duì)端式全卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建檢目標(biāo)測(cè)算法,通過(guò)實(shí)驗(yàn)統(tǒng)計(jì)和探索光學(xué)衛(wèi)星成像視場(chǎng)范圍大小對(duì)目標(biāo)檢測(cè)準(zhǔn)確率和檢測(cè)速度的影響,結(jié)合目標(biāo)尺度進(jìn)行網(wǎng)絡(luò)調(diào)優(yōu)、改進(jìn)檢測(cè)模型,得到基于凝視成像視頻衛(wèi)星目標(biāo)檢測(cè)的高效算法。運(yùn)用算法對(duì)來(lái)自“吉林一號(hào)”光學(xué)A星及視頻3星的影像數(shù)據(jù)集進(jìn)行目標(biāo)檢測(cè)實(shí)驗(yàn)統(tǒng)計(jì),在413張800像素×800像素的靜態(tài)遙感影像測(cè)試集中實(shí)現(xiàn)76.2%的平均檢測(cè)準(zhǔn)確率,在同等尺度的遙感視頻序列中實(shí)現(xiàn)31幀/s的檢測(cè)速度。該算法成功將深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù)引入到凝視視頻衛(wèi)星遙感應(yīng)用領(lǐng)域,有效證明了深度學(xué)習(xí)技術(shù)在遙感視頻識(shí)別領(lǐng)域的可行性。

        視頻衛(wèi)星 目標(biāo)檢測(cè) 深度卷積神經(jīng)網(wǎng)絡(luò) 衛(wèi)星遙感應(yīng)用

        0 引言

        凝視視頻衛(wèi)星[1-3]作為一種新型對(duì)地觀測(cè)衛(wèi)星,采用“凝視”成像方式對(duì)某一區(qū)域進(jìn)行連續(xù)觀測(cè),即:隨著衛(wèi)星運(yùn)動(dòng)其光學(xué)成像系統(tǒng)始終盯著目標(biāo)區(qū)域進(jìn)行拍攝記錄,可以連續(xù)觀察“凝視”視場(chǎng)內(nèi)變化。從2017年1月由“快舟一號(hào)”甲運(yùn)載火箭發(fā)射的亞米級(jí)像素分辨率的商用“吉林一號(hào)”視頻3星到2017年11月由“長(zhǎng)征六號(hào)”運(yùn)載火箭以一箭三星[4-5]方式發(fā)射“吉林一號(hào)”視頻4、5、6星,凝視視頻衛(wèi)星快速發(fā)展,高分辨率影像[6]數(shù)據(jù)急劇增加。為充分利用凝視遙感視頻數(shù)據(jù),實(shí)現(xiàn)對(duì)地觀測(cè)“凝視”視場(chǎng)內(nèi)重要目標(biāo)自動(dòng)檢測(cè)以及進(jìn)一步開發(fā)更智能的遙感解譯系統(tǒng),從海量高分?jǐn)?shù)據(jù)中提取有效特征就成為了其中的關(guān)鍵技術(shù)。

        傳統(tǒng)的目標(biāo)識(shí)別和圖像分割方法很難適應(yīng)海量數(shù)據(jù),其所依賴的特征表達(dá)均為人工設(shè)計(jì),例如:文獻(xiàn)[7]處理步驟較多因而算法實(shí)現(xiàn)時(shí)較為耗時(shí);文獻(xiàn)[8]雖能實(shí)現(xiàn)實(shí)時(shí)檢測(cè),但其準(zhǔn)確率卻不符合高精度的要求。這些傳統(tǒng)算法強(qiáng)烈依賴數(shù)據(jù)本身特征,在圖像數(shù)據(jù)增多時(shí)難以滿足高準(zhǔn)確率和高效率的雙項(xiàng)指標(biāo)要求。此外,找到合適的目標(biāo)特征并設(shè)計(jì)相應(yīng)的分類方法是目標(biāo)檢測(cè)和識(shí)別的核心。如HOG[9]、SHIT[10]等采用通用特征,往往只能表達(dá)圖像中目標(biāo)的底層特點(diǎn),在缺少訓(xùn)練樣本時(shí),難以有效地用于復(fù)雜場(chǎng)景,其泛化性能受到嚴(yán)重制約。此外,依據(jù)具體目標(biāo)顯著性特點(diǎn)設(shè)計(jì)良好的旋轉(zhuǎn)或尺度不變性的模板進(jìn)行匹配,也能進(jìn)行有效分類和識(shí)別。但這些特征的設(shè)計(jì)強(qiáng)烈依賴于專業(yè)背景知識(shí)、模型固化、參數(shù)難以調(diào)整,在面對(duì)新的復(fù)雜場(chǎng)景時(shí)難以保證較高的準(zhǔn)確性。

        近年來(lái),深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù)(Convolutional Neural Network,CNN)[11]的出現(xiàn)為圖像目標(biāo)檢測(cè)和識(shí)別提供新的思路和研究方法。其實(shí)質(zhì)是構(gòu)建多層結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型對(duì)海量訓(xùn)練數(shù)據(jù)進(jìn)行復(fù)雜特征的學(xué)習(xí),用于之后的分析和預(yù)測(cè)。因此,其具備強(qiáng)大的影像數(shù)據(jù)學(xué)習(xí)能力和高度的圖像特征抽象能力,在諸多圖像領(lǐng)域取得了革命性的成功。

        與傳統(tǒng)圖像處理場(chǎng)景相比,遙感影像數(shù)據(jù)有著很大不同:影像尺度大、視場(chǎng)大、目標(biāo)小且目標(biāo)像素分辨率低。對(duì)遙感視頻數(shù)據(jù)進(jìn)行目標(biāo)檢測(cè)和識(shí)別屬于大范圍、小目標(biāo)、高速度的檢索問(wèn)題,就檢測(cè)和識(shí)別的準(zhǔn)確率而言,其突出困難主要有以下兩點(diǎn):

        1)目標(biāo)形態(tài)更加復(fù)雜。不同尺度、不同排列角度、不同種類以及不同光照分布和采集影像數(shù)據(jù)時(shí)天氣條件的多時(shí)相性,使得目標(biāo)規(guī)律性更加難以總結(jié)。

        2)背景干擾更加明顯。由于光學(xué)衛(wèi)星的成像尺度較大,高分辨率遙感影像數(shù)據(jù)中會(huì)出現(xiàn)更多與目標(biāo)某些圖像特征相似的背景干擾。例如:機(jī)場(chǎng)中在以飛機(jī)為目標(biāo)時(shí),停機(jī)坪中的紋理和陰影、復(fù)雜的人造建筑區(qū),都給檢測(cè)造成了極大干擾。

        而近年來(lái),深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù)的出現(xiàn)為圖像目標(biāo)識(shí)別提供了全新的方法,并以高準(zhǔn)確率廣受關(guān)注。將其用于遙感影像數(shù)據(jù)的動(dòng)態(tài)目標(biāo)檢測(cè)和識(shí)別時(shí),最主要的問(wèn)題是其檢測(cè)速度是否滿足實(shí)時(shí)性的要求。而深度卷積神經(jīng)網(wǎng)絡(luò)YOLO(You Only Look Once,YOLO)[12]在傳統(tǒng)目標(biāo)識(shí)別領(lǐng)域克服了檢測(cè)速度的瓶頸,但在識(shí)別小目標(biāo)的任務(wù)中精度非常低,其結(jié)構(gòu)建立在犧牲小目標(biāo)準(zhǔn)確的基礎(chǔ)上來(lái)提升檢測(cè)效率。在YOLOv2[13]網(wǎng)絡(luò)的方案中,對(duì)傳統(tǒng)場(chǎng)景VOC2007[14-15]數(shù)據(jù)集中平均像素尺度為600像素×600像素的圖像可達(dá)到70幀/s的檢測(cè)速度,完全滿足實(shí)時(shí)性要求,實(shí)現(xiàn)目標(biāo)快速檢測(cè)。

        本文結(jié)合遙感影像特點(diǎn)對(duì)YOLOv2網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行適當(dāng)改進(jìn),通過(guò)探索檢測(cè)時(shí)影像與訓(xùn)練集影像的相對(duì)尺度對(duì)檢測(cè)模型準(zhǔn)確率的影響,首次將深度卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于凝視視頻衛(wèi)星目標(biāo)檢測(cè),得到適用于凝視視頻衛(wèi)星的高效目標(biāo)檢測(cè)方法,填補(bǔ)了光學(xué)視頻衛(wèi)星成像領(lǐng)域目標(biāo)檢測(cè)方案的技術(shù)空白。

        1 遙感目標(biāo)識(shí)別方案

        1.1 算法架構(gòu)

        不同于傳統(tǒng)目標(biāo)識(shí)別方法中常用的區(qū)域選擇、特征提取、目標(biāo)分類三個(gè)步驟,在YOLO網(wǎng)絡(luò)框架中,將目標(biāo)識(shí)別問(wèn)題轉(zhuǎn)化為回歸問(wèn)題。步驟如下:

        1)將原圖縮放為448像素×448像素,圖片劃分為7個(gè)×7個(gè)網(wǎng)格,每一個(gè)網(wǎng)格作為一個(gè)單元。

        2)CNN提取特征和預(yù)測(cè):卷積部分提取特征。

        3)全連接層預(yù)測(cè):每一個(gè)單元預(yù)測(cè)7個(gè)包圍框,每個(gè)包圍框?qū)?yīng)5個(gè)參數(shù)(包圍框中心位置()、包圍框的寬、高以及置信值評(píng)分)。

        其中置信值評(píng)分即為構(gòu)建網(wǎng)絡(luò)的損失函數(shù),

        4)過(guò)濾預(yù)測(cè)框,通過(guò)非極大值抑制合并冗余框。

        YOLO(v1)使用全連接層進(jìn)行包圍框預(yù)測(cè),要把維度為1 470像素×1像素的全鏈接層重塑為維度為7×7×30像素的最終特征,這樣會(huì)丟失較多空間信息導(dǎo)致定位不準(zhǔn)。YOLOv2移除全連接層(以獲得更多空間信息)并借鑒使用Faster-RCNN[16]里的錨定框預(yù)測(cè)包圍框。如圖1所示,錨定框即通過(guò)對(duì)卷積特征圖進(jìn)行滑窗采樣,每個(gè)中心預(yù)測(cè)種不同大小和比例的建議框,在Faster-RCNN中取值為9。由于都是卷積不需要重塑,可以很好地保留空間信息,最終特征圖的每個(gè)特征點(diǎn)和原圖每個(gè)單元一一對(duì)應(yīng)。

        圖1 錨定示意

        具體步驟如下:

        1)去掉最后的池化層確保輸出的卷積特征圖有更高的分辨率;

        2)縮減網(wǎng)絡(luò),讓圖片輸入分辨率為416像素×416像素,目的是讓后面產(chǎn)生的卷積特征圖寬高都為奇數(shù),這樣就可以產(chǎn)生一個(gè)中心單元;

        3)使用卷積層降采樣(參數(shù)為32),使得輸入卷積網(wǎng)絡(luò)的416像素×416像素圖像經(jīng)卷積提取特征后得到13像素×13像素的特征圖;

        4)把預(yù)測(cè)類別的機(jī)制從空間位置解耦,由錨定框同時(shí)預(yù)測(cè)類別和坐標(biāo)。

        首先對(duì)錨定框的個(gè)數(shù)和寬高維度進(jìn)行預(yù)選,利用統(tǒng)計(jì)學(xué)習(xí)中的K-means聚類[17]方法,對(duì)數(shù)據(jù)集中的真實(shí)包圍框做聚類,找到真實(shí)目標(biāo)框統(tǒng)計(jì)規(guī)律。這樣得到更具代表性的先驗(yàn)包圍框維度,以使網(wǎng)絡(luò)更容易學(xué)到準(zhǔn)確的預(yù)測(cè)位置。以聚類個(gè)數(shù)為包圍框個(gè)數(shù),以個(gè)聚類中心框的寬高維度為錨定框的維度。

        對(duì)來(lái)自手工標(biāo)注的樣本數(shù)據(jù)庫(kù)中的包圍框的寬高(共計(jì)12 730組目標(biāo)框)進(jìn)行K-means聚類,分別選取5類和9類聚類中心,結(jié)果如圖2所示。圖2(a)是5個(gè)聚類中心的聚類結(jié)果,圖2(b)為9個(gè)聚類中心的結(jié)果。隨著聚類中心增多,重疊度IOU增大,其復(fù)雜度也不斷增加,為了平衡復(fù)雜度和IOU最終選取5種聚類中心。以表1所示的5種聚類中心作為網(wǎng)絡(luò)訓(xùn)練時(shí)的anchor框取值大小,進(jìn)行模型訓(xùn)練。

        圖2 聚類結(jié)果

        表1 聚類中心

        Tab.1 Clustering center 像素

        最終算法如圖3所示。給定一個(gè)輸入圖像,將圖像劃分成S×S的網(wǎng)格,對(duì)于每個(gè)網(wǎng)格,均預(yù)測(cè)5個(gè)包圍框,每個(gè)包圍框?qū)?yīng)5個(gè)坐標(biāo)值:中心坐標(biāo)(x,y),包圍框的寬和高(w,h)以及相應(yīng)的類別概率值。由于傳統(tǒng)場(chǎng)景圖像尺度與遙感影像尺度相差甚遠(yuǎn),需將遙感影像進(jìn)行適當(dāng)?shù)那蟹忠杂?xùn)練合適的檢測(cè)模型。

        1.2 面向光學(xué)遙感數(shù)據(jù)的特征遷移學(xué)習(xí)

        在目標(biāo)識(shí)別與圖像分類領(lǐng)域,當(dāng)訓(xùn)練一個(gè)高識(shí)別效率和強(qiáng)泛化性能的深度卷積神經(jīng)網(wǎng)絡(luò)模型時(shí),需要大量帶標(biāo)簽的樣本數(shù)據(jù)。之前多數(shù)深度學(xué)習(xí)模型面向自然場(chǎng)景的目標(biāo)識(shí)別任務(wù)數(shù)據(jù)量龐大且取得了非常優(yōu)秀的成績(jī)。根據(jù)文獻(xiàn)[18]的結(jié)論,在最后一層全連接層之前的網(wǎng)絡(luò)層稱為瓶頸層,瓶頸層的輸出節(jié)點(diǎn)向量可以被看作任何圖像的一個(gè)更加精簡(jiǎn)且表達(dá)能力更強(qiáng)的特征向量。在新數(shù)據(jù)集上直接利用訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征提取,再用提取得到的特征向量作為輸入來(lái)訓(xùn)練新的單層全連接網(wǎng)絡(luò)處理新問(wèn)題。

        在光學(xué)遙感領(lǐng)域鮮有成熟的公開數(shù)據(jù)集,本文采用遷移學(xué)習(xí)的方法將在大樣本數(shù)據(jù)庫(kù)預(yù)訓(xùn)練好YOLOv2的模型應(yīng)用在基于“吉林一號(hào)”光學(xué)A星的遙感影像數(shù)據(jù)構(gòu)成的樣本數(shù)據(jù)庫(kù)中,有效地構(gòu)建了面向光學(xué)遙感影像數(shù)據(jù)的目標(biāo)識(shí)別和實(shí)時(shí)動(dòng)態(tài)目標(biāo)跟蹤的深度卷積神經(jīng)網(wǎng)絡(luò)模型。

        YOLOv2低層卷積結(jié)構(gòu)提取圖像的通用特征,如邊緣檢測(cè);中層和高層卷積結(jié)構(gòu)包含識(shí)別和分類有關(guān)的特征。遷移學(xué)習(xí)指的是網(wǎng)絡(luò)頂層的遷移,最有效的方式是將頂層分類目標(biāo)替換為飛行器,采用網(wǎng)絡(luò)微調(diào)的方式利用少量樣本進(jìn)行訓(xùn)練實(shí)時(shí)飛行器目標(biāo)識(shí)別模型。

        1.3 針對(duì)光學(xué)遙感影像數(shù)據(jù)的目標(biāo)識(shí)別實(shí)驗(yàn)

        由于“吉林一號(hào)”光學(xué)A星的載荷相機(jī)每一景成像的大小為20 000像素×20 000像素,像素分辨率為0.72m,影像中機(jī)場(chǎng)中的飛機(jī)所占像素大致在20像素×20像素至300像素×300像素區(qū)間范圍內(nèi),在圖中所占比例在0.1%~1.5%的區(qū)間范圍。人眼距屏幕距離約為0.5m,考慮視覺系統(tǒng)衍射極限:

        圖4 遙感場(chǎng)景切分后的待檢測(cè)區(qū)域

        1.4 靜態(tài)遙感影像目標(biāo)識(shí)別仿真

        首先,基于靜態(tài)光學(xué)遙感影像數(shù)據(jù)進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)的實(shí)驗(yàn)對(duì)127張“吉林一號(hào)”光學(xué)A星原始影像進(jìn)行切割,建立樣本集為2 413張800像素×800像素大小的來(lái)自全世界各地的機(jī)場(chǎng)影像數(shù)據(jù),其中2 000張作為訓(xùn)練集,413張作為測(cè)試集?;诖藰颖炯?,分別使用YOLOv2和Faster-RCNN(ResNet)進(jìn)行訓(xùn)練并測(cè)試,為了更加清楚的表示兩種模型的檢測(cè)性能,用P-R曲線來(lái)驗(yàn)證實(shí)驗(yàn)結(jié)果。在P-R曲線中,曲線與坐標(biāo)軸所包圍的面積,代表測(cè)試平均準(zhǔn)確率(Average Precision,AP)。其定義如下:

        式中代表查準(zhǔn)率(精準(zhǔn)率);代表查全率(召回率)。定義如式(5)、式(6):

        式中TP表示飛機(jī)目標(biāo)被正確檢測(cè)數(shù)量;FP表示不是飛機(jī)的干擾目標(biāo)被檢測(cè)為飛機(jī)的數(shù)量;FN表示飛機(jī)目標(biāo)沒(méi)有被檢測(cè)的數(shù)量。

        實(shí)驗(yàn)時(shí),得到如圖5所示的曲線。其中,紅色曲線代表YOLOv2結(jié)果,對(duì)應(yīng)AP1,藍(lán)色曲線為Faster-RCNN(ResNet)的結(jié)果,對(duì)應(yīng)AP2。其中橫軸為模型的查全率,縱軸是檢測(cè)的查準(zhǔn)率。由圖可知,F(xiàn)aster-RCNN(ResNet)的檢測(cè)結(jié)果要高于YOLOv2,但其在測(cè)試集中1.2s/幀的檢測(cè)速度遠(yuǎn)低于YOLOv2的3.2ms/幀的檢測(cè)速度??紤]到視頻影像特點(diǎn),在實(shí)際使用時(shí),YOLOv2更具有借鑒價(jià)值。

        圖5 PR曲線

        對(duì)圖4切分得到的3 000像素×2 000像素的影像利用訓(xùn)練好的YOLOv2模型進(jìn)行飛機(jī)檢測(cè)得到如圖6所示的結(jié)果。從圖6可以看出,有明顯的漏檢情況發(fā)生,一些清晰的目標(biāo)被遺漏,用黃色框標(biāo)出,這是難以接受的。由此引發(fā)了以下的思考:模型訓(xùn)練時(shí)采用的訓(xùn)練集尺度與實(shí)際使用模型進(jìn)行目標(biāo)檢測(cè)時(shí)使用的圖像尺度,對(duì)目標(biāo)檢測(cè)的準(zhǔn)確率是否有影響?如果有,這種影響關(guān)系怎么體現(xiàn)?

        將圖6切分成四塊一樣大的圖像再次進(jìn)行檢測(cè),切分后檢測(cè)效果如圖7所示。對(duì)比可以發(fā)現(xiàn)檢測(cè)效果得到較大提升,在圖7(c)部分三左下角遺漏掉一架紋理和顏色特征不明顯的飛機(jī),并未出現(xiàn)錯(cuò)檢。由此證明,實(shí)際使用時(shí)影像尺度對(duì)準(zhǔn)確率是有直接關(guān)系的,需要探究這種尺度關(guān)系對(duì)模型穩(wěn)健性的影響。

        圖6 整體識(shí)別結(jié)果

        圖7 切分后的識(shí)別結(jié)果

        針對(duì)訓(xùn)練好的檢測(cè)模型對(duì)不同尺度的遙感影像數(shù)據(jù)進(jìn)行檢測(cè)的漏檢率與影像相對(duì)尺度的關(guān)系,進(jìn)行統(tǒng)計(jì)學(xué)實(shí)驗(yàn)。對(duì)“吉林一號(hào)”視頻星拍攝得到的影像分別切分100像素×100像素、200像素×200像素、…、5 000像素×5 000像素各50張,利用訓(xùn)練好的YOLOv2模型進(jìn)行檢測(cè)。其漏檢率統(tǒng)計(jì)結(jié)果如圖8所示。由圖可知,當(dāng)測(cè)試集與訓(xùn)練集的相對(duì)尺度大小為100%時(shí),目標(biāo)的漏檢率最低。當(dāng)相對(duì)尺度低于50%或高于180%時(shí),最終識(shí)別結(jié)果由于出現(xiàn)漏檢率高于10%的情況,該尺度影像不可使用訓(xùn)練得到的模型進(jìn)行直接檢測(cè)。

        圖8 漏檢率與相對(duì)像素大小關(guān)系

        對(duì)“吉林一號(hào)”視頻3星遙感視頻影像進(jìn)行動(dòng)態(tài)目標(biāo)識(shí)別,實(shí)驗(yàn)環(huán)境如下:系統(tǒng)Ubuntu16.04,CUDA8.0,cudnn5.1,OpenCV2.4.10,顯卡Quadro K5200。仿真結(jié)果如圖9所示,在800像素×800像素的遙感視頻影像中實(shí)際實(shí)現(xiàn)的識(shí)別速度為0.032 3s幀,即可達(dá)到31幀s,完全滿足實(shí)時(shí)性要求。

        圖9 遙感視頻實(shí)時(shí)識(shí)別結(jié)果

        2 結(jié)束語(yǔ)

        在對(duì)遙感影像數(shù)據(jù)的挖掘中,算法成功將卷積神經(jīng)網(wǎng)絡(luò)技術(shù)應(yīng)用于遙感影像數(shù)據(jù)目標(biāo)識(shí)別領(lǐng)域。通過(guò)構(gòu)建針對(duì)視頻衛(wèi)星影像的動(dòng)態(tài)目標(biāo)識(shí)別網(wǎng)絡(luò)框架,分別對(duì)高分辨率靜態(tài)影像和動(dòng)態(tài)遙感視頻進(jìn)行實(shí)驗(yàn),在800像素×800像素的靜態(tài)遙感影像中實(shí)現(xiàn)76.2%的識(shí)別準(zhǔn)確率,同時(shí)對(duì)視頻序列可實(shí)現(xiàn)31幀/s的識(shí)別速度。此外,通過(guò)實(shí)驗(yàn)統(tǒng)計(jì)探索訓(xùn)練數(shù)據(jù)集與測(cè)試數(shù)據(jù)集中樣本的相對(duì)大小對(duì)模型準(zhǔn)確率的影響,有效地證明深度學(xué)習(xí)技術(shù)在遙感識(shí)別領(lǐng)域的可行性,對(duì)于進(jìn)一步開發(fā)遙感視頻衛(wèi)星實(shí)時(shí)目標(biāo)檢測(cè)和識(shí)別算法具有參考價(jià)值。但本文依然存在不足:訓(xùn)練生成的模型在多尺度的目標(biāo)識(shí)別中存在著明顯的缺陷,如何改進(jìn)網(wǎng)絡(luò)和識(shí)別方法以實(shí)現(xiàn)多尺度目標(biāo)的高準(zhǔn)確性識(shí)別需進(jìn)一步探索;此外,在保證識(shí)別速度的前提下,算法如何提高模型的準(zhǔn)確率依然需要進(jìn)一步改進(jìn)。

        [1] 姚燁, 喬彥峰, 鐘興, 等. 凝視成像降質(zhì)模型的超分辨率重建[J]. 光學(xué)學(xué)報(bào), 2017, 37(8): 109-118. YAO Ye, QIAO Yanfeng, ZHONG Xing, et al. Super-resolution Reconstruction of Staring Imaging Degraded Model[J]. Acta Optica Sinica, 2017, 37(8): 109-118. (in Chinese)

        [2] 朱厲洪, 回征, 任德鋒, 等. 視頻成像衛(wèi)星發(fā)展現(xiàn)狀與啟示[J]. 衛(wèi)星應(yīng)用, 2015(10): 23-28. ZHU Lihong, HUI Zheng, REN Defeng, et al. Status Video Imaging Satellites Development and Inspiration[J]. Satellite Application, 2015(10): 23-28. (in Chinese)

        [3] 張曼倩. 吉林林業(yè)一號(hào)衛(wèi)星[J]. 衛(wèi)星應(yīng)用, 2017(3). ZHANG Manqian. Jilin Forestry-1 Satellite[J]. Satellite Application, 2017(3). (in Chinese)

        [4] 科軒. 快舟一號(hào)甲成功發(fā)射“一箭三星”開啟中國(guó)商業(yè)航天新時(shí)代[J]. 中國(guó)航天, 2017(1): 23-24. KE Xuan. KZ-1 Successfully Launched “One Vehicle with Triple-satellites” to Open a New Era of China's Commercial Space[J]. Aerospace China, 2017(1): 23-24.(in Chinese)

        [5] 商顯揚(yáng), 杜朋, 王桂嬌, 等. 一箭三星發(fā)射結(jié)構(gòu)布局及斜推分離技術(shù)研究[J]. 強(qiáng)度與環(huán)境, 2018, 45(1): 7-11. SHANG Xianyang, DU Peng, WANG Guijiao, et al. Research of Structural Layout and Inclined Separation for One Vehicle with Triple-satellites[J]. Structure & Environment Engineering, 2018, 45(1): 7-11. (in Chinese)

        [6] 李果, 孔祥皓. 靜止軌道高分辨率光學(xué)成像衛(wèi)星發(fā)展概況[J]. 航天返回與遙感, 2018, 39(4): 55-63. LI Guo, KONG Xianghao. Development of High-resolution Optical Imaging Satellites in Geostationary Orbit[J]. Spacecraft Recovery & Remote Sensing, 2018, 39(4): 55-63. (in Chinese)

        [7] 姚遠(yuǎn), 姜志國(guó), 張浩鵬. 基于層次化分類器的遙感圖像飛機(jī)目標(biāo)檢測(cè)[J]. 航天返回與遙感, 2014, 35(5): 88-94. YAO Yuan, JIANG Zhiguo, ZHANG Haopeng. Aircraft Detection in Remote Sensing Image Based on Hierarchical Classifiers[J]. Spacecraft Recovery & Remote Sensing, 2014, 35(5): 88-94. (in Chinese)

        [8] 王旭輝, 劉云猛, 裴浩東. 基于嵌入式圖像處理平臺(tái)的實(shí)時(shí)多目標(biāo)識(shí)別算法[J]. 科學(xué)技術(shù)與工程, 2014, 14(3): 227-230. WANG Xuhui, LIU Yunmeng, PEI Haodong. One Real-time Multi-target Recognition Algorithm Based on the Embedded Image Processing Development Platform[J]. Science Technology and Engineering, 2014, 14(3): 227-230. (in Chinese)

        [9] DALAL N, TRIGGS B. Histograms of Oriented Gradients for Human Detection[C]//Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on, IEEE, 2005: 886-893.

        [10] COMANICIU D, MEER P. Mean Shift: A Robust Approach Toward Feature Space Analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(5):603-619.

        [11] HINTON G E, SALAKHUTDINOV R R. Reducing the Dimensionality of Data with Neural Networks[J]. Science, 2006, 313(5786): 504-507.

        [12] REDMON J, DIVVALA S, GIRSHICK R, et al. You Only Look Once: Unified, Real-time Object Detection[C]//Computer Vision and Pattern Recognition, 2016. IEEE Computer Society Conference on IEEE, 2016:779-788.

        [13] REDMON J, FARHADI A. YOLO9000: Better, Faster[C]//2017 IEEE Conference on Computer Vision & Pattern Recognition. Honolulu, USA: IEEE, 2017:6517-6525.

        [14] KOBETSKI M, SULLIVAN J. Apprenticeship Learning: Transfer of Knowledge via Dataset Augmentation[C]// Scandinavian Conference on Image Analysis. Springer, Berlin, Heidelberg, 2013: 432-443.

        [15] MARKUS K, JORMA L, VILLE V. The 2005 PASCAL Visual Object Classes Challenge[J]. Lecture Notes in Computer Science, 2015, 111(1): 98-136.

        [16] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards Real-time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6):1137-1149.

        [17] ANIL K. Data Clustering: 50 Years beyond K-means[J]. Pattern Recognition Letters, 2010, 31(8): 651-666.

        [18] DONAHUE J, JIA Y, VINYALS O, et al. DeCAF: A Deep Convolutional Activation Feature for Generic Visual Recognition[C]//International Conference on International Conference on Machine Learning.Eprint arXiv:1310.1531, 2014.

        Target Detection Algorithm of Staring Video Satellite

        ZHANG Zuoxing1,2,3ZHU Ruifei4

        (1 Changchun Institute of Optics, Fine Mechanics and Physics, Chinese Academy of Sciences, Changchun 130033, China)(2 University of Chinese Academy of Sciences, Beijing 100049, China)(3 The 28th Research Institute of China Electronics Technology Group Corporation, Nanjing 210000, China)(4 Chang Guang Satellite Technology Co., Ltd, Changchun 130000, China)

        In order to realize fast and efficient detection of aircraft targets in the field of view of high-resolution optical remote sensing video satellite, a fast target detection scheme for remote sensing images is proposed. Using the detection capability of the deep convolutional neural network model YOLO series algorithm at high speed, an end-to-end full convolutional neural network was introduced to construct a detection algorithm. The influence of optical satellite imaging field of view on the target detection accuracy and speed was explored by experiments and statistics. And then, by tuning network and improving detection model based on the target scale, an efficient algorithm for gaze imaging video satellite target detection was obtained from data of Jilin-1 Optical Satellite and Video Satellites-3, which achieved a detection accuracy of 76.2% in 413 static remote sensing images with 800×800 pixels, and had a detection speed of 31 frames per second in remote sensing video sequence. Deep convolutional neural network technology was successfully introduced into the field of remote sensing applications for staring video satellites,which proved the feasibility of deep learning technology in the field of remote sensing video recognition.

        video satellite; target recognition; deep convolution neural network; satellite remote sensing application

        TP753

        A

        1009-8518(2018)06-0102-10

        10.3969/j.issn.1009-8518.2018.06.012

        2018-04-02

        吉林省科技廳重點(diǎn)科技攻關(guān)項(xiàng)目(20170204034SF);國(guó)家重點(diǎn)研發(fā)計(jì)劃(2016YFB0502605)

        張作省,男,1993年生,2018年獲中國(guó)科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所光學(xué)工程碩士學(xué)位。研究方向?yàn)榛谏疃葘W(xué)習(xí)技術(shù)的遙感影像目標(biāo)檢測(cè)。E-mail:zhangzuoxing1993@163.com。

        朱瑞飛,男,1986年生,2013年獲中國(guó)科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所博士學(xué)位。主要研究方向?yàn)榛谶b感影像數(shù)據(jù)挖掘。

        (編輯:龐冰)

        猜你喜歡
        檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        色综合色狠狠天天综合色| 能看不卡视频网站在线| 噜噜中文字幕一区二区| av色欲无码人妻中文字幕| 国产成人综合久久精品免费| 人妻少妇精品无码专区app| 亚洲一区二区懂色av| 欧美成人猛片aaaaaaa| 久久中文字幕无码专区| 久久久国产精品福利免费| 久久亚洲一区二区三区四区五| 在线麻豆精东9制片厂av影现网| 性色av一区二区三区| 日韩成人无码v清免费| 国产精品中文字幕日韩精品| 国产乱子伦精品无码专区| 国产无遮挡又黄又爽又色| 老熟女一区二区免费| 久久久人妻一区二区三区蜜桃d | 国产精品你懂的在线播放| 一本到无码AV专区无码| 久久精品日韩免费视频| 亚洲中国精品精华液| 少妇无码一区二区三区| 日本色偷偷| 国产美腿丝袜一区二区| 亚洲国产天堂久久综合网| 国产一级做a爱免费观看| 永久免费在线观看蜜桃视频| 音影先锋中文字幕在线| 国产乱人视频在线播放| 在线观看国产精品91| 我揉搓少妇好久没做高潮| 在线观看成人无码中文av天堂| 欧美一级欧美一级在线播放| 久久久精品国产亚洲av网不卡| 国产成人精品无码免费看| 国产乱人伦av在线a| 国产精品久久久久久久久久影院| 那有一级内射黄片可以免费看| 亚洲码国产精品高潮在线|