亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        無人機自主目標識別與定位應(yīng)用研究

        2021-06-02 02:53:20吳賢呂智虎
        計算機測量與控制 2021年5期
        關(guān)鍵詞:特征提取檢測

        , ,,吳賢,呂智虎

        (空軍工程大學 空管領(lǐng)航學院 陜西省電子信息系統(tǒng)綜合集成重點實驗室,西安 710051)

        0 引言

        無人機憑借著其戰(zhàn)損小、機動性高、隱蔽性強等特點正逐步發(fā)展成為現(xiàn)代軍事戰(zhàn)爭中重要的空基武器平臺[1-2]。美軍在其2016年發(fā)布的《小型無人機系統(tǒng)飛行規(guī)劃:2016-2036年》中明確指出要增加對小型偵察無人機開發(fā)的投資,防止對手利用能夠執(zhí)行大量偵察任務(wù)的小型無人機系統(tǒng)制造與美軍的差距[3-4]。目標識別是無人機遂行打擊、毀傷評估等后續(xù)任務(wù)的前提條件和基礎(chǔ),具有重要的研究意義。

        近年來,深度學習理論和計算機硬件的飛速發(fā)展,極大提升了圖像目標識別與分類的速度和準確度[5],同時也為偵察無人機自主目標識別任務(wù)提供了新的解決方案。目前,目標檢測領(lǐng)域的深度學習算法主要分為一階段(one-stage)算法和二階段(two-stage)算法[6-11],前者以YOLO系列算法為代表,具有網(wǎng)絡(luò)結(jié)構(gòu)簡單、識別速度快的優(yōu)點,主要應(yīng)用于對實時性要求較高的場合,比如自動駕駛、機械臂等。后者以RCNN系列算法為代表,通過候選框提取、框分類與回歸兩個階段的算法獲得了更高的準確度,更多地應(yīng)用在對檢測速度要求不高的高精度檢測領(lǐng)域。在二階段檢測算法中,F(xiàn)aster RCNN算法作為RCNN系列中的第三代算法,是目前對于各類數(shù)據(jù)集檢測精度最高的算法[12],被廣泛地應(yīng)用到了包括衛(wèi)星遙感、航拍圖像等諸多領(lǐng)域。

        針對無人機自主偵察任務(wù)中在線目標識別與定位的需求,本文提出了一種基于改進Faster RCNN算法的無人機自主識別與定位的方法。首先對無人機偵察過程中的多張圖像進行實時目標識別,進而通過特征提取、圖像拼接獲得全局偵察圖像,然后通過像素距離比和歐氏距離求出偵察圖像中目標的相對位置,最終輸出含有關(guān)鍵目標類別、位置、相對距離的戰(zhàn)場態(tài)勢圖。

        1 偵察識別相關(guān)研究

        偵察無人機主要配備合成孔徑雷達(SAR)、紅外或可見光相機等設(shè)備完成環(huán)境偵察、監(jiān)視和毀傷評估等任務(wù)[13]。目標識別是偵察無人機有效完成上述各項任務(wù)的關(guān)鍵內(nèi)容,目前針對上述偵察設(shè)備的目標識別方法主要如下:

        基于SAR的目標識別方法主要包括特征提取和分類器設(shè)計兩部分[14-15]。此方法首先利用SAR主動探測獲得目標遙感圖像,在此基礎(chǔ)上采用主成分分析法(PCA)、線性鑒別分析(LDA)等方法提取目標的幾何特征,進而使用K近鄰分類(KNN)、支持向量機(SVM)等分類器進行分類,最終實現(xiàn)SAR圖像的目標識別。

        基于紅外或可見光相機的目標識別方法主要包括圖像去噪、形態(tài)學濾波、特征提取、特征匹配等步驟。首先通過強度歸一化、小波變換去噪等方法對圖像進行預(yù)處理,然后通過sobel算子等形態(tài)學操作提取圖像邊緣,最終采用神經(jīng)網(wǎng)絡(luò)等方法進行目標識別[16-17]。

        綜上所述,現(xiàn)有目標識別方法可以概括為圖像預(yù)處理、特征提取、特征分類三部分。其中,傳統(tǒng)目標識別算法中通常采用人工選定的特征子進行特征提取,此類方法存在計算量較大、魯棒性差等問題。近年來卷積神經(jīng)網(wǎng)絡(luò)(CNN)的出現(xiàn)為圖像中的特征提取提供了新的解決方法,這些方法的有效性已經(jīng)在ImageNet Large-Scale Visual Recognition Challenge(ILSVC)等比賽中得到充分驗證,被廣泛應(yīng)用于各種場合下的目標檢測與識別任務(wù)中。

        2 自主偵察關(guān)鍵技術(shù)

        從偵察無人機的任務(wù)需求和使用經(jīng)驗來看,我們將無人機自主偵察任務(wù)的關(guān)鍵技術(shù)分為目標識別、圖像拼接、目標定位三部分。為有效識別航拍圖像中目標,本文依據(jù)航拍圖像分辨率較高、目標像素尺寸較小等特點對Faster RCNN網(wǎng)絡(luò)結(jié)構(gòu)進行了適當修改,在此基礎(chǔ)上選用SURF算法進行圖像拼接以獲得偵察區(qū)域全局圖像,之后提出目標定位算法在偵察全景圖上標示出了目標之間的相對距離,最終獲得包含目標類別與位置信息的任務(wù)區(qū)域全局態(tài)勢圖。

        2.1 基于Faster R-CNN的目標識別

        目前RCNN系列目標算法已經(jīng)更新到第四代。最初的RCNN算法采用AlexNet進行圖像特征提取,在2012年的ILSVRC中奪冠并取得了遠超傳統(tǒng)目標識別算法的準確率。它的主要思想是先在圖像上使用滑窗方法得到約2 000個候選框,然后采用卷積神經(jīng)網(wǎng)絡(luò)和支持向量機進行特征提取與分類,最后采用全連接網(wǎng)絡(luò)進行目標框的回歸預(yù)測。在此基礎(chǔ)上,F(xiàn)ast RCNN引用了SPP Net的思想,先對圖像進行卷積,再將原圖中的候選區(qū)域直接映射到原圖像卷積后的特征圖上,同時采用池化操作替代了RCNN中的圖像尺寸壓縮操作,此外還將目標分類與目標框回歸的損失函數(shù)設(shè)計到一個損失函數(shù)中,使模型的速度和mAP(Mean average precision,平均準確度)都有了較大提升。

        Fast RCNN的出現(xiàn)也暴露出二階段目標檢測網(wǎng)絡(luò)中基于滑窗生成候選框的方式嚴重制約了網(wǎng)絡(luò)訓練和檢測速度[18]。因此,F(xiàn)aster RCNN提出了區(qū)域建議網(wǎng)絡(luò)(Region proposal network,RPN),將原圖像經(jīng)過卷積后的特征圖作為錨點映射回原圖像,并在每個錨點上生成金字塔形的候選框,并設(shè)計相應(yīng)的損失函數(shù)對這些候選框進行篩選,進而通過CNN實現(xiàn)候選框的分類和回歸,有效提升了網(wǎng)絡(luò)的性能。Mask RCNN在此基礎(chǔ)上增加了圖像分割的內(nèi)容,但其對硬件性能有更高的要求且識別速度慢于Faster RCNN。圖1是Faster RCNN算法相對其它算法的目標檢測性能,可以看出在小目標檢測領(lǐng)域,F(xiàn)aster RCNN具有明顯優(yōu)勢。

        圖1 Faster RCNN與其他主流算法檢測性[23]

        本文所用Faster RCNN模型基于tensorflow2.0框架搭建,為完成對于特定類別目標的識別與定位,需對文獻[7]中Faster RCNN的網(wǎng)絡(luò)結(jié)構(gòu)做出修改,改進后的Faster RCNN的網(wǎng)絡(luò)結(jié)構(gòu)如圖2,首先由RPN對原圖像進行候選框提議,然后在Proposal層中通過已標定數(shù)據(jù)對IOU大于0.7的候選框進行粗修正,之后在Detection target層中對原圖像進行ROI pooling操作,即將不同尺寸的候選框大小統(tǒng)一到7×7,最后由全連接網(wǎng)絡(luò)對統(tǒng)一后的候選框進行分類、回歸。其中RPN是Faster RCNN性能卓越的關(guān)鍵內(nèi)容。

        圖2 改進Faster RCNN結(jié)構(gòu)示意圖

        針對偵察任務(wù)中航拍圖像特點,我們改進Faster RCNN的工作如下。

        (1)RPN主干網(wǎng)絡(luò)修改:

        原始Faster RCNN中RPN采用ZF、VGG-16等網(wǎng)絡(luò),能夠接受的輸入為長寬均為600到1 000的圖像[10]。而航拍圖像分辨率較高,通常無法滿足這一要求。此外,由于航拍圖像中目標尺寸較小,為充分提取圖像特征,我們沒有對原圖像進行壓縮操作,而是通過池化操作將原圖像尺寸下采樣到352×352作為網(wǎng)絡(luò)輸入,同時選用了能夠更好提取語義信息的Inception-v2網(wǎng)絡(luò),并遷移了其在Imagenet數(shù)據(jù)集上的訓練權(quán)重。

        (2)錨框尺度、比例與數(shù)量:

        原始Faster RCNN中使用了尺度為8、16、32,比例為2:1、1:1、1:2的9種錨框[7]。由于無人機航拍圖像中目標尺寸較小,我們選取了6、12、24三種尺度。此外,由于我們要識別的3種目標長寬比分別近似于1:0.9、1:0.7、1:0.6,因此我們根據(jù)先驗知識采用了比例為0.75:1、1:1、1:0.75的3種錨框。

        (3)全連接層輸出節(jié)點:

        我們將原網(wǎng)絡(luò)中全連接網(wǎng)絡(luò)最后一層的90種輸出改變?yōu)?種輸出,分別為tank、plane、ship、backgroud,對于前3種目標,分別使用黃色、紫色、藍色方框進行了標注。

        2.2 基于SURF算法的圖像拼接

        獲取任務(wù)區(qū)域全局態(tài)勢圖是無人機自主偵察任務(wù)的重要內(nèi)容,但無人機偵察過程中受高度和光學傳感器性能限制,往往需對多次采集的圖像進行拼接才能完成這一任務(wù)。圖像拼接技術(shù)主要流程是:圖像預(yù)處理、圖像配準、圖像融合,其中圖像配準是完成圖像拼接任務(wù)的關(guān)鍵[19-20]。

        目前的圖像配準技術(shù)主要包括基于區(qū)域的圖像配準和基于特征的圖像配準兩種方法。前者包括全局搜索法、模板匹配法等,通常計算量較大。后者包括Harris角點檢測算法、尺度不變特征變換(scale-invariant feature transform,SIFT)算法、加速魯棒特征(Speeded-Up Robust Features,SURF)算法、ORB算法等。其中SURF算法對平移、旋轉(zhuǎn)、尺度縮放和光照不均都有很好的適應(yīng)性,計算速度較快,被廣泛應(yīng)用于各種圖像拼接場合[21]。

        由于SURF算法已在openCV中集成,其實現(xiàn)細節(jié)不再贅述,在無人機自主偵察中的應(yīng)用效果如圖3。

        圖3 基于SURF算法的特征選取與拼接

        2.3 基于歐氏距離的目標定位算法

        無人機自主偵察任務(wù)中,獲取關(guān)鍵目標相對位置對后續(xù)行動決策具有重要意義。本節(jié)針對此問題提出了基于歐氏距離的解決方法,該方法在獲得無人機偵察全局圖像的基礎(chǔ)上,以圖像中重要目標的幾何中心為原點(x0,y0)建立圖4圖像坐標系,同時設(shè)任務(wù)區(qū)域中任一目標位置像素點的坐標為(x1,y1),則該目標到原點的歐氏距離L可由(1)式得出:

        (1)

        其中:(x1,y1)為Faster RCNN網(wǎng)絡(luò)輸出數(shù)據(jù)。此外,通過相機標定的方式可以測得機載云臺采集圖像的像素距離比ε,最終可以得到圖像中任一目標距重要目標的距離R為:

        (2)

        圖4 圖像坐標系中目標相對位置

        3 試驗結(jié)果與分析

        3.1 Faster RCNN數(shù)據(jù)集

        采用深度學習方法完成偵察任務(wù)中的目標識別,首先需要制作有效的數(shù)據(jù)集對所改進網(wǎng)絡(luò)進行預(yù)訓練。相較于一階段目標檢測網(wǎng)絡(luò),二階段網(wǎng)絡(luò)具有更多的參數(shù),因而需要更大的數(shù)據(jù)集才能避免過擬合。為此我們使用無人機采取了300余張含坦克模型、飛機模型、軍艦?zāi)P?種識別目標在內(nèi)的航拍圖像,同時采用仿射變換、形態(tài)學操作等方法進行數(shù)據(jù)集增強,得到約3 000張訓練圖像,然后使用labelimg軟件進行圖像標注,標注文件中含目標像素位置、類別兩類用于訓練的信息:

        [x,y,width,height,class]

        (3)

        3.2 目標識別模型訓練結(jié)果

        文獻[7]給出了Faster RCNN訓練的3種方式,每種方式各有優(yōu)劣。本文采用近似聯(lián)合訓練方法和遷移學習方法,在VOC2007數(shù)據(jù)集預(yù)訓練權(quán)重基礎(chǔ)上將RPN權(quán)重和后續(xù)全連接網(wǎng)絡(luò)權(quán)重一起訓練,使用配備Nvidia 2080ti的計算機進行50萬次訓練,訓練結(jié)果達到84.5%的準確率和85.0%的召回率。此外,我們對原始Faster RCNN網(wǎng)絡(luò)進行了完全相同的訓練,訓練結(jié)果達到78.6%的準確率和78.8%的召回率??梢钥闯?,改進工作使目標識別準確率和召回率分別提高了5.9%和6.2%,這主要得益于根據(jù)先驗知識選取了相應(yīng)尺寸的錨框以及Inception網(wǎng)絡(luò)能夠提取豐富語義信息的優(yōu)點。

        3.3 目標定位試驗結(jié)果

        在完成網(wǎng)絡(luò)訓練與檢測的基礎(chǔ)上,我們根據(jù)偵察任務(wù)需求設(shè)計了無人機自主偵察室外試驗,試驗流程如圖5。首先,機載計算機在接收地面計算機發(fā)出的起飛指令后,自檢確認無誤后起飛。其次,根據(jù)預(yù)設(shè)飛行航線進行偵察飛行,偵察飛行過程中在預(yù)設(shè)航點上空懸停采圖。然后,將圖像數(shù)據(jù)實時傳輸?shù)降孛娑说膱D像計算機中進行圖像處理。最后,無人機將圖像實時傳送至地面端,由地面端圖像處理計算機進行目標檢測,在圖像處理計算機捕獲著陸區(qū)信號后,向控制計算機發(fā)送著陸指令及無人機到著陸區(qū)的距離誤差,無人機機載計算機在獲取地面控制計算機的指令后,對100 m×50 m的偵察區(qū)域進行在線偵察識別,得到偵察結(jié)果如圖6。其中圓心為想定重要目標,識別結(jié)果如表1,達到83.3%的召回率且無錯誤識別,定位結(jié)果如表2,平均定位精度為0.702 m。

        圖5 偵察無人機室外試驗流程

        圖6 偵察結(jié)果

        表1 目標識別結(jié)果

        表2 目標定位結(jié)果

        4 結(jié)束語

        本文針對無人機自主偵察過程中目標識別、圖像拼接、目標定位的任務(wù)需求,通過改進深度學習目標檢測算法、選用圖像拼接算法、提出目標定位算法予以解決,編寫程序并建立了完整的試驗流程對本文設(shè)計的自主偵察方法進行驗證。

        試驗結(jié)果證明,本文所設(shè)計的無人機自主偵察方法達到了83.3%的識別準確度和0.702 m的定位精確度,能夠有效完成無人機自主偵察任務(wù),滿足自主偵察無人機預(yù)期設(shè)計要求。

        但對于面積較大的任務(wù)區(qū)域,單架無人機通常無法很好地勝任,通過多機協(xié)同提高無人機偵察效率將是下一步研究工作的重點[22-26]。

        猜你喜歡
        特征提取檢測
        特征提取和最小二乘支持向量機的水下目標識別
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        小波變換在PCB缺陷檢測中的應(yīng)用
        亚洲精品一区二区三区av| 久久人妻内射无码一区三区| 亚洲精品国偷拍自产在线观看蜜臀 | 加勒比一本heyzo高清视频| 中国凸偷窥xxxx自由视频妇科 | 国产黄大片在线观看| 色老汉免费网站免费视频| 无遮高潮国产免费观看韩国| 久久综合激情的五月天| 国产成人小视频| 免费男人下部进女人下部视频| 中文字幕无码免费久久9| 国产一区二区三区免费av| 精品伊人久久大线蕉色首页| 国产微拍精品一区二区| h动漫尤物视频| 美女露出奶头扒开内裤的视频| 久久久久人妻一区精品| 亚洲国产av一区二区三区四区| 亚洲乱精品中文字字幕| 国产精品亚洲精品国产| 米奇7777狠狠狠狠视频影院| 国产精品理人伦国色天香一区二区| 精品国产成人一区二区不卡在线| 国产日产韩国av在线| 成人a级视频在线观看| 亚洲欧美另类精品久久久| 亚洲人妻av综合久久| 无码精品人妻一区二区三区漫画| 欧洲极品少妇| 韩国主播av福利一区二区| 91九色播放在线观看| 一进一出一爽又粗又大| 草莓视频一区二区精品| 国产无套粉嫩白浆内精| 亚洲爆乳无码精品aaa片蜜桃| 男人边吃奶边做好爽免费视频| 香蕉久久夜色精品国产| 邻居美少妇张开腿让我爽了一夜| 无码不卡av东京热毛片| 熟女人妻丰满熟妇啪啪|