亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖像配準(zhǔn)的無(wú)人機(jī)目標(biāo)精確定位算法

        2017-03-23 05:27:36帥,程紅,李婷,趙
        紅外技術(shù) 2017年6期
        關(guān)鍵詞:精確定位基準(zhǔn)競(jìng)爭(zhēng)

        楊 帥,程 紅,李 婷,趙 鶴

        ?

        基于圖像配準(zhǔn)的無(wú)人機(jī)目標(biāo)精確定位算法

        楊 帥1,程 紅2,李 婷3,趙 鶴4

        (1.78102 部隊(duì),四川 成都 610036;2.空軍航空大學(xué),吉林 長(zhǎng)春 130022;3.94701 部隊(duì),安徽 安慶 246000;4.93787 部隊(duì),北京 100071)

        為了滿足“察打一體化”無(wú)人機(jī)精確打擊目標(biāo)的要求,針對(duì)現(xiàn)有目標(biāo)定位算法的準(zhǔn)確率低、實(shí)時(shí)性差的特點(diǎn),本文提出了一種基于圖像配準(zhǔn)的無(wú)人機(jī)目標(biāo)精確定位算法。該算法主要分為兩個(gè)階段:特征點(diǎn)檢測(cè)階段和目標(biāo)精確定位階段。首先采用基于側(cè)抑制競(jìng)爭(zhēng)的特征點(diǎn)檢測(cè)算法,實(shí)現(xiàn)局部圖像中目標(biāo)特征點(diǎn)的檢測(cè)工作;然后利用圖像局部信息的配準(zhǔn)算法,完成目標(biāo)所處的局部區(qū)域圖像的精確配準(zhǔn)工作,最終實(shí)現(xiàn)了目標(biāo)的高精度定位。實(shí)驗(yàn)結(jié)果顯示該算法的定位精度可以達(dá)到0.21m,能夠滿足精確作戰(zhàn)時(shí)的目標(biāo)情報(bào)保障需求。

        無(wú)人機(jī)偵察圖像;目標(biāo)定位;特征點(diǎn)檢測(cè);側(cè)抑制競(jìng)爭(zhēng);圖像配準(zhǔn)

        0 引言

        近些年來(lái),無(wú)人機(jī)(Unmanned Aerial Vehi-cle)在偵察作戰(zhàn)中的應(yīng)用越來(lái)越廣泛,相對(duì)有人飛機(jī),無(wú)人機(jī)既能承擔(dān)同樣的偵察作戰(zhàn)任務(wù),又能避免人身傷亡情況的出現(xiàn)。而且隨著“察打一體化”無(wú)人機(jī)裝備部隊(duì),作為無(wú)人機(jī)目標(biāo)打擊的前期工作,目標(biāo)定位的重要性日益突出[1]。圖1為無(wú)人機(jī)執(zhí)行目標(biāo)偵察任務(wù)時(shí)的示意圖。因此研究無(wú)人機(jī)偵察圖像目標(biāo)的定位技術(shù),對(duì)于提高信息化戰(zhàn)爭(zhēng)中的目標(biāo)精確打擊能力具有非常重要的意義[2]。

        無(wú)人機(jī)偵察目標(biāo)定位是指利用攝影測(cè)量、圖像處理和信息處理等技術(shù),通過(guò)對(duì)無(wú)人機(jī)偵察獲得的圖像進(jìn)行處理與分析,最終得到目標(biāo)的精確三維坐標(biāo)[3]。國(guó)內(nèi)外一些學(xué)者從不同的角度對(duì)圖像配準(zhǔn)定位進(jìn)行研究和分析。文獻(xiàn)[4]論述了基于特征點(diǎn)相似度的配準(zhǔn)定位,保證了算法在視點(diǎn)變化時(shí),依舊能夠完成前視圖像的準(zhǔn)確配準(zhǔn)定位工作。文獻(xiàn)[5]在提出改進(jìn)SIFT算法的基礎(chǔ)上進(jìn)行精確配準(zhǔn),為無(wú)人機(jī)目標(biāo)定位提供了一種可行和有效的手段。文獻(xiàn)[6]將SIFT配準(zhǔn)算法應(yīng)用到SAR圖像的配準(zhǔn)定位領(lǐng)域,切實(shí)有效地降低了對(duì)實(shí)時(shí)圖像的苛刻要求,提高了該技術(shù)的應(yīng)用范圍。文獻(xiàn)[7]以SIFT算法為基礎(chǔ),結(jié)合KD-Treed搜索策略,提高了圖像的配準(zhǔn)效率,保證了無(wú)人機(jī)定位的實(shí)時(shí)性;文獻(xiàn)[8]通過(guò)降低SIFT描述符的維數(shù)和引入聚類算法,減少配準(zhǔn)時(shí)間滿足了圖像定位的時(shí)效性要求,為無(wú)人機(jī)實(shí)驗(yàn)奠定了理論技術(shù)基礎(chǔ)。綜上所述,當(dāng)前利用無(wú)人機(jī)偵察圖像進(jìn)行目標(biāo)定位的精度和時(shí)效性仍需提高。

        針對(duì)當(dāng)前圖像配準(zhǔn)的無(wú)人機(jī)目標(biāo)定位算法的缺點(diǎn),本文提出了一種基于圖像配準(zhǔn)的無(wú)人機(jī)目標(biāo)精確定位算法,在采用側(cè)抑制競(jìng)爭(zhēng)理論實(shí)現(xiàn)對(duì)目標(biāo)特征點(diǎn)檢測(cè)的基礎(chǔ)上,利用局部圖像配準(zhǔn)算法完成對(duì)目標(biāo)的精確定位。該算法的限制條件少,應(yīng)用范圍廣泛,并且可靠性強(qiáng)、準(zhǔn)確率高。圖1為無(wú)人機(jī)目標(biāo)偵察定位示意圖。

        圖1 無(wú)人機(jī)偵察目標(biāo)定位示意圖

        1 基于側(cè)抑制競(jìng)爭(zhēng)的特征點(diǎn)檢測(cè)算法

        考慮到目標(biāo)所處的局部區(qū)域圖像內(nèi)的特征信息可能較少,并且存在光照條件以及圖像紋理等不確定性的灰度變化,給魯棒的特征檢測(cè)帶來(lái)了一定的困難。常用的SIFT算法中的DoG算子對(duì)灰度變換敏感,局部范圍內(nèi)很難提取到數(shù)量足夠多、魯棒性好的斑點(diǎn)[9];Harris算法存在參數(shù)不易選取的問(wèn)題,場(chǎng)景自適應(yīng)能力不強(qiáng)[10];FAST算法中的灰度比較閾值不易選取,算法性能受圖像不確定性灰度變化的影響較大[11]。針對(duì)局部圖像可能存在的實(shí)際情況以及SIFT、FAST以及Harris算法的不足,本文提出了一種基于側(cè)抑制競(jìng)爭(zhēng)思想的特征點(diǎn)檢測(cè)算法,在局部區(qū)域圖像內(nèi)能夠較好地克服圖像灰度變化的影響,檢測(cè)到數(shù)量足夠多的點(diǎn)特征用于后續(xù)的圖像配準(zhǔn)工作[12]。

        算法具體流程圖如圖2所示,主要分為3個(gè)步驟:側(cè)抑制競(jìng)爭(zhēng)增強(qiáng)圖像、篩選關(guān)鍵點(diǎn)、極值比較。

        1)側(cè)抑制競(jìng)爭(zhēng)增強(qiáng)圖像

        側(cè)抑制現(xiàn)象[13-14]最早由生物學(xué)家Hartline等人在對(duì)鱟的視覺(jué)系統(tǒng)的長(zhǎng)期研究之后提出,即視網(wǎng)膜上的每個(gè)視神經(jīng)細(xì)胞對(duì)它周圍的視神經(jīng)細(xì)胞的輸出具有抑制特性。李言俊等人[15]在數(shù)字圖像處理中引入了側(cè)抑制競(jìng)爭(zhēng)的概念,提出了一種基于側(cè)抑制競(jìng)爭(zhēng)網(wǎng)絡(luò)的圖像處理方法,當(dāng)圖像的灰度發(fā)生較大變化時(shí),該方法仍能有效增強(qiáng)圖像,具有很強(qiáng)的抗灰度變化的能力,實(shí)現(xiàn)簡(jiǎn)單,實(shí)時(shí)性好。

        本文選擇3×3網(wǎng)絡(luò)的抑制競(jìng)爭(zhēng)函數(shù),以圖像中的某個(gè)像素點(diǎn)0(,)為例,中心點(diǎn)權(quán)值為00,其余點(diǎn)權(quán)值為,則側(cè)抑制競(jìng)爭(zhēng)函數(shù)[16]為:

        依據(jù)側(cè)抑制競(jìng)爭(zhēng)的原理,00=1,=-0.125,則3×3網(wǎng)絡(luò)的側(cè)抑制競(jìng)爭(zhēng)系數(shù)[17],如圖3所示。

        將圖3的系數(shù)帶入式(1)可得像素點(diǎn)0(,)的側(cè)抑制競(jìng)爭(zhēng)函數(shù)(,),依據(jù)此函數(shù)完成對(duì)圖像的增強(qiáng)處理,增強(qiáng)后的圖像為(,)。

        圖2 特征點(diǎn)檢測(cè)流程圖

        -0.125-0.125-0.125 -0.1251-0.125 -0.125-0.125-0.125

        2)篩選關(guān)鍵點(diǎn)

        采用高斯函數(shù)對(duì)圖像(,)進(jìn)行平滑處理,降低噪聲的影響;然后計(jì)算圖像(,)的標(biāo)準(zhǔn)差作為門限,將大于門限的點(diǎn)作為候選亮特征點(diǎn),將小于閾值的點(diǎn)作為候選暗特征點(diǎn),完成關(guān)鍵點(diǎn)的篩選。

        3)極值比較

        在圖像(,)中,將候選亮特征點(diǎn)的像素值與周圍8個(gè)方向上的相鄰點(diǎn)的像素值進(jìn)行比較,如果為局部極大值,則將其作為亮特征點(diǎn)(bright point);將候選暗特征點(diǎn)的像素值與周圍8個(gè)方向上的相鄰點(diǎn)的像素值進(jìn)行比較,如果為局部極小值,則將其作為暗特征點(diǎn)(dark point)。

        至此,完成圖像中特征點(diǎn)的檢測(cè)工作,得到兩個(gè)特征點(diǎn)集:亮特征點(diǎn)和暗特征點(diǎn)。

        2 基于局部圖像配準(zhǔn)的目標(biāo)精確定位算法

        2.1 算法的基本原理

        基本原理:為了實(shí)現(xiàn)目標(biāo)的精確定位,首先在基準(zhǔn)圖像和配準(zhǔn)圖像中以目標(biāo)為中心截取目標(biāo)局部區(qū)域圖像作為新的基準(zhǔn)圖像和待配準(zhǔn)圖像,再利用基于側(cè)抑制競(jìng)爭(zhēng)的特征點(diǎn)檢測(cè)算法檢測(cè)圖像中的亮特征點(diǎn)和暗特征點(diǎn)并統(tǒng)一采用SIFT特征描述符進(jìn)行特征描述,然后利用特征匹配策略匹配兩幅圖像中同類性質(zhì)的點(diǎn)特征,合并匹配點(diǎn)對(duì)集計(jì)算出圖像變換模型,最后重新解算出目標(biāo)的地理位置,完成圖像目標(biāo)的精確定位工作[18]。

        2.2 算法的具體步驟

        本文配準(zhǔn)定位算法的具體流程如圖4所示,主要包括:圖像裁剪、特征點(diǎn)檢測(cè)、特征描述、特征匹配、計(jì)算圖像變換模型、目標(biāo)定位6個(gè)步驟。

        Step 1:圖像裁剪:對(duì)待配準(zhǔn)圖像進(jìn)行小波變換[19-20],進(jìn)行適當(dāng)層級(jí)的分解降低特征搜索空間,提高配準(zhǔn)算法的實(shí)時(shí)性和降低數(shù)據(jù)量和計(jì)算量。之后分別在基準(zhǔn)圖像和進(jìn)行小波處理過(guò)的配準(zhǔn)圖像中,以目標(biāo)為中心截取相同尺寸的局部區(qū)域圖像作為新的基準(zhǔn)圖像和待配準(zhǔn)圖像。

        Step 2:特征點(diǎn)檢測(cè):利用基于側(cè)抑制競(jìng)爭(zhēng)的特征點(diǎn)檢測(cè)算法分別檢測(cè)新的基準(zhǔn)圖像和待配準(zhǔn)圖像中的亮特征點(diǎn)和暗特征點(diǎn)。

        Step 3:SIFT特征描述:利用性能良好的SIFT特征描述符描述圖像中的點(diǎn)特征,點(diǎn)特征的主方向設(shè)為0°。

        Step 4:特征匹配:采用最近鄰特征匹配策略,分別匹配兩幅圖像中的亮特征點(diǎn)和暗特征點(diǎn),再合并得到的兩個(gè)匹配點(diǎn)對(duì)集,得到新的匹配點(diǎn)對(duì)集。

        Step 5:計(jì)算圖像變換模型:利用最小二乘法計(jì)算出兩幅新的配準(zhǔn)圖像之間的投影變換模型。

        Step 6:目標(biāo)定位:利用投影變換模型計(jì)算出目標(biāo)在基準(zhǔn)圖像中的位置,進(jìn)而得到目標(biāo)的真實(shí)地理位置,由此實(shí)現(xiàn)目標(biāo)的精確定位。

        圖4 基于局部圖像配準(zhǔn)的目標(biāo)精確定位算法流程圖

        3 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證本文方法的有效性,在主頻3.40GHz、i3處理器、內(nèi)存4GB的平臺(tái)上,在Matlab2014a的環(huán)境下進(jìn)行了仿真實(shí)驗(yàn)并進(jìn)行了實(shí)驗(yàn)結(jié)果分析。

        3.1 實(shí)驗(yàn)圖像及數(shù)據(jù)的確定

        在基準(zhǔn)圖像和全局粗配準(zhǔn)圖像中以目標(biāo)點(diǎn)為中心截取目標(biāo)局部區(qū)域圖像作為新的基準(zhǔn)圖像和待配準(zhǔn)圖像。

        考慮到對(duì)算法實(shí)時(shí)性與局部圖像特征信息量的要求,以及本文研究采用的基準(zhǔn)圖像的分辨率約為0.44m,本文分別在基準(zhǔn)圖像與粗配準(zhǔn)圖像以目標(biāo)點(diǎn)為中心截取實(shí)際范圍為100m×100m的地面區(qū)域,由此計(jì)算出的新的基準(zhǔn)圖像和待配準(zhǔn)圖像的分別率227×227,圖像尺寸大小和場(chǎng)景收容范圍均較為合適,同時(shí),計(jì)算出目標(biāo)點(diǎn)在待配準(zhǔn)圖像中的坐標(biāo)(144,144)。

        圖5為裁剪出的兩幅新的配準(zhǔn)圖像,雖然圖像的整體場(chǎng)景與結(jié)構(gòu)大致相同,但是兩者之間的紋理、灰度差別較大,仔細(xì)觀察對(duì)比兩幅圖像,兩者在空間位置上的差別雖然很小,但確實(shí)存在。

        圖5 新的配準(zhǔn)圖像

        3.2 側(cè)抑制增強(qiáng)圖像及特征點(diǎn)檢測(cè)實(shí)驗(yàn)

        圖6所示為側(cè)抑制競(jìng)爭(zhēng)增強(qiáng)后的基準(zhǔn)圖像和待配準(zhǔn)圖像,從圖中可以看出經(jīng)過(guò)側(cè)抑制增強(qiáng)之后,圖像的灰度差異得到了降低,圖像邊緣等細(xì)節(jié)部分得到了增強(qiáng)。

        圖6 側(cè)抑制競(jìng)爭(zhēng)圖像增強(qiáng)結(jié)果圖

        圖7所示為基于側(cè)抑制競(jìng)爭(zhēng)的特征點(diǎn)檢測(cè)算法在基準(zhǔn)圖像和待配準(zhǔn)圖像中的特征點(diǎn)檢測(cè)結(jié)果,其中,“o”點(diǎn)表示亮特征點(diǎn),“*”點(diǎn)表示暗特征點(diǎn)。

        3.3 算法匹配性能及配準(zhǔn)精度的對(duì)比實(shí)驗(yàn)

        本文將SIFT算法、Harris+SIFT算法、FAST+SIFT算法以及本文配準(zhǔn)算法共4種算法進(jìn)行了對(duì)比實(shí)驗(yàn)。

        1)算法匹配性能對(duì)比分析

        圖8所示為各個(gè)算法的匹配結(jié)果圖像,可以明顯看出本文配準(zhǔn)算法得到的匹配點(diǎn)對(duì)數(shù)量要遠(yuǎn)遠(yuǎn)超過(guò)其余3種算法,有利于提高后續(xù)圖像配準(zhǔn)的精度。

        圖7 特征點(diǎn)檢測(cè)結(jié)果

        為了客觀地評(píng)價(jià)各個(gè)算法的匹配性能,采用正確匹配點(diǎn)對(duì)、匹配正確率、總耗時(shí)以及單個(gè)正確匹配點(diǎn)對(duì)耗時(shí)4個(gè)評(píng)價(jià)指標(biāo)進(jìn)行定量對(duì)比分析。

        通過(guò)觀察表1,可以看出本文算法耗時(shí)1.232s,時(shí)效性較好,僅僅比FAST算法慢,但其余各項(xiàng)指標(biāo)均屬于最優(yōu),尤其算法得到的正確匹配點(diǎn)對(duì)數(shù)量大大超過(guò)了其余3種算法,對(duì)于后續(xù)提高圖像配準(zhǔn)精度和目標(biāo)定位精度有很大的作用。

        2)算法配準(zhǔn)精度對(duì)比分析

        圖9所示為在本文配準(zhǔn)算法下局部航空?qǐng)D像的配準(zhǔn)結(jié)果。

        圖8 各個(gè)算法的匹配結(jié)果

        表1 匹配結(jié)果數(shù)據(jù)對(duì)照表

        圖9 目標(biāo)所處局部區(qū)域圖像配準(zhǔn)結(jié)果

        為了對(duì)比分析各個(gè)算法的配準(zhǔn)精度,采用絕對(duì)差度量(SAD)、平方差度量(SSD)以及積相關(guān)度量(PROD)3個(gè)評(píng)價(jià)指標(biāo)來(lái)進(jìn)行定量分析,各指標(biāo)定義[21]如下:

        式中:(,)為基準(zhǔn)圖像;(,)為待配準(zhǔn)圖像精配準(zhǔn)后的圖像;、為圖像的行列數(shù)。為了消除光照變化對(duì)配準(zhǔn)精度計(jì)算的影響,實(shí)驗(yàn)時(shí)均對(duì)圖像(,)、(,)進(jìn)行了側(cè)抑制增強(qiáng)和歸一化處理。在3個(gè)評(píng)價(jià)指標(biāo)中,SAD或SSD的值越小,表明兩幅圖像的相似度越高;PROD的值越大,表明兩幅圖像的相似度越高。表2為常見(jiàn)算法配準(zhǔn)精度對(duì)比情況。

        表2 配準(zhǔn)精度對(duì)比

        由表2中的各項(xiàng)指標(biāo)對(duì)比可以看出,本文算法的圖像配準(zhǔn)精度要優(yōu)于其余3種算法,通常圖像配準(zhǔn)精度越高,后續(xù)的目標(biāo)定位精度也越高。

        3.4 目標(biāo)定位精度分析

        目標(biāo)精確定位的結(jié)果如圖10所示,圖中實(shí)心小圓點(diǎn)表示局部圖像配準(zhǔn)后確定的目標(biāo)在基準(zhǔn)圖像中的位置,空心圓“o”表示目標(biāo)在基準(zhǔn)圖像中的真實(shí)位置,圖10右側(cè)為目標(biāo)局部區(qū)域的放大圖像。

        圖10 目標(biāo)精確定位結(jié)果

        從圖10中可以看出本文算法的定位結(jié)果達(dá)到了亞像素級(jí),精確定位后目標(biāo)在基準(zhǔn)圖像中的坐標(biāo)為(743.46,646.89),經(jīng)緯度坐標(biāo)約為(122.4791°, 42.7036°),而目標(biāo)的真實(shí)坐標(biāo)為(743, 647),兩者之間的位移量為(-0.46, 0.11),實(shí)際地面距離相差約為0.21m,由此可知在本文算法精確定位目標(biāo)之后,目標(biāo)的定位精度達(dá)到了米級(jí),可以滿足精確作戰(zhàn)時(shí)的目標(biāo)情報(bào)保障需求。

        4 結(jié)論

        針對(duì)現(xiàn)有目標(biāo)定位算法存在的缺陷,本文提出了一種基于圖像匹配的無(wú)人機(jī)目標(biāo)精確定位方法。該方法充分考慮了目標(biāo)局部區(qū)域圖像中的特征信息存在較大非線性灰度變換的情況,首先采用基于側(cè)抑制增強(qiáng)的特征點(diǎn)的檢測(cè)算法進(jìn)行特征點(diǎn)的提取,然后采用局部圖像的精確配準(zhǔn)算法實(shí)現(xiàn)目標(biāo)的定位,結(jié)果表明本文的算法能夠克服灰度變化的影響,檢測(cè)到足夠多的點(diǎn)特征,并且能夠較好地完成局部圖像的配準(zhǔn)任務(wù),獲得較高的圖像配準(zhǔn)精度,從而實(shí)現(xiàn)了目標(biāo)的高精度定位,最終證明了本文算法的有效性和可行性。

        由于本文選取的實(shí)驗(yàn)圖像是地面信息豐富的航空?qǐng)D像,當(dāng)面對(duì)信息匱乏的航空?qǐng)D像(如農(nóng)田、沙漠、野外地區(qū)等),此時(shí)本文提出的算法成功率會(huì)很低,如何實(shí)現(xiàn)此類地區(qū)航空?qǐng)D像中目標(biāo)的準(zhǔn)確定位是下一步研究的一個(gè)方向。

        [1] 王方玉. 美國(guó)無(wú)人機(jī)的光電載荷與發(fā)展分析[J]. 激光與紅外, 2008, 38(4): 311-314.

        WANG F Y. Electric-optic load and development analysis of the american UAV[J]., 2008, 38(4): 311-314.

        [2] 汪林彪, 鄭垣模. 信息化推進(jìn)精確作戰(zhàn)的發(fā)展[J]. 國(guó)防科技, 2010 (4): 56-59.

        WANG L B, ZHENG Y M. Development of precision engagement pushed by information[J]., 2010(4): 56-59.

        [3] 都基焱, 段連飛, 黃國(guó)滿. 無(wú)人機(jī)電視偵察目標(biāo)定位原理[M]. 合肥: 中國(guó)科學(xué)技術(shù)大學(xué)出版社, 2013.

        DU J Y, DUAN L F, HUANG G M.[M]. Hefei: University of Science and Technology of China Press, 2013.

        [4] 魯統(tǒng)偉. 前視目標(biāo)圖像匹配定位技術(shù)研究[D]. 武漢: 華中科技大學(xué), 2009.

        LU Tongwei. Study on Forward-looking Object Image Matching and Localization[D].Wuhan: Huazhong University of Science&Technology, 2009.

        [5] 胡海洋, 李海林. 基于圖像匹配的無(wú)人機(jī)目標(biāo)定位方法[J]. 艦船電子工程, 2013, 32(12): 49-51.

        HU Haiyang, LI Hailin. A Target location method for UAV based on image registration[J]., 2012(12): 49-52.

        [6] 唐波, 張輝, 劉彥. 基于 SAR景象不變特征點(diǎn)的匹配定位技術(shù)研究[J]. 航天控制, 2012(2): 10-19.

        TANG Bo, ZHANG Hui, LIU Yan. The research of SAR image match guide method based on SIFT[J]., 2012 (2): 10-19.

        [7] 馬園, 吳愛(ài)國(guó), 杜春燕. 基于視覺(jué)的無(wú)人機(jī)飛行過(guò)程定位算法研究[J]. 電光與控制, 2013, 20(11): 42-46.

        MA Yuan, WU Aiguo, DU Chunyan. Vision based localization algorithm for unmanned aerial vehicles in flight[J]., 2013(12): 42-46.

        [8] 吳愛(ài)國(guó), 馬園, 杜春燕. 無(wú)人機(jī)飛行過(guò)程中圖像定位算法研究[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2015, 4: 041.

        WU Aiguo, MA Yuan, DU Chunyan. Research on image localization on algorithm for unmanned aerial vehicles in fight[J]., 2015(4): 165-170.

        [9] 楊新鋒, 滕書華, 夏東. 基于空間變換迭代的SIFT特征圖像匹配算法[J]. 紅外與激光工程, 2013, 42(12):3496-3501.

        YANG X F, TENG S H, XIA D. SIFT matching algorithm with geometry constraint[J]., 2013, 42(12): 3496-3501.

        [10] Wilhelm Burger, Mark J. Burge.—[M]// Principles of Digital Image Processing. Springer London, 2013: 229-296.

        [11] Miksik O, Mikolajczyk K. Evaluation of local detectors and descriptors for fast feature matching[C]/(), 2012: 2681-2684.

        [12] 王志強(qiáng), 程紅, 楊桄, 等. 全局圖像配準(zhǔn)的目標(biāo)快速定位方法[J]. 紅外與激光工程, 2015, 44(S): 225-229.

        WANG Z Q, CHENG H, YANG G, LI C, WU D. Fast target location method of global image registration[J]., 2015, 44(S): 225-229.

        [13] 福島邦彥. 視覺(jué)生理與仿生學(xué)[M]. 馬萬(wàn)祿, 譯. 北京: 科學(xué)出版社, 1980:231-244.

        FUKUSHIMA. V[M]. MA W L, translated. Beijing: Science Press, 1980: 231-244.

        [14] 周理, 高山, 畢篤彥,等. 基于視覺(jué)側(cè)抑制機(jī)理的強(qiáng)魯棒性圖像分割方法[J]. 中南大學(xué)學(xué)報(bào): 自然科學(xué)版, 2013,44(5): 1910-1917.

        ZHOU L,GAO S, BI D Y, et al. A strongly robust algorithm of image segmentation based onvisual lateral inhibition[J].:, 2013,44(5): 1910-1917.

        [15] 王蜂, 陳鷹, 李言俊. 一種擴(kuò)展邊緣特征的圖像定位方法[J]. 西北工業(yè)大學(xué)學(xué)報(bào), 1999, 17(2): 322-326.

        WANG F, LI Y J, CHEN Y. A new and better way of extracting digital image edge[J]., 1999, 17(2): 322-326.

        [16] 李言俊, 張科. 景象匹配與目標(biāo)識(shí)別技術(shù)[M]. 西安: 西北工業(yè)大學(xué)出版社, 2009: 175-181.

        LI Y J, ZHANG K.[M]. Xi'an: Northwestern Polytechnical University, 2009: 175-181.

        [17] 陳衛(wèi)兵, 束慧. 快速邊緣匹配算法研究[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2004, 25(1): 130-132.

        CHEN W B, SHU H. Research on fast edge matching algorithm[J]., 2004, 25(1): 130-132.

        [18] Gauglitz S, H?llerer T, Turk M. Evaluation of interest point detectors and feature descriptors for visual tracking[J]., 2011, 94(3): 335-360.

        [19] 李龍龍. 結(jié)合小波變換和SIFT算法的遙感圖像快速配準(zhǔn)算法[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2013.

        LI L L. Remote Sensing Image Fast Registration Algorithm Combined with Wavelet Transform and SIFT Algorithm[D]. Harbin : Harbin Institute of Technology, 2013.

        [20] 范瑾瑾, 胡良梅, 凌虎. 改進(jìn)的基于小波變換的圖像配準(zhǔn)方法[J]. 計(jì)算機(jī)工程, 2010, 36(5): 212-214.

        FAN J J, HU L M, LING H. Improved approach for image registration based on wavelet transform [J]., 2010, 36(5): 212-214.

        [21] 劉寶生, 閆莉萍, 周東華. 幾種經(jīng)典相似性度量的比較研究[J]. 計(jì)算機(jī)應(yīng)用研究, 2006, 23(11): 1-3.

        LIU B S, YAN L P, ZHOU D H. Comparison of some classical similarity measures[J]., 2006, 23(11): 1-3.

        UAV Reconnaissance Images Accurate Targeting MethodBased on Image Registration

        YANG Shuai1,CHENG Hong2,LI Ting3,ZHAO He4

        (1.78102,610036,; 2.,130022,;3.94701,246000,; 4.93787,100071,)

        In order to meet the needs of the integrated reconnaissance/strike UAV precision attack, and to overcome low accuracy and worse real-time performance of these existing target localization algorithms, this paper proposes a UAV accurate positioning algorithm based on image registration, which consists of two parts: feature point detection and target accurate positioning. First, the feature point detection algorithm based on lateral inhibition competition is used to detect the local image feature points; and then the image registration algorithm of local information is applied to complete the work of local image precise registration, ultimately achieving the goal of high-precision positioning of the targets. The experiments show that the positioning accuracy of this algorithm can reach 0.21m, which can meet the target information security needs during combat.

        UAV reconnaissance image,target orientation,feature point detection,lateral inhibition competition,image registration

        TP391

        A

        1001-8891(2017)06-0529-06

        2016-08-04;

        2016-12-20.

        楊帥(1992-),男,碩士研究生,主要研究領(lǐng)域?yàn)闊o(wú)人機(jī)目標(biāo)定位技術(shù)。

        國(guó)家自然科學(xué)基金(61301233)。

        猜你喜歡
        精確定位基準(zhǔn)競(jìng)爭(zhēng)
        精確定位
        感謝競(jìng)爭(zhēng)
        明基準(zhǔn)講方法??待R
        精確定位
        兒時(shí)不競(jìng)爭(zhēng),長(zhǎng)大才勝出
        電力設(shè)備紅外測(cè)溫多點(diǎn)精確定位控制系統(tǒng)設(shè)計(jì)
        精確定位
        滑落還是攀爬
        競(jìng)爭(zhēng)
        巧用基準(zhǔn)變換實(shí)現(xiàn)裝配檢測(cè)
        河南科技(2014年15期)2014-02-27 14:12:35
        日本高清h色视频在线观看| 91快射视频在线观看| 亚洲最新国产av网站| 国内精品人妻无码久久久影院| 精品推荐国产精品店| 亚洲熟妇av日韩熟妇av| 熟妇人妻精品一区二区视频| 中文字幕亚洲无线码一区女同| 日韩好片一区二区在线看| 亚洲片在线视频| 国产中文色婷婷久久久精品| 国产不卡视频一区二区三区| 性一交一乱一伦| 国产成人精品一区二免费网站| 一区二区三区蜜桃av| 夜夜添夜夜添夜夜摸夜夜摸 | 青青草原综合久久大伊人精品| 色先锋av资源中文字幕| 亚洲AV无码永久在线观看| 国产三级视频在线观看国产| 最美女人体内射精一区二区| 亚洲av无码专区在线电影| 91网红福利精品区一区二| 国产精品熟女视频一区二区三区| 女人被狂躁c到高潮视频| 国产99r视频精品免费观看| 日韩精品国产一区二区| 国产偷国产偷亚洲高清视频| 中国老熟妇自拍hd发布| 2021国产精品久久| 成年人视频在线观看麻豆| 一二区成人影院电影网| 色偷偷88888欧美精品久久久| 黑人免费一区二区三区| 婷婷色国产精品视频二区| 少妇高潮惨叫正在播放对白| 国产自在自线午夜精品视频在| 亚洲国产国语对白在线观看| 久久精品夜色国产亚洲av| 美日韩毛片| 亚洲av中文字字幕乱码软件|