亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種新的基于神經(jīng)網(wǎng)絡(luò)的景象匹配算法

        2010-06-14 01:38:22李建軍胡禮勇
        無(wú)線電工程 2010年1期

        李建軍,李 釗,牛 萌,胡禮勇

        (1.第二炮兵士官學(xué)校,山東青州262500;2.第二炮兵駐石家莊地區(qū)軍事代表室,河北石家莊050081)

        0 引言

        景象匹配是飛行器導(dǎo)航和制導(dǎo)中的關(guān)鍵技術(shù)之一,在一飛行器輔助導(dǎo)航、遠(yuǎn)程武器或精確制導(dǎo)武器的末制導(dǎo)、圖像目標(biāo)的搜索與跟蹤等軍事領(lǐng)域具有重要的應(yīng)用價(jià)值。目前,人們提出了許多景象匹配區(qū)選取準(zhǔn)則和景象匹配算法,但這些算法在應(yīng)用中都遇到了不同程度的難題。尤其是對(duì)于實(shí)時(shí)圖存在旋轉(zhuǎn)變化的匹配問(wèn)題,傳統(tǒng)的方法匹配精度降低,甚至?xí)霈F(xiàn)誤匹配現(xiàn)象[1-3]。為解決存在角度旋轉(zhuǎn)實(shí)時(shí)圖像的匹配問(wèn)題,并且盡可能地提高匹配實(shí)時(shí)性能,本文提出一種新的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),將實(shí)時(shí)圖像與基準(zhǔn)圖像內(nèi)待匹配區(qū)域的像素按環(huán)形排列,分別作為神經(jīng)網(wǎng)絡(luò)的閾值和輸入,選擇基準(zhǔn)圖像內(nèi)與實(shí)時(shí)圖像相對(duì)應(yīng)的各環(huán)差值均較小的區(qū)域中心作為匹配位置。

        1 基于神經(jīng)網(wǎng)絡(luò)的景象匹配算法

        1.1 BP神經(jīng)網(wǎng)絡(luò)

        典型的BP神經(jīng)網(wǎng)絡(luò)為3層網(wǎng)絡(luò)(如圖1所示),包括輸入層、隱含層和輸出層,相鄰層之間結(jié)點(diǎn)通過(guò)權(quán)值實(shí)現(xiàn)全相連。其學(xué)習(xí)由4個(gè)過(guò)程組成:輸入層經(jīng)隱含層向輸出層的“正向傳播輸出”過(guò)程;網(wǎng)絡(luò)的希望輸出與網(wǎng)絡(luò)實(shí)際輸出之差的誤差信號(hào)由輸出層經(jīng)隱含層向輸入層逐層修正連接權(quán)的“誤差逆?zhèn)鞑ァ边^(guò)程;正向傳播和反向傳播反復(fù)交替進(jìn)行的網(wǎng)絡(luò)“記憶訓(xùn)練”過(guò)程;網(wǎng)絡(luò)趨向收斂的“學(xué)習(xí)收斂”過(guò)程[4]。

        圖1 3層BP網(wǎng)絡(luò)結(jié)構(gòu)

        景象匹配算法是實(shí)時(shí)圖在基準(zhǔn)圖中按一定的準(zhǔn)則進(jìn)行搜索,匹配最好區(qū)域的中心即可認(rèn)為是目標(biāo)的中心。由于精確制導(dǎo)武器對(duì)圖像處理的實(shí)時(shí)性要求很高,因此匹配程度衡量的計(jì)算量很小才可滿足實(shí)時(shí)性的要求,利用灰度差的絕對(duì)平均值(MAD)衡量2幅圖像的匹配程度就是一種計(jì)算量較小的算法。

        1.2 平均絕對(duì)差算法

        設(shè)實(shí)時(shí)圖Y大小為n×n(n一般為奇數(shù)),那么基準(zhǔn)圖(大小為M×N)中同樣大小的基準(zhǔn)子圖X與Y的平均絕對(duì)差算法(MAD)為[5]:

        式中,d為最小處即為匹配點(diǎn)。由上式可見(jiàn),如果實(shí)時(shí)圖僅在平面內(nèi)發(fā)生了旋轉(zhuǎn)或是實(shí)時(shí)圖與基準(zhǔn)圖的灰度差異較大,d的值也會(huì)隨之增大,不能搜索到正確的匹配點(diǎn)。針對(duì)這一缺點(diǎn),本節(jié)提出一種新的基于像素環(huán)形排列的神經(jīng)網(wǎng)絡(luò)算法。

        為降低灰度差異對(duì)匹配的影響,匹配前首先要對(duì)基準(zhǔn)圖和實(shí)時(shí)圖做去均值處理:

        ①去除實(shí)時(shí)圖大小的基準(zhǔn)子圖灰度均值,結(jié)果圖為A=X-ˉX,X為實(shí)時(shí)圖大小的基準(zhǔn)子圖原始灰度數(shù)據(jù);X為實(shí)時(shí)圖大小的基準(zhǔn)子圖的原始灰度均值;

        ②去除實(shí)時(shí)圖灰度均值,結(jié)果圖為B=Y-ˉY,Y為實(shí)時(shí)圖的原始灰度數(shù)據(jù);ˉY為實(shí)時(shí)圖的原始灰度均值。

        然后根據(jù)基準(zhǔn)圖和實(shí)時(shí)圖的大小確定基準(zhǔn)圖中參與匹配運(yùn)算的區(qū)域?yàn)?

        1.3 基于像素環(huán)形排列的神經(jīng)網(wǎng)絡(luò)匹配算法

        神經(jīng)網(wǎng)絡(luò)可分為3層:第1層為輸入層,該層的神經(jīng)元即為實(shí)時(shí)圖的所有像素單元;第2層為隱層,根據(jù)景象匹配的思想,該層神經(jīng)元的激勵(lì)函數(shù)可選用式(1)的正態(tài)函數(shù)或式(2)的三角形函數(shù)。隱層第i個(gè)神經(jīng)元的激勵(lì)函數(shù)記為fi(x):

        第3層為輸出層,該層的主要作用為統(tǒng)計(jì)圖像匹配的結(jié)果,因此該層的激勵(lì)函數(shù)可選正線性函數(shù):

        如圖2所示,將實(shí)時(shí)圖內(nèi)的像素看成是以該幾何中心點(diǎn)為圓心的環(huán)形排列,中心點(diǎn)像素為第1環(huán),向外擴(kuò)展,第2環(huán)包括8個(gè)像素,第3環(huán)包括16個(gè)像素……。隱層的神經(jīng)元數(shù)與實(shí)時(shí)圖的環(huán)數(shù)相同。第i環(huán)的所有像素輸入到隱層中的第i個(gè)神經(jīng)元中,經(jīng)該激勵(lì)函數(shù)作用后,將所有隱層神經(jīng)元的輸出結(jié)果輸入到輸出層的神經(jīng)元中,所得結(jié)果為該中心點(diǎn)的匹配值。選取基準(zhǔn)圖中匹配值最大的點(diǎn)作為與實(shí)時(shí)圖匹配的匹配位置。圖2給出了實(shí)時(shí)圖為3×3時(shí)的網(wǎng)絡(luò)示意圖,網(wǎng)絡(luò)中共有2環(huán),第1環(huán)的神經(jīng)元輸入到隱層中的第1個(gè)神經(jīng)元,第2環(huán)中的所有神經(jīng)元輸入到隱層中的第2個(gè)神經(jīng)元。

        圖2 基于像素環(huán)形排列的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        假設(shè)網(wǎng)絡(luò)中輸入層共有m環(huán),則隱層中就有m個(gè)神經(jīng)元,此時(shí)神經(jīng)網(wǎng)絡(luò)的方程可表示為:

        式中,zij為輸入層中第i環(huán)的第j個(gè)神經(jīng)元的值,即該像素值;uij為實(shí)時(shí)圖中第i環(huán)的第j個(gè)像素值;θi為隱層第i個(gè)神經(jīng)元的閾值;xout為神經(jīng)網(wǎng)絡(luò)的輸出,對(duì)應(yīng)基準(zhǔn)圖中匹配區(qū)域與實(shí)時(shí)圖的匹配值;yi為隱層第i個(gè)神經(jīng)元的輸出。由于不同的環(huán)所具有的像素?cái)?shù)不同,考慮到圖像受到的污染噪聲的分布情況,所以隱層的不同神經(jīng)元的激勵(lì)函數(shù)fi(x)的參數(shù)ai的選取可以不同,i越大,則ai可選較大的值。

        由上述分析可以看出,本文提出的神經(jīng)網(wǎng)絡(luò)相當(dāng)于一種權(quán)值只為0或1,激勵(lì)函數(shù)選為fi(x)或g(x)的簡(jiǎn)化了的多輸入單輸出3層BP神經(jīng)網(wǎng)絡(luò),在各環(huán)像素的累加過(guò)程中,對(duì)噪聲起到了一定的平均濾波作用,計(jì)算量比MAD算法略小,算法對(duì)實(shí)時(shí)圖的平移和旋轉(zhuǎn)運(yùn)動(dòng)及與基準(zhǔn)圖的不嚴(yán)重灰度差異均具有良好的不變性。

        2 仿真實(shí)驗(yàn)與結(jié)果分析

        實(shí)驗(yàn)用圖基準(zhǔn)圖,大小為256×256;實(shí)時(shí)圖源由基準(zhǔn)圖順時(shí)針旋轉(zhuǎn)12°加噪聲生成的圖像,模擬實(shí)時(shí)圖大小為63×63,在實(shí)時(shí)圖源上隨機(jī)截取。從實(shí)時(shí)圖源中選取6幅63×63大小的模擬實(shí)時(shí)圖,分別用傳統(tǒng)Nprod算法、MAD算法和本文算法在基準(zhǔn)圖中進(jìn)行全場(chǎng)相關(guān)匹配,計(jì)算結(jié)果如表1所示。

        表1 不同匹配算法計(jì)算性能比較

        從表1可以看出,對(duì)于實(shí)時(shí)圖存在較大的角度旋轉(zhuǎn)與噪聲的圖像匹配,傳統(tǒng)Npod算法雖然具有一定的抑制作用,但是匹配結(jié)果與實(shí)際匹配位置存在一定的誤差,算法的匹配效果較差,MAD算法的匹配效果最差,在多處位置出現(xiàn)匹配誤差,甚至出現(xiàn)誤匹配;本文算法由于實(shí)時(shí)圖匹配之前進(jìn)行了去灰度均值處理,因而對(duì)基準(zhǔn)圖的不嚴(yán)重灰度差異具有良好的抑制作用;該方法設(shè)計(jì)的網(wǎng)絡(luò)輸入層具有環(huán)形結(jié)構(gòu),因此該算法對(duì)實(shí)時(shí)圖的平移和旋轉(zhuǎn)運(yùn)動(dòng)都具有良好的不變性,從而克服了MAD算法僅對(duì)實(shí)時(shí)圖像平移具有不變性的缺點(diǎn),因此,在所有匹配位置上都能實(shí)現(xiàn)準(zhǔn)確匹配,對(duì)于旋轉(zhuǎn)圖像匹配具有良好的不變性。在匹配計(jì)算所需的時(shí)間上,本文算法在基準(zhǔn)圖各點(diǎn)進(jìn)行匹配過(guò)程中,實(shí)時(shí)圖各環(huán)只需要進(jìn)行一次加法計(jì)算,而不需要每次匹配都重新對(duì)實(shí)時(shí)圖各環(huán)再進(jìn)行加法計(jì)算,效率略優(yōu)于MAD算法,速度比傳統(tǒng)Nprod算法提高5倍以上。

        3 結(jié)束語(yǔ)

        對(duì)利用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行景象匹配的理論、方法進(jìn)行了研究,介紹了BP神經(jīng)網(wǎng)絡(luò)基本理論,為解決實(shí)時(shí)圖存在旋轉(zhuǎn)變化的匹配問(wèn)題,提出一種新的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。將實(shí)時(shí)圖與對(duì)應(yīng)基準(zhǔn)圖相應(yīng)區(qū)域內(nèi)的像素按環(huán)形排列,分別作為神經(jīng)網(wǎng)絡(luò)的輸入和閾值,選擇實(shí)時(shí)圖與對(duì)應(yīng)基準(zhǔn)圖相應(yīng)區(qū)域的各環(huán)差值均較小的位置作為匹配結(jié)果。實(shí)驗(yàn)表明該方法對(duì)于實(shí)時(shí)圖的平移和旋轉(zhuǎn)均具有良好的不變性,同時(shí),算法計(jì)算量比MAD算法略小,提高了景象匹配算法的實(shí)時(shí)性能。

        [1]段輝明,衛(wèi) 東,葛成輝,等.遙感圖像與地理坐標(biāo)匹配的快速算法[J].中國(guó)圖像圖形學(xué)報(bào),2004,9(1):87-92.

        [2]雷 琳,蔣詠梅,匡綱要.一種基于圖像分類(lèi)的遙感圖像配準(zhǔn)方法[J].國(guó)防科技大學(xué)學(xué)報(bào),2004,26(2):35-40.

        [3]MUSSE O,HEITZ F,ARMSPACH J.Topology Preserving Deformable Image Matching Using Constrained Hierachical Parametric Models[J].IEEE Trans.Image Process,2001,10(6):1081-1093.

        [4]袁曾任.人工神經(jīng)元網(wǎng)絡(luò)及其應(yīng)用[M].北京:清華大學(xué)出版社,1999.

        [5]OLSON C F,HUTTENLOCHER DP.AutomaticTarget Recognition by Matching Oriented Edge Pixels[J].IEEE Transactions on Image Processing,1997,6(1):103-113.

        亚洲中文乱码在线观看| 亚洲国际无码中文字幕| 精品一区二区三区久久久| 久久精品国产福利亚洲av| 亚洲男人天堂一区二区| 人妻 色综合网站| 免费观看国产精品| 日本午夜理伦三级好看| 中文有码人妻字幕在线| 中文字幕人妻av一区二区| 极品人妻被黑人中出种子| 中国农村熟妇性视频| 久久久精品国产亚洲AV蜜| 性色av一区二区三区密臀av| 少妇精品亚洲一区二区成人| 一区二区三区在线 | 欧| 亚洲色成人网一二三区| 亚洲精品av一区二区日韩| 亚洲人成网站在线播放2019 | 亚洲av无码久久精品蜜桃| 日日碰狠狠躁久久躁| 久久久久久久国产精品电影| 一区二区三区日本视频| 亚洲午夜久久久久久久久电影网| 亚洲碰碰人人av熟女天堂| 亚洲精品白浆高清久久| 色婷婷久久精品一区二区| 亚洲av日韩av天堂一区二区三区| 狠狠躁天天躁无码中文字幕图| 亚洲国产一区中文字幕| 国产av无码专区亚洲版综合| 久久久www成人免费无遮挡大片 | 国产精品污一区二区三区在线观看| 视频在线观看一区二区三区| 免费特级毛片| 国产国拍亚洲精品福利| 中文字幕一区二三区麻豆| 亚洲精品成人av在线| 国产尻逼视频| 日韩国产自拍视频在线观看| 国产乱人对白|