亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        紅外與可見光圖像自相似性特征的描述與匹配

        2013-04-01 05:26:52李俊山朱英宏2朱藝娟蘇光偉
        激光與紅外 2013年3期
        關(guān)鍵詞:特征實驗

        李俊山,朱英宏,2朱藝娟,蘇光偉

        (1.第二炮兵工程大學(xué)402室,陜西 西安710025;2.武警福建總隊廈門支隊,福建 廈門361000;3.武警福建總隊漳州支隊,福建漳州363100;4.武警工程大學(xué)電子技術(shù)系網(wǎng)絡(luò)與信息安全武警部隊重點實驗室,陜西西安710086)

        1 引言

        相對于單一傳感器,多傳感器采集的信息具有更高的冗余性、互補性、可靠性。因此,基于多傳感器的圖像匹配、配準(zhǔn)、融合技術(shù)成為計算機視覺的研究熱點。作為常見的傳感器,可見光傳感器獲取的圖像具有高信噪比、細(xì)節(jié)信息豐富等優(yōu)點;由于紅外線具有穿透能力強、輻射吸收范圍大、低可視性的特點,紅外傳感器獲取的圖像具有抗干擾能力強、全天候工作的優(yōu)點。因此,基于紅外與可見光匹配技術(shù)具有重要意義,且被廣泛應(yīng)用于計算機視覺、搶險救災(zāi)、反恐安防、軍事應(yīng)用等領(lǐng)域。

        近年來,大量學(xué)者致力于圖像匹配技術(shù)的研究,提出了多種算法,文獻[1]~[3]均對此進行了詳細(xì)的分析和綜述。由于成像機制不同,紅外與可見光圖像存在的差異主要體現(xiàn)在:①相同場景的紅外與可見光圖像灰度差異較大;②紅外圖像表現(xiàn)紋理信息較可見光圖像弱;③紅外圖像較可見光圖像具有對比度低、圖像模糊的特點。因此,常見的基于特征點匹配算法,如尺度不變特征變換(scale invariant feature transform,SIFT)[4]、局部二值模式(local binary pattern,LBP)[5]、SURF(speeded-up robust features)[6]等算法在紅外與可見光圖像的表現(xiàn)也差強人意。

        2007 年,Shechtman 和 Irani[7]提出了一種基于自相似性(Self-Similarities)的目標(biāo)識別算法,該算法分別對模板和目標(biāo)圖像進行平方差之和(sum of square differences,SSD)運算,并以此構(gòu)造相關(guān)表面,再采用搜索策略實現(xiàn)目標(biāo)識別。該算法能夠在背景和目標(biāo)灰度出現(xiàn)較大差異、目標(biāo)出現(xiàn)變形的情況下實現(xiàn)目標(biāo)識別。該算法提出之后,很多學(xué)者對其進行研究與改進,提出一些基于Self-Similarities的目標(biāo)識別算法[8-9]。

        鑒于自相似性算法在背景和目標(biāo)灰度與模板出現(xiàn)較大差異的情況下,仍然能夠?qū)崿F(xiàn)目標(biāo)識別的優(yōu)良特性。本文將對其進行改進,使其應(yīng)用于基于特征點的紅外與可見光圖像匹配算法。

        2 基于平方和的圖像預(yù)處理

        由于成像機制不同,紅外與可見光圖像表現(xiàn)形式各有特點,紅外圖像具有對比度低、噪聲高的特點,而可見光圖像具有對比度高、細(xì)節(jié)表現(xiàn)能力強的特點。如何有效地提高兩種圖像的相似度,是基于特征匹配算法的重要基礎(chǔ)。因此,本文對圖像I(x,y)中的每個像素點pp構(gòu)造一個5×5子區(qū)域。

        通過計算pp與子區(qū)域中各像素點灰度值的平方和(sum of square,SS)可得pp的SS值,計算方法如下:

        則圖像I(x,y)中各個像素點經(jīng)過SS計算之后,可得最后的預(yù)處理結(jié)果SSI,如圖1所示。

        由圖1可以看出,由于紅外圖像具有高噪聲、低對比度的特點,因此,本文采用的5×5子區(qū)域分別對紅外與可見光圖像進行平方和運算,可有效抑制噪聲且提高對比度;同時,本文進行的SS運算可弱化可見光圖像對細(xì)小紋理的表現(xiàn)能力,一定程度上提高兩種圖像的相似度。為從兩種圖像中提取具有較高可重復(fù)率的特征點提供了必要的前提。

        3 基于多尺度FAST-9的特征點提取

        在對紅外與可見光圖像進行SS預(yù)處理之后,需對兩種圖像進行特征點提取。2006年,Rasten等[10]人提出了一種FAST-9角點檢測算法,基本思想是通過對比中心點與其由16個像素點組成的Brenham圓環(huán)的灰度值,當(dāng)中心點灰度值恒大于或恒小于圓環(huán)上連續(xù)的9個像素點灰度值時,該中心點即為角點。與上文提及的算法相比,F(xiàn)AST-9算法具有抗噪聲能力強、可重復(fù)率高、檢測速度快和檢測數(shù)量大的優(yōu)點[10]。然而,F(xiàn)AST-9為單尺度角點檢測算法。

        因此,本文利用高斯函數(shù)G(x,y,σ)對預(yù)處理后的圖像SSI(x,y)進行卷積,建立高斯尺度空間,其計算如下:

        其中,SSI,σ(x,y)為圖像 SSI(x,y)的尺度空間;×為卷積操作;σ為尺度因子,σ的取值定義如下:

        其中,o為每組的標(biāo)號,o={0,1,2};S為每一組中圖像的總層數(shù);S=3,s為每一層的標(biāo)號,s={1,2,3}。

        由此構(gòu)造了一個3組3層的高斯金字塔,并在每個高斯金字塔圖層進行FAST-9角點提取,使提取的角點具有尺度屬性。采用p(x,y,σp)表示角點,其中 x,y為角點坐標(biāo),σp為角點所在的尺度空間。

        4 基于相關(guān)平面的特征點描述子

        4.1 特征點主方向構(gòu)成

        經(jīng)多尺度FAST-9算法提取的角點即為本文的特征點。為使所構(gòu)造的描述子具有旋轉(zhuǎn)不變性,需為特征點確定主方向。在 SSI,σ(x,y)尺度空間上,選取給定特征點p(x,y,σp)的半徑為R=21個像素點的圓形鄰域,并將該圓形鄰域均分為36等份,統(tǒng)計36個扇形區(qū)域SS值的直方圖,該直方圖的峰值所在方向即為特征點的主方向。若存在大于該峰值80%的方向,則增加一個相同的特征點,將該方向定義為新增特征點的主方向,以此提高特征匹配時的魯棒性。

        4.2 基于相關(guān)平面的特征點描述

        在構(gòu)造特征點描述子時,為保證生成的描述子具有旋轉(zhuǎn)不變性,對于任意給定特征點p(x,y,σp)選取相應(yīng)的 41 ×41 矩形鄰域 SSp,σ(x,y),假設(shè)特征點主方向為gL,沿gL方向順時針旋轉(zhuǎn)90°的方向為g⊥,建立新的坐標(biāo)系,如圖2所示。

        圖2 特征點主方向

        在提取特征點鄰域之后,需對特征點鄰域進一步的處理,以構(gòu)造特征點描述子。

        首先,求取矩形鄰域各像素點與特征點p(x,y,σp)的SS值之差,即為求取原始圖像I(x,y)的平方差之和(sum of square differences,SSD),可得 SSp,σ(x,y)的平方差之和的圖像 SSDp,σ(x,y)。

        然后,將矩形鄰域 SSDp,σ(x,y)進行歸一化,通過公式(5)將其轉(zhuǎn)化為相關(guān)平面(Correlation Surface)CSp,σ(x,y):

        其中,var(p)是以特征點為中心,半徑為1個像素點的鄰域中SSD最大值。特征點鄰域的相關(guān)平面如圖3(b)所示。

        最后,以新建立的坐標(biāo)系為基礎(chǔ),將相關(guān)平面CSp,σ(x,y)劃分為 100 個部分,其中將角度均分為20部分,距離均分為5部分,如圖3(c)所示。然后選取相關(guān)平面在這每個部分的最大值作為該部分的特征值,以此構(gòu)造出100維的特征點子鄰域的自相似性描述子。再將描述子進行歸一化得到最終描述子des(p)。

        圖3給出了一組紅外與可見光圖像特征點鄰域的相關(guān)平面與自相似性描述子的對比圖。從圖中可以看出,雖然兩種圖像原圖的灰度差異較大,但是經(jīng)過SSD運算之后,生成的相關(guān)平面已有一定的相似性,再通過特征統(tǒng)計、描述子歸一化處理之后,兩種圖像特征點鄰域生成的描述子具有更高的相似度。

        4.3 剔除不良描述子

        通過上述相關(guān)平面理論構(gòu)造的描述子,可能存在不良描述子,需對不良描述子進行剔除,以增強匹配的穩(wěn)定性。本文將不良描述子定義為:不包含足夠的結(jié)構(gòu)和紋理信息的描述子(即在100維的描述子中多數(shù)特征值都小于某個閾值)。因此,本文采用如下公式作為不良描述子的批判標(biāo)準(zhǔn)。

        其中,num(des(p,i))為每個描述子中每一維的特征值小于閾值thre1的個數(shù);num(des(p))為描述子的維數(shù)。thre是不良描述子的批判標(biāo)準(zhǔn),當(dāng)某描述子的比值大于thre時,即為不良描述子,將該描述子剔除。

        4.4 描述子匹配

        在剔除不良描述子之后,將采用匹配算法對描述子進行匹配?;邳c特征的圖像匹配方法已經(jīng)有大量的研究,本文采用最近鄰算法(nearest neighbor,NN)進行配準(zhǔn),具體步驟為:計算描述子的歐式距離,最近鄰(NN)和第二近鄰(second-nearest neighbor,SCN)的距離之比(NN/SCN)作為相似性度量,設(shè)定閾值dist_rate,確定候選匹配點對。

        5 實驗結(jié)果與分析

        為了證明本文算法的有效性,本文仿真實驗的軟硬件環(huán)境為CPU Dual-Core 2.5 GHz,內(nèi)存2 GB,WindowsXP+SP3,Matlab 2010,仿真實驗使用的圖像分辨率為320×240。

        5.1 實驗閾值設(shè)置

        在剔除不良描述子時,需對thre1和thre兩個參數(shù)進行設(shè)置,通過對這兩個參數(shù)數(shù)值的調(diào)整,對多組實驗結(jié)果進行統(tǒng)計,如圖4所示。從圖4可以看出,thre值在[0.05,0.5]區(qū)間由小變大的過程中,無論thre1的取值如何,正確匹配率隨之增長,在thre=0.3之后,正確匹配率增長幅度有所放緩。其中,當(dāng)thre=0.3 時,thre1=0.07 和 thre1=0.08 時均能取得較高的正確匹配率,且thre1=0.08的正確匹配率略高于 thre1=0.07,但是從實驗結(jié)果可以看出,thre1=0.08具有較高正確匹配率的效果,是以犧牲正確匹配對數(shù)為前提的,因此,為了保持較高正確匹配率,保證較多的正確匹配對數(shù),本文采用thre=0.3,thre1=0.07 來剔除不良描述子。

        圖4 閾值設(shè)置

        同時,通過對大量的對比實驗的結(jié)果進行分析,發(fā)現(xiàn)將最近鄰匹配算法的閾值dist_rate設(shè)置為0.65時,可得到較好的匹配效果。

        5.2 實驗結(jié)果分析

        為證明本文算法的有效性,通過大量對比實驗,圖5給出了一組對比實驗結(jié)果圖。本文將誤差在2個像素點以內(nèi)的匹配點對認(rèn)為是正確匹配點對。從圖5(a)可以看出,雖然存在個別誤匹配點,本文算法在相同尺度和相同視角的紅外與可見光圖像匹配中具有較多的匹配對數(shù)及較高的正確匹配率。由于本文在構(gòu)造描述子時,將角度均分為20等份,距離均分為5等份,使得描述子提取的特征信息具有“中心密集,外圍稀疏”的特點,因此,從圖5(b)可以看出本文構(gòu)造的描述子在視角變換下具有一定的魯棒性。同時,本文算法計算了每個特征點的主方向,并以主方向選取特征點鄰域,以此構(gòu)造的描述子具有旋轉(zhuǎn)不變性,圖5(c)給出了本文算法在匹配圖像與待匹配圖像之間存在30°變換的實驗結(jié)果,可以看出本文算法具有一定的旋轉(zhuǎn)不變性。在圖5(d)中,待匹配圖像的分辨率為256×192,由于本文構(gòu)造了3組3層的高斯金字塔對圖像進行特征點提取,使得提取的特征點具有尺度屬性,從實驗結(jié)果可以看出本文算法具有一定的尺度不變性。

        圖5 本文算法的匹配結(jié)果

        5.3 對比實驗

        基于特征點匹配領(lǐng)域,尺度不變特征變換(scale invariant feature transform,SIFT)以其優(yōu)良的匹配效果,已廣泛應(yīng)用于各個領(lǐng)域。Mikolajczyk[11]對10種基于特征點匹配算法的研究分析,指出SIFT算法的性能最為優(yōu)異。因此,本文通過SIFT算法對以上4組圖像進行匹配運算,結(jié)果如表1所示。由于采用的特征點提取算法及描述子構(gòu)造方法的不同,兩種算法匹配對數(shù)有所差異,本文將誤差在2個像素點以內(nèi)的匹配認(rèn)定為正確匹配,采用正確匹配率作為最終評價標(biāo)準(zhǔn),由表1可以看出,本文算法與SIFT算法相比,具有較高的正確匹配率。

        表1 本文算法與SIFT算法的對比實驗

        6 結(jié)論

        針對紅外與可見光圖像匹配的難題,提出了一種基于自相似性的異源圖像點特征匹配算法。通過構(gòu)造多尺度FAST-9角點檢測算法進行特征點提取;分析統(tǒng)計特征點鄰域的特征信息確定主方向;再對特征點鄰域進行相關(guān)表面計算,統(tǒng)計并構(gòu)造自相似性描述子;最后采用最近鄰匹配算法進行特征匹配。實驗結(jié)果表明,本文算法可實現(xiàn)紅外與可見光圖像在視角、旋轉(zhuǎn)、尺度等變換的有效匹配。與SIFT算法相比,本文算法的正確匹配率較SIFT算法有明顯的提高。

        [1] Elizabeth A S.Matching methods for causal inference:A review and a look forward[J].Pub Med Central,2010,25(1):1-21.

        [2] Stephen JC,Richard D T,Rade D P.Dental colormatching instruments and systems.Review of clinical and research aspects[J].Journal of Dentistry,2010,38(2):2 -16.

        [3] Watson B,Yeo L,F(xiàn)riend J.A study on axial and torsional resonant mode matching for a mechanical system with complex non-linear geometries[J].Review of Scientific Instruments,2010,81(6):1 -9.

        [4] Lowe D.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91 -110.

        [5] Ojala T P,Pietikainen M,Maenpaa T.Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2002,24(7):971 -987.

        [6] Bay H,Tuytelaars T,Van Gool L.SURF:Speeded up robust features[C]//Proceedings of the 9thEuropean Conference on Computer Vision,Graz,Austria,ECCV,2006:404-417.

        [7] E Shechtman,M Irani.Matching local self-similarities across images and videos[C]//Proceedings of the Conference on Computer Vision and Pattern Recognition,Weizmann,IEEE,2007:1 -8.

        [8] Ken C,James P,Andrew Z.Efficient retrieval of deformable shape classes using local self-similarities[C]//Proceedings of the 12thInternational Conference on Computer Vision Workshops,Oxford,IEEE,2009:264 -271.

        [9] Selen A,et al.Wave interference for pattern description[J].Lecture Notes in Computer Science,2011,6493:41-54.

        [10] Rosten E,Drummond T.Machine learning for high-speed corner detection[J].Proceedings of the European Conference on Computer Vision,2006:430 -443.

        [11] Mikolajczyk K,Schmid C.A performance evaluation of local descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1615 -1630.

        猜你喜歡
        特征實驗
        抓住特征巧觀察
        記一次有趣的實驗
        微型實驗里看“燃燒”
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        如何表達“特征”
        做個怪怪長實驗
        不忠誠的四個特征
        抓住特征巧觀察
        NO與NO2相互轉(zhuǎn)化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        激情综合五月婷婷久久| 强d漂亮少妇高潮在线观看| 日本成人在线不卡一区二区三区| 国语淫秽一区二区三区四区| 日韩精品极品视频在线观看免费| 国产av无码专区亚洲av手机麻豆| 男女高潮免费观看无遮挡| 自拍视频在线观看国产| 99麻豆久久久国产精品免费| 久久久久亚洲av无码专区桃色| 91中文人妻丝袜乱一区三区 | 亚洲AV综合A∨一区二区| 久久久亚洲一区二区三区| 狠狠躁夜夜躁人人爽超碰97香蕉| 欧美大屁股xxxxhd黑色| 91精品久久久久含羞草| 日本高清在线播放一区二区| 亚洲av色香蕉第一区二区三区| 成人国产精品一区二区八戒网 | 国内精品国产三级国产| 国产精品久线在线观看| 99在线播放视频| 国产精品亚洲精品日韩动图| 日韩女同视频在线网站| 免费精品一区二区三区第35| 骚片av蜜桃精品一区| av一区二区三区综合网站| 狠狠躁日日躁夜夜躁2020| 国产美女网站视频| 亚洲国产精品一区亚洲国产| 国内自拍情侣露脸高清在线| 亚洲av永久无码国产精品久久| 狠狠亚洲婷婷综合色香五月| 激情都市亚洲一区二区| 国产精品亚洲综合色区| 成人欧美在线视频| 国产91在线精品观看| 婷婷综合另类小说色区| 四虎影视在线观看2413| 日本在线中文字幕一区| 久久99精品久久久久麻豆|