化春鍵 陳 瑩
江南大學,無錫,214122
尺度不變特征變換(scale invariant feature transform,SIFT)是 Lowe[1]于1999年提出,并于2004年完善總結的一種特征點檢測與匹配方法[2]。SIFT的特征是將構造的圖像金字塔與高斯核濾波之間進行差分,它能夠快速求得高斯拉普拉斯空間中的極值點,使特征提取的速度大大提高。在現(xiàn)實應用中,由于SIFT特征具有旋轉、尺度以及仿射不變性,并且對視角條件的變換和光照變化等都有很好的抵抗能力,因此備受關注。基于SIFT特征的匹配技術被用于很多領域,如目標定位[3]、模型檢索[4]、三維重建[5]、目標識別[6]等。
實際應用中,由于受到拍攝角度改變、光照條件變化、傳感器缺陷以及噪聲干擾等方面因素的影響,可能使圖像產生一定程度的灰度失真和幾何畸變,從而使形變后圖像的SIFT特征發(fā)生變化,而且,當匹配圖像中存在多個相似局部區(qū)域時,SIFT方法的可區(qū)分性就會大大降低,導致基于最近鄰的匹配方法[2]可能產生錯配。Lowe[2]只取第一相似度和第二相似度之比小于某閾值的點與其最相似點作為對應點,剔除了大量噪聲點。文獻[7]使用匈牙利方法去除錯誤的匹配點對。文獻[8]采用投票策略的方法來剔除誤匹配點對,從而提高精度。文獻[9]運用隨機采樣一致性(random sample consensus,RANSAC)方法去除Lowe方法得到的匹配對中的誤匹配,但仍無法完全消除目標發(fā)生較大變形或非剛性形變時對特征匹配產生的消極影響。
本文分析Lowe方法[2]中第一相似度和第二相似度比值閾值對匹配結果及其精度的影響,采用循環(huán)迭代的方法獲取雙閾值,其中高閾值對應稀疏的精確匹配結果,而低閾值對應密集但存在誤匹配的匹配結果,在此基礎上,通過精確稀疏匹配結果確定幾何約束模型來刪除密集匹配結果中的誤匹配,大幅提高匹配精度。將所提出的方法應用于目標定位與目標檢測領域,得到精確的定位與檢測結果。
Lowe[2]提 出 的 SIFT 方 法 在 高 斯 差 分(difference of Gaussian,DoG)尺度空間中提取極值點作為特征點,由以下5個關鍵步驟所組成:
(1)生成高斯差分尺度空間并搜索極值點。SIFT方法通過將兩個相鄰高斯尺度空間中的圖像相減的方法獲得一個DoG空間中的響應值圖像;然后仿照LoG(Laplace of Gaussian)方法,通過對響應值圖像D(x,y,σ)進行局部極大搜索,最終完成位置空間和尺度空間中的特征點定位過程。
(2)特征點精確定位。擬合三維二次函數(shù),將特征點的位置和尺度精確到亞像素;濾除低對比度的特征點和邊緣響應點。
(3)根據(jù)梯度計算,為關鍵點分配主方向。使用有限差分計算在以特征點為中心、4.5σ為半徑的區(qū)域內圖像梯度的幅角和幅值,并應用直方圖對鄰域內像素的梯度方向和幅值進行統(tǒng)計。根據(jù)統(tǒng)計結果,梯度直方圖的峰值代表該特征點所處鄰域內圖像梯度的主方向,即該特征點的主方向。
(4)生成SIFT特征向量。為了使得到的特征矢量具有旋轉不變性,在特征向量的生成過程中,將特征點附近鄰域內圖像梯度的位置和方向以特征點為中心轉過一個方向角θ。旋轉之后,再以特征點為中心,取一個16像素×16像素大小的圖像區(qū)域,并將它等間隔地劃分為4×4個子區(qū)域,在劃分得到的每個子區(qū)域內計算8個不同方向上的梯度直方圖,同時畫出每個方向上的梯度累加值,最終得到一個4×4×8維的特征向量作為SIFT特征描述。
(5)完成最終的特征向量匹配。對于目標圖像中的某一個特征點,在待匹配圖像中,提取出與其歐氏距離最近的前兩個特征點,如果在這兩個特征點中,滿足次近距離與最近距離之比大于某個閾值η的條件,則認為這是一對匹配點;否則,認為這一目標圖像中的特征點在待匹配圖像中不存在匹配點。
不同閾值下SIFT方法的匹配結果如圖1所示,可見,當閾值偏小時,匹配結果較為稠密,但存在誤匹配;隨著閾值的增大,匹配數(shù)減少且可能無法找到匹配,但匹配結果更為穩(wěn)定。由于SIFT在設計匹配準則時未能考慮幾何約束,故當匹配圖像中存在多個相似局部區(qū)域時匹配效果并不理想。圖1中,正確匹配用實線表示,錯誤匹配用虛線表示。
圖1 不同閾值下的SIFT特征匹配
針對Lowe提出的SIFT特征匹配方法中存在的不足,本文從自適應雙閾值選定及增加幾何約束模型兩方面入手,提高匹配的準確性。
從以上分析可知,雖然提高SIFT匹配閾值有助于提高匹配精度,但同時導致匹配個數(shù)急劇下降,從而無法滿足目標定位或檢測參數(shù)計算的需要。因此,本文采用雙閾值的思想,以迭代變步長的方式自適應地完成匹配圖像高閾值與低閾值的確定工作,并在后續(xù)工作中以高閾值SIFT精確匹配結果建立幾何約束模型,刪除低閾值密集匹配結果中的誤匹配。在迭代過程中,限定高閾值匹配數(shù)qB滿足2≤qB≤5,從而保證匹配的精確性及其后續(xù)幾何約束模型的建立。自適應雙閾值確定流程如下:
(1)雙閾值初始化。設閾值初始值η1=1.5,η2=8;循環(huán)次數(shù)i1=0,i2=0;循環(huán)次數(shù)限制i1max=10,i2max=20,所需最小匹配點個數(shù)Q=5。
(2)從匹配圖像中提取SIFT特征。
(3)利用閾值η1做SIFT特征匹配,得到當前匹配集A= {(ai,a′i)},i=1,2,…,qA,其中qA為當前η1所對應的匹配個數(shù),并令i1←i1+1。
(4)若當前匹配個數(shù)qA<Q,且i1<i1max,則令η1←η1+0.15,并返回步驟(3);若匹配個數(shù)大于Q,或i1>i1max,則轉至步驟(5)。
(5)利用閾值η2做SIFT特征匹配,得到當前匹配集B= {(bj,b′j)},j=1,2,…,qB,其中qB為當前η2所對應的匹配個數(shù),并令i2←i2+1。
(6)若當前匹配個數(shù)qB<2,且i2<i2max,則令η2←η2+0.02,并返回步驟(5);若匹配個數(shù)大于2且小于5,且i2<i2max,則令η2←η2-0.01,并返回步驟(5);否則,轉至步驟(7)。
(7)完成雙閾值選定工作,得到低閾值η1及其對應的密集匹配集A,以及高閾值η2及其對應的匹配集精確匹配集B。
根據(jù)上述雙閾值選取規(guī)則,高閾值所對應的匹配集中的匹配結果稀疏但精確,在此基礎上,可建立匹配圖像間的幾何變化(如線段長度、角度)約束模型,以此濾除低閾值匹配結果中的誤匹配。如圖2所示,(b1,b′1)、(bqB,b′qB)為兩對精確匹配,(ai,a′i)為密集匹配中的任意一對。
圖2 幾何約束模型示意圖
由(b1,b′1)、(bqB、b′qB)可建立匹配圖像間的幾何約束,即長度變換約束
和角度變化約束
對于密集匹配中的任意一對匹配(ai,a′i),若其對應長度和角度滿足上述幾何約束,即當
時,保留當前匹配(ai,a′i);否則,將當前匹配從密集匹配集A中刪除。
為驗證本文方法的有效性,將匹配方法應用于實際拍攝的待匹配圖像,并將本文方法與Lowe提出的匹配方法、RANSAC匹配方法做比較,實驗環(huán)境為MATLAB R2007b。部分實驗結果如圖3所示??梢钥闯?,本文的雙閾值匹配方法能很好地消除誤匹配,匹配精度明顯高于其他兩種方法。
圖3 匹配結果比較
為獲取匹配效果的統(tǒng)計特性,利用微軟劍橋圖像識別研究中心圖像庫[10]中共50幅圖像進行的特征匹配,結果見表1??梢钥闯觯瑐鹘y(tǒng)Lowe匹配方法雖然計算損耗較小,但匹配精度較低;經RANSAC處理后,精度有所提高,但計算損耗也隨之增大;本文方法則進一步提高了特征匹配的正確匹配率,同時與RANSAC匹配方法相比減小了計算損耗,且匹配方差較小,性能更為穩(wěn)定。
表1 三種方法性能的比較
將本文方法應用到目標檢測與定位中,精確的匹配結果將有助于提高目標檢測與定位的精度。圖4所示為某工件定位結果,其中方框表示工件所在姿態(tài),包括位置及工件轉角。
圖4 目標定位與檢測
本文在分析SIFT特征匹配方法的基礎上,提出了一種高精度的SIFT特征匹配方法。該方法通過迭代變步長的方法獲取合適的雙閾值,并利用高閾值對應的稀疏精確匹配結果建立匹配圖像間的幾何約束模型,建立變形約束準則,用以刪除低閾值對應的密集匹配結果中的誤匹配,實驗結果表明,該方法可明顯提高SIFT匹配精度,從而提高目標檢測與定位的精度。本文方法能夠為精度要求較高的應用場合提高保障,具有廣闊的工業(yè)應用前景。
[1]Lowe D G.Object Recognition from Local Scale-invariant Features[C]//Proceedings of the International Conference on Computer Vision.Kerkyra,1999:1150-1157.
[2]Lowe D G.Distinctive Image Features from Scale-invariant Keypoints[J].International Journal on Computer Vision,2004,60(2):91-110.
[3]侯一民,邸建銘.改進的尺度不變特征轉換精確圖像匹配在電力設備目標定位中的應用[J].中國電機工程學報,2012,32(19):134-139.Hou Yimin,Di Jianming.Application of Improved Scale Invariant Feature Transform Accurate Image Matching in Target Positioning of Electric Power Equipment[J].Proceedings of the Chinese Society for Electrical Engineering,2012,32(19):134-139.
[4]王家樂,姜波,黃逸民.機械零件模型局部形狀相似性檢索算法研究[J].中國機械工程,2012,23(11):1293-1294,1301.Wang Jiale,Jiang Bo,Huang Yimi.Study on Local Similarity Retrieval of Mechanical Parts[J].China Mechanical Engineering,2012,23(11):1293-1294,1301.
[5]王劍,周國民.圖像三維重建中的特征點匹配方法研究[J].計算機工程與應用,2009,45(2):10-12.Wang Jian,Zhou Guomin.Research of Feature Points Matching Method in 3DReconstruction across Images[J].Computer Engineering and Applications,2009,45(2):10-12.
[6]修春波,張雨虹,陳奕梅.基于特征點匹配的目標識別方法[J].儀器儀表學報,2007,28(增4):464-466.Xiu Chunbo,Zhang Yuhong,Chen Yimei.Target Recognition Method Based on Feature Points Matching[J].Chinese Journal of Scientific Instrument,2007,28(S4):464-466.
[7]Wu Youfu,Dai Mo.Matching Feature Points and Discarding False Matching Pairs[C]//Proceedings of the IEEE International Conference Acquisition.Los Alamitos,2005:458-463.
[8]Qian Wei,F(xiàn)u Zhizhong,Liu Lingqiao,et al.Image Registration Based on Feature Extraction and Voting Strategy[C]//Proceedings of the International Conference on Communications,Circuits and Systems.Fujian,2008:706-709.
[9]Feng Xuetao,Shen Xiaolu,Zhou Mingcai,et al.Robust Facial Expression Tracking Based on Composite Constraints AAM[C]//18th IEEE International Conference on Image Processing(ICIP).Brussels,2011:3045-3048.
[10]Microsoft Research Cambridge Object Recognition Image Database[DB/OL].(2001-11-12)[2002-04-15].http://research.microsoft.com/en-us/downloads/b94de342-60dc-45d0-830b-9f6eff91b301/default.aspx.