孫增友,段玉帥,李 亞
(東北電力大學 信息工程學院,吉林 吉林132012)
基于中心環(huán)繞濾波器檢測的圖像特征點匹配算法
孫增友,段玉帥*,李 亞
(東北電力大學 信息工程學院,吉林 吉林132012)
針對傳統(tǒng)圖像匹配算法特征點檢測穩(wěn)定性和準確性差的問題,提出一種尺度不變性的基于中心環(huán)繞濾波器檢測(SCFD)的圖像特征點匹配算法。首先,構建多尺度空間,利用中心環(huán)繞濾波器檢測圖像在不同尺度下的特征點,采用Harris方法和亞像素插值獲得穩(wěn)定的特征點;其次,聯(lián)合快速定向旋轉二進制穩(wěn)健基元獨立特征(BRIEF)(ORB)算法確定特征點的主方向,構建特征點描述算子;最后,采用漢明距離完成匹配,通過最小平方中值(LMedS)定理和最大似然(ML)估計剔除誤匹配點。實驗結果表明,在尺度變化時,所提算法的匹配精度達到96.6%,是ORB算法的2倍;其運行時間是尺度不變特征變換(SIFT)的19.8%,加速魯棒性特征(SURF)的28.3%。所提算法能夠有效提高特征點檢測的穩(wěn)定性和準確性,在視角、尺度縮放、旋轉、亮度等變化的情況下具有較好的匹配效果。
特征點匹配;尺度不變性;特征點檢測;快速定向旋轉二進制穩(wěn)健基元獨立特征;最小平方中值定理
圖像匹配的任務是建立兩張圖像中同一場景部分之間的對應,這在計算機視覺應用中是一個重要的問題,如目標檢測[1]、圖像索引[2]、視覺定位[3]和視覺導航[4]等方面。其中大部分應用都受到實時性和穩(wěn)定性的限制,尤其是在視覺定位系統(tǒng)中,由于采集的圖像來自于不同的時間,采集圖像的視角不同,以及受到環(huán)境中光照和噪聲的影響,拍攝圖像的邊緣輪廓會存在較大的差異,甚至圖像會十分模糊、噪聲干擾較大。因此設計出一種能夠快速提取穩(wěn)定的特征點,同時最大限度提高圖像匹配準確度和抗干擾能力的算法具有重要意義。
圖像匹配算法可以分為兩類:基于灰度信息的匹配算法和基于特征的圖像匹配算法[5-6]?;诨叶刃畔⒌钠ヅ渌惴ㄍㄟ^空間二維滑動模板進行匹配,運算過程簡單,匹配精度高,但是算法運算量大,對噪聲比較敏感。而基于特征的圖像匹配中常用的圖像特征包括點特征、線特征和邊緣特征,其中圖像特征點的提取過程受到噪聲影響較小,同時對于灰度變化、圖像變形和遮擋具有較強的抗干擾能力。經典的特征檢測方法,如Moravec算法[7]和Harris算法[8],它們的特征點檢測過程只是在單一的尺度上進行,容易受到噪聲影響。Lowe[9]提出的尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)算法,利用高斯函數(shù)構建尺度空間,對圖像縮放、旋轉、仿射變換保持不變性,但是由于采用了128維的描述算子,計算量較大,不適合應用在對實時性要求較高的圖像匹配中。Ke等[10]利用主元分析法替換SIFT算法中的直方圖,從而達到對SIFT描述符進行降維的目的,但是影響其特殊性和增加描述算子形成的時間使得增加的匹配速度性能毀于一旦。Bay等[11]提出了加速魯棒性特征(Speeded Up Robust Features, SURF)描述符,SURF最大的特征在于采用了積分圖像和哈爾特征的概念,縮短了程序的運行時間,但是因為采用64維的浮點型描述算子,要求大量的存儲空間。Agrawal等[12]提出了中心環(huán)繞極值(Center Surround Extrema, CenSurE)算法,通過設計簡單的雙層濾波器來近似高斯拉普拉斯,提高了計算效率,但是由于采用的線性濾波器導致濾波器響應信號稀疏,在尺度變化和幾何變化時特征點穩(wěn)定性差。Rublee等[13]提出了快速定向旋轉二進制穩(wěn)健基元獨立特征(Oriented fast and Rotated Binary Robust Independent elementary Features (BRIEF), ORB)算法。ORB算法是加速分割測試特征(Features from Accelerated Segment Test, FAST)和二進制穩(wěn)健基元獨立特征(BRIEF)描述符的結合和改進,具有很高的計算效率。但是FAST特征點不具備尺度不變性[14],在圖像發(fā)生尺度變化的情況下,該算法的匹配精度會受到嚴重的影響。
基于尺度空間提取特征點的思想,本文提出一種尺度不變性的基于中心環(huán)繞濾波器檢測(Scale-invariant Center surround Filter Detection, SCFD)的圖像特征點匹配算法。該算法提出的特征檢測子可以有效提高計算速度和準確性,同時具備尺度不變性;其次,聯(lián)合ORB構建特征點描述算子;最后通過最小平方中值(LMedS)定理和最大似然(ML)估計方法對數(shù)據(jù)進一步求精。將本文算法與ORB、SIFT、SURF等算法進行性能對比分析,實驗結果表明,本文算法能夠有效提高特征點的穩(wěn)定性和匹配精度。
由于圖像中的特征點不易受到環(huán)境中的噪聲影響,在灰度變化、圖像變形和遮擋時具有較強的抗干擾能力,故基于特征的圖像匹配算法得到廣泛應用。而常用的特征點檢測方法(如Harris、FAST)在特征點檢測過程中只是在單一的尺度上進行,特征點容易受到環(huán)境中光照強度、噪聲、視角改變等的影響。通過構建尺度空間模型可以將單尺度信息納入尺度不斷變化的動態(tài)分析框架中,更容易獲得圖像本質特征。SIFT算法,通過構建高斯金字塔并在不同的尺度上查找關鍵點。但是,由于對原始圖像不斷進行隔點采樣,較高層的特征相對于原始圖像的精度較低,造成在金字塔的較高層特征點不能被準確地定位。為了提高特征點的穩(wěn)定性和獲取特征點準確的位置信息,本文采用穩(wěn)定性和計算效率更高的中心環(huán)繞雙層濾波器,由于該濾波器在所有的尺度和像素上計算濾波響應,所以提取的特征點具有較高精度。
因此,提出一種新的特征點檢測方法。首先利用中心環(huán)繞雙層濾波器近似高斯拉普拉斯算子構建尺度空間,計算原始圖像中的每個像素點的中心環(huán)繞哈爾小波響應值,采用積分圖像加速運算過程[12],然后利用非極大值抑制方法檢測極值,最后通過Harris和子像素插值獲得更加穩(wěn)定的特征點。
在利用高斯差分函數(shù)近似代替高斯拉普拉斯函數(shù)的啟發(fā)下,本文利用更為簡單的中心環(huán)繞雙層濾波器近似高斯拉普拉斯算子,從而達到簡化計算的目的。圖1顯示了通用的中心環(huán)繞小波的塊大小n。設雙層濾波器的內核尺寸為(2n+1)×(2n+1),外核尺寸為(4n+1)×(4n+1),設In是內核權重系數(shù),On是外核權重系數(shù),因為要使得濾波器DC響應為零,權重系數(shù)應滿足下面的等式:
On(4n+1)2=In(2n+1)2
(1)
對尺度空間進行歸一化處理:
In(2n+1)2=In+1(2(n+1)+1)2
(2)
圖1 中心環(huán)繞雙層盒濾波器Fig. 1 Center-surround bi-level boxes filter
將尺度空間劃分為四組,每組由四層組成。為了提高特征點的提取精度,不同于SIFT中下一組是在上一組進行降采樣,而是在每一組中采用尺度遞增的中心環(huán)繞濾波器和原始圖像作卷積,可以獲得一系列的響應圖。為了進一步提高特征點的穩(wěn)定性和匹配的準確性,通過行子像素插值精確定位特征點位置。在每一組中選擇四層尺度圖像,選擇內核大小為3×3的濾波器作為尺度空間的初始層,通過放大濾波器的大小可以減小SIFT算法不斷重復隔點采樣過程帶來的精度損失。為了確保濾波器的內核為奇數(shù),并且能夠檢測到中心像素的出現(xiàn),雙層濾波器內核大小逐層增加2。為了能在3D鄰域內確定極值點,需要多出兩層,即初始層和頂層只作為比較用而并不包含極值點。濾波器大小的構造方法是:每組濾波器大小和步長依次增加,如第一組濾波尺寸大小分別為3、5、7、9。第二組每層濾波器內核依次增加4,內核大小依次為5×5、9×9、13×13、17×17,第三組、第四組等以此類推。圖2給出了不同組下各層中心環(huán)繞雙層濾波器內核大小。
圖2 雙層盒濾波器內核大小Fig. 2 Core size of center-surround bi-level boxes filter in different groups
計算不同尺度的濾波器在圖像中每個像素上的響應值,濾波器響應的幅度給出了特征強度的指示,響應越強,特征點重復性越好。通過設置閾值濾除能量較弱以及錯誤定位的特征點,然后采用非極大值抑制檢測尺度空間的極值點作為候選的特征點,將經過中心環(huán)繞雙層濾波器處理的每個像素點與二維圖像空間和尺度空間鄰域內的26個點進行比較,初步定位特征點。
在邊緣或者線段上容易產生不穩(wěn)定的特征點,根據(jù)極值在橫跨邊緣的地方有較大的主曲率,而在垂直邊緣的方向有較小的主曲率的特點,采用尺度自適應的Harris方法計算主曲率,剔除不穩(wěn)定點的特征點。獲取特征點濾波器響應函數(shù)的二階距矩陣H,主曲率比通過H的跡與行列式比值計算得到,如式(3)所示:
(3)
其中:Lx和Ly為濾波器響應函數(shù)在x和y方向上的偏導;主曲率值比閾值設為10[9]。
離散空間的極值點并不是真正的極值點,為了獲得精確的極值點位置,采用基于向量的正交性觀測來實現(xiàn)亞像素角點定位[15]。采用子像素插值可以有效提高特征點的穩(wěn)定性,獲得更高的重復率。檢測原理如圖3所示。
圖3 亞像素角點檢測原理圖Fig. 3 Principle diagram of subpixel corner detection
設p為像素級角點,q為角點的真實位置。DIpi表示在q的一個鄰域點pi處的圖像梯度,該梯度向量與pi和q組成的向量正交,ε表示兩者正交程度。兩者正交的程度誤差εi=DIpiT(q-pi)。獲取角點的亞像素位置等價于求以下函數(shù)的最小值:
f(q)=∑εi2=∑[DIpiT· (q-pi)]2
(4)
通過對f求偏導可得系統(tǒng)方程如下:
(5)
(6)
亞像素角點定位算法具體步驟如下:
步驟1 初始角點位置和窗口大小,計算窗口鄰域內所有點在圖像坐標系下的灰度信息以及位置信息。
步驟2 利用鄰域點在圖像中的位置信息計算鄰域點的梯度信息。
步驟3 根據(jù)鄰域點的位置和梯度信息通過上面的推導式(6)計算特征點的準確位置q。
步驟4 設定閾值D,通過式(6)計算出第i次檢測到的特征點位置qi,并以此為中心計算相鄰i+1次檢測到的特征點位置qi+1誤差,當兩次計算得到的特征點誤差滿足|qi-qi+1| 為了確保特征矢量具有旋轉不變性,需要為每個特征點分配一個主方向。利用灰度質心法[13]確定所有特征點的主方向。以特征點為中心、半徑為r做圓,計算圓形鄰域范圍內的灰度質心位置。把中心位置和質心位置之間的偏移向量定義為該特征點的主方向。定義矩的計算公式如下: (7) 質心位置為: C=(m10/m00,m01/m00) (8) 主方向為: θ=arctan(m01/m10) (9) SIFT和SURF算法由于采用了維數(shù)較多的浮點型數(shù)據(jù)格式的描述符,不但降低了匹配效率,同時也使得內存開銷增大。因此,本文聯(lián)合ORB描述算子,在BRIEF的基礎上加上旋轉不變性,作為特征描述方法。 構造特征點描述符的具體步驟如下: 步驟1 對圖像進行高斯濾波(方差為2,窗口大小為9×9)。以特征點為中心,選取大小為b×b的鄰域窗口。在鄰域窗口內隨機選取兩個點,通過比較像素點大小并進行二進制賦值,如下: (10) 其中:p(x)、p(y)分別是隨機選取的點x=(u1,v1)、y=(u2,v2)的像素值。 步驟2 在鄰域窗口中隨機選取n對隨機點,重復步驟1的二進制賦值操作,形成二進制串編碼,也就是特征描述子。 (11) 步驟3 確定特征點的主方向。由特征點周圍的2n個點(xi,yi),i=1,2,…,2n組成一個矩陣S: (12) 采用鄰域方向θ和對應的旋轉矩陣Rθ,構建S的校正矩陣Sθ:Sθ=RθS。其中: (13) 式中θ為所要求取的特征點主方向。 步驟4 解決描述子的區(qū)分性。為了減少Steered BRIEF方差的虧損,并減少二進制碼串之間的相關性,使用了一種學習的方法來選擇一個較小的點對集合。方法如下: 1)建立一個約3×105的關鍵點測試集,關鍵點數(shù)據(jù)取自PASCAL2006集中的圖像。 binArray=[p1,p2,…,pM];pi∈{0,1} (14) 對3×105個關鍵點提取結束后,得到一個3×105×M矩陣。計算該矩陣的每個列向量的均值,并按列向量的均值重新排序,形成向量Q。 3)進行貪婪搜索。把向量Q中排在第一的測試集中的列向量放到矢量R中,并從測試集中移除該列向量;然后把Q中依次排序的測試與R中測試求相關,超過設定閾值則丟棄,反之放到R中;重復前面的步驟直到R中有256個測試,否則升高閾值,重新測試一次。 由于生成的特征點描述子是一個256 b的二進制編碼。計算兩個特征點的最近距離和次近距離,設定閾值,本文取0.8,采用漢明距離進行判決。利用第2章求得的描述子,任取K1、K2兩個描述子: (15) 對漢明距離進行異或處理得到特征描述子的相似程度D(K1,K2): (16) 當兩個描述子相似度大于閾值時,即大于80%時,判定是相同的特征點,這兩個特征點匹配成功。 圖像采集過程中容易受到光照和噪聲等的影響,從而造成匹配錯誤。為了進一步提高特征點匹配的精確度,首先采用最小平方中值定理(Least Median Squares theorem, LMedS)方法[16]預先剔除誤匹配,然后使用最大似然估計(Maximum Likelihood, ML)可以得到較好的匹配結果。文獻[17]利用隨機抽取一致性(RANdom SAmple Consensus, RANSAC)算法剔除圖像中的誤匹配點,理論上RANSAC算法可以剔除外點的影響,進而得到全局最優(yōu)的參數(shù)估計。但是,RANSAC算法需要在每次迭代過程中都要分內點和外點,需要預先設定閾值;其次,RANSAC的迭代次數(shù)由運行周期決定,無法預知迭代的次數(shù)。 LMedS克服了RANSAC的兩個缺點。LMedS從所有記錄的樣本中抽出N個樣本子集,使用最小二乘法對每個子集計算模型參數(shù)和該模型偏差,LMedS中不需要預先設定閾值來區(qū)分內點和外點。選取N個樣本子集中偏差最小的所對應的模型參數(shù)作為最終的模型參數(shù)估計。LMedS方法可以有效地剔除錯誤數(shù)據(jù)并估計誤差協(xié)方差。 最后采用最大似然估計方法對數(shù)據(jù)進行進一步求精。最大似然估計通過給定的觀察數(shù)據(jù)來評估樣本集中相關概率密度函數(shù)的參數(shù),對于匹配點具有較好的穩(wěn)定性,在匹配點中可以獲得理想的估計結果。 本文提出的匹配算法SCFD的流程如圖4所示。 圖4 SCFD 算法流程Fig. 4 Flow chart of SCFD algorithm 本文實驗平臺采用Intel Core i5 2450M、CPU2.5 GHz、內存4.0 GB的計算機,操作系統(tǒng)為Windows 7,開發(fā)環(huán)境為Microsoft Visual Studio 2012。 重復率作為特征檢測性能的評價標準方法,可以用來評價特征點的穩(wěn)定性,重復率越高說明提取的特征點越穩(wěn)定[18]。本文使用Mikolajczyk提供的標準圖像庫(http://www.robots.ox.ac.uk/~vgg/research/affine/)中給定的圖像數(shù)據(jù)集,計算不同變化下各個算法的重復率。重復率的定義如下: (17) 在圖像視角和尺度變化下對本文算法和FAST、SURF、SIFT和進行了實驗測評。圖5為視角和尺度發(fā)生變化時四種算法的重復率。從圖5(a)可以看出在視角變化的情況下,本文提出的中心環(huán)繞濾波檢測特征的重復率要高于SURF和SIFT。圖5(b)表明在尺度發(fā)生變化時,本文算法的特征重復率優(yōu)于SURF和FAST,同時克服了FAST不具有尺度不變性的缺陷。本文算法對于較大的縮放中心環(huán)繞濾波檢測特征重復率比SIFT稍微要差,這主要歸因于中心環(huán)繞濾波器覆蓋的尺度比SIFT要少,因此對于大規(guī)模變化尺度不變性較SIFT略差。 為了對本文提出的SCFD算法作出全面的評估,針對同一場景在尺度、旋轉和光照發(fā)生變化的情況下,將所提算法與ORB、SIFT、SURF算法作對比實驗。 4.2.1 尺度性能分析 采集室外環(huán)境下一張圖片并對其進行尺度變化,用來驗證本文提出的SCFD圖像特征匹配算法是否具備尺度不變性。圖像匹配結果如圖6所示。從圖6(a)可以看出,當圖像發(fā)生縮放時,采用ORB算法可以提取出更多的特征點,主要歸因于ORB采用的FAST角點檢測,但是由于算法本身不具備尺度不變性,所以可以明顯看出特征點匹配線段較為雜亂,尤其是圖像中松樹的樹枝部分出現(xiàn)很多錯誤匹配。圖6(b)、圖6(c)和圖6(d)分別為SIFT、SURF和本文提出的算法的匹配結果,從圖中可以看出均無明顯的匹配錯誤。圖6(d)為本文算法在尺度變化下的匹配結果,由于LMedS和最大似然估計方法剔除一部分誤匹配點,使得匹配點減少,但是仍然保持大量的正確匹配對,滿足匹配要求。 圖5 視角和尺度變化下的重復率曲線Fig. 5 Repeatability curve under change of angle of view and scale 圖6 尺度變化時不同算法圖像匹配結果對比Fig. 6 Comparison of image matching results for different algorithms under scale change 為了進一步驗證四種算法在尺度變化時的匹配性能,統(tǒng)計實驗中的四組數(shù)據(jù),如表1所示。由表1可以看出,在尺度發(fā)生變化的情況下,本文算法匹配精度為96.6%,比ORB提高了49.8個百分點,該算法在匹配性能方面的性能表現(xiàn)表明該算法具備尺度不變性;同時,本文算法的匹配精度比SIFT和SURF分別提高了1.3個百分點和5個百分點,這主要得益于本文提出的提純算法能夠有效剔除圖像中的不穩(wěn)定的特征點,提高了匹配性能。 表1 尺度變化時不同算法圖像匹配性能對比Tab. 1 Comparison of image matching performance for different algorithms under scale change 4.2.2 旋轉性能分析 圖7給出了在旋轉變化條件下的不同算法的圖像匹配對比結果。從圖7(a)可以看出ORB算法具有一定的旋轉不變性,但是在圖像左上角的松樹的松葉和走廊的輪廓部分會出現(xiàn)雜亂的特征點匹配線;圖7(c)為SURF算法在旋轉變化下的匹配結果,可以看出在圖像的中間部分和地面部分存在明顯的錯誤匹配;圖7(c)和圖7(d)分別為SIFT算法和本文所提算法在旋轉變化下的匹配結果,從圖中可以看出這兩種算法的特征點匹配線段均比較平整,具有較好的匹配效果。 表2給出了在旋轉變化條件下統(tǒng)計的不同算法的匹配數(shù)據(jù)。由表2可知,本文所提算法匹配精度達到了約98.0%,比ORB算法提高了10.9個百分點,較SURF提高了3.6個百分點。實驗結果表明本文算法在旋轉性能上表現(xiàn)出良好的匹配性能。 表2 旋轉變化時不同算法圖像匹配性能對比Tab. 2 Comparison of image matching performance for different algorithms under rotation change 4.2.3 光照性能分析 采用Mikolajczyk提供的標準圖像庫中的一組圖像集leuven進行測試,圖像大小為900×600,圖像集中有6幅圖片,圖片亮度隨著圖像序號增加逐漸變暗。圖8顯示了不同程度光照條件下四種算法的特征點匹配精度。 由圖8可以看出,在亮度發(fā)生變化的條件下,本文提出的SCFD算法的匹配精度要高于ORB、SIFT和SURF算法,在光照發(fā)生較大變化的情況下仍能取得較好的匹配效果,表明該算法具有良好的匹配精度和穩(wěn)定性。這主要得益于該算法采用亞像素插值的方法確定特征點的準確位置,進一步增強了特征點的魯棒性,同時采用的最小平方中值定理結合最大似然估計算法和僅采用漢明碼匹配相比,可以有效地剔除外點,提高特征點匹配的準確性。 圖7 旋轉變化時不同算法圖像匹配結果對比Fig. 7 Comparison of image matching results for different algorithms under rotation change 圖8 亮度變化時不同算法圖像匹配結果對比Fig. 8 Comparison of image matching results for different algorithms under brightness variation 為了驗證本文提出的誤匹配點剔除算法的性能,采用Mikolajczyk提供的標準圖像庫中的圖集,在尺度變化、旋轉變化和亮度變化下的條件下,利用該算法對SIFT、SURF和ORB進行提純操作并統(tǒng)計其匹配精度數(shù)據(jù),結果如表3所示。 從表3中的實驗結果可以看出,本文提出的誤匹配點剔除算法可以有效地對特征點數(shù)據(jù)進行提純,提高了算法的匹配精度。 表3誤匹配點剔除時不同算法匹配精度對比% Tab. 3 Comparison of matching accuracy for different algorithms under culling false matching points % 算法原匹配精度提純后匹配精度SIFT95.798.5SURF92.396.8ORB74.480.4 為了驗證本文所提算法SCFD對實時性的影響,統(tǒng)計在尺度變化、旋轉變化和亮度變化下不種算法的運行時間??偟暮臅r分為特征點檢測描述和匹配兩部分,統(tǒng)計結果如表4所示。 表4 不同算法不同條件下運行時間對比 msTab. 4 Comparison of running time for different algorithms under different conditions ms 由表4可知,本文算法的平均耗時為706 ms,是SIFT算法的19.8%、SURF算法的28.3%,ORB平均耗時最少為217 ms。從表4可以看出,本文算法耗時較SIFT和SURF少,這主要歸因于中心環(huán)繞濾波器檢測的效率較高;另一方面由于采用了具有方向的二進制魯棒性獨立基本特征作為特征描述符,使算法實時性得到提高。同時因為:1)特征點檢測提取過程在構建的多尺度空間上進行;2)匹配過程中增加了誤匹配點剔除過程,本文算法耗時比ORB要多。從上述實驗可以得出,本文算法在尺度變化、旋轉變化和亮度變化下具備良好的匹配效果,滿足實時性需求。 針對傳統(tǒng)圖像匹配算法特征點檢測穩(wěn)定性和準確性差的問題,本文提出了一種新的基于中心環(huán)繞濾波器檢測的圖像特征點匹配算法,通過構建多尺度空間,利用中心環(huán)繞雙層濾波器檢測圖像在不同尺度下的特征點,使得特征點具備尺度不變性,并通過子像素插值獲得更加穩(wěn)定的特征點,然后聯(lián)合ORB算法確定特征點主方向并構建特征點描述符,最后采用LMedS和最大似然估計剔除誤匹配點。通過實驗驗證,本文所提算法在尺度、旋轉、亮度等變化的情況下均取得理想的匹配效果,具有較高的穩(wěn)定性和匹配精度。該算法在很大程度上提高了實時性,但其計算速度比ORB要慢,下一步的工作重點是進一步提高特征點匹配速度。 References) [1] SINHA S N, FRAHM J M, POLLEFEYS M. Feature tracking and matching in video using programmable graphics hardware [J]. Machine Vision and Applications, 2011, 22(1): 207-217. [2] ZHOU W, LI H, HONG R, et al. BSIFT: towards data-independent codebook for large scale image search [J]. IEEE Transactions on Image Processing, 2015, 24(3): 967-979. [3] CUMMINS M, NEWMAN P. Appearance-only SLAM at large scale with FAB-MAP 2.0 [J]. International Journal of Robotics Research, 2011, 30(9): 1100-1123. [4] ALONSO I P, LLORCA D F, GAVILAN M, et al. Accurate global localization using visual odometry and digital maps on urban environments [J]. IEEE Transactions on Intelligent Transportation Systems, 2012, 13(4): 1535-1545. [5] 高晶,吳育峰,吳昆,等.基于角點檢測的圖像匹配算法[J].儀器儀表學報,2013,34(8):1717-1725.(GAO J, WU Y F, WU K, et al. Image matching method based on corner detection [J]. Chinese Journal of Scientific Instrument, 2013, 34(8): 1717-1725.) [6] 楊曉敏,吳煒,卿粼波,等.圖像特征點提取及匹配技術[J].光學精密工程,2009,17(9):2276-2282.(YANG X M, WU W, QING L B, et al. Image feature extraction and matching technology [J]. Optics and Precision Engineering, 2009, 17(9): 2276-2282.) [7] MORAVEC H P. Rover visual obstacle avoidance [C]// Proceedings of the 1981 7th International Joint Conference on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 1981: 785-790. [8] HARRIS C G, STEPHENS M J. A combined corner and edge detector [C]// Proceedings of the 4th Alvey Vision Conference. Manchester, England: [s.n.], 1988: 147-151. [9] LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2): 91-110. [10] KE Y, SUKTHANKAR R. PCA-SIFT: a more distinctive representation for local image descriptors [C]// Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision & Pattern Recognition. Piscataway, NJ: IEEE 2004: 506-513. [11] BAY H, TUYTELAARS T, VAN GOOL L. SURF: speeded up robust features [C]// Proceedings of the 9th European conference on Computer Vision. Berlin: Springer, 2006: 404-417. [12] AGRAWAL M, KONOLIGE K, BLAS M R. CenSurE: center surround extremas for realtime feature detection and matching [C]// Proceedings of 2008 10th European Conference on Computer Vision, LNCS 5305. Berlin: Springer, 2008: 102-115. [13] RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF [C]// Proceedings of the 2011 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2011: 2564-2571. [14] 白雪冰,車進,牟曉凱,等.結合快速魯棒性特征改進ORB的特征點匹配算法[J].計算機應用,2016,36(7):1923-1926.(BAI X B, CHE J, MU X K, et al. Improved feature points matching algorithm based on speed-up robust feature and oriented fast and rotated brief [J]. Journal of Computer Applications, 2016, 36(7): 1923-1926.) [15] 譚曉波.攝像機標定及相關技術研究[D].長沙:國防科學技術大學,2004:30-34.(TAN X B. Study on camera calibration and its correlation technique [D]. Changsha: National University of Defense Technology, 2004: 30-34.) [16] ROUSSEEUW P J. Least median of squares regression [J]. Journal of the American Statistical Association, 1984, 79(388): 871-880. [17] 佘建國,徐仁桐,陳寧.基于ORB和改進RANSAC算法的圖像拼接技術[J].江蘇科技大學學報(自然科學版),2015,29(2):164-169.(SHE J G, XU R T, CHEN N. Image stitching technology based on ORB and improved RANSAC algorithm [J]. Journal of Jiangsu University of Science and Technology (Nature Science Edition), 2015, 29(2): 164-169.) [18] MIKOLAJCZYK K, SCHMID C. A performance evaluation of local descriptors [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2005, 27(10): 1615-1630. SUNZengyou, born in 1963, professor. His research interests include signal and image processing, wireless communication. DUANYushuai, born in 1991, M. S. candidate. His research interests include image processing, pattern recognition. LIYa, born in 1992, M. S. candidate. Her research interests include signal and image processing, pattern recognition. Imagefeaturepointmatchingalgorithmbasedoncentersurroundfilterdetection SUN Zengyou, DUAN Yushuai*, LI Ya (SchoolofInformationEngineering,NortheastElectricPowerUniversity,JilinJilin132012,China) Aiming at the problems of poor stability and accuracy of feature point detection in traditional image matching algorithms, a new image feature point matching algorithm based on Scale-invariant Center surround Filter Detection (SCFD) was proposed. Firstly, a multi-scale space was constructed, a center surround filter was used to detect feature points of a image at different scales, Harris method and sub-pixel interpolation were applied to acquire the stable feature points. Secondly, Oriented fast and Rotated Binary Robust Independent Elementary Feature (BRIEF) (ORB) algorithm was combined to confirm the main direction of feature points and construct the description operator of feature points. Finally, Hamming distance was used to complete the matching, Least Median Squares (LMeds) theorem and Maximum Likelihood (ML) estimation were used to eliminate wrong matching points. The experimental results show that, the matching precision of the proposed algorithm is up to 96.6%, which is 2 times of that of the ORB algorithm when the scale changes. The running time of the proposed algorithm is 19.8% of that of Scale Invariant Feature Transform (SIFT) and 28.3% of that of Speed-Up Robust Feature (SURF). The proposed algorithm can effectively improve the stability and accuracy of feature point detection, and has better matching effects under the circumstances of different angle of view, scale scaling, rotation change and brightness variation. feature point matching; scale invariance; feature point detection; Oriented fast and Rotated Binary Robust Independent Elementary Feature (BRIEF) (ORB); Least Median Squares (LMedS) theorem 2017- 06- 05; 2016- 09- 08。 孫增友(1963—),男,吉林吉林人,教授,主要研究方向:信號與圖像處理、無線通信; 段玉帥(1991—),男,河南商丘人,碩士研究生,主要研究方向:圖像處理、模式識別; 李亞(1992—) 女,河南鄭州人,碩士研究生,主要研究方向:信號與圖像處理、模式識別。 1001- 9081(2017)12- 3547- 07 10.11772/j.issn.1001- 9081.2017.12.3547 (*通信作者電子郵箱sunzengyou@163.com) TP391.4 A2 特征點描述符
2.1 計算特征點主方向
2.2 特征點描述符生成
3 匹配算法
3.1 特征點匹配
3.2 誤匹配點剔除
4 實驗結果分析
4.1 特征檢測重復率實驗
4.2 算法性能實驗分析
4.3 誤匹配點剔除算法性能分析
4.4 算法運行時間分析
5 結語