沈陽理工大學信息科學與工程學院 馬健博 胡玉蘭
基于窄基線的SIFT特征匹配目標識別
沈陽理工大學信息科學與工程學院 馬健博 胡玉蘭
一直以來,遮擋狀態(tài)下的運動目標的識別一直是該領域的難點,當目標處于遮擋狀態(tài)且在復雜背景的干擾之下,對于目標特征的提取與匹配將變得十分困難。本文對于遮擋狀態(tài)下運動的目標提出一種基于窄基線SIFT特征匹配目標識別。鑒于被識別的目標在相鄰的兩個(或多個)圖像幀之間的外形輪廓以及尺度變化較小以及基于目標位置預測出的運動范圍有限,因此可以實現(xiàn)快速的窄基線小范圍之內(nèi)的SIFT特征匹配。實驗結(jié)果顯示,該方法具有較強的穩(wěn)定性。
SIFT;目標識別;特征匹配;窄基線
尺度不變特征轉(zhuǎn)換是British Columbia大學教授David Lowe首先發(fā)表于計算機視覺國際會議(International Conference on Computer Vision,ICCV)的一種圖像識別的方法,是一種用于圖像處理領域的一種描述子,即SIFI特征匹配算法,可在圖像中檢測出關鍵點。
SIFT特征匹配主要分為五個步驟:1)生成尺度空間;2)尺度空間中極值點的檢測;3)極值點的準確定位;4)關鍵點中方向參數(shù)的指定;5)生成關鍵點描述子。
1)生成尺度空間:在計算機視覺領域中最先出現(xiàn)了尺度空間理論,該理論的出現(xiàn)是為了用計算機去模擬圖像數(shù)據(jù)的多尺度特征,Koendering和Lindeberg分別于1984年和1994年通過大量的研究證明發(fā)現(xiàn)高斯卷積核是實現(xiàn)尺度變換的唯一核函數(shù)。是可變的尺度核函數(shù),則其可以表示為:
David Lowe指出,采用一種高斯差分函數(shù)在圖像生成的矩陣中尋極值點,差分尺度空間DoG(Difference-of-Gaussian)便可以構(gòu)造出來,同時檢測空間中局部的極值作為特征點。DoG算子表示的是不同的尺度的高斯卷積核的差分,其表達式可以表示為:
圖1 高斯金字塔和差分高斯金字塔的構(gòu)建
2)尺度空間中極值點的檢測:極值點的檢測如圖2所示:
圖2 尺度空間極值點的檢測
首先需要在圖像的尺度空間中尋找極值點,尋找極值點的過程需要將每一個像素點要和它周圍的相鄰的所有的點比較,并將它和圖像域和尺度域中的相鄰點的值比較大小,因此在圖像的尺度空間上以及二維圖像空間上都可以準確地檢測到極值點的存在。
3)極值點的準確定位:當檢測到空間中的極值點以后,此時需要采用一個擬合的三維二次函數(shù)。刪除尺度空間中對比度較低的關鍵點,因此剩余得到的極值點便會增強了圖像匹配過程的穩(wěn)定性。
4)關鍵點中方向參數(shù)的指定:圖像中的每個關鍵點都需要指定方向參數(shù),此時可以采用尺度空間中的關鍵點相鄰像素的梯度方向作為關鍵點的方向,這一過程便可以使算子具備了旋轉(zhuǎn)不變的特性。接下來就可以計算圖像尺度空間中關鍵點的鄰域像素的梯度模值m和方向θ,其計算公式如下:
圖3 梯度直方圖確定的主方向
5)生成關鍵點描述子
當圖像中關鍵點的信息確定以后,接下來則需要使得圖像中的關鍵點具有旋轉(zhuǎn)不變的特性,此時將坐標軸旋轉(zhuǎn)到與關鍵點相同的方向就可實現(xiàn)上述要求。以關鍵點作為中心可以生成描述子,將采樣點和關鍵點的相對方向通過高斯加權后,最終可以得到228的32維特征描述子。
圖4 由關鍵點信息生成的特征向量
圖中箭頭方向表示當前像素的梯度方向,其長度表示該像素的幅值大小。接下來采用4×4大小的窗口去計算8個方向的梯度方向上的直方圖。繪制出每個梯度方向上的累加的值即能產(chǎn)生一個種子點。任意一個描述符包含一個位于關鍵點附近的四個直方圖數(shù)組,對于任意一個關鍵點則產(chǎn)生了128維的SIFT特征向量。
首先當目標處于正常無遮擋干擾的狀態(tài)之下,可以直接使用SIFT特征匹配以實現(xiàn)快速的匹配與目標的識別。當目標運動至出現(xiàn)遮擋時,為了保證穩(wěn)定的識別效果,即采用基于窄基線SIFT特征匹配,目標運動所產(chǎn)生的軌跡在相鄰的兩幅圖像之間的變化非常小,因此可以實現(xiàn)小范圍內(nèi)快速的窄基線匹配。對于所有目標的識別,分割是目標識別的第一步,是對目標跟蹤,偵測,分析的基礎,同時將目標從背景中分割出來可以減少匹配時的干擾,提高識別率。其次將未被遮擋時從背景中分割出的目標與被遮擋(未完全遮擋)的目標進行特征匹配,這樣可以確定目標在被遮擋以后在區(qū)域中的位置,可以將原目標(未被遮擋時)與被遮擋后的目標兩者之間建立關系,并將更新被識別的目標的特征描述符。
本實驗采用Visual Studio 2010 + opencv2.4.1作為開發(fā)平臺。首先采用Grabcut作為圖像的分割方法,該方法是Graphcut算法的改進,是一種圖論的分割方法,該方法基于能量優(yōu)化算法,將圖像分割問題轉(zhuǎn)換為圖的最小割優(yōu)化問題,是一種直接基于圖像算法的圖像分割技術。如圖6(a)所示,目標未遮擋時的狀態(tài),圖6(b)是未遮擋狀態(tài)時分割出的運動目標,圖6(c)是遮擋狀態(tài)下的復合運動目標,圖6(d)是遮擋狀態(tài)下復合運動目標的分割結(jié)果,圖6(e)是運動目標在兩種狀態(tài)下分割以后匹配出的結(jié)果,由實驗結(jié)果可知,在未遮擋的狀態(tài)下,目標得以從背景中分割出來,目標被遮擋時,依然可以從背景中分離出,分割出的目標在兩種不同的狀態(tài)之下依然可以成功的匹配與識別。實驗流程與實驗結(jié)果如圖5、圖6:
圖5 實驗流程圖
圖6 實驗結(jié)果
[1]Lowe David. Distinctive image features from scale-invariant key points[J].International Journal of Computer Vision,2004,60(2):91-110.
[2]李志華.智能視頻監(jiān)控系統(tǒng)目標跟蹤與分類算法研究[D]:浙江大學,2008.
[3]王素玉,沈蘭蓀.智能視覺監(jiān)控技術研究進展[J].中國圖象圖形學報,2007,12(009):1505-1514.
馬健博,碩士研究生,主要研究領域:自適應信號處理。
胡玉蘭,教授,主要研究領域:圖像信息處理、模式識別與人工智能。